Plagiate der eigenen Webseite aufspüren

Nachdem ich in letzter Zeit immer öfter, mehr oder weniger per Zufall, über vollständige Kopien einzelner meiner Beiträge gestolpert bin habe ich mich nun etwas tiefer mit dem Thema beschäftigt.

Vorweg, ich und das trifft vermutlich auf viele andere Autoren ebenfalls zu, habe absolut nichts dagegen, wenn jemand auf seiner Webseite einen kurzen Teaser zu einem Beitrag verfasst und dann auf den eigentlichen Artikel verlinkt. Im Gegenteil, das Internet und die Bewertung von Artikeln in den Suchtreffern von Suchmaschinen hängen u. a. von genau solchen Verlinkungen ab und sind daher jederzeit willkommen.

Leider gibt es jedoch auch Mitmenschen die aus Unwissenheit oder aber aus Vorsatz ganze Artikel via Copy & Paste auf Ihre Seite kopieren und z. T. sogar ohne Referenz zum Ursprungsartikel als eigenes Werk ausgeben. Dieses Verhalten hat leider einige Nachteile, insbesondere für den Autor der den Beitrag mit viel Arbeit erstellt hat:

1. Suchmaschinen haben für doppelte Webseiten (double content) kein Verständnis und können natürlich auch nicht entscheiden wer der legitime Autor des Inhalts ist. Daher werden in der Regel alle Seiten bei der Anzeige der Suchergebnisse  bestraft.

2. Viele Webseiten finanzieren die Kosten für das Hosting und z. B. der getesteten Soft- und Hardware durch Werbebanner auf der Webseite. Werden diese seltener angezeigt bzw. angeklickt, fließt (noch) weniger Geld und der Autor muss noch mehr aus eigener Tasche zahlen.

Die ganzen moralischen und rechtlichen Aspekte lasse ich jetzt mal aussen vor…

Um entsprechende Plagiate meiner Webseite finden zu können habe ich mir einige Dienste die es dazu gibt angesehen und habe mich nach einigen Testläufen dazu entschlossen bei PlagSpotter alle meine Artikel (227) für etwas mehr als 10 € prüfen zu lassen. Das Ergebnis sieht dabei absolut nicht gut aus. Für einen großen Teil der Seiten wurden Plagiate im roten Bereich (mehr als 50% des Inhalts) entdeckt:

image_thumb2-1754005

Schaut man jedoch in die Detailansicht, so wird das ganze wieder relativiert:

image_thumb3-1040182

… ich kann gut damit leben, dass mein Slogan (ist ein Zitat) auf mehreren Seiten vorkommt und ich kann auch gut damit leben, dass andere WordPress verwenden und daher die entsprechenden Textbausteine wie “Dieser Beitrag wurde unter abgelegt und mit verschlagwortet” verwenden. Wie der Scanner hier auf einen content match von 45% kommt ist mir nicht wirklich klar. Zudem scheint es Probleme mit der Darstellung von Umlauten zu geben (wohl noch nie was von Unicode gehört…):

image_thumb4-6520933

Da WordPress ein sehr verbreitetes Blogsystem ist, hätte ich auch erwartet, dass der Scanner hier etwas differenzierter vorgeht und z. B. den Inhaltsbereich eines Beitrages von den Kommentaren unterscheiden kann. Bei tatsächlichen Duplikaten habe ich nämlich in einem mir bekannten Beispiel nur eine Trefferquote von unter 10% – die Seite kopiert jedoch tatsächlich meinen ganzen Artikel, allerdings ohne die unzähligen Kommentare darunter…

Alles in allem hat mich das Tool leider nicht überzeugen können. Werde wohl weiterhin von Hand das Web und meine Logs nach Plagiaten durchsuchen müssen. Schade.

Visual Studio 2013–Incompatible versions of SQL Server Data Tools

Nach den letzten Updates meiner Workstation hat mich Visual Studio 2013 beim Versuch meine Datenbank ausgehend von einem (Entity Framework) Modell zu aktualisieren  mit folgender Fehlermeldung überrascht:

SNAGHTMLc40d6

Leider führen die Links in der Fehlermeldung zu einer Fehlerseite:

image

… was natürlich nicht wirklich hilfreich ist. Nach etwas hin und her konnte ich jedoch die Fehlerquelle eingrenzen und den richtigen Download Link für die benötigte Version der SQL Server Data Tools finden:

image

Nach Installation der aktuellen Version des SQL Server Data Tools funktioniert die Interaktion zwischen VS und dem SQL Server Management Studio wieder wie gewohnt.

BlackHat Europe 2013 – Secure Coding Workshop

Nachdem ich den ganzen Morgen des ersten Tages immer die zu diesem Zeitpunkt gerade schlechteste Session ausgewählt hatte, war dieser Vortrag eine inhaltliche und unterhaltsame Wohltat für mich. Jim Manico hat anhand sehr vieler Beispiele aus der realen Welt aufgezeigt welche Schwachstellen in Web-Anwendungen vorzufinden sind, wie diese ausgenutzt werden und vor allem was man machen kann (und muss) um es den Angreifern möglichst schwer zu machen. Abgedeckt wurden alle klassischen Angriffsvektoren von SQL Injections über XSS bis hin zu Authentifizierungsfunktionen. Bei letzteren ging er in seinem Vortrag auch auf die Speicherung von Passworten in der Datenbank, die dafür empfohlenen Verschlüsselungsmethoden und Funktionen wie „Passwort Vergessen“ ein.

Bei diesem Vortrag kann ich daher nur empfehlen, die auf der BlackHat Seite bereitgestellten Folien durchzusehen. Gerade für Webentwickler sollte hier einiges dabei sein.

Blackhat Europe 2013 – Keynote

photo-2_thumb-5282537Die Keynote der Blackhat Europe 2013 wurde dieses Jahr von Rick Falkvinge gehalten. Er ist Mitglied der zwischenzeitlich in den meisten europäischen Staaten vertretenen Piraten Partei. Im Gegensatz zu vielen Keynotes hat mir diese richtig gut gefallen und das obwohl er direkt zu Beginn zugeben musste, dass er Politiker ist clip_image001_thumb-6339667.

photo-1_thumb-3628867Im Detail hat er sehr exemplarisch aufgezeigt wie in der Geschichte immer wieder vergleichbare Versuche unternommen wurden um die Menschheit und im Besonderen deren Meinung zu Kontrollieren und diese Kontrolle aufrecht zu erhalten.

Sein erstes Beispiel war dabei die frühe katholische Kirche und ihr quasi-Monopol auf Bücher. Wie viele photo-3_thumb-7794051wissen waren Bücher früher ein teures Gut und Duplikate wurden durch Abschrift dieser Erstellt. Gleichzeitig waren viele der Bücher in Latein verfasst und konnten somit auch nur von Vertretern der Kirch gelesen und interpretiert werden. Folglich hatte die Kirche die volle Kontrolle über die Meinung der Menschen. Diese Entwicklung wurde erst gebrochen als Papier bezahlbar und Druckmaschinen erfunden wurden. Anfangs versuchte die Kirche zwar noch (mehr oder weniger Erfolgreich) auch diese Entwicklung zu unterbinden scheiterte jedoch nach einigen Jahren. Diese Geschichte setzte er fort über die Druckfirmen die verhindern wollten, dass Bücher weiter gegeben werden dürfen etc.

photo-4_thumb-3219112Zum Abschluss schlug er die Brücke in die heutige Zeit und die derzeit laufenden Initiativen die Versuchen den Inhalt des Internets und die Weitergabe von Informationen zu Kontrollieren.

Nützliche App um Kundenkarten zu verwalten

Obwohl mir die Datenschutzrechtlichen Probleme vieler Kundenkarten nicht unbekannt sind, muss ich zugeben, dass ich zwischenzeitlich einige davon angesammelt habe um bei wirklich guten Angeboten entsprechend provitieren zu können. Da ich zu dem Teil der Erdbevölkerung gehöre, die nur ganz selten mit einer Handtasche herumlaufen, fehlt jedoch der Platz um immer alle Karten bei mir haben zu können. Wie es so ist, hat man damit immer gerade die Karte mit der man noch mal einen extra Bonus bekommen könnte nicht dabei… Damit ist bei mir jetzt Schluss! Ich habe eine iPhone App gefunden welche es mir ermöglicht alle meine Karten einzulesen und dann mein Handy als Kundenkarte zu verwenden! Die App hört auf den Namen Stocard und ist sogar kostenlos:

stocard_thumb-3208675

Um eine Karte in die Liste aufzunehmen wählt man einfach aus einer von sehr vielen Vorlagen eine aus und scannt den Barcode auf der Karte ab:

stocard_barcode_thumb-5463494

Im Geschäft muss man diese dann nur noch auswählen und den von der App generierten Barcode einscannen lassen:

stocard_testkarte_thumb-3089071

Wie man an meiner Test-Kundenkarte sehen kann, kann man auch Karten anlegen, für die noch kein Template vorhanden ist…