Google kämpft gegen Scraper

Unter Scraping versteht man die (illegale) Verwendung von Content, an dem man keinerlei Rechte besitzt. Oft geschieht das Scrapen automatisiert, d.h., ganze Websites werden durchforstet und der Inhalt – teilweise ohne jede Änderung – auf anderen Websites verbreitet. Diese Praxis geschieht natürlich ohne eine Einwilligung des Urhebers. Und mitunter konnten die Seiten mit kopierten Inhalten in den SERPS (Ergebnisseiten der Suchmaschinen) sogar vor dem Original ranken. Dem möchte Google nun einen Riegel vorschieben. Denn nur zu oft konnten (und können auch heute noch) Skraper mit ihrer Praktik Erfolge erzielen.

Scraping Report erstellen – in sekundenschnelle!

Seit Ende Februar 2014 gibt es nun bei Google die Möglichkeit, einen Scraper Report einzureichen. Dies geschieht sehr einfach über dieses Formular, auf dem man die Urspungwebsite, die Seite mit dem geklauten Inhalt und eine Suche, bei der die „illegale“ Website „ein Problem“ erzeugt – was wohl nicht unbedingt so aussehen muss, dass sie das Original überholt. Das war es eigentlich bereits!

Scraper Report GoogleOb man seitens Google dann manuell tätig wird, ist jedoch nicht ganz klar. Searchengineland geht davon aus, dass diese Informationen zu einer Verbesserung des Google Algos genutzt werden sollen. So könnte man beispielsweise bestimmte Muster erkennen, die Scraping-Seiten auszeichnen – und dies dann in den Google Algorithmus mit einfließen lassen. Wer dem Muster einer Scrapingseite entspricht, der würde dann automatisch aus dem Index fliegen, zumindest aber einige Positionen nach hinten wandern.

Und wie erkennt man “Scraping”?

Um herauszufinden, ob eigene Websites gescrapet wurden, gibt es zahlreiche Dienstleister, die das Internet systematisch und regelmäßig durchforsten (bekannteste Firma ist vermutlich Copyscape). Zumindest stichprobenartig kann man das aber auch selbst übernehmen, indem man mittels der Google Suchparameter, die hier erklärt werden, nach Ausschnitten aus den eigenen Texten sucht. Diese sollten dann in Anführungszeichen gesetzt werden, um die Suchergebnisse auf exakte Kopien zu reduzieren.

 

SEO-Adventskalender und SEOlytics-Maskottchen

Der SEO-Adventskalender, den Stefan Fischerländer alljährlich auf seiner Suchmaschinentrick-Website veröffentlicht, hat sich zu einer festen Institution entwickelt. Jeden Tag gibt es Gewinnspiele mit mehr oder weniger schwierigen Aufgaben, oft reicht auch ein simpler Tweet aus. Alles hat irgendwie mit SEO zu tun, mal mehr, mal weniger. Für die kalten Dezembermorgen eine willkommene Abwechslung. Besonders interessant fand ich dieses Jahr den Wettbewerb von SEOlytics (der übrigens noch andauert). Zielsetzung: Das Maskottchen so zu (ver-)kleiden, dass es der winterlichen Kälte besser widerstehen kann.

Dazu hat unsere Designerin Ani sich ihre ganz eigenen Gedanken gemacht und das SEOlytics-Maskottchen mit Glühwein “abgefüllt”. So wird es von innen gut aufgewärmt und kann 2014 so richtig durchstarten… Prost!

SEOlytics-Maskottchen

Das SEOlytics-Maskottchen trinkt Glühwein

Der Wettbewerb von SEOlytics läuft noch, hier im Blog des Toolanbieters aus Hamburg erfährt man mehr dazu und kann bis zum 19. Dezember 2013 teilnehmen.

EUGH stärkt Suchmaschinen – und indirekt Anbieter von Online-Reputationsmanagement-Software

Ob Suchmaschinenbetreiber Verantwortung für die „Ergebnisse“ haben, die sie ihren Nutzern zur Verfügung stellen, darüber wird immer wieder diskutiert. Vor dem EuGH wird in Kürze ein Fall zu beurteilen sein, in dem ein Spanier von Google fordert, seinen Namen nicht mehr in den SERPS erscheinen zu lassen, ihn also manuell zu entfernen. Der Kläger stört sich hierbei daran, dass er im Zusammenhang mit einer weit zurückliegenden Zwangsversteigerung genannt wird – was seine Reputation schädigt – und dass hier ein negetiver Eindruck entsteht, lässt sich schwerlich von der Hand weisen.

EuGH

Wappen des EuGH mit Sitz in Luxemburg

Der EuGH-Generalanwalt formulierte nun am Dienstag in Luxemburg seinen Schlussantrag im Streit um das „Recht auf Vergessenwerden“ im Internet – und lehnte das Ansinnen des Klägers ab. Nur bei unrichtigen Angaben bestehe ein Recht auf Vergessen. Hier der entsprechende Artikel auf faz.net. Entscheidungen des EuGH folgen in aller Regel den Anträgen des Generalanwalts, daher kann sich Google hier bereits als Sieger fühlen – auch wenn das Urteil noch auf sich warten lassen wird.

Freuen dürften sich daneben auch die Anbieter von Online-Reputationsmanagement-Software bzw. die Dienstleister aus dieser Branche. Privatpersonen (aber auch Firmen) müssen, so die Logik des EuGH-Verfahrens, noch stärker auf ihre Online-Reputation achten. Am Besten ist es natürlich immer, erst keine „negativen“ Meldungen im Bezug zur eigenen Person zuzulassen. Ist es dann doch passiert, müssen diese so schnell wie möglich auch wieder aus dem Netz verschwinden, dann tauchen sie auch nicht mehr in Suchmaschinen auf. Ist das nicht realisierbar, helfen SEO-Maßnahmen, um die entsprechenden Ergebnisse in den Rankings nach hinten zu befördern und somit „unsichtbar“ zu machen.

Online-Reputation – Tipps zur Selbsthilfe

  • Wie “besetzt” man die ersten Google-Rankings am einfachsten? Hierbei bieten es sich z.B. an, unter seinen vollen Namen (Vorname und Nachname) in alle denkbaren sozialen Netzwerke Profile zu erstellen: Anfangen kann man mit Facebook, Xing, Twitter, Linkedin (diese Seiten werden übrigens von anderen Webdiensten (Aggregatoren) ausgelesen und für deren Seiten genutzt, d.h. die Einträge multiplizieren sich.
  • Eine Website mit dem eigenen Namen als URL (www.angela-merkel.de/‎) ist der beste Garant für eine vordere Position.
  • Wenn man es richtig machen möchte, helfen auch Gastbeiträge, in denen man ein kurzes Autorenprofil (mit Vollnamen) einfügen darf – oder Interviews. Möglichkeiten gibt es genug, auch für Nicht-Promis. Benötigt wird natürlich ein interessantes Thema, und Zeit kostet das ganze auch. Positiver Nebeneffekt: Man betreibt Werbung in eigener Sache, gerade für Selbständige, Politiker, “Experten” sinnvoll…
  • Dann sollte man der Sache etwas Zeit geben. Tritt nach drei Monaten noch keine Verbesserung ein, sollte ein SEO-Dienstleister eingeschaltet werden, der dann durch Linkbuilding oder sonstige Maßnahmen dafür sorgen kann, dass die richtigen Ergebnisse bei Google oben platziert werden – und die ungünstigen somit nach hinten wandern.

Panda-Update: zwei Jahre danach

Die Zeit rennt! Und das sogenannte Panda-Update, mit dem Google Seiten mit schlechtem Content abstrafen wollte, begleitet uns nun schon ganze zwei Jahre! Denn vorbei ist es damit noch nicht, nach der Zählung von SEOroundtabe haben wir gerade, im Januar 2013, das Panda-Update Nummer 23 erleben können! Siehe dazu auch den Tweet, den Google verbreitet hat:

panda-update-23Google nennt es also ein weiteres “Panda data refresh”. Bei Updates kann man ohnehin die Frage stellen, wo ein Update tatsächlich einen eigenen Namen verdient, wo es sich um ein “refresh” handelt und in welchem Fall man erst gar nicht einmal von einem Algo-Update reden oder schreiben sollte. Differenzierungsmerkmal könnten die betroffenen Suchanfragen sein, und hierbei muss man sich dann wohl oder übel auf die Angaben von Google verlassen. Die Sichtbarkeitindizes, die diverse SEO-Toolanbieter ja messen, sind von ihren Keyword-Sets her einfach viel zu klein um hier wirklich belastbare Aussagen treffen zu können.

Panda-Update hat ganze Geschäftsmodelle zerstört

Searchengineland hat in einem Zweiteiler, dem noch ein Interview folgen soll, die Konsequenzen des Panda-Updates unter die Lupe genommen. Im ersten Teil, der hier nachzulesen ist, wird allgemein auf das Update eingegangen. Teil zwei untersucht dann einige der (ehemals) bekanntesten “Artikelschleudern” auf dem US-Markt, also Seiten, die vorwiegend von billigem Content lebten, als die Panda-Bombe einschlug. Dies ist bewusst in der Vergangenheitsform formuliert, denn viele, eigentlich die meisten der aufgezählten Seiten haben entweder ihr Businessmodell komplett umgestellt oder den Betrieb gleich ganz eingestellt.

Suite101 kommt beispielsweise trotz eines großangelegten Umbaus im November 2012 immer noch nicht aus den schlechten Trafficwerten ‘raus – und kündigte vergangene Woche ein komplett neues Businesmodell an. Kernproblem war, dass die Schreiber, die Content beigesteuert hatten, immer zuerst auf ihre zu erzielenden Einnamen schauten und erst dann auf die Qualität. Was man natürlich nachvollziehen kann, denn mancher Autor scheint hiervon nicht schlecht gelebt zu haben. Damit soll es jetzt aber vorbei sein bei Suite 101, das sich jetzt als “new kind of knowledgebase centered on personal experience and passionate interest” aufstellt.