Wen treffen die Änderungen am Google-Algorithmus nun wirklich?

Ist der Schlag gegen die Linkfarmen, Content-Aggregatoren und Crosslinker gelungen, oder hat das letzte Update letztendlich doch zu viele kollaterale Schäden verursacht? Die Diskussion in SEO-Kreisen brennt derzeit mächtig auf, den neben den schwarzen Schafen, den sogenannten „Black Hat“-SEO Agenturen scheint das Update sich auch auf die konformen Optimierer, im Jargon als „White Hat“-Agenturen bekannt, ausgewirkt – Und das nicht zu wenig, wenn man den Kommentar-Bereichen des Google-eigenen Blogs „googlewebmastercentral“ zur Ankündigung des Update vom 24. April glauben schenken darf, während andere – offensichtliche „Black Hatter“ mit ihren Maschen weiter Kasse zu machen scheinen und mit ihren Angeboten weiter einen hohen Pagerank und ein Top-Ranking in den Keyword-spezifischen verzeichnen können.

Eins ist bereits jetzt sehr deutlich abzusehen: Die kleinen Angebote im Internet werden es weiter sehr schwer haben, ein passendes Google Ranking zu erhalten, ohne den schweren und vor allem teuren Weg über Monate- wenn nicht jahrelanges Einpflegen von qualitativ hochwertigem Content auf sich zu nehmen. Denn das neue Update sanktioniert nicht nur alleine die exzessive Optimierung von Webseiten und Content auf Keywords, sondern ebenso das beliebte, weil in der Vergangenheit erfolgreiche Spiel des Backlinking von höher bewerteten Webseiten zu Verbesserung des eigenen Pagerank und einer erhöhten Auffindbarkeit des

Dass dieser Schritt nachvollziehbar ist, weiß jeder der sich mit der Materie auch nur ansatzweise Beschäftigt hat, selbst die casual user der Suchmaschine kennen das Phänomen: Ein Suchbegriff führt zu Ergebnissen, die weder inhaltsbezogen noch in irgendeiner Weise hilfreich sind. Durch den Umstand, das sich die Linkfarmen und Keyword-Aggeratoren mit hohen Pagerank, die sie über frühere Bewertungsstandards erlangt haben über Jahre hinweg gegenseitig aufgeputscht und sich so hartnäckig in den sprichwörtlichen Top-Ten gehalten.

Begründet wird diese Maßnahme daher von Google auch – wenngleich sie klar statuieren, nur die schwarzen Schafe der Branche aufs Korn nehmen zu wollen, das die Branche die SEM-Anbieter dazu anhalten wolle Webseiten „Für Menschen, nicht für Algorithmen“ zu gestalten. Die Einführung der Semantik-Prüfung durch die Crawler und die strikte Einbindung dieser Bewertung in den ist ein klares Anzeichen, das Google es mit dieser Aufforderung durchaus ernst meint. Mehr Content für Menschen statt Maschinen als neues Motto für den Suchmaschinenriesen? Bislang ist davon jedoch recht wenig zu sehen, so scheinen die Relevanzkriterien sich noch nicht vollständig durchgesetzt zu haben, wie der Blick auf klassische Suchbegriffe wie „Make money online“ oder eben die klassische Suche nach der Blauen Pille „Viagra“ beweist.

Sanktioniert werden vor allem, laut Cutts, die übertriebene Optimierung von Webseiten durch SEO-Maßnahmen. Was das im einzelnen bedeutet, wird in dem Blog-Eintrag nur vage angerissen. So können bereits eine gewisse Anzahl von Backlinks von Populären und mit hohem Pagerank versehenen Seiten auf eine eklatant niedrig eingestufte Seite zu einer Violation und damit zu einer Penalty führen. Das wirft gerade im wissenschaftlichen Bereich eine Reihe Fragen über den Zukünftigen Umgang mit der Verlinkung von Webseiten auf, so weisen gerade Wissenschaftsprojekte über die Verlinkung von Universitäten und Instituten auf referierende Mitarbeiter und Doktoranden und Doktorarbeiten ein solches Gefälle auf – Nach der aktuellen Ansage müsste Google diese Bereiche whitelisten, um unschöne Penalties ohne Hintergrund zu vermeiden, wobei sich die entsprechende Beschwerdestelle

Wie stark sich diese Faktoren letztendlich auf die gesamte SEO-Sparte auswirken wird, ist zu diesem Zeitpunkt noch nicht abzusehen. Google selbst, vertreten durch den Entwickler Matt Cutts kommentierte die Reaktionen der User aus dem SEO und SEM-Bereich schlicht mit „Google hasst SEO nicht“. Man wolle weiter daran festhalten, die „white hat“ SEO-Agenturen zu unterstützen, da die Branche, so Cutts, große Arbeit im Bereich der crawability von Webseiten und Inhalten geleistet habe und so ihren berechtigten Platz in der Symbiose aus Suchmaschine, Inhalte-Anbietern und eben den SEO-Marketern.

Die Diskussion in den Onlineforen heizt sich auch wenige Wochen nach der erneut an, und es werden die wildesten Gerüchte gestreut, da gerade die SEO-Marketer ihre mühsam erarbeiteten Felle davon schwimmen, da geradezu althergebrachte Maßnahmen die über die vergangenen zehn Jahren etabliert hatten, gebrochen wird, wohingegen ebenso lange kritisierte Kriterien, wie das Backlinking nur unzureichend und wie zuvor beschrieben stellenweise subjektiv Ungerecht empfunden Penalties vergeben und es so wirkt, als ob Google sprichwörtlich zwei Augen im Bereich von zugstarken AdSense-Objekten zugedrückt werden, um die eigenen Statistiken zu schönen und die Preise für die CPC-basierten Kampagnen gehalten werden können.

Eines ist Sicher: Der SEO-Markt wurde durch die aktuellen Änderungen an Bewertungskriterien erheblich aufgewirbelt, man könnte sagen die Karten wurden mit diesem Update aus April 2012 neu gemischt und es bleibt abzuwarten, welche neuen Methoden sich aus den neu angewandten Bewertungskriterien ergeben und welche tatsächlichen Auswirkungen die Änderungen nach sich ziehen, wenn der Umgang mit der „groben Kelle“ gegen die anvisierten „Black Hat“-Optimierern und ihrer Angebote erst einmal bis zum nächsten Update durch die Spider hinter uns liegt.

Nachtrag: leider sind auch viele Seiten abgewertet worden die sich nichts “zu schulden” haben kommen lassen. Hoffentlich bessert hier Google mit einer einer Art Rollback demnächst hier noch nach!!!!!

Keine Kommentare möglich.