google – Austrianweb – Internetmarketing https://www.austrianweb.eu Suchmaschinenoptimierung für Ihre Webprojekte - Austrianweb Onlinemarketing Mon, 28 May 2018 18:40:04 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.16 Webmaster Tools – Bing oder Google – kann es nur einen geben? https://www.austrianweb.eu/seo-2/webmaster-tools-bing-oder-google-kann-es-nur-einen-geben/ Sat, 02 Nov 2013 05:02:27 +0000 https://www.austrianweb.eu/?p=1540 Webmaster Tools – Bing oder Google – kann es nur einen geben? Im Bereich der Suchmaschinenoptimierung für Websites sind Webmaster Tools heutzutage gar nicht mehr wegzudenken. Kein SEO-Experte kommt ohne diese ultimativen „Helfer“ aus. Wenn man auf das Gründerjahr, sowohl bei Google als auch bei Bing, blickt, entdeckt man erstaunlicherweise, dass erst ein paar Jahre...
Weiterlesen »

The post Webmaster Tools – Bing oder Google – kann es nur einen geben? appeared first on Austrianweb - Internetmarketing.

]]>

Webmaster Tools – Bing oder Google – kann es nur einen geben?

Im Bereich der Suchmaschinenoptimierung für Websites sind Webmaster Tools heutzutage gar nicht mehr wegzudenken. Kein SEO-Experte kommt ohne diese ultimativen „Helfer“ aus. Wenn man auf das Gründerjahr, sowohl bei Google als auch bei Bing, blickt, entdeckt man erstaunlicherweise, dass erst ein paar Jahre vergangen sind. Das Google Webmaster Tool wurde im Jahre 2006 und das Bing Webmaster Center gerade mal im Jahre 2009 gegründet. Es besteht kein Zweifel, dass dieses Wunderwerk für alle SEO Profis eigentlich noch in den Kinderschuhen steckt. Aber mal ganz abgesehen davon, „streiten“ sich die Gemüter doch immer noch, welche Tools nun die Besseren sind bzw. wo genau die Vorteile des Bing Webmaster Centers gegenüber das der Google Webmaster Tools liegen. Vielleicht helfen Ihnen die folgenden Zeilen ein bisschen auf „die Sprünge“!

Bing oder Google – welchen soll ich nehmen?

Wer sein Unternehmen für die Suchmaschinen optimieren möchte, steht vor der kniffeligen Entscheidung, für welche Suchmaschine man sich entscheiden soll und welche Webmaster Tools die besseren sind. 3 Jahre lang hat sich die Frage immerhin nicht gestellt, bis Bing mit professionellen und sehenswerten Tools ins Spiel kam. Die Expertenmeinungen gehen dabei auseinander, aber inzwischen werden die Stimmen für die Bing Webmaster Tools immer lauter. Hinsichtlich der Relevanz bleibt Google weiterhin an der Spitze, da die Besucherzahlen bzw. Nutzer sich unschlagbar im hohen Bereich befinden, aber die Vorteile von Bing gegenüber Google wachsen ebenfalls und sind mittlerweile nicht mehr außer Acht zu lassen.

Vorteile des Bing Webmaster Tools gegenüber denen von Google?

Google Anhänger behaupten natürlich, dass es keine nennenswerten Vorteile gibt, aber Experten, die sich ausgiebig und kompetent mit Webmaster Tools von Google und Bing beschäftigt haben, sehen das ganz anders. Sie behaupten inzwischen sogar, dass sich ein Vergleich unbedingt lohnt, bevor man sich entscheidet.

Wo früher von einem gewissen „Chaos“ bei Bing gesprochen wurde, berichtet man heute von einer gut überschaubaren Aufgeräumtheit, in der Schritt für Schritt der Nutzer angeleitet wird. Insgesamt hat sich der Aufbau von Bing Webmaster Tools erheblich verbessert. Nach einer simplen und problemlosen Anmeldung, recht identisch mit der von Google, findet man ein übersichtliches Dashboard vor, auf dem strukturiert alle erforderlichen Daten über die jeweilige Website aufgeführt sind. Auch die Seitenkonfiguration bei Bing hat sich in der Zwischenzeit verbessert und steht der von Google in nichts nach. Ganz im Gegenteil: Alle Einstellungsoptionen lassen sich bei Bing einfacher und intuitiver benutzen und auch die Auswahlmöglichkeiten sind um einiges größer. Bing liefert für den SEO-Experten wesentlich mehr Daten für die Verbesserung von Websites. SEO Tools und SEO Abfragen sind ein weiterer Vorteil gegenüber Google. Neben unterschiedlichen erstklassigen Konfigurationsmöglichkeiten und Reports bietet Bing Analyse Tools, unter anderem einen erwähnenswerten SEO-Analysator, der hilfreiche Tipps und Daten zur weiteren Optimierung ausspuckt, was wiederum eine erhebliche Arbeitserleichterung darstellt.

Weiterhin ist es inzwischen bei Bing ebenfalls möglich, die „Crawl“ Geschwindigkeiten zu festzulegen, allerdings dort viel exakter und feiner als bei Google.

Auch in puncto Sitemaps bietet Bing einen großen Vorteil, denn im Vergleich zu anderen kostenlosen XML-Sitemap Tools, wie zum Beispiel bei Google findet man bei Bing eine große Auswahl an Konfigurationsvarianten und vor allem eine unbegrenzte Anzahl an Seitenindexierungen.

Aber auch in allen weiteren ausschlaggebenden Aspekten im Vergleich zu Google, wie beispielsweise URL relevante Punkte, Deep- und Backlinks, Indexexplorer und vieles mehr, kann Bing inzwischen Google die Stirn bieten.

Fazit

Aufgrund der vielen Vorteile der Webmaster Tools von Bing gegenüber denen von Google lässt sich abschließend sagen, dass Bing mindestens eine ebenso gute Wahl für Webmaster Tools darstellt, wenn nicht sogar die bessere. Somit ist die Frage, ob es nur einen geben kann, wohl als hinfällig zu betrachten, denn es ist weiterhin damit zu rechnen, dass Bing zukünftig wertvolle Webmaster Tools für SEO-Experten, und die, die es mal werden wollen, bietet! Wir raten dazu beide Tools zu verwenden und die Daten und Auswertungen zu kombinieren.

Das man zusätzlich auch nicht unterschätzen sollte das auch über Bing Anfragen und potentielle Kunden gewinnen kann brauchen wir ja nicht sagen 🙂

The post Webmaster Tools – Bing oder Google – kann es nur einen geben? appeared first on Austrianweb - Internetmarketing.

]]>
Google Penguin https://www.austrianweb.eu/seo-2/google-penguin/ Fri, 28 Jun 2013 17:43:38 +0000 https://www.austrianweb.eu/?p=816 Suchmaschinenoptimierung nach Googles Penguin Update Das Penguin Update für Googles Suchmaschine änderte die Landschaft der Suchmaschinenoptimierung nachhaltig – und zwar in eine bessere Richtung. Kurz gesagt führte das Update dazu, dass hochwertige Inhalte bessere Platzierungen in der Ergebnisliste der Suchmaschinen zur Folge hatten. Eine kompetente Suchmaschinenoptimierung spielt nun glücklicherweise eine wesentlich größere Rolle als vor...
Weiterlesen »

The post Google Penguin appeared first on Austrianweb - Internetmarketing.

]]>
Suchmaschinenoptimierung nach Googles Penguin Update

seo-beratungDas Penguin Update für Googles Suchmaschine änderte die Landschaft der Suchmaschinenoptimierung nachhaltig – und zwar in eine bessere Richtung. Kurz gesagt führte das Update dazu, dass hochwertige Inhalte bessere Platzierungen in der Ergebnisliste der Suchmaschinen zur Folge hatten. Eine kompetente Suchmaschinenoptimierung spielt nun glücklicherweise eine wesentlich größere Rolle als vor der Ankunft des Pinguins. Schauen wir uns die genauen Änderungen also im Detail an.

Google vor dem Penguin Update

Googles Suchalgorithmus krankte vor diesem Update vor allem an zwei wichtigen Punkten, die teilweise bereits mit dem Panda Update aus dem Vorjahr angegangen wurden. Penguin wollte die beiden folgenden Aspekte jedoch noch einmal genauer unter die Lupe nehmen:

– Hochwertige und seriöse Links konnten teilweise nur schwer von sogenannten Linkfarmen getrennt werden. Als Linkfarm werden Seiten bezeichnet, die einfach massenweise Links zu anderen Webseiten platzieren. Für den Nutzer hat das überhaupt keinen Vorteil, denn echte und relevante Inhalte werden auf diesen Seiten nur selten gefunden. Dementsprechend straft Google nach dem Penguin Update alle Webseiten dieser Art mit einem sehr schlechten Ranking ab, so dass diese Internetpräsenzen unter normalen Umständen gar nicht mehr von den Nutzern gefunden werden, was langfristig ein Schritt in die richtige Richtung ist.

– Ein weiterer wichtiger Punkt war das Erkennen von versteckten Inhalten. Eine sehr einfache Lösung ist etwa das Platzieren von weißem Text auf weißem Hintergrund. Der Nutzer sieht diese Informationen nicht, doch die Suchmaschine tut dies sehr wohl – und denkt gleichzeitig, dass es sich hierbei wohl um eine sehr relevante Webseite handeln muss, wenn der versteckte Text mit wichtigen Schlüsselbegriffen gespickt ist. Nach dem Penguin Update erkennt Google auch solche und weitere Maßnahmen, wie etwa in HTML-Tags versteckte Inhalte, die für den Nutzer ebenfalls nicht sichtbar sind.

Mit dem Penguin Update wollte der Suchmaschinenkonzern diese Punkte nun aber angehen, was im Nachhinein auch funktioniert hat – dazu später mehr.

Hinweise für die Suchmaschinenoptimierung nach dem Google Penguin Update

Links zu platzieren, ist nach wie vor eine wichtige Baustelle bei der Suchmaschinenoptimierung. Dabei sollte nun aber nicht auf die Anzahl, sondern auf die Qualität der Links geachtet werden, da dies eine wesentliche bessere Einschätzung der Relevanz einer Webseite zulässt. Beispielsweise sind Links, die von seriösen Unternehmen und Blogs auf die eigene Webseite verweisen, wesentlich besser für die SEO geeignet als Verweise von minderwertigen Seiten ohne wirklich relevanten oder aktuellen Inhalt. Auch Links auf komplett unbekannten Seiten, die aber einen themenrelevanten Inhalt bieten, sind jetzt deutlich besser für die Suchmaschinenoptimierung geeignet. Das massenhafte Platzieren von Links hat nun also einen gegenteiligen Effekt, denn Google erkennt dieses Muster und straft dann sowohl die erwähnten Linkfarmen als auch die betroffene Webseite ab – und das ist im Interesse des Nutzers auch gut so. Wenn eine SEO-Agentur in Zukunft also damit wirbt, möglichst viele Links auf diversen Seiten platzieren zu können, ist das meist eher ein Indikator für eine nicht zeitgemäße (und damit nutzlose) Suchmaschinenoptimierung.

Von ebenso großer Wichtigkeit ist der Verzicht auf unlesbare oder versteckte Inhalte. Als unlesbar werden dabei Inhalte verstanden, die von Google nicht erkannt werden können – wie etwa Informationen, die in Flash-Animationen oder Bildern verborgen sind. Zwar sollten Grafiken und Videos selbstverständlich in einem geeigneten Kontext verwendet werden, aber reiner Text gefällt Google immer deutlich besser – auch im Hinblick auf die Nutzung der Seite auf mobilen Geräten. Smartphones & Co. verfügen häufig gar nicht über die Möglichkeit, Flash-Inhalte abzuspielen. Ergo sollte darauf, wenn möglich, auch gänzlich verzichtet werden. Klare, hochwertige Inhalte ohne Spam oder unnötige Animationen animieren sowohl Google als auch den Nutzer selbst, Zeit auf der Webseite zu verbringen und bei Bedarf auch gerne wiederzukommen. Versteckte Inhalte in Form des genannten Beispiels hingegen spielen im Jahr 2013 keine Rolle mehr und sollten nicht mehr für die SEO genutzt werden. Google hat dieses Mechanismus inzwischen außerdem längst erkannt und sorgt dafür, dass Webseiten, die noch immer Inhalte dieser Art verwenden, gar nicht erst an eine hohe Platzierung gelangen.

Wie optimiere ich meine Seite nach dem Penguin Update richtig?

Nach wie vor gilt einfach: Content ist wichtiger als alles andere. Wird eine Webseite sehr regelmäßig mit neuen Informationen und wirklich relevanten und lesenswerten Artikeln mit einem deutlichen Mehrwert für den Leser angereichert, wird auch Google dies honorieren und der besagten Webseite zu einer hohen Platzierung verhelfen. Seriöse SEO-Agenturen berücksichtigen dies natürlich und sorgen dafür, dass veraltete Techniken für die Suchmaschinenoptimierung gar nicht mehr zum Einsatz kommen. Insgesamt waren vom Google Penguin Update übrigens drei Prozent aller Suchanfragen negativ betroffen, was angesichts der Milliarden von Suchanfragen pro Tag eine recht hohe Anzahl an Webseiten ist – doch Ihre Webseite zählte hoffentlich nicht dazu.

The post Google Penguin appeared first on Austrianweb - Internetmarketing.

]]>
Google Panda https://www.austrianweb.eu/seo-2/google-panda/ https://www.austrianweb.eu/seo-2/google-panda/#comments Fri, 28 Jun 2013 17:37:24 +0000 https://www.austrianweb.eu/?p=811 Googles Suchalgorithmus seit dem Panda Update Mit dem Panda Update für Googles Suchmaschine wurde im Februar 2011 eine Aktualisierung des internen Suchalgorithmus veröffentlicht, die ihre Spuren auch heute noch hinterlässt. Insbesondere die Qualität von Webseiten stand dabei im Mittelpunkt, denn minderwertiger Content sollte durch das Google Panda Update stärker als je zuvor abgestraft werden –...
Weiterlesen »

The post Google Panda appeared first on Austrianweb - Internetmarketing.

]]>
Googles Suchalgorithmus seit dem Panda Update

seo-beratungMit dem Panda Update für Googles Suchmaschine wurde im Februar 2011 eine Aktualisierung des internen Suchalgorithmus veröffentlicht, die ihre Spuren auch heute noch hinterlässt. Insbesondere die Qualität von Webseiten stand dabei im Mittelpunkt, denn minderwertiger Content sollte durch das Google Panda Update stärker als je zuvor abgestraft werden – und das ist auch in vollem Umfang gelungen.

Besserer Content durch das Panda Update

Google versteht unter dem Begriff der lesenswerten und damit suchmaschinenrelevanten Inhalte vor allem die Vermeidung der vier folgenden Punkte:

 

– Zu wenige Informationen
Content, der nicht tief in ein Thema eintaucht, sondern es eher oberflächlich berührt, nützt den meisten Lesern nichts. In erhöhtem Maße trifft dies auf themenspezifische Webseiten zu. Inhalte, die sich nicht tiefergehend mit einem bestimmten Problem auseinandersetzen, werden daher auch von Google deutlich schlechter bewertet als offensichtlich von Fachleuten geschriebene Artikel. Wie diese Informationstiefe von Google genau bewertet wird, bleibt zwar das Geheimnis des Unternehmens, aber es kann vor diesem Hintergrund offensichtlich nicht schaden, diesen wichtigen Fakt bei der Suchmaschinenoptimierung zu berücksichtigen.

– Schlechte Inhalte
Unter “schlecht” werden in diesem Zusammenhang einfach Inhalte verstanden, die sowohl inhaltliche als auch schlicht orthografische Fehler beinhalten. Rechtschreib- und Zeichensetzungsfehler deuten entweder auf ein Unvermögen des Autors oder auch Zeitnot bei der Erstellung der Inhalte hin. Beide Vorstellungen sind für zukünftige Leser nicht besonders wünschenswert, und so straft Google auch Webseiten ab, die mit schlecht produziertem Content auf Kundensuche gehen. Dieser Punkt liegt dabei sowohl im Interesse der Suchmaschinen als auch der Leser – denn wer möchte schon fehlerbehafteten Content lesen müssen?

– Kopierte Inhalte
Zwar sollte diese Methode mittlerweile ausgestorben sein, aber einige Verantwortliche kopieren noch immer Text von anderen Seiten, um diese Inhalte dann unter eigenem Namen auf einer anderen Webseite zu veröffentlichen. Ein etwaiger Arbeitsaufwand ist praktisch nicht vorhanden – aber auch eine Belohnung bleibt aus, denn seit dem Google Panda Update werden Seiten mit offensichtlich kopiertem oder nur leicht verändertem Content praktisch nicht mehr von Google berücksichtigt. Dies verhindert Suchergebnisse aus vergangenen Tagen, als die ersten zehn Treffer zwar allesamt unterschiedliche URLs anzeigten, aber die Inhalte völlig identisch waren.

– Nutzloser Inhalt
Content, der mit zahlreichen themenrelevanten Schlüsselbegriffen gespickt ist, aber abseits von dieser Qualität keinem Leser einen Mehrwert bietet, wird seit dem Google Panda Update als nutzlos eingestuft – was in der Praxis schließlich auch zutrifft. Auf diese Weise werden Webseiten aus dem Ranking von Google gefiltert, welche nur Anhäufungen von Keywords und Synonymen sind. Nach eigenen Aussagen war dies der Punkt, der am schwersten in das Google Panda Update zu integrieren war, da es für Maschinen nicht einfach ist, zwischen nützlich und nutzlos zu unterscheiden.

Nach dem Panda Update sind dies die vier Punkte, die teilweise zu deutlichen Abstufungen in der Ergebnisliste für viele Webseiten führt – doch wie muss eine Seite nach dem Update eigentlich aussehen?

Das Internet nach dem Google Panda Update

Eine kompetente Suchmaschinenoptimierung ist natürlich auch weiterhin problemlos möglich, nur haben sich die Richtlinien dafür ein wenig geändert. SEO-Agenturen wie wir müssen nun also vor allem darauf achten, Inhalte wie folgt zu erstellen.

– Die Textlänge
In kurzen Texten können auch nur wenige Informationen untergebracht werden – das sollte wohl niemanden überraschen. Längere Inhalte werden somit automatisch besser bewertet, da sie zumindest die Möglichkeit bieten, weitaus mehr Informationen, die für den Nutzer relevant sind, anzuzeigen. Texte ab einer Länge von 400 Wörtern und mehr gelten hier als empfehlenswert.

– Die Textstruktur
Ein einziger langer Fließtext ohne erkennbare Strukturierung ist für Leser fast unzumutbar. Überschriften, Absätze, Aufzählungen und andere Maßnahmen, um Struktur in einen Text zu bringen, sind daher zwingend notwendig. Seit dem Google Panda Update weiß das auch die Suchmaschine, so dass Inhalte mit einer klaren Struktur wesentlich besser bewertet werden.

– Zu viele Keywords
Die fast ausschließliche Verwendung von Keywords oder Synonymen dieser Wörter führt dazu, dass ein Text für Menschen fast unlesbar ist. Das massenhafte Vorkommen von Phrasen wie “Schuhe online günstig kaufen” ist sowohl für Leser als auch Google ein Grund, diese Webseite in Zukunft nicht mehr zu besuchen beziehungsweise ihr eine schlechtere Bewertung zu geben.

– Mangelnde Fachbegriffe
Bei Texten, die sich mit einem spezifischen Thema auseinandersetzen, deutet das Fehlen von themenrelevanten Begriffen auf ein mangelndes Themenverständnis seitens des Autors hin. Ein guter Text sollte daher auch Fachbegriffe einbauen, aber dafür die Lesbarkeit gleichzeitig nicht opfern.

Der Panda bringt Qualität

Zusammenfassend lässt sich sagen, dass Google seit dem Panda Update deutlich bessere Resultate liefert und zusammen mit dem etwas neueren Penguin Update nun dafür sorgt, dass die meisten überflüssigen Inhalte bei der Suche gar nicht mehr angezeigt werden. Für das Erstellen der Inhalte bedeutet dies zwar einen kleinen Mehraufwand, aber das sollte im Interesse der Qualität keinen seriösen Webseitenbetreiber vor Probleme stellen.

The post Google Panda appeared first on Austrianweb - Internetmarketing.

]]>
https://www.austrianweb.eu/seo-2/google-panda/feed/ 1
SEO: Was tun nach einer Abstrafung durch Google? https://www.austrianweb.eu/seo-2/seo-was-tun-nach-einer-abstrafung-durch-google/ Wed, 03 Apr 2013 11:15:57 +0000 https://www.austrianweb.eu/?p=729 Gekaufte Links, Überoptimierung der Website oder Duplicate Content – es gibt viele Gründe, weshalb Google Websites abstraft. Die Folgen für unzureichend ausgeführte Suchmaschinenoptimierung reichen von der Herabstufung des PageRanks bis zum Ausschluss aus dem Index (Delisting). Die österreichische SEO-Agentur Austrianweb Group verrät Anwendern Tipps & Tricks beim Umgang mit der Google Penalty. Suchmaschinenoptimierung gleicht für...
Weiterlesen »

The post SEO: Was tun nach einer Abstrafung durch Google? appeared first on Austrianweb - Internetmarketing.

]]>
Google-PenaltyGekaufte Links, Überoptimierung der Website oder Duplicate Content – es gibt viele Gründe, weshalb Google Websites abstraft. Die Folgen für unzureichend ausgeführte Suchmaschinenoptimierung reichen von der Herabstufung des PageRanks bis zum Ausschluss aus dem Index (Delisting). Die österreichische SEO-Agentur Austrianweb Group verrät Anwendern Tipps & Tricks beim Umgang mit der Google Penalty.

Suchmaschinenoptimierung gleicht für Laien einem Minenfeld. Es gibt zwar zahlreiche Möglichkeiten, eine OnPage-Optimierung durchzuführen, allerdings können dabei Fehler mit teils fatalen Folgen geschehen. So zum Beispiel, wenn man es zu gut meint und so viele Maßnahmen durchführt, dass es schließlich zu einer Überoptimierung kommt. Der Google-Algorithmus ist in der Lage, diese zu erkennen – als Resultat erfolgt die zum Teil manuelle Abstrafung.

Wie erkenne ich eine Google Penalty?

Zu den üblichen Abstrafungen zählt neben der PageRank-Abstufung und dem Delisting auch die Zurückstufung von Keywords sowie der gesamten Website. Die ersten beiden Strafen lassen sich relativ einfach erkennen, anders sieht das bei der Zurücksetzung von Keywords oder Homepage aus. Wer den Verdacht hegt, dass seine Webpräsenz einer Penalty unterzogen wurde, kann dies mithilfe bestimmter Monitoring-Tools ersichtlich machen. Als einer der wichtigsten Indikatoren für eine Penalty gilt der Einbruch der Besucherzahlen. Ist dies der Fall, kann die Website unter anderem mit dem Google Webmaster Tools überprüft werden. Durch das präventive Monitoring der Website und der Keywords lässt sich eine Veränderung der Ranking-Werte sichtbar machen. Dafür sollten verschiedene Positionen, wie die der wichtigsten Schlagworte regelmäßig, am besten wöchentlich, protokolliert werden.

Wie kann ich der Abstrafung entgegenwirken?

Wer von einer Penalty durch Google betroffen ist, muss einigen Aufwand betreiben, um die ehemalige Position in den SERPs erneut zu erreichen. Da sich die Gründe für die Abstrafung oft nur schwer ausmachen lassen, kann die Korrektur bis hin zur Komplettsanierung der Website-Inhalte reichen. Bei der OnPage-Optimierung gilt es dann, Texte qualitativ zu überarbeiten, versteckte Links zu finden, „No-follow“-Attribute setzen, wo sie vergessen wurden, und die Meta-Daten anzupassen. Ist die Seite bereinigt und angepasst worden, muss der Websitebetreiber eine Reconsideration Request, also einen Überprüfungsantrag, stellen. So erhält man die Chance auf die Wiederherstellung des einstigen Status Quo innerhalb des Rankings.

Suchmaschinenoptimierung: Hilfe beim Profi suchen

Die professionelle Suchmaschinenoptimierung einer Website ist ein aufwendiger Prozess, der Zeit und Know-how erfordert. Deshalb empfiehlt sich die Zusammenarbeit mit einer erfahrenen SEO-Agentur. Die Austrianweb Group bietet eine Vielzahl an Leistungen, mit denen die Online-Reputation von Unternehmen und Organisationen effizient gesteigert werden können.

Dazu zählen unter anderem:

– SEO Beratung
– SEO Komplettbetreuung für bestehende und neue Webprojekte
– Aufbau der Linkpopularität
– Einzeln erhältliche SEO Ressourcen für Webmaster wie z.B. Backlink Aufbau, Pressemitteilungen, Webkatalog Einträge, Social Marketing Tools usw.

Alle Leistungen sind auch als „White Label“-Lösung erhältlich. Die Maßnahmen werden regelmäßig überprüft, aktualisiert und gegebenenfalls nachgebessert. So erhalten Unternehmen und Organisationen ein ganzheitliches SEO aus Profihand. Bei Fragen stehen die SEO-Experten der Austrianweb Group mit Rat und Tat zur Seite. Auch ein unverbindliches Angebot können sich Interessenten erstellen lassen.

Kontaktieren Sie uns unverbindlich >> KLICK <<

The post SEO: Was tun nach einer Abstrafung durch Google? appeared first on Austrianweb - Internetmarketing.

]]>
Schockschwerenot: Ein ganzer Tag ohne Google! https://www.austrianweb.eu/internet/schockschwerenot-ein-ganzer-tag-ohne-google/ Sun, 30 Sep 2012 10:35:10 +0000 https://www.austrianweb.eu/?p=255 Wie würde sich ein Tag ohne Suchmaschinen im Jahr 2012 gestalten? Stellen sie sich einmal vor: Ab morgen würde es für einen Tag keine Suchmaschinen und Webverzeichnisse mehr geben. Kein Google, kein Yahoo und auch kein Bing mehr. Praktisch würde das bedeuten, die Welt des Internets würde auf einen Schlag zurück in das Jahr der...
Weiterlesen »

The post Schockschwerenot: Ein ganzer Tag ohne Google! appeared first on Austrianweb - Internetmarketing.

]]>
Wie würde sich ein Tag ohne Suchmaschinen im Jahr 2012 gestalten?

Stellen sie sich einmal vor: Ab morgen würde es für einen Tag keine Suchmaschinen und Webverzeichnisse mehr geben. Kein Google, kein Yahoo und auch kein Bing mehr. Praktisch würde das bedeuten, die Welt des Internets würde auf einen Schlag zurück in das Jahr der Einheit, 1990, zurück versetzt werden. Vielleicht wäre alles ein wenig bunter, flotter und ein wenig hübscher und dennoch wäre der Wegfall der Suchmaschinen, als würde morgen eine Eiszeit in der Welt ausbrechen.

Warum das so ist? In diesem Artikel will ich es ihnen erklären!

Es geht mir hierbei nicht einmal um die erweiterten Dienstleistungen der Suchmaschinen, wie etwa Google Shopping, das sie mit Sicherheit schon häufiger zum Preisvergleich genutzt haben. Oder den integrierten Kartendiensten, die ihnen nicht nur eine Adresse, sondern gleich eine Wegbeschreibung mitliefern. Ihre synchronisierten Kalender, ihre Bilder-Uploads oder die Android-App, mit der sie immer mal wieder Lieder aus dem Radio identifiziert haben. Auch wenn sie vor dem Eintauchen in das digitale Zeitalter gelebt und vor allem überlebt haben, so wären ohne den Einfluss der Suchmaschinen und der Marktführerschaft der Google Inc.

Hand aufs Herz: Wann haben sie das letzte mal eine URL in eine Adresszeile eingegeben, die nicht aus ihrem ohnehin gewohnten Umfeld stammte oder ihnen von ihrem Browser als Vorschlag anhand der Voraussage vorgesagt wurde? Richtig. Sie kennen eigentlich nur die Adressen ihrer Lieblingsseiten, für alles andere gibt es ja schließlich die Google Suche, oder? Und spätestens jetzt sollte es ihnen langsam dämmern, das sie im Endeffekt ohne indexbasierende Suchmaschinen und ihre hochentwickelten Suchalgorithmen, die es ihnen erlauben bequem mit dem letzten, noch so irrelevanten Suchbegriff ein brauchbares Ergebnis zu erzielen, im Gebrauch des Internets fürchterlich aufgeschmissen wären.

Die alltäglichen Leistungen, die von den Rechenzentren rund um den Globus tagtäglich erbracht werden, haben ihren Ursprung in einer Zeit, in der es schlicht und ergreifend keine Suchmaschinen gab und sie erst erfunden werden mussten. Die einzigen zentralisiert arbeitenden Serverdienste dieser Tage waren die Domain Name Server (DNS). Als technische Verwalter der Kopplung zwischen Domain und IP-Adressen als tatsächlicher Index wenig hilfreich würde das Internet aufgrund seiner Struktur ohne einen zentralisierten Kontenpunkt das Kürzel WWW schnell als Synonym für „Welt Weite Wüste“ gelten. Denn hier, im Jahr ’90 gibt es schlicht keinen Suchalgorithmus, keinerlei umfassender Register. Dinge wie der Google PageRank würden erst ein halbes Jahrzehnt später erdacht, und erst um ’98 herum überhaupt auf dem Markt Fuß fassen, sie wären auf die Ur-Mechanismen des Internets angewiesen: Die Hyperlinks. Nicht zu vergleichen mit dem Umfassenden Verzeichnis, das die Suchmaschinen heute anbieten.

Sie haben es sich in ihrer Welt bequem gemacht. Keywords sind ihre Adressen. Sie gelten unter ihren Bekannten als geschickter Nutzer der organischen Google Suche, der stets die passenden Suchbegriffe für so ziemlich alles findet, was das Herz begehrt. Sie haben die Suchfunktionen verinnerlicht und Domains und Subdomains haben in ihrem Denken eine geringe Geltung. Es zählen Suchergebnisse.

Ohne die Vorläufer mit fremdartig klingenden Namen wie Archie, Veronica, Jughead oder vLib würden sie heute wahrscheinlich nicht einmal vor ihrem PC sitzen und das Internet wäre noch immer eine Domäne für Technik-Freaks, denen, die im Strickpulli und der dicken Hornbrille in der Schule ganz vorne an den Tisch am Lehrerpult gesessen hatten, aus denen die erste Generation der IT-Freaks erwachsen ist, die Computersysteme und auch das Internet auf einer Basis bedienen, die unter den angenehmen GUIs (Graphicals User Interfaces) der moderne verborgen liegen, die in ihrer Komplexität für den durchschnittlichen Nutzer nicht zu bedienen wären.

Schlussendlich gesagt, um ihrem Leiden ein Ende zu bereiten: Die Wertschätzung, die wir der Entwicklung der Suchmaschine entgegenbringen sollten, kann gar nicht groß genug ausfallen. Der technische und wirtschaftliche Fortschritt, den uns Suchmaschinen wie Google mit dem Aufbau zentraler Inhaltsverzeichnisse bereitete, geht viel tiefer als die Möglichkeit heutzutage auch den sinnbefreitesten Unsinn in einem großen Inhaltsverzeichnis organisiert zu haben. Denn damit wurden die Inhalte und Online-Dienstleistungen mehr vernetzt als es jeder alleinstehende Hyperlink jemals könnte, hier als kleinen Exkurs beschrieben:

Es kam hier endlich zusammen, was zusammen gehörte: Information und Ordnung. In einem System, das vom Konzept auf Dezentralisierung ausgelegt war, ein absolutes Novum. Der damit einhergehende Wettbewerb um Platzierungen in den Suchmaschinen wurde Antriebsmotor einer ganzen Generation, der „Generation @“, die in immer schnelleren Abständen neue Stufen in der technischen Entwicklung überwand, damit bis dahin schlummernde Bedürfnisse weckte, nach mehr Leistung und Kapazitäten und die Entwicklung voran trieb um der Nachfrage gerecht zu werden. Und das alles im Endeffekt darauf reduziert, eine gute Platzierung in den Suchergebnissen zu haben!

Die Katalogisierung durch indexbasierende Suchmaschinen setzte für den Erfolg des Internet als Massenmedium oder der Entwicklung eines Bedarfs nach kompakten internetfähigen Mobilgeräten für die Hosentasche endgültig die Weichen. Die Konsumenten verlangten, der Markt lieferte und mit rasantem Tempo entwickelten wir den heutigen Status quo, jeden Tag mehr Daten und Informationen zu generieren, als alle Generationen vor uns zusammengenommen.

Denken sie vielleicht einmal daran, wenn sie das nächste mal eine Google Suche starten!

Vielleicht erzähle ich ihnen demnächst das Schauermärchen eines Internets ohne Domain Name Server und Top Level Domains, wer weiß? Vielen Dank für ihre Zeit!

The post Schockschwerenot: Ein ganzer Tag ohne Google! appeared first on Austrianweb - Internetmarketing.

]]>
Teil 2: Contra – Willkür oder Formelzauber? https://www.austrianweb.eu/seo-2/teil-2-contra-willkur-oder-formelzauber/ Fri, 21 Sep 2012 07:17:57 +0000 https://www.austrianweb.eu/?p=238 Eine kritische Infragestellung des Google Ratings und der verhängten Penaltys …auf die ein kräftiges Contra zur praktizierten Politik folgt Das Google in der Branche des Suchmaschinenmarketings und ihrer untergeordneten Teilbereiche, der SEO und der Suchmaschinenwerbung (SEA, Search Engine Advertising) spätestens seit der Einführung der eigenen kommerziellen Werbeportale eine, wenn nicht ablehnende, so doch zumindest unterkühlt-unkooperativ...
Weiterlesen »

The post Teil 2: Contra – Willkür oder Formelzauber? appeared first on Austrianweb - Internetmarketing.

]]>
Eine kritische Infragestellung des Google Ratings und der verhängten Penaltys

…auf die ein kräftiges Contra zur praktizierten Politik folgt

Das Google in der Branche des Suchmaschinenmarketings und ihrer untergeordneten Teilbereiche, der SEO und der Suchmaschinenwerbung (SEA, Search Engine Advertising) spätestens seit der Einführung der eigenen kommerziellen Werbeportale eine, wenn nicht ablehnende, so doch zumindest unterkühlt-unkooperativ gegenübersteht und in der Summe ihrer Handlungen eine geradezu feindselig anmutende Stimmung in einem nur geringfügig verschleierten Subtext kommuniziert.

Woher kommt nun aber dieser große Eifer der Seitens des Konzerns bei der konsequenten Abstrafung schon geringster Abweichungen ohne Vorwarnung ganze Domains sanktioniert, aufgebracht wird? Ist nicht die Zeit, als die Suchmaschine für das Unternehmensziel der Indexierung und Kategorisierung des gesamten World Wide Webs auf diese Zugänglichkeit, später der längst vergangen, dass es immer neuer Gängelungen genau jener Anwendergruppe bedarf, die ausgerechnet sowohl im On-Page als auch im Off-Page mit ihrer ganzen Herzblut und ihren Skills hinter dem jungen Berufsfeld des SEO-Spezialisten standen?

Denn ganz gleich ob der Verlust des Rankings nur temporären Charakter besitzt oder aber von einer, durch das Google Web Spam Team als schwerere Verfehlung definierten Fehltritten schwerwiegende, oftmals auch permanente Penaltys zur Folge haben, ein Ausschluss über längere Zeiträume durch applizierte „-30“ oder gar „-50“ Penaltys resultieren darin, das der Seitenbetreiber in jedem Fall in den SERPs (Search Engine Result Pages) um die jeweilig entsprechende Anzahl von Suchergebnissen nach hintern geworfen wird, im besten Falle für den Zeitraum in dem der Verstoß andauert, im schlechtesten für einen lange Zeit oder gar dauerhaft.

Welche Strategie führt das Unternehmen in seinen internen , das seit mehr als 10 Jahren als De-Facto-Monopolist eine, den Markt bestimmende Position einnimmt und produziert sich in diesem Bereich, jeder Kritik erhaben als pflichtbewusster Hüter der Hausordnung, der die Chancengleichheit aller Beteiligten mit selbstverständlich maximalem Aufwand zu erhalten und in seiner Öffentlichkeitsarbeit den unbefleckten Samariter projizieren will.

Zumindest in den Fällen einer manuell erteilten Penalty besteht wenigstens die Möglichkeit einer, der Bittstellerei gleichkommenden „Reconsideration Request“ an das Google Web Spam Team zu richten, dem selbst bei der umgehenden Beseitigung aller Faktoren, die zu der Erteilung des Penaltys geführt haben sich schlussendlich dem Urteilsvermögen von fehlbaren Menschen und der damit verbundenen Willkür ausgesetzt sieht, ohne einen Dialog mit dem Kunden auf Augenhöhe zu suchen.

Dass die Null-Toleranz Politik des Konzerns nicht nur auf die, gegenüber der weltweit agierenden Google Inc. und ihrer gut aufgestellten Rechtsabteilung in einem bizarren Verhältnis erscheinenden Vertreter kleinerer SEO-Freelancer oder mittelgroßer Onlinemarketing-Agenturen angewandt wird, sondern ebenfalls auf andere Global Player appliziert, zeigt der wohl bewusst öffentlichkeitswirksam gewählte Ausschluss vermutlich als Exempel dienen sollte:

Im Februar 2006 nämlich wurde das deutsche Onlineangebot Automobilherstellers von Weltrang, der BMW (Bayrische Motorenwerke), unter anderem bekannt durch den Auftritt ihres Z3-Roadstern in einem Hollywoodfilm mit dem berühmten Agenten „James Bond“, für seine Verstöße gegen die Richtlinie der Suchmaschine, die sog. Google Webmaster Guideline, für eine nicht näher definierte Zeit aus dem Suchindex der Suchmaschine gestrichen, was für das Marketing des Unternehmens einen schweren Schlag bedeutete und gleichzeitig bei den SEO-Professionals eine Stimmung der Unsicherheit erschaffen hat, die sich seit dem nicht wirklich legen wollte.

Denn so sind die Guidelines zwar festgeschrieben und für jedermann einsehbar, doch vermag ein unbeabsichtigter Verstoß gegen diese Vorgaben, vor allem wenn er durch einen , so sind die geringe Transparenz des Penalty-Systems der größte Kritikpunkt, da die Abstrafung weder bekannt gegeben wird, noch tatsächlich ein Anhalt geboten wird, woran es denn liegen könnte, wieso das eigene Projekt, an denen durchaus Lohn und Brot der Freelancer, Projektmanager und stellenweise ganzer SEO-Agenturen hängt.

In vielen Unternehmen des Mittelstandes, sind es zudem nicht einmal die Vollblutprofis, die ihre Informationen aus täglichem Studium der SEA-Weblogs beziehen und so jeden Trend des Unternehmens Teilzeit-Webmaster eingeteilten nur schwer aufzuarbeitende Rückschläge bei Verletzungen der Guidelines, etwa durch die fehlerhafte Konfiguration von Webservern durch die Betreiber durch die Bewertungsmechanismen der Suchmaschine?

Die Moralische Verantwortung dieses global agierenden Marktführers liegt in diesem Fall eben doch schwerer, als das die Google Inc. Einen Algorithmus ohne die Möglichkeit mit einem menschlichen Mitarbeiter den Fall besprechen zu können – und die Verstöße, wie in guten Kreisen üblich – auf zivile Weise klären zu können. Kulminiert mit den datenschutzrechtlichen Zerwürfnissen, die nahezu jedes Quartal von Bürgerrechtlern angeprangert werden, bleibt zunächst kein sonderlich gutes Bild über die tatsächlich gelebte Unternehmensphilosophie übrig, wertete man das Unternehmen an seinem Verhalten, dass sich zunehmend gegen seine Zuarbeiter aus dem Bereich der Suchmaschinenoptimierung, aber auch gegen seine Nutzer in Form immer neuer stattfindender Kollektivierung von Informationen – Und sei es durch die Zusammenlegung der Dienste unter dem Dach der Google Inc. drehte – und damit auch der Betroffenen Datensätze.

Angesichts der technischen wie menschlichen Kritik, die dort auf das Unternehmen einprasselt, und wie konstant die Repräsentativen keine tatsächliche Stellung nehmen, muss sich Google dann die Frage gefallen lassen, wo die Grenze liegt, wenn sie inoffiziell das Mantra pflegen: „Don’t be evil!“ und die offizielle Selbstdarstellung lautet: „„Das Ziel von Google besteht darin, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen.“ – Allgemein Nutzbar, doch zu welchem Preis?

Das diejenigen, nämlich die Mitglieder der Branche der Suchmaschinenoptimierer, die das Ziel des Unternehmens Google Inc. erst technisch möglich machten erscheint dabei ein nur allzu ungerechtes Spiel zu sein, das man den SEO-Professionals da mitspielt.

The post Teil 2: Contra – Willkür oder Formelzauber? appeared first on Austrianweb - Internetmarketing.

]]>
Teil 1: Pro – Willkür oder Formelzauber? https://www.austrianweb.eu/seo-2/teil-1-pro-willkur-oder-formelzauber/ Thu, 20 Sep 2012 11:14:13 +0000 https://www.austrianweb.eu/?p=236 Eine kritische Infragestellung des Google Ratings und der verhängten Penaltys Fürsprache für einen einsamen Vorreiter im Kreuzfeuer Google hat es, als mittlerweile universell aufgestellter Dienstleister geschafft und einen Status quo erreicht den Kritiker wie Fürsprecher universell als „Too Big to fail“ beschreiben. Einfach zu groß um zu scheitern. Entgegen aller Krisen hat das Unternehmen eine...
Weiterlesen »

The post Teil 1: Pro – Willkür oder Formelzauber? appeared first on Austrianweb - Internetmarketing.

]]>
Eine kritische Infragestellung des Google Ratings und der verhängten Penaltys

Fürsprache für einen einsamen Vorreiter im Kreuzfeuer

Google hat es, als mittlerweile universell aufgestellter Dienstleister geschafft und einen Status quo erreicht den Kritiker wie Fürsprecher universell als „Too Big to fail“ beschreiben. Einfach zu groß um zu scheitern. Entgegen aller Krisen hat das Unternehmen eine unerschütterliche Stellung am Markt gehalten und den kreativen und zukunftsorientierten Schöpfergeist bewahrt, der dieses Unternehmen, das zum Konzern heran wuchs, einmal ganz groß hatte werden lassen.

Und wo großer Erfolg lange Schatten wirft, sind die Stimmen der Kritik nicht fern. Dabei hatte Google erst verhältnismäßig spät den Sprung in den Markt gemacht: Als Google 1998 startete, hatten andere längst die Marktanteile der Suchmaschinenbranche unter sich aufgeteilt und keiner, schon gar nicht die Konkurrenten der anderen Suchmaschinen und Webkataloge hätten es sich im Traum ausmalen können, noch vor der Jahrtausendwende von einem kleinen Start-Up zweier Doktoranden der Stanford University abgehängt zu werden.

Auf dem Weg zum Ziel – Man wird nicht Marktführer ohne sich ein paar Feinde zu machen

Die ehrgeizige Zielsetzung war von Anfang an klar gesteckt: Das Internet zu katalogisieren um die Bereitstellung von akkuraten und qualitativ hochwertigen Suchergebnissen für die User zu gewährleisten.

Und genau darauf konzentrierte sich Google von Anfang an und stieg bereits mit einem überlegenen Suchalgorithmus in den Wettbewerb ein, dessen Funktionsfähigkeit alles bisher dagewesene in den Schatten stellte. Doch um das Ziel zu erreichen war mehr notwendig als nur der Einsatz von Crawlern mit guten Suchmethoden: Das wilde Internet musste endlich Standards erhalten, welche die Erfassung vereinfachen und Grundlagen für die Entwicklung einer Zentralisierung des Internets schafften.

Wer kann es Google da verübeln, dieses Ziel mit Nachdruck zu verfolgt? Stand es letztlich nicht jedem Anbieter im Internet frei, sich den Forderungen der Suchmaschinenbetreiber der Google Inc. zu widersetzen und sein eigenes Ding zu machen? Natürlich. Und doch wird der de-facto Monopolist heute für seine harsche Richtlinienpolitik kritisiert.

Die Verlierer haben gut reden – Kritik an Google üben, ohne bessere Konzepte zu entwickeln

Aus der Rolle derer, die es nicht besser zu machen wussten, ist Kritik leicht ausgesprochen. Doch wie anders hätte Google, wenn nicht durch eine ausnahmslos strenge Auslegung seiner Regeln die Konsistenz seiner Suchergebnisse bewahren sollen? Das gutes Zureden und eine gute Portion Idealismus nicht helfen würden, zeichnete sich bereits früh ab.

Kaum als die Suchmaschine kommerzielle Relevanz erreichte und man den Wert einer guten Platzierung auf den Suchergebnisseiten (SERPs) von Google erkannte, traten die ersten „Black-Hat SEOs“ der Geschichte auf die Bühne, um die Algorithmen zu ihrem Vorteil missbrauchten und setzten Google so nicht nur in Zugzwang, sondern für eine kurze Zeit der Gefahr aus, zunehmende Qualitätsverluste bei den Suchergebnissen hinnehmen zu müssen – dem damaligen Kill-Kriterium für eine Suchmaschine.

Black-Hat SEO verfälscht das Ranking – Systematische Penaltys als logische Folge

Denn der erste Algorithmus war noch vom Idealismus eines gerechten Internets erfüllt: Als Googles „PageRank“ entworfen wurde, bediente man sich dem Offensichtlichen, man analysierte die Linkstrukturen und stellte so die Popularität einer Seite als Relevanzkriterium für bestimmte Suchbegriffe fest. Und kaum war mit der Platzierung in der Suchmaschine Geld zu machen, begann das Wettrennen mit den Betreibern der Suchmaschine, jedes noch so kleine Schlupfloch auszunutzen.

Dieser Wettbewerb zwischen denen, die nach Lücken suchen um ihre Webseiten illegitim besser zu platzieren und der Abteilung der Algorithmus-Programmierung hält bis heute an und legitimiert die Haltung der Suchmaschine doch vollkommen berechtigt, seine Richtlinien wie die Google Webmaster Guidelines, mit aller Strenge durchzusetzen, oder etwa nicht?

Kein Verstoß, kein Penalty – Fairer geht nicht!

Wer sich an diese hält und auch sonst nicht den Eindruck erweckt, eine Über-Optimierung zu betreiben, sondern eine natürliche Entwicklung betreibt, der hat doch keine Penaltys oder schlimmere Maßnahmen von Google zu befürchten. Guter Content, eine entwickelte Seitenstruktur und eine hohe Popularität sind doch der Garant, auch ohne Griffe in die Trickkiste zu einem Optimierungserfolg zu kommen. Ist also das Raunen im Blätterwald der Suchmaschinenoptimierer, wann immer Google sich gegen immer wieder erkannte Betrugsversuche erwehrt, ganz übertrieben und am Ende gar unberechtigt?

Wie die Kehrseite der Betrachtung aussieht, erfahren sie im zweiten Teil dieses Artikels, der die Anwendung der Richtlinien und ihre Durchsetzung in der Praxis mit derselben Schärfe in Frage stellt, wie sie dieser Artikel zunächst einmal glorifiziert um diese beiden Seiten der Medaille zu beleuchten und ihnen, dem Leser, zu überlassen, welche Schlussfolgerungen sie daraus ziehen wollen.

Bleiben sie also gespannt auf den zweiten Teil zur Frage „Willkür oder Formelzauber?“!

The post Teil 1: Pro – Willkür oder Formelzauber? appeared first on Austrianweb - Internetmarketing.

]]>
Bleibt alles anders? https://www.austrianweb.eu/seo-2/bleibt-alles-anders/ Wed, 11 Jul 2012 07:57:00 +0000 https://www.austrianweb.eu/?p=200 Eine kritische Betrachtung der neuen Update-Politik von Google Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender...
Weiterlesen »

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Eine kritische Betrachtung der neuen Update-Politik von Google

Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender als erwartet auf das Nutzererlebnis der Anwender ausgewirkt. Ebenso beklagen SEO-Professionals die schwankenden Resultate der Google Suche und die damit verbundenen Schwankungen in der häufig vom Kunden erwünschten Leistungsnachweise durch Ranking-Statistiken.

Der Impact der neuen Regeln, nach denen die Suchmaschinen-Ergebnisseiten von Google generiert werden, hat sich noch nicht zu seinem vollen Potential gezeigt, da die Umgliederung der Darstellungsform und der damit verbundenen Neubewertung der von den Google Crawlern erfassten Webseiten noch nicht abgeschlossen ist und wie man in den stetig anders dargestellten Results erkennen kann, wird hier offensichtlich am lebendigen Objekt live mit Mini-Hotfixes die neuen Algorithmen rekalibriert, was den Suchmaschinenoptimierern der SEO-Branche zur Zeit das Leben schwer macht.

Offensichtlichste Änderung in der Darstellung und Ausgabe der SERP ist die Lokalisierung der Suchergebnisse: Wer heute in Wuppertal und Köln nach dem selben Begriff googelt, wird feststellen dass die Resultate seiner Google Suche unterschiedlich ausfallen. Durch die mangelnde Optimierung der Webseiten lokaler Händler läuft diese Initiative, neben den Großhändlern auch kleinere Business-Formen in die SERPs zu bringen, zunächst in die Leere, während die Großhändler wie Amazon hingegen weiterhin mit Leichtigkeit auf diese Änderungen reagiert haben und ihre Optimierung mit ebenfalls lokalisierten Unterseiten versehen haben und so weiter die Top-Rankings belegen.

Weiter haben sich skurrile Vereinfachungen im Testversuch gezeigt: Die Begrenzung der in den SERPs dargestellten verschiedenen lokalisierten Webseiten wurde massiv reduziert und auf Wirtschafts- und Unionsräume, bis zur Größenordnung von Kontinenten und Subkontinenten in Ergebniskategorien zusammengefasst. Das bedeutet: Ein international versendender Händler oder Hersteller kann, wenn noch zuvor durch mühsam Aufgebaute Pagerankings und Optimierung seines Angebotes in der organischen Google Suche mit fehlendem Hinweis im Suchbegriff vollkommen aus dem Resultat eines Nutzers fallen, wenn dessen geografische Herkunft in einem anderen von Google definierten Bereich liegt. Das schränkt nicht nur SEO-Agents in ihrem Handeln bei der OnPage-Optimierung ein sondern belastet diesen Bereich zumindest über die Bürde durch die massive Optimierung auf künftige regionale Zielgebiete für den Absatz und das Anbieten und etablieren der Kundenmarke. Die Reichweite kommender Google Suchen werden massiv abnehmen und erregen damit bereits in der Theorie großen Unmut.

Gleichzeitig führen scharf umrandete Suchbegriffe nach populären Angeboten oder Marken und Produkten sehr häufig über die ersten Ergebnis-Seiten schlichtweg auf die Angebote der jeweiligen Anbieter. Das kann bedeuten, dass die Suche, z.B. nach einem großen Telekommunikationsanbieter dazu führen kann, das nicht mehr, wie zu früheren Versionen der Suchmaschine, möglichst viele unterschiedliche Suchergebnisse von unterschiedlichen Domains und TLD sowie kategorisierten Präsentationsformen wie Blogs und Foren in die SERP eingebunden werden, sondern so das faktische Resultat der Nutzersuche darauf hinausläuft dass Google schlichtweg sich zu einem Register der PR-Darstellung der Unternehmen entwickelt, statt weiterhin kritische und unabhängige Angebote in seine Suchergebnisse mit zu integrieren, die geringere Popularität aufweisen, wohl aber konkrete Themenrelevanz besitzen.

Weiterhin treibt die Update-Politik des uneingeschränkten Marktführers weitere Blüten: Die hauseigenen Produkte von Google und ihrer Schwesterunternehmen werden mehr und mehr in den Vordergrund gerückt. War die Einbindung von Google Maps in die Suchergebnisse für Lokalitäten noch sehr nah am Puls des Bedürfnisses und mit dem Sinn der Weiterentwicklung erfüllt, ist es heute schwer, nach Google Shopping, der Bildersuche oder schlichtweg dem +1-Button von Google auszuweichen. Hinsichtlich der Neutralität entwickelt der Konzern hier ein kritisches Eigenleben, der mit der hier beschriebenen Manipulation der Suchergebnisse und der geografisch bedingten Darstellung auf lange Sicht von einem freien Internet eher zu einem „Closed Net“ führen könnte, gebrandet mit dem Logo des Suchmaschinenkonzerns und der damit totalen Erfassung aller Nutzerdaten – die Krux, die man von frühester Stunde befürchtet hatte – und welche dann auch konkret gegen das Schaffen der Suchmaschinenoptimierer führt, denn: Die von für Suchmaschinen optimierten Webseiten fakturierten Informationen würden so langfristig durch die Ergebnisse der Auswertung von Protokollen aus den „sozialen“ Elementen aus den Google Plus Accounts der Kunden raffiniert.

In früheren Zeiten stand der Pinguin als Wappentier des Betriebssystem Linux stets für offene und technische Neuerungen, jedoch ist der Pinguin, der Google seinen Kunden und auch den gewerbetreibenden Professionals im Bereich der Suchmaschinenoptimierung und des Suchmaschinenmarketings eher ein schwarzes Schaf, als ein possierlicher Pinguin, denn schon bei der ethischen Frage nach einer Vorselektion von Suchergebnissen stößt der ambitionierte Nutzer des Internets auf schwerwiegende Fragen, die nach der Neutralität des Netzes und der Suchmaschinen, wenn es eine solche Freiheit im weitesten Sinne jemals in der Google Suche gegeben hat große Fragezeichen stehen lassen.

Als vorläufiges Fazit bleibt also: Die Diversität des Internets scheint zur Zeit stark gefährdet zu sein und wir verfolgen diese Entwicklung vorerst gespannt, da die erwähnten Hotfixes an den Suchalgorithmen zumindest von technischer Seite davon Zeugen, dass zur Zeit nicht alles so läuft, wie Gedacht. Es bleibt zu Hoffen, das Google seinem Grundsatz „Don’t be evil“ treu bleibt und nicht die sich andeutende, der Kritik würdigen, Änderungen weiter hinter verniedlichenden Projektnamen zu verbergen sucht.

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Der Google Author Page Rank(ing) kommt https://www.austrianweb.eu/seo-2/der-google-author-page-ranking-kommt/ Thu, 05 Jul 2012 10:08:41 +0000 https://www.austrianweb.eu/?p=182 Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen. Damit steigt die...
Weiterlesen »

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen.

Damit steigt die Relevanz zum bestimmten Autoren im Bereich des SEO weiter, es werden hierbei die Verknüpfung des Social Graphs mit logischen Links und echten Links bestimmter Autoren vorgenommen. Realisiert wird das ganze unter anderem über den Tag „rel=author“, der in die Bewertungskriterien bei der Zuweisung rücksicht nehmen wird, zusätzlich zu den Faktoren von sozialen Netzwerken via +1, Likes und Shares sowie den klassischen Bewertungskriterien durch Backlinks, der Bounce Rate und der Aufenthaltsdauer von Usern auf bestimmten Inhalten eine höhere Bewertung zu erlangen. Schlüssel dabei wird wohl die Themen-Relevanz der Inhalte in Kumulation mit der Kategorisierung der jeweiligen Autoren und dem vergebenen Author Page Rank sein.

SearchMetrics hat dazu eine Tabelle erstellt, die sich auf eine Million deutschsprachiger Keywords bezieht, die einer Autorenintegration in die Inhalte unterliegt und aus den Werten dieser . Die gesamte Tabelle finden sie hier (http://blog.searchmetrics.com/de/wp-content/uploads/2012/04/Top200-Google-Autor-Integrationen.xlsx)

Dass das Autorenprofil von Google, das jüngst eingeführt wurde, dabei eine große Rolle spielen kann, wie viele Erstklick-Raten der Inhalt erfährt, zeigen auch die Anaylsen von Neil Patel, einem freien SEO-Agent, der seine eigenen Inhalte mit diesem System und anhand der Google-eigenen Werkzeuge zurück verfolgt hat. Der Impact auf die Besucherzahlen hat dabei etwa den wert von rund 150%.

Hauptwirkmittel dieser Methode ist dabei das unterbewusste und unaufdringliche Schaffen von Vetrauen beim User durch eine Personalisierung und Sozialisierung des Inhaltes, indem ein Suchergebnis auf der SERP bereits mit einem Namen und einem Gesicht verbunden wird und die Neigung des Users prinzipiell steigt, Inhalte mit einem Autorenprofil eher anzuklicken. Weiterhin schafft dieses Autorenprofil eine konkrete Verlinkung des Autoren noch im Suchergebnis selbst, was später bei der Kopplung eines Pagerankings direkt mit einem Autorenpagerank sich von Vorteil erweisen wird, denn hier werden Autoren im Bereich SEO, wie etwa die SEO-Texter ganz klar in den Vordergrund gestellt.

Das hat den von Google gewünschten Effekt, das SEO-Maßnahmen vor allem durch konkret aufgebaute und entsprechend gut bewertete Autoren vorgenommen wird. In Zukunft wird also ein hoch bewertetes Autorenprofil respekte der Author Page Rank bares Geld wert sein und damit auch die gesamtheitliche Bedeutung des eigenen Google+ Profils massiv verstärken, vor allem gegenüber der Heerschar an unbekannten Textschaffenden, die das Internet bisher mit einer Unzahl an suchmaschinenoptimierten Texten geflutet haben. Qualität steht hier definitiv im Vordergrund, inklusive der sozialen Komponente der social networks, die sich durch die offenen APIs von Facebook und Google+ für die Suchmaschinen relativ leicht tracken lassen, wie man an den in den USA bereits verfügbaren „More by“-Tags ersehen kann: Hier werden ganze Lebenswerke in der digitalen Welt konkret verknüpft und schaffen eine höhere Zugänglichkeit, gerade bei Fach- und sachbezogenen Texten und Artikeln, die auch im Bereich SEO und SEM ihre bestimmte Relevanz erhalten werden, man möchte geradezu meinen, die Zeit der schlechten und immer wieder aufs neuen kopierten Contents könnte sich einem Ende nähern.

In ihr CMS automatisch einfügen können sie ihr Autorenprofil über generell wie bei WordPress  verfügbare Plug-Ins, die nach Einrichtung der Werte automatisch den entsprechenden und gültigen Autoren-Tag an ihre Artikel anheftet und gleich dem Google Crawler bereit stellt.

Kritische Fragen, die sich zum Autorenprofil und der konkreten Bewertung der Autoren durch den Google Autor Pagerank beziehen, schwanen da aber auch kritische Fragen im Bereich des Rechts: Wie werden Medienhäuser und Verlage darauf reagieren, das „ihre“ Autoren durch den höheren Marktwert bei höherer Bewertung eine größere Eigenständigkeit und vielleicht auch Fluktuation erhalten? Wird man in Zukunft großkalibrige Autoren damit beauftragen, auf Firmeneigenen Weblogs zu schreiben um die Google-Metrik zum eigenen Vorteil zu nutzen? Oder wird es gar eine instinktive Klagewelle gegen diese Maßnahmen geben, da die Urheberrechte in Deutschland trotz ihrer Unteilbarkeit gerne de facto verkauft werden? Wie tief greift das Autoren-Crawling in Zukunft? Werden öffentliche Kommentare und andere Äußerungen in die Bewertung fallen?

Diese und andere Fragen stellt sich die Community bereits jetzt vor dem ganz großen Anlauf der Überarbeitung des Suchalgorithmus und man kann die Spannung diesem neuen Werkzeug gegenüber regelrecht spüren. Denn mit über 95% Marktanteil bedeutet diese neue Bewertungsstrategie großes Potential – und eine Gefahr für diejenigen, die nicht frühzeitig die neuen Methoden adaptiert und entsprechende Autoren aufgebaut haben im Rennen um die vorderen Plätze der SERPs.

 

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen https://www.austrianweb.eu/seo-2/seo-animalisch-nach-panda-folgt-googles-penguin-die-konsequenzen/ Fri, 22 Jun 2012 09:43:55 +0000 https://www.austrianweb.eu/?p=178 Nach dem „Panda-Update“ hat Google kürzlich ein neues Projekt unter dem Namen „Penguin“ bzw. „Pinguin“ gestartet. Anders als beim Panda handelt es sich dabei jedoch nicht um einen neuen Filter, sondern um fundamentale Änderungen im Google-Algorithmus. Das sorgt für Wirbel in der SEO-Szene: Viele Techniken, die für eine bessere Sichtbarkeit von Websites eingesetzt werden, scheinen...
Weiterlesen »

The post SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen appeared first on Austrianweb - Internetmarketing.

]]>
Nach dem „Panda-Update“ hat Google kürzlich ein neues Projekt unter dem Namen „Penguin“ bzw. „Pinguin“ gestartet. Anders als beim Panda handelt es sich dabei jedoch nicht um einen neuen Filter, sondern um fundamentale Änderungen im Google-Algorithmus. Das sorgt für Wirbel in der SEO-Szene: Viele Techniken, die für eine bessere Sichtbarkeit von Websites eingesetzt werden, scheinen nun überholt. Vor allem unnatürlich wirkende Faktoren auf Internetauftritten geraten ins Kreuzfeuer. Das bedeutet einerseits also das Erarbeiten neuer Methoden für die Website-Optimierung, andererseits müssen bereits optimierte Seiten neu bearbeitet werden. Um hierfür den richtigen Ansatz zu finden, wollen wir das Penguin-Update nun näher beleuchten und Tipps für die Verbesserungen geben.

Welche Konsequenzen hat das Penguin-Update?

Laut Google sind vor allem „Webspammer“ vom der Aktualisierung betroffen. Konkret stehen zwei Faktoren verstärkt in der Kritik: Keyword-Stuffing und unnatürliches Linkbuilding. Im Fokus von Penguin stehen also überoptimierte Websites. Diese werden teilweise direkt aus dem Index ausgeschlossen. Die Beantragung einer Reinclusion macht allerdings wenig Sinn. Penguin will – ähnlich wie Panda – nicht per se bestrafen, sondern setzt neue Maßstäbe innerhalb der Indexierung. Die mangelhaften Strukturen auf einer Website müssen demnach entfernt werden, dann werden die Seiten automatisch wieder gerankt. Wie sich zeigt, wird Qualität mit dem Penguin-Update noch einmal eine Stufe höher gestellt. Black-Hat-Seo hat immer weniger Chancen auf Erfolg. Und das ist auch gut so. Doch was können Website-Betreiber tun, um nicht Opfer der Panda-Penguin-Zwinge zu werden?

SEO verantwortungsvoll einsetzen

Es gibt zahlreiche Maßnahmen in der Onpage- und Offpage-Optimierung, um eine Website vor der Abwertung zu schützen. Wird eine Seite neu aufgebaut, sollte man darauf achten, ausschließlich relevanten und hochwertigen Content einzubauen. Den übermäßigen Gebrauch von Keywords gilt es selbstverständlich zu vermeiden. Stattdessen besser öfter Synonyme einsetzen und auf die Lesart semantischer Zusammenhänge bauen. Nicht umsonst ist die Latent Semantische Optimierung ein wachsender Trend in der SEO-Branche. Des Weiteren ist natürliches Linkbuilding dem aggressiven vorzuziehen, denn Google reagiert nun massiv auf Links, die nicht natürlich wirken.

Besteht eine Seite bereits seit Längerem und ist seit Jahren suchmaschinenoptimiert, dann sollte diese bereinigt werden. Das umfasst das Löschen von ausgehenden Links, die thematisch nicht relevant sind, das Entfernen aller Faktoren, die unter Black-Hat-SEO geführt werden sowie die Varianzsteigerung der Ankertexte. Eingehende Links sind nach wie vor wertvoll, sollten aber auf „sauberen“ Weg generiert werden – etwa durch interessante Artikel und andere Inhalte, die es wert sind geteilt zu werden. Auf einen Faktor allein lässt sich die „neue“ Suchmaschinenoptimierung nicht beschränken. Deshalb sollten alle SEO-Bestandteile überprüft und ausgebessert werden. Dank Penguin und Panda wird die Suchmaschinenoptimierung eine neue Ebene erreichen. Alte Muster werden aussortiert und eine neue Qualität in den Vordergrund gestellt. Die Panda-Penguin-Offensive ist auch eine Chance für die Branche, denn Vieles gilt es nun neu und vor allem besser zu machen.

Weitere Infos (externe Seiten):

The post SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen appeared first on Austrianweb - Internetmarketing.

]]>