suchmaschinenoptimierung – Austrianweb – Internetmarketing https://www.austrianweb.eu Suchmaschinenoptimierung für Ihre Webprojekte - Austrianweb Onlinemarketing Mon, 28 May 2018 18:40:04 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.16 Serverstandort Österreich https://www.austrianweb.eu/seo-2/serverstandort-osterreich/ Thu, 15 Nov 2012 08:28:08 +0000 https://www.austrianweb.eu/?p=449 Webhosting nimmt Einfluss auf die Suchmaschinenoptimierung Eine erfolgreiche Webpräsenz steht und fällt mit ihrer Platzierung in den Suchmaschinen. Um einen der vorderen Plätze in den Ergebnislisten erzielen zu können, ist es notwendig, dass die Webseite nicht nur SEO optimiert wird, sondern auch eine durchgehend gute Erreichbarkeit aufweist. Der Garant dafür ist immer ein optimales Webhosting...
Weiterlesen »

The post Serverstandort Österreich appeared first on Austrianweb - Internetmarketing.

]]>
Webhosting nimmt Einfluss auf die Suchmaschinenoptimierung

Eine erfolgreiche Webpräsenz steht und fällt mit ihrer Platzierung in den Suchmaschinen. Um einen der vorderen Plätze in den Ergebnislisten erzielen zu können, ist es notwendig, dass die Webseite nicht nur SEO optimiert wird, sondern auch eine durchgehend gute Erreichbarkeit aufweist. Der Garant dafür ist immer ein optimales Webhosting wie es z.B. die alt eingesessene Firma World4you gewährleistet.

Das kann ein guter Weboster für Ihr Webprojekt erreichen:

  • Ihr Webprojekt ist immer und jederzeit erreichbar
  • Starke und schnelle Server Hardware
  • Wollen Sie bei Google.at gut gelistet sei ist ein Hoster mit Serverstandort Österreich von Vorteil
  • Diverse Servereinstellungen ermöglichen besonders suchmaschinenfreundliche Webseiten. Z.B mod_rewrite, mod_pagespeed usw.
  • Unterstützt .htaccess Dateien
  • Serversicherheit. Hackern wird es schwer gemacht Ihr CMS zu manipulieren
  • Mit der Zeit gehen. Aktuell gehaltene PHP und MYSQL Versionen usw.
  • Arbeitserleichterung durch Skriptinstallationen per Mausklick (WordPress, Joomla, Drupal, Typo 3 usw.)
  • Kann eventuell mehrere IP Adressen aus unterschiedlichen Class C Netzen zur Verfügung stellen

Für eine optimale Erreichbarkeit der Webpräsenz ist zunächst ein zuverlässiger Server notwendig, auf dem die Webseite abgelegt ist. Im Regelfall entscheiden sich Webseitenbesitzer für sogenannte “managed Server”, bei denen die Verwaltung in den eigenen Händen verbleibt und die man ohne große technische Vorkenntnisse einfach über den Browser steuern kann. Damit ist es auch möglich, neue Domains registrieren zu lassen und diese ganz einfach zu verwalten.

Jede Webpräsenz ist auf ein zuverlässiges Webhosting also zwingend angewiesen, um auch in den Suchmaschinen glänzend da zu stehen. Ob ein privater Blog, die Webseite einer öffentlichen Einrichtung, eine Vereinswebseite oder der Online-Shop eines Unternehmens, für alle Arten von Webprojekten findet man eine individuelle Lösung.

Natürlich ist der Sicherheitsaspekt ein besonders wichtiges Kriterium für die Entscheidung zu einem Webhosting in Österreich. Neue Domains registrieren ist eine Sache, deren gesicherte Verwaltung eine andere. Da bei den Österreichischen Webhostern wie World4you noch Wert auf persönliche Betreuung gelegt wird, kann man sicher sein, immer einen qualifizierten Ansprechpartner zu finden, der sich der Kundenprobleme zeitnah und en Detail annimmt.

The post Serverstandort Österreich appeared first on Austrianweb - Internetmarketing.

]]>
SEO für KMU – 5 Fehler beim Linkaufbau https://www.austrianweb.eu/seo-2/seo-fur-kmu-5-fehler-beim-linkaufbau/ Wed, 17 Oct 2012 06:54:59 +0000 https://www.austrianweb.eu/?p=280 Immer mehr kleine und mittlere Unternehmen erkennen die Bedeutung der Suchmaschinenoptimierung und widmen sich verstärkt der On- und OffPage-Optimierung. Doch besonders beim Linkaufbau passieren häufig Fehler. Dadurch wird die Sichtbarkeit bei Google & Co. behindert, wodurch ein gutes Ranking ausbleibt. Wir nennen Ihnen die häufigsten Fehler, die den SEO-Erfolg deutlich schmälern und erklären, wie Sie...
Weiterlesen »

The post SEO für KMU – 5 Fehler beim Linkaufbau appeared first on Austrianweb - Internetmarketing.

]]>
Immer mehr kleine und mittlere Unternehmen erkennen die Bedeutung der Suchmaschinenoptimierung und widmen sich verstärkt der On- und OffPage-Optimierung. Doch besonders beim Linkaufbau passieren häufig Fehler. Dadurch wird die Sichtbarkeit bei Google & Co. behindert, wodurch ein gutes Ranking ausbleibt. Wir nennen Ihnen die häufigsten Fehler, die den SEO-Erfolg deutlich schmälern und erklären, wie Sie diese beheben bzw. vermeiden können.

1. Zu schnelles Linkwachstum

Wird eine Website gerade neu aufgebaut, dann wünscht man sich diese komplett live geht – mit allen Texten, Multimedia-Inhalten und Links. Beim letzten Punkt sollte man sich jedoch zurückhalten und nicht zu forsch an die Einbindung von Inbound- und Outbound-Links herangehen. Google wittert in diesem Fall schnell Betrug, was eine Abstrafung nach sich ziehen kann.

Unser Tipp: Setzen Sie auf langsames, aber kontinuierliches Linkwachstum. Darüber hinaus empfiehlt es sich, beim Aufbau mit sogenannten Brand-Links zu beginnen. Bei dieser Textlink-Gattung werden Unternehmens- oder Markennamen als Anchor genutzt. Später werden dann Keyword-Links auf die Website integriert. So erzielt man ein möglichst natürliches Linkwachstum.

2. Ein unausgewogener Link-Mix

Bei der Suchmaschinenoptimierung wird Einseitigkeit bestraft – und zwar mit schlechten Rankings. So genügt es nicht, mit einigen Partnern Linktausch zu betreiben oder allein auf Social Media zu setzen. Im Web stehen zahlreiche Linkquellen zur Verfügung, die dazu beitragen einen bunten Mix zu kreieren. Und natürlich sollte besonders auf die Qualität der Links geachtet werden. Dazu zählt zum Beispiel die Verlinkung auf einer Website mit einem Pagerank von mindestens 5. Auch externe Links mit Keyword-Anchor gelten als hochwertig.

Unser Tipp: Wie so oft im Leben ist das Mittelmaß der richtige Weg. Bei der Bestückung mit Links sollten Website-Administratoren darauf achten, eine breitgefächerte Linkstruktur zu etablieren. So spielt etwa die Linkqualität, die Platzierung, die Linksorte sowie das richtige Verhältnis eine wichtige Rolle. So sollten beispielsweise einerseits nicht zu wenig, aber andererseits nicht zu viele Keyword-Links integriert sein.

3. „Bad Neighbourhood“

Die Bezeichnung der „schlechten Nachbarschaft“ wurde von Google entwickelt und bezeichnet in der Suchmaschinenoptimierung abgestrafte Websites, mit denen mal verlinkt ist. Diese ziehen die eigene Homepage im Ranking schnell herunter. Die Herausforderung ist es zu erkennen, welche Websites Google als schlecht klassifiziert. In erster Linie zählen Webpräsenzen mit einem niedrigen Pagerank zu den Verdächtigen. Verlinkungen zu unseriösen Seiten werden schnell durch Entwertung bestraft. Bei einer schlechten Nachbarschaft kann es sich jedoch durchaus auch um eine Auswahl „guter Links“ handeln. In dem Fall ist meist ein allzu eintöniger Mix mit immer denselben Linkquellen schuld.

Unser Tipp: Ein adäquates Mittel, um schlechte Nachbarschaften zu erkennen, gibt es (noch) nicht. Stattdessen gilt es, die Entwicklung der eigenen Website zu beobachten. Wie verhalten sich die Besucherzahlen? Sind die Zahlen zurück gegangen, statt zu wachsen? Gibt es negative Veränderungen im Pagerank? Anzeichen wie diese können auf eine schlechte Nachbarschaft hinweisen. Verlinkungen sollten deshalb mit größter Sorgfalt gesetzt werden. Abwechslung und Qualität helfen dabei eine gute Linknachbarschaft zu generieren.

4. Duplicate Content auf externen Seiten

„Content is King“ – und es kann nun mal nur einen geben. Warenhersteller haben jedoch oft das Problem, dass Verkaufsportale die Produktbeschreibungen einfach von der Unternehmenswebsite kopieren. Dies wird von Google & Co. jedoch nicht gern gesehen – vor allem bei der Integration von Links. Dasselbe gilt natürlich für Blogartikel, Forenbeiträge oder andere Textsorten.

Unser Tipp: Achten Sie darauf, dass alle Inhalte, die Sie selbst auf externen Webseiten wie Artikelverzeichnissen publizieren, einzigartig sind. Bei Onlineshops empfiehlt sich die Überarbeitung der eigenen Produktbeschreibungen, sollten gleiche Textstellen bei Drittanbietern auftauchen. Somit bleibt der externe Content einzigartig und es drohen keine Abwertungen durch Google.

5. Unterschätztes Verhältnis von Follow-/NoFollow-Links

NoFollow-Links gelten in beim Linkbuilding als unbeliebt, weil durch das Attribut die positiven Werte eine starken Website, etwa der Pagerank, partiell nicht weiter gegeben werden. Ursprünglich wurde NoFollow eingeführt, um Spam-Links zu unterbinden. Doch trotz des negativen Images ist eine NoFollow-Verlinkung von einer angesehenen Seite nicht zu unterschätzen, denn wie die Links von den Suchmaschinen gewertet werden, ist nicht genau bekannt.

Unser Tipp: Ein Mix aus Follow- und NoFollow-Links ist für eine natürliche Linkstruktur unverzichtbar. Über das genaue Verhältnis lässt sich wie so oft in der SEO-Szene streiten. Grundsätzlich sollten die Follow-Links jedoch überwiegen. Laut seovista.de wurde auf großen Websites ein Verhältnis zwischen Follow- und NoFollow-Links von durchschnittlich acht zu eins beobachtet.

Weitere Infos (externe Seiten):

The post SEO für KMU – 5 Fehler beim Linkaufbau appeared first on Austrianweb - Internetmarketing.

]]>
Eine Übersicht: Wann greifen Googles Abstrafungen? https://www.austrianweb.eu/seo-2/eine-ubersicht-wann-greifen-googles-abstrafungen/ Mon, 10 Sep 2012 06:00:08 +0000 https://www.austrianweb.eu/?p=224 In den vergangenen Monaten gab es viel Wirbel um Googles Neuerungen „Panda“ und „Pinguin“. Legt das eine Update neue Maßstäbe in Sachen Content, so optimiert gleich das andere einen ganzen Algorithmus. Das Ergebnis der beiden Schritte: in der SEO-Branche herrscht Verunsicherung. Besonders das Pinguin-Update stiftet Unruhe: Auf welche Merkmale der Suchmaschinenoptimierung legt der erneuerte Google-Algorithmus...
Weiterlesen »

The post Eine Übersicht: Wann greifen Googles Abstrafungen? appeared first on Austrianweb - Internetmarketing.

]]>
In den vergangenen Monaten gab es viel Wirbel um Googles Neuerungen „Panda“ und „Pinguin“. Legt das eine Update neue Maßstäbe in Sachen Content, so optimiert gleich das andere einen ganzen Algorithmus. Das Ergebnis der beiden Schritte: in der SEO-Branche herrscht Verunsicherung. Besonders das Pinguin-Update stiftet Unruhe: Auf welche Merkmale der Suchmaschinenoptimierung legt der erneuerte Google-Algorithmus Wert? Welche Maßnahmen werden nunmehr belohnt, welche bestraft? Der folgende Artikel soll die Verwirrung um Panda und Pinguin ein wenig auflösen, denn wir sagen Ihnen, welche Fehler ab jetzt unbedingt vermieden werden sollten.

1. Mangelnde Linkqualität

Auch wenn es auf den ersten Blick so aussieht, aber Link ist nicht gleich Link. Vor allem in der Offpage-Optimierung werden häufig mehr oder weniger legale Maßnahmen ergriffen – bewusst oder unbewusst. Daraus folgt, dass Website-Betreiber beim Einsatz von Verlinkungen viele Fehler machen. So gibt es eine Vielzahl von Linkarten, die Google abstraft. Dazu zählen unter anderem versteckte Links, Spamlinks oder auch Broken Links. Die Qualität, Menge und andere Formalien können ebenfalls zu Penalties führen. Zu schneller Linkwachstum erweckt bei Google ebenso Misstrauen wie zu viele Links zu fremdsprachigen Websites. Auch Links zu „schlechten“ Seiten werden negativ bewertet. Werden Links in großem Maß getauscht oder gar gekauft, so führt auch das zu einer Abstrafung durch Google. Aufgrund all dieser Fakten ergibt sich eine einfache Regel: Setzen Sie auf natürlichen Linkwachstum!

2. Schlechte Content-Qualität

Eigentlich eine Selbstverständlichkeit, mit dem „Panda“-Update aber noch einmal stärker ins Bewusstsein der SEOs gerückt: Auf jede Webseite gehört hochwertiger Content, der den Besuchern einen möglichst hohen Mehrwert bietet. Die Suchmaschinen sind bestrebt, den Usern nützliche Inhalte bei Ihrer Suche zu liefern. Je besser der Inhalt, umso höher steigt eine Internetseite im Ranking. Natürlich ist der Einsatz von Keywords noch immer ein wichtiges Element der OnPage-Optimierung. Allerdings wird die Qualität der Texte auch von der Keyword-Ausstattung beeinflusst.

Viele Maßnahmen mindern den Wert eines Textes, zum Beispiel Keyword-Stuffing. Wer Hidden Text auf seiner Website nutzt, riskiert ebenfalls eine Strafe. Denn diese Inhalte dienen lediglich der Sichtbarkeit bei den Suchmaschinen, bieten den Lesern jedoch keinerlei Nutzen, da sie unsichtbar sind. Ein absolutes No-Go ist natürlich Duplicate Content. Und auch Text-Spinning ist zwar eine beliebte, jedoch eher unschöne Methode der Content-Generierung.

3. Zuviel Werbung

Dieser Punkt befasst sich ebenfalls mit dem Thema Content. Kritisch wird es für Website-Betreiber dann, wenn das Verhältnis zwischen Werbung und Inhalt nicht stimmt. Finden Besucher auf der Homepage also mehr Werbung als Content vor, dann zeigt Google die rote Karte. Das betrifft vor allem den oberen Teil der Website (above the fold). Denn hier werden traditionell die wichtigsten Botschaften einer Website platziert. Deshalb sollte in der oberen linken Hälfte des Bildschirms nur wenig Werbung eingeblendet werden. Zumindest muss der eigentliche Inhalt der Internetseite überwiegen. Am besten wird die Homepage regelmäßig mit neuen Inhalten in Form von Texten, Bildern oder Videos eingebunden. Die Dynamik steigert die Attraktivität der Seite bei Google & Co.

4. Klickbetrug

Grundsätzlich eine klare Sache: Betrug wird bestraft – das gilt auch bei SEO. In diesem Fall ist das Corpus Delicti die Beeinflussung der Besucherzahlen einer Website. Durch Klickbetrug wird die Zahl nach oben getrieben, was sich wiederum positiv auf das Ranking in den SERPs auswirkt. Diese Manipulation geschieht unter anderen mithilfe von Programmen oder manuell – beide Methoden werden von Google bestraft. Ehrliche Besucherzahlen werden hingegen durch interessante Inhalte geschaffen. Diese erhöhen nicht nur den Traffic einer Website, sondern verbreiten sich häufig auch viral über soziale Netzwerke. So können dauerhaft hohe Besucherzahlen generiert werden, ganz ohne Betrug.

Ein Artikel von Claudia Morgenstern

Weitere Infos (externe Seiten):

The post Eine Übersicht: Wann greifen Googles Abstrafungen? appeared first on Austrianweb - Internetmarketing.

]]>
Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update https://www.austrianweb.eu/seo-2/artikelverzeichnisse-gespaltene-meinungen-nach-pinguin-update/ Mon, 03 Sep 2012 07:58:42 +0000 https://www.austrianweb.eu/?p=219 Lange Zeit galt die Nutzung von Artikelverzeichnissen in puncto Suchmaschinenoptimierung als eine effektive Methode, um den Linkaufbau einer Webpräsenz voranzutreiben. Bei den Verzeichnissen handelt es sich um Websites, zum Beispiel Blogs, auf denen jeder User selbst verfasste Beiträge kostenlos publizieren kann. In die Texte dürfen Verlinkungen, die so genannten In-Content Links, zu andern Seiten eingefügt...
Weiterlesen »

The post Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update appeared first on Austrianweb - Internetmarketing.

]]>
Lange Zeit galt die Nutzung von Artikelverzeichnissen in puncto Suchmaschinenoptimierung als eine effektive Methode, um den Linkaufbau einer Webpräsenz voranzutreiben. Bei den Verzeichnissen handelt es sich um Websites, zum Beispiel Blogs, auf denen jeder User selbst verfasste Beiträge kostenlos publizieren kann. In die Texte dürfen Verlinkungen, die so genannten In-Content Links, zu andern Seiten eingefügt werden – und damit sind die Artikelverzeichnisse eine hervorragende Möglichkeit, um bei Google & Co. besser gerankt zu werden. Denn „In Content“-Links galten bisher als nützlich und gut. Allerdings driften nun die Meinungen zu Artikelverzeichnissen und SEO-Experten auseinander. Der Grund dafür ist das Algorithmus-Update „Pinguin“ von Google.

Vorteile und Nachteile der Verzeichnisse

Auch wenn die Artikelverzeichnisse vornehmlich für den Linkaufbau genutzt werden, so bergen sie dennoch eine große inhaltliche Qualität. Denn alle Texte müssen einzigartig sein, um von den Suchmaschinen nicht abgestraft zu werden. Wie bei allen Webinhalten hier gilt die Devise „(Unique) Content is King“. Man kann ein Artikelverzeichnis also nicht grundsätzlich negativ einstufen. Vielmehr gibt es zwischen den einzelnen Verzeichnissen gravierende Qualitätsunterschiede. Ein weit schlimmeres Problem mit dieser Art von Websites ist jedoch häufig, dass viele Backlinks gekauft sind. Damit wird fast schon mustergültig viel Schindluder betrieben, denn Google erkennt nicht, welche Links gekauft wurden oder nicht. Jedoch gehen die Käufer oft nach bestimmten Mustern vor und diese werden ihnen und dem Artikelverzeichnis zum Verhängnis. Googles Algorithmen sind mittlerweile hoch entwickelt und erkennen solche Muster. Die Folgen sind bekannte Strafen wie Herabsetzung des Rankings oder gar Entfernung aus dem Index. Doch welche Verzeichnisse sind von strengen Kriterien des Pinguin-Updates betroffen? Wonach richtet sich die Entscheidung für oder gegen ein Artikelverzeichnis?

Was sich mit Pinguin verändert hat

Laut Analysen gibt es Gewinner und Verlierer des Updates. Wie eine Studie von Christoph C. Cemper verdeutlicht, wurden unter anderen viele kommerzielle Artikelverzeichnisse herabgestuft. Auf der anderen Seite zählen vertrauenswürdige Anbieter wie Wikipedia oder T-Online zu den Gewinnern. Bemerkenswert erscheint bei der Verschiebung die Bedeutung von „In Content“-Links, die ja bis dato als eine positive Linkart bewertet wurden. Jedoch scheint sich dieses Charakteristikum seit Pinguin in gewisser Hinsicht verändert zu haben. Denn nun spielt nicht nur die Quantität, sondern insbesondere die Qualität eine wichtige Rolle. Wie Cemper herausfand, haben die Gewinner des Updates hauptsächlich so genannte „Trusted Links“ vorzuweisen und die gelten als besonders hochwertig. Die Verlierer sind demnach jene Websites, die zwar viele, aber wenig wertvolle „In Content“-Links eingebunden haben.

Unser Tipp für den Umgang mit den Online-Verzeichnissen: Veröffentlichen Sie einzigartige, gut recherchierte Texte nur auf Verzeichnissen, die thematisch relevant sind. Statt auf Masse zu setzen, sollten die Verzeichnisse nach Thema und Ansehen ausgewählt werden und Texte individuell verfasst werden. Auf Methoden wie Textspinning sollte verzichtet werden, da die Algorithmen von Google auch hier Muster erkennen können. Wie bei allen Komponenten des Linkbuildings sollte Wert auf Natürlichkeit gelegt werden. Ein allzu aggressives Vorgehen kann Website-Betreibern seit der Einführung von Pinguin nur schaden.

Ein Artikel von Claudia Morgenstern

Weitere Infos (externe Seiten):

The post Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update appeared first on Austrianweb - Internetmarketing.

]]>
Bleibt alles anders? https://www.austrianweb.eu/seo-2/bleibt-alles-anders/ Wed, 11 Jul 2012 07:57:00 +0000 https://www.austrianweb.eu/?p=200 Eine kritische Betrachtung der neuen Update-Politik von Google Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender...
Weiterlesen »

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Eine kritische Betrachtung der neuen Update-Politik von Google

Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender als erwartet auf das Nutzererlebnis der Anwender ausgewirkt. Ebenso beklagen SEO-Professionals die schwankenden Resultate der Google Suche und die damit verbundenen Schwankungen in der häufig vom Kunden erwünschten Leistungsnachweise durch Ranking-Statistiken.

Der Impact der neuen Regeln, nach denen die Suchmaschinen-Ergebnisseiten von Google generiert werden, hat sich noch nicht zu seinem vollen Potential gezeigt, da die Umgliederung der Darstellungsform und der damit verbundenen Neubewertung der von den Google Crawlern erfassten Webseiten noch nicht abgeschlossen ist und wie man in den stetig anders dargestellten Results erkennen kann, wird hier offensichtlich am lebendigen Objekt live mit Mini-Hotfixes die neuen Algorithmen rekalibriert, was den Suchmaschinenoptimierern der SEO-Branche zur Zeit das Leben schwer macht.

Offensichtlichste Änderung in der Darstellung und Ausgabe der SERP ist die Lokalisierung der Suchergebnisse: Wer heute in Wuppertal und Köln nach dem selben Begriff googelt, wird feststellen dass die Resultate seiner Google Suche unterschiedlich ausfallen. Durch die mangelnde Optimierung der Webseiten lokaler Händler läuft diese Initiative, neben den Großhändlern auch kleinere Business-Formen in die SERPs zu bringen, zunächst in die Leere, während die Großhändler wie Amazon hingegen weiterhin mit Leichtigkeit auf diese Änderungen reagiert haben und ihre Optimierung mit ebenfalls lokalisierten Unterseiten versehen haben und so weiter die Top-Rankings belegen.

Weiter haben sich skurrile Vereinfachungen im Testversuch gezeigt: Die Begrenzung der in den SERPs dargestellten verschiedenen lokalisierten Webseiten wurde massiv reduziert und auf Wirtschafts- und Unionsräume, bis zur Größenordnung von Kontinenten und Subkontinenten in Ergebniskategorien zusammengefasst. Das bedeutet: Ein international versendender Händler oder Hersteller kann, wenn noch zuvor durch mühsam Aufgebaute Pagerankings und Optimierung seines Angebotes in der organischen Google Suche mit fehlendem Hinweis im Suchbegriff vollkommen aus dem Resultat eines Nutzers fallen, wenn dessen geografische Herkunft in einem anderen von Google definierten Bereich liegt. Das schränkt nicht nur SEO-Agents in ihrem Handeln bei der OnPage-Optimierung ein sondern belastet diesen Bereich zumindest über die Bürde durch die massive Optimierung auf künftige regionale Zielgebiete für den Absatz und das Anbieten und etablieren der Kundenmarke. Die Reichweite kommender Google Suchen werden massiv abnehmen und erregen damit bereits in der Theorie großen Unmut.

Gleichzeitig führen scharf umrandete Suchbegriffe nach populären Angeboten oder Marken und Produkten sehr häufig über die ersten Ergebnis-Seiten schlichtweg auf die Angebote der jeweiligen Anbieter. Das kann bedeuten, dass die Suche, z.B. nach einem großen Telekommunikationsanbieter dazu führen kann, das nicht mehr, wie zu früheren Versionen der Suchmaschine, möglichst viele unterschiedliche Suchergebnisse von unterschiedlichen Domains und TLD sowie kategorisierten Präsentationsformen wie Blogs und Foren in die SERP eingebunden werden, sondern so das faktische Resultat der Nutzersuche darauf hinausläuft dass Google schlichtweg sich zu einem Register der PR-Darstellung der Unternehmen entwickelt, statt weiterhin kritische und unabhängige Angebote in seine Suchergebnisse mit zu integrieren, die geringere Popularität aufweisen, wohl aber konkrete Themenrelevanz besitzen.

Weiterhin treibt die Update-Politik des uneingeschränkten Marktführers weitere Blüten: Die hauseigenen Produkte von Google und ihrer Schwesterunternehmen werden mehr und mehr in den Vordergrund gerückt. War die Einbindung von Google Maps in die Suchergebnisse für Lokalitäten noch sehr nah am Puls des Bedürfnisses und mit dem Sinn der Weiterentwicklung erfüllt, ist es heute schwer, nach Google Shopping, der Bildersuche oder schlichtweg dem +1-Button von Google auszuweichen. Hinsichtlich der Neutralität entwickelt der Konzern hier ein kritisches Eigenleben, der mit der hier beschriebenen Manipulation der Suchergebnisse und der geografisch bedingten Darstellung auf lange Sicht von einem freien Internet eher zu einem „Closed Net“ führen könnte, gebrandet mit dem Logo des Suchmaschinenkonzerns und der damit totalen Erfassung aller Nutzerdaten – die Krux, die man von frühester Stunde befürchtet hatte – und welche dann auch konkret gegen das Schaffen der Suchmaschinenoptimierer führt, denn: Die von für Suchmaschinen optimierten Webseiten fakturierten Informationen würden so langfristig durch die Ergebnisse der Auswertung von Protokollen aus den „sozialen“ Elementen aus den Google Plus Accounts der Kunden raffiniert.

In früheren Zeiten stand der Pinguin als Wappentier des Betriebssystem Linux stets für offene und technische Neuerungen, jedoch ist der Pinguin, der Google seinen Kunden und auch den gewerbetreibenden Professionals im Bereich der Suchmaschinenoptimierung und des Suchmaschinenmarketings eher ein schwarzes Schaf, als ein possierlicher Pinguin, denn schon bei der ethischen Frage nach einer Vorselektion von Suchergebnissen stößt der ambitionierte Nutzer des Internets auf schwerwiegende Fragen, die nach der Neutralität des Netzes und der Suchmaschinen, wenn es eine solche Freiheit im weitesten Sinne jemals in der Google Suche gegeben hat große Fragezeichen stehen lassen.

Als vorläufiges Fazit bleibt also: Die Diversität des Internets scheint zur Zeit stark gefährdet zu sein und wir verfolgen diese Entwicklung vorerst gespannt, da die erwähnten Hotfixes an den Suchalgorithmen zumindest von technischer Seite davon Zeugen, dass zur Zeit nicht alles so läuft, wie Gedacht. Es bleibt zu Hoffen, das Google seinem Grundsatz „Don’t be evil“ treu bleibt und nicht die sich andeutende, der Kritik würdigen, Änderungen weiter hinter verniedlichenden Projektnamen zu verbergen sucht.

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Der Google Author Page Rank(ing) kommt https://www.austrianweb.eu/seo-2/der-google-author-page-ranking-kommt/ Thu, 05 Jul 2012 10:08:41 +0000 https://www.austrianweb.eu/?p=182 Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen. Damit steigt die...
Weiterlesen »

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen.

Damit steigt die Relevanz zum bestimmten Autoren im Bereich des SEO weiter, es werden hierbei die Verknüpfung des Social Graphs mit logischen Links und echten Links bestimmter Autoren vorgenommen. Realisiert wird das ganze unter anderem über den Tag „rel=author“, der in die Bewertungskriterien bei der Zuweisung rücksicht nehmen wird, zusätzlich zu den Faktoren von sozialen Netzwerken via +1, Likes und Shares sowie den klassischen Bewertungskriterien durch Backlinks, der Bounce Rate und der Aufenthaltsdauer von Usern auf bestimmten Inhalten eine höhere Bewertung zu erlangen. Schlüssel dabei wird wohl die Themen-Relevanz der Inhalte in Kumulation mit der Kategorisierung der jeweiligen Autoren und dem vergebenen Author Page Rank sein.

SearchMetrics hat dazu eine Tabelle erstellt, die sich auf eine Million deutschsprachiger Keywords bezieht, die einer Autorenintegration in die Inhalte unterliegt und aus den Werten dieser . Die gesamte Tabelle finden sie hier (http://blog.searchmetrics.com/de/wp-content/uploads/2012/04/Top200-Google-Autor-Integrationen.xlsx)

Dass das Autorenprofil von Google, das jüngst eingeführt wurde, dabei eine große Rolle spielen kann, wie viele Erstklick-Raten der Inhalt erfährt, zeigen auch die Anaylsen von Neil Patel, einem freien SEO-Agent, der seine eigenen Inhalte mit diesem System und anhand der Google-eigenen Werkzeuge zurück verfolgt hat. Der Impact auf die Besucherzahlen hat dabei etwa den wert von rund 150%.

Hauptwirkmittel dieser Methode ist dabei das unterbewusste und unaufdringliche Schaffen von Vetrauen beim User durch eine Personalisierung und Sozialisierung des Inhaltes, indem ein Suchergebnis auf der SERP bereits mit einem Namen und einem Gesicht verbunden wird und die Neigung des Users prinzipiell steigt, Inhalte mit einem Autorenprofil eher anzuklicken. Weiterhin schafft dieses Autorenprofil eine konkrete Verlinkung des Autoren noch im Suchergebnis selbst, was später bei der Kopplung eines Pagerankings direkt mit einem Autorenpagerank sich von Vorteil erweisen wird, denn hier werden Autoren im Bereich SEO, wie etwa die SEO-Texter ganz klar in den Vordergrund gestellt.

Das hat den von Google gewünschten Effekt, das SEO-Maßnahmen vor allem durch konkret aufgebaute und entsprechend gut bewertete Autoren vorgenommen wird. In Zukunft wird also ein hoch bewertetes Autorenprofil respekte der Author Page Rank bares Geld wert sein und damit auch die gesamtheitliche Bedeutung des eigenen Google+ Profils massiv verstärken, vor allem gegenüber der Heerschar an unbekannten Textschaffenden, die das Internet bisher mit einer Unzahl an suchmaschinenoptimierten Texten geflutet haben. Qualität steht hier definitiv im Vordergrund, inklusive der sozialen Komponente der social networks, die sich durch die offenen APIs von Facebook und Google+ für die Suchmaschinen relativ leicht tracken lassen, wie man an den in den USA bereits verfügbaren „More by“-Tags ersehen kann: Hier werden ganze Lebenswerke in der digitalen Welt konkret verknüpft und schaffen eine höhere Zugänglichkeit, gerade bei Fach- und sachbezogenen Texten und Artikeln, die auch im Bereich SEO und SEM ihre bestimmte Relevanz erhalten werden, man möchte geradezu meinen, die Zeit der schlechten und immer wieder aufs neuen kopierten Contents könnte sich einem Ende nähern.

In ihr CMS automatisch einfügen können sie ihr Autorenprofil über generell wie bei WordPress  verfügbare Plug-Ins, die nach Einrichtung der Werte automatisch den entsprechenden und gültigen Autoren-Tag an ihre Artikel anheftet und gleich dem Google Crawler bereit stellt.

Kritische Fragen, die sich zum Autorenprofil und der konkreten Bewertung der Autoren durch den Google Autor Pagerank beziehen, schwanen da aber auch kritische Fragen im Bereich des Rechts: Wie werden Medienhäuser und Verlage darauf reagieren, das „ihre“ Autoren durch den höheren Marktwert bei höherer Bewertung eine größere Eigenständigkeit und vielleicht auch Fluktuation erhalten? Wird man in Zukunft großkalibrige Autoren damit beauftragen, auf Firmeneigenen Weblogs zu schreiben um die Google-Metrik zum eigenen Vorteil zu nutzen? Oder wird es gar eine instinktive Klagewelle gegen diese Maßnahmen geben, da die Urheberrechte in Deutschland trotz ihrer Unteilbarkeit gerne de facto verkauft werden? Wie tief greift das Autoren-Crawling in Zukunft? Werden öffentliche Kommentare und andere Äußerungen in die Bewertung fallen?

Diese und andere Fragen stellt sich die Community bereits jetzt vor dem ganz großen Anlauf der Überarbeitung des Suchalgorithmus und man kann die Spannung diesem neuen Werkzeug gegenüber regelrecht spüren. Denn mit über 95% Marktanteil bedeutet diese neue Bewertungsstrategie großes Potential – und eine Gefahr für diejenigen, die nicht frühzeitig die neuen Methoden adaptiert und entsprechende Autoren aufgebaut haben im Rennen um die vorderen Plätze der SERPs.

 

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
Ist der Ruf erst ruiniert… https://www.austrianweb.eu/seo-2/ist-der-ruf-erst-ruiniert/ Wed, 27 Jun 2012 11:37:19 +0000 https://www.austrianweb.eu/?p=196 Warum Online Reputation Management auch für SEO relevant ist Die Werbeform der Suchmaschinenoptimierung gilt heute gesichert als eine der erfolgreichsten B2C-Kommunikationsformen. Mit dieser Wichtigkeit, die das HTML- und Google-Gerechte Anpassen der eigenen Systeme und Inhalte mit sich bringt, stehen auch neuerliche Fragen im Raum, denn niemand steht unangefochten alleine auf weiter Flur auf der ersten...
Weiterlesen »

The post Ist der Ruf erst ruiniert… appeared first on Austrianweb - Internetmarketing.

]]>
Warum Online Reputation Management auch für SEO relevant ist

Die Werbeform der Suchmaschinenoptimierung gilt heute gesichert als eine der erfolgreichsten B2C-Kommunikationsformen. Mit dieser Wichtigkeit, die das HTML- und Google-Gerechte Anpassen der eigenen Systeme und Inhalte mit sich bringt, stehen auch neuerliche Fragen im Raum, denn niemand steht unangefochten alleine auf weiter Flur auf der ersten SERP, oft mischen sich zu den eigenen Suchergebnissen auch die Angebote von Verbraucherportalen, Foren und anderen formen der öffentlichen Kommunikation unter den Klang der eigenen Marken- und Angebots-Kommunikation mit besonderen Synergie-Effekten, die sich bei schlechtem Produktmanagement zu einem sprichwörtlichen Sturm entwickeln können und vor allem die Mehrzahl der Suchergebnisse auch beeinflussen können – und das nicht zu ihrem Vorteil.

Für diesen Umstand gibt es das sogenannte Online Reputation Management. Mittel eigens für ihren Zweck entworfenen Crawling Tools werden zunächst Maßnahmen getroffen eine gewisse Übersicht über ihre Online Reputation zu erstellen. Dazu werden die von Google Trust kategorisierten Foren und Blogs von diesen Crawlern erfasst und für sie in einer Übersicht zusammen gestellt. Das bewahren oder wiedererlangen der Reputation Control istd er zweite Schritt im Maßnahmenkatalog zur Wiedererlangung ihrer Hoheit über die Öffentlichkeitsdarstellung: Sie werten die Ergebnisse per Hand aus und verschaffen sich so die Übersicht, ob unter den von ihnen vermerkten Einträgen möglicherweise eine Kampagne versteckt, wie zum Beispiel eine Semantik-Analyse schnell nachweisen kann. Weiterhin können sie nun erfassen, ob es juristisch relevante Aussagen und Behauptungen gibt, die sie durch Unterlassungserklärungen und -klagen schnell unterbinden können. So gewinnen sie neben der Markenübersicht auch die Kontrolle der über sie getätigten Aussagen wieder, die leider viel zu oft sehr impulsiv und selten sachlich wie fachlich korrekt ausfallen und dennoch beim Kunden meist schwer wiegen, doch dazu später mehr.

Für den Bereich der SEO ist dieses Reputation Management in sofern relevant, das sich mit kombinierten SEO und PR-bezogenen Kampagnen synergische Effekte ganz klar Nutzen lassen. Gerade im Bereich B2C können sie mit einer erfolgreichen Kampagne, die möglicherweise virale Elemente enthält, schnell die Effekte der Google SEO mit dem besten Tool verbinden, das in der SEO und SEM bekannt ist: Mundpropaganda. Der klassische Buschfunk ist heute noch ein ganz klarer Modifikator für ihre Besucherströme und entscheidendes Kriterium für ihre Geschäftsabschlüsse. Heute findet die klassische C2C-Kommunikation nicht mehr nur persönlich oder per Telefon statt: Durch den durchschlagenden Effekt der sozialen Netzwerke multiplizieren sich die „Kunde zu Kunde“-Werbeeffekte um ein Vielfaches, da bereits zwei auf Facebook geteilte Beiträge ihrer Kampagne ein potentielles Publikum von 500 bis 1000 Menschen erreicht, was sich entsprechend auch in den SEO-relevanten Faktoren wie der Besucherzahl ihres Angebotes niederschlägt und so eine Verbindung in die Suchmaschinenoptimierung bildet.

Um jedoch die vom Marketing erzielten Erfolge auf kurze und lange Frist zu sichern, bedarf es einer „weißen Weste“. Dazu gehören unverbrauchte Marken, eine qualitativ hochwertige Palette an Produkten oder Dienstleistungen und die Kontrolle über die öffentliche Darstellung. Es sei ihnen dazu angeraten, neben ihren Marketing- und Sales-Managern ebenso einen Online-Reputation-Manager anzustellen, wenn sie mit ihrer Marke oder ihrem Produkt eine gewisse Reichweite erreicht haben. Idealerweise mit einem SEO-Hintergrund, vermag dieser einzelne Manager ihrem Unternehmen die Einbrüche zu vermeiden, sie Marken wie Jack Wolfskin mit ihrer Abmahnwelle gegen ihre eigenen Kunden erleiden mussten. Denn mitnichten gilt im Online-Bereich dass auch schlechte Werbung Werbung sei. Der Konsument von heute orientiert sich an den Kundenportalen und der öffentlich dargelegten Meinung viel mehr, als es zu Zeiten des Ein-Wege-Konsums von Marketingmaßnahmen und Werbemitteln der Fall war.

Da dieser Umstand auch ihrer Konkurrenz und der Schar der sogenannten „Fanboys“ nicht unbekannt ist, werden sie schnell erfahren, das alsbald sie ihr Produkt in einem Bereich mit angrenzender Konkurrenz platzieren, sie mit den beiden o.g. Fraktionen in Kontakt kommen werden. Hier gilt es, durch geschickt platzierte Kampagnen eigene, im Internet aktive Kunden und Partner zu binden und sie zur Gegendarstellung zu animieren, vor dem Vorhang der klassischen Markenbindung, um im Kampf um die Bewertungen und Sternchen in der Suchmaschine und ihrer SERPs die Oberhand behalten zu können.

Abschließend muss festgestellt werden, das jede Firma, jede Marke, jedes Produkt, das sich auf den Markt begibt und im Internet zu finden ist, sich in einen gnadenlosen Konkurrenzkampf begibt, den es nur mittels strikter SEO-Maßnahmen in Verbindung mit Public-Relations-Kampagnen und der Fokussierung auf dynamische Elemente wie der C2C-Kommunikation aufbaut und ihre mächtigen Effekte entwickelt. Dazu gehört natürlich ebenso ein gewisser Grad an Ehrlichkeit – sie werden niemals ein schlechtes Produkt erfolgreich vermarkten können und sollten eine gewisse Selbstachtung hierbei bewahren. Online Reputation Management bedeutet nicht schlechte Meinungen zu unterdrücken, sondern rechtlich relevante und sachlich falsche zu widerlegen und die Vorzüge ihrer Produkte und Marken durch Nutzerbeiträge zu präsentieren, um ein Abrutschen ihrer Marke durch negative Einflüsse von externen Feindkampagnen zu verhindern.

The post Ist der Ruf erst ruiniert… appeared first on Austrianweb - Internetmarketing.

]]>
SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen https://www.austrianweb.eu/seo-2/seo-animalisch-nach-panda-folgt-googles-penguin-die-konsequenzen/ Fri, 22 Jun 2012 09:43:55 +0000 https://www.austrianweb.eu/?p=178 Nach dem „Panda-Update“ hat Google kürzlich ein neues Projekt unter dem Namen „Penguin“ bzw. „Pinguin“ gestartet. Anders als beim Panda handelt es sich dabei jedoch nicht um einen neuen Filter, sondern um fundamentale Änderungen im Google-Algorithmus. Das sorgt für Wirbel in der SEO-Szene: Viele Techniken, die für eine bessere Sichtbarkeit von Websites eingesetzt werden, scheinen...
Weiterlesen »

The post SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen appeared first on Austrianweb - Internetmarketing.

]]>
Nach dem „Panda-Update“ hat Google kürzlich ein neues Projekt unter dem Namen „Penguin“ bzw. „Pinguin“ gestartet. Anders als beim Panda handelt es sich dabei jedoch nicht um einen neuen Filter, sondern um fundamentale Änderungen im Google-Algorithmus. Das sorgt für Wirbel in der SEO-Szene: Viele Techniken, die für eine bessere Sichtbarkeit von Websites eingesetzt werden, scheinen nun überholt. Vor allem unnatürlich wirkende Faktoren auf Internetauftritten geraten ins Kreuzfeuer. Das bedeutet einerseits also das Erarbeiten neuer Methoden für die Website-Optimierung, andererseits müssen bereits optimierte Seiten neu bearbeitet werden. Um hierfür den richtigen Ansatz zu finden, wollen wir das Penguin-Update nun näher beleuchten und Tipps für die Verbesserungen geben.

Welche Konsequenzen hat das Penguin-Update?

Laut Google sind vor allem „Webspammer“ vom der Aktualisierung betroffen. Konkret stehen zwei Faktoren verstärkt in der Kritik: Keyword-Stuffing und unnatürliches Linkbuilding. Im Fokus von Penguin stehen also überoptimierte Websites. Diese werden teilweise direkt aus dem Index ausgeschlossen. Die Beantragung einer Reinclusion macht allerdings wenig Sinn. Penguin will – ähnlich wie Panda – nicht per se bestrafen, sondern setzt neue Maßstäbe innerhalb der Indexierung. Die mangelhaften Strukturen auf einer Website müssen demnach entfernt werden, dann werden die Seiten automatisch wieder gerankt. Wie sich zeigt, wird Qualität mit dem Penguin-Update noch einmal eine Stufe höher gestellt. Black-Hat-Seo hat immer weniger Chancen auf Erfolg. Und das ist auch gut so. Doch was können Website-Betreiber tun, um nicht Opfer der Panda-Penguin-Zwinge zu werden?

SEO verantwortungsvoll einsetzen

Es gibt zahlreiche Maßnahmen in der Onpage- und Offpage-Optimierung, um eine Website vor der Abwertung zu schützen. Wird eine Seite neu aufgebaut, sollte man darauf achten, ausschließlich relevanten und hochwertigen Content einzubauen. Den übermäßigen Gebrauch von Keywords gilt es selbstverständlich zu vermeiden. Stattdessen besser öfter Synonyme einsetzen und auf die Lesart semantischer Zusammenhänge bauen. Nicht umsonst ist die Latent Semantische Optimierung ein wachsender Trend in der SEO-Branche. Des Weiteren ist natürliches Linkbuilding dem aggressiven vorzuziehen, denn Google reagiert nun massiv auf Links, die nicht natürlich wirken.

Besteht eine Seite bereits seit Längerem und ist seit Jahren suchmaschinenoptimiert, dann sollte diese bereinigt werden. Das umfasst das Löschen von ausgehenden Links, die thematisch nicht relevant sind, das Entfernen aller Faktoren, die unter Black-Hat-SEO geführt werden sowie die Varianzsteigerung der Ankertexte. Eingehende Links sind nach wie vor wertvoll, sollten aber auf „sauberen“ Weg generiert werden – etwa durch interessante Artikel und andere Inhalte, die es wert sind geteilt zu werden. Auf einen Faktor allein lässt sich die „neue“ Suchmaschinenoptimierung nicht beschränken. Deshalb sollten alle SEO-Bestandteile überprüft und ausgebessert werden. Dank Penguin und Panda wird die Suchmaschinenoptimierung eine neue Ebene erreichen. Alte Muster werden aussortiert und eine neue Qualität in den Vordergrund gestellt. Die Panda-Penguin-Offensive ist auch eine Chance für die Branche, denn Vieles gilt es nun neu und vor allem besser zu machen.

Weitere Infos (externe Seiten):

The post SEO animalisch: Nach „Panda“ folgt Googles „Penguin“ – die Konsequenzen appeared first on Austrianweb - Internetmarketing.

]]>
Wen treffen die Änderungen am Google-Algorithmus nun wirklich? https://www.austrianweb.eu/seo-2/wen-treffen-die-anderungen-am-google-algorithmus-nun-wirklich/ Mon, 14 May 2012 06:47:30 +0000 https://www.austrianweb.eu/?p=162 Ist der Schlag gegen die Linkfarmen, Content-Aggregatoren und Crosslinker gelungen, oder hat das letzte Update letztendlich doch zu viele kollaterale Schäden verursacht? Die Diskussion in SEO-Kreisen brennt derzeit mächtig auf, den neben den schwarzen Schafen, den sogenannten „Black Hat“-SEO Agenturen scheint das Update sich auch auf die konformen Optimierer, im Jargon als „White Hat“-Agenturen bekannt,...
Weiterlesen »

The post Wen treffen die Änderungen am Google-Algorithmus nun wirklich? appeared first on Austrianweb - Internetmarketing.

]]>
Ist der Schlag gegen die Linkfarmen, Content-Aggregatoren und Crosslinker gelungen, oder hat das letzte Update letztendlich doch zu viele kollaterale Schäden verursacht? Die Diskussion in SEO-Kreisen brennt derzeit mächtig auf, den neben den schwarzen Schafen, den sogenannten „Black Hat“-SEO Agenturen scheint das Update sich auch auf die konformen Optimierer, im Jargon als „White Hat“-Agenturen bekannt, ausgewirkt – Und das nicht zu wenig, wenn man den Kommentar-Bereichen des Google-eigenen Blogs „googlewebmastercentral“ zur Ankündigung des Update vom 24. April glauben schenken darf, während andere – offensichtliche „Black Hatter“ mit ihren Maschen weiter Kasse zu machen scheinen und mit ihren Angeboten weiter einen hohen Pagerank und ein Top-Ranking in den Keyword-spezifischen verzeichnen können.

Eins ist bereits jetzt sehr deutlich abzusehen: Die kleinen Angebote im Internet werden es weiter sehr schwer haben, ein passendes Google Ranking zu erhalten, ohne den schweren und vor allem teuren Weg über Monate- wenn nicht jahrelanges Einpflegen von qualitativ hochwertigem Content auf sich zu nehmen. Denn das neue Update sanktioniert nicht nur alleine die exzessive Optimierung von Webseiten und Content auf Keywords, sondern ebenso das beliebte, weil in der Vergangenheit erfolgreiche Spiel des Backlinking von höher bewerteten Webseiten zu Verbesserung des eigenen Pagerank und einer erhöhten Auffindbarkeit des

Dass dieser Schritt nachvollziehbar ist, weiß jeder der sich mit der Materie auch nur ansatzweise Beschäftigt hat, selbst die casual user der Suchmaschine kennen das Phänomen: Ein Suchbegriff führt zu Ergebnissen, die weder inhaltsbezogen noch in irgendeiner Weise hilfreich sind. Durch den Umstand, das sich die Linkfarmen und Keyword-Aggeratoren mit hohen Pagerank, die sie über frühere Bewertungsstandards erlangt haben über Jahre hinweg gegenseitig aufgeputscht und sich so hartnäckig in den sprichwörtlichen Top-Ten gehalten.

Begründet wird diese Maßnahme daher von Google auch – wenngleich sie klar statuieren, nur die schwarzen Schafe der Branche aufs Korn nehmen zu wollen, das die Branche die SEM-Anbieter dazu anhalten wolle Webseiten „Für Menschen, nicht für Algorithmen“ zu gestalten. Die Einführung der Semantik-Prüfung durch die Crawler und die strikte Einbindung dieser Bewertung in den ist ein klares Anzeichen, das Google es mit dieser Aufforderung durchaus ernst meint. Mehr Content für Menschen statt Maschinen als neues Motto für den Suchmaschinenriesen? Bislang ist davon jedoch recht wenig zu sehen, so scheinen die Relevanzkriterien sich noch nicht vollständig durchgesetzt zu haben, wie der Blick auf klassische Suchbegriffe wie „Make money online“ oder eben die klassische Suche nach der Blauen Pille „Viagra“ beweist.

Sanktioniert werden vor allem, laut Cutts, die übertriebene Optimierung von Webseiten durch SEO-Maßnahmen. Was das im einzelnen bedeutet, wird in dem Blog-Eintrag nur vage angerissen. So können bereits eine gewisse Anzahl von Backlinks von Populären und mit hohem Pagerank versehenen Seiten auf eine eklatant niedrig eingestufte Seite zu einer Violation und damit zu einer Penalty führen. Das wirft gerade im wissenschaftlichen Bereich eine Reihe Fragen über den Zukünftigen Umgang mit der Verlinkung von Webseiten auf, so weisen gerade Wissenschaftsprojekte über die Verlinkung von Universitäten und Instituten auf referierende Mitarbeiter und Doktoranden und Doktorarbeiten ein solches Gefälle auf – Nach der aktuellen Ansage müsste Google diese Bereiche whitelisten, um unschöne Penalties ohne Hintergrund zu vermeiden, wobei sich die entsprechende Beschwerdestelle

Wie stark sich diese Faktoren letztendlich auf die gesamte SEO-Sparte auswirken wird, ist zu diesem Zeitpunkt noch nicht abzusehen. Google selbst, vertreten durch den Entwickler Matt Cutts kommentierte die Reaktionen der User aus dem SEO und SEM-Bereich schlicht mit „Google hasst SEO nicht“. Man wolle weiter daran festhalten, die „white hat“ SEO-Agenturen zu unterstützen, da die Branche, so Cutts, große Arbeit im Bereich der crawability von Webseiten und Inhalten geleistet habe und so ihren berechtigten Platz in der Symbiose aus Suchmaschine, Inhalte-Anbietern und eben den SEO-Marketern.

Die Diskussion in den Onlineforen heizt sich auch wenige Wochen nach der erneut an, und es werden die wildesten Gerüchte gestreut, da gerade die SEO-Marketer ihre mühsam erarbeiteten Felle davon schwimmen, da geradezu althergebrachte Maßnahmen die über die vergangenen zehn Jahren etabliert hatten, gebrochen wird, wohingegen ebenso lange kritisierte Kriterien, wie das Backlinking nur unzureichend und wie zuvor beschrieben stellenweise subjektiv Ungerecht empfunden Penalties vergeben und es so wirkt, als ob Google sprichwörtlich zwei Augen im Bereich von zugstarken AdSense-Objekten zugedrückt werden, um die eigenen Statistiken zu schönen und die Preise für die CPC-basierten Kampagnen gehalten werden können.

Eines ist Sicher: Der SEO-Markt wurde durch die aktuellen Änderungen an Bewertungskriterien erheblich aufgewirbelt, man könnte sagen die Karten wurden mit diesem Update aus April 2012 neu gemischt und es bleibt abzuwarten, welche neuen Methoden sich aus den neu angewandten Bewertungskriterien ergeben und welche tatsächlichen Auswirkungen die Änderungen nach sich ziehen, wenn der Umgang mit der „groben Kelle“ gegen die anvisierten „Black Hat“-Optimierern und ihrer Angebote erst einmal bis zum nächsten Update durch die Spider hinter uns liegt.

Nachtrag: leider sind auch viele Seiten abgewertet worden die sich nichts “zu schulden” haben kommen lassen. Hoffentlich bessert hier Google mit einer einer Art Rollback demnächst hier noch nach!!!!!

The post Wen treffen die Änderungen am Google-Algorithmus nun wirklich? appeared first on Austrianweb - Internetmarketing.

]]>
Linkbuilding: 6 Tipps für gute Backlinks https://www.austrianweb.eu/seo-2/linkbuilding-6-tipps-fur-gute-backlinks/ Wed, 25 Apr 2012 11:54:09 +0000 https://www.austrianweb.eu/?p=153 Ein bedeutender Faktor bei der Suchmaschinenoptimierung ist ein solide ausgebautes Netzwerk an Backlinks, also Rückverweisen, die auf Ihre eigene Webseite weiterleiten. Zahlreiche “Agenturen” finden sich im Internet, die einen schnellen Backlink-Aufbau anbieten und weiterhin Links von Seiten mit einem PageRank von 8 oder höher versprechen. Zum Verständnis: Der eigene PageRank, sprich der von Google errechnete...
Weiterlesen »

The post Linkbuilding: 6 Tipps für gute Backlinks appeared first on Austrianweb - Internetmarketing.

]]>
Ein bedeutender Faktor bei der Suchmaschinenoptimierung ist ein solide ausgebautes Netzwerk an Backlinks, also Rückverweisen, die auf Ihre eigene Webseite weiterleiten. Zahlreiche “Agenturen” finden sich im Internet, die einen schnellen Backlink-Aufbau anbieten und weiterhin Links von Seiten mit einem PageRank von 8 oder höher versprechen. Zum Verständnis: Der eigene PageRank, sprich der von Google errechnete Wert, der unter anderem für das Ranking verwendet wird, basiert zum Teil auf den eigenen Backlinks und dem PageRank der verlinkenden Seiten. Daher gilt: Je mehr hochwertige Backlinks von Webseiten mit hohem PageRank, desto höher auch der eigene PageRank. Aber zurück zum eigentlichen Thema: Wir haben sechs Tipps für Sie, die Ihnen beim Linkbuilding behilflich sind und für ein hohes Ranking durch gute Backlinks sorgen.

1. Tipp – Verfassen Sie hochwertige Artikel

“Content is king”, denken Sie beim Verfassen Ihrer Texte immer an dieses Leitmotiv. Schreiben Sie einzigartige Artikel mit einem echten Mehrwert für Ihre Leser. Sie werden sehen, dass interessierte Besucher die Artikel in sozialen Netzwerken oder sonstigen Plattformen teilen – das ist gut für Sie, denn jeder Klick auf den Sharing-Button generiert einen neuen Backlink. Weiterhin sehen sich vielleicht interessierte Blogger Ihre Artikel an und verlinken auf der eigenen Website darauf, ebenfalls ein zusätzlicher Backlink für Sie.

2. Tipp – Links mit ähnlichen Webseiten tauschen

Linktausch ist eine Maßnahme, die mit einer gewissen Kritik beäugt werden sollte. Lassen Sie besser die Finger von großen Linkfarmen oder Spamming – das wird von den Suchmaschinen gnadenlos abgestraft. Suchen Sie besser interessierte und ähnlich ausgerichtete Webseiten, die einem Linktausch nicht abgeneigt wären. Dabei sollten immer Vorteile für beide Seiten rausspringen, verzichten Sie in jedem Fall auf Bitten und Betteln nach Links – das haben Sie nicht nötig.

3. Tipp – Erstellen Sie Kommentare auf anderen Webseiten

Die Vielzahl an Blogs ermöglicht lebhafte Debatten und viele Backlinks. Wenn Ihnen ein Artikel gefällt, wieso kommentieren Sie diesen dann nicht? Geben Sie einen Namen und vor allem Ihre Website an – der Kommentar wird in den meisten Fällen von Google dann als Backlink gewertet. Weiterhin besteht die Chance, dann Besucher des Blogs durch einen interessanten Kommentar Ihrerseits auch Ihre Website besuchen – in jedem Fall also eine interessante Maßnahme zum Aufbau von Backlinks.

4. Tipp – Kein überschnellen Linkaufbau betreiben

Angenommen Sie starten ein ganz neues Projekt und sind motiviert, möglichst schnell hohe Rankings zu erreichen. Dann nehmen Sie bitte zunächst Abstand von “Agenturen”, die das schnelle und hochwertige Linkbuilding zu horrenden Preisen versprechen – dahinter verbirgt sich meist das schnelle Geschäft für die Betreiber. Suchmaschinen honorieren einen langsamen und natürlichen Backlink-Aufbau: Achten Sie also darauf, nicht innerhalb von einer Woche tausende Backlinks aus minderwertigen Artikel- oder Blogverzeichnissen zu erhalten – das strafen Suchmaschinen oftmals direkt ab.

5. Tipp – Nutzen Sie Bookmark-Dienste

Mittlerweile gibt es eine Vielzahl an Bookmark-Diensten, beispielsweise “Stumble Upon”, “Mister Wong” oder “Digg” – das Potenzial dieser Dienste sollten Sie in jedem Fall nutzen, denn dies Anzahl der Bookmarks fließt ebenfalls in die Ranking-Berechnung mit ein. Um die Buttons und übrigens auch übliche Social-Media-Buttons zu integrieren, empfehlen sich Tools von Anbietern wie beispielsweise “Shareaholic”, die eine Implementierung auf die eigene Website ganz einfach ermöglichen.

6. Tipp – Artikel durch Newsportale verbreiten

Wenn Sie aktuelle Themen besprechen und Newstexte verschiedenster Arten publizieren, dann empfiehlt sich die Registrierung in einem Web-Newsportal wie beispielsweise yigg.com – die Backlinks auf diesen Portalen bringen aus SEO-technischer Sicht eine ganze Menge und durch die hohen Besucherzahlen erhalten Sie sicherlich den ein oder anderen Besucher direkt über diese Plattformen.

Linkbuilding ist wahrlich kein einfaches Themengebiet, doch mit einem natürlichen und konstanten Linkaufbau können Sie innerhalb von relativ kurzer Zeit ein ordentliches Netzwerk aufbauen, dass Ihnen sowohl Pluspunkte auf der Seite der Suchmaschinenoptimierung als auch mehr Traffic durch Besucher einbringt. Bleiben Sie in jedem Fall dran und investieren Sie täglich ein wenig Zeit in den kontinuierlichen Linkaufbau – Sie werden sehen: Es lohnt sich!

The post Linkbuilding: 6 Tipps für gute Backlinks appeared first on Austrianweb - Internetmarketing.

]]>