seo – Austrianweb – Internetmarketing https://www.austrianweb.eu Suchmaschinenoptimierung für Ihre Webprojekte - Austrianweb Onlinemarketing Mon, 28 May 2018 18:40:04 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.16 Flash ade – Interaktivität endlich SEO-tauglich(er) – Teil 2 https://www.austrianweb.eu/homepage/flash-ade-interaktivitat-endlich-seo-tauglicher-teil-2/ Tue, 12 Mar 2013 06:13:45 +0000 https://www.austrianweb.eu/?p=718 Die Einführung von HTML5 – Der finale Abgang von Adobe Flash Teil 2 Im zweiten Teil unseres Nachrufes an einen unfreiwilligen Vorreiter seiner Zeit, dem als Animationsprogramm veranschlagten Macromedia Flash, das sich quasi per Zufall und der klugen Bereitstellung von Wiedergabe-Plugins für alle gängigen Plattformen, berichten wir von seiner Zeit als unangefochtenen Marktführer für die...
Weiterlesen »

The post Flash ade – Interaktivität endlich SEO-tauglich(er) – Teil 2 appeared first on Austrianweb - Internetmarketing.

]]>
Die Einführung von HTML5 – Der finale Abgang von Adobe Flash Teil 2

Flash vs HTML5Im zweiten Teil unseres Nachrufes an einen unfreiwilligen Vorreiter seiner Zeit, dem als Animationsprogramm veranschlagten Macromedia Flash, das sich quasi per Zufall und der klugen Bereitstellung von Wiedergabe-Plugins für alle gängigen Plattformen, berichten wir von seiner Zeit als unangefochtenen Marktführer für die Integration von Multime-dia-Content im Internet und diese Position für mehr als 10 Jahre hielt, bis der absehbare Abstieg einer einst innovativen Technologie durch den Reformunwillen seines Aufkäufers beschieden wurde.

Unwille zur Modernisierung – der langwierige Abstieg eines Monopolisten nach einer Dekade

Den Anstoß für den stillen, jedoch äusserst kontinuierlichen Abgang von Flash als weiterhin zukunftsfähiges Webformat löste jedoch der Kauf des Flash-Entwicklers Macromedia durch Adobe mit der anschließenden Integration in das Pro-duktportfolio des Unternehmens aus. Schon hier wurde die mangelnde Bereitschaft Adobes zur Weiterentwicklung von Flash hin zu einem zeitgemäßeren Format ersichtlich. Eine Weiterentwicklung, welche schon länger vehement von fortschrittlichen Teilen der Netzgemeinschaft vergeblich gefordert wurde.

Grund für die Forderung der Öffnung des propieträren Formates war nicht zuletzt die wachsende Bedeutung des Such-maschinenmarketings (SEM), welches mit dem rasanten Aufstieg der Google Suche und dessen absehbare Marktführer-schaft einen neuen Markt eröffnete, in dem jegliche Verwendung von Flash für strukturelle Zwecke, etwa als Menüfüh-rung oder eben bei der vollständigen Realisierung von Webseiten essentielle Nachteile bedeuteten, in letzterem Falle sogar der nahezu vollkommenen Unmöglichkeit der Teilnahme am Wettbewerb um die besten Platzierungen auf den Ergebnisseiten der nun markführenden Suchmaschine. Somit musste jeder, der sich eine Chance auf dem SEO-Markt erhoffte, wohl oder übel Abstand nehmen, nicht zuletzt um die Qualität des eigenen Webseiten-Ranking nicht in Gefahr zu bringen.

Zielsetzung: In der Google Suche auf Seite 1 erscheinen – Ohne Flash als Hemmschuh fürs Ranking

Denn bis heute hinterlässt jedes Flash-Objekt bei der Indizierung durch die Webcrawler von Google kaum mehr als ein schwarzes Loch, was nur geringfügig Optionen zur Nutzung im Rahmen eines SEO-Konzepts bietet, etwa mittels Title-description und ALT-Attribut . Hierüber konnten auch die findigste Flash-Designer mit dem Einbetten des Content in die objekttragende HTML-Datei und dem Auslesen desselben durch das Flash-Objekt nur leidlich hinweg täuschen, die Ergebnisse blieben stets unter anderen Darstellungsformaten zurück.

Dieser Unwille Adobes zur Reform sollte letztlich der finale Genickschuss für das einst revolutionäre Format werden. Der Rest ist im Prinzip Geschichte. Der letzte Geltungsverlust des Flash-Formats in kapitaler Größe war der Rückzug von Adobe aus der Entwicklung von Flash-Playern für mobile Plattformen in der ab 2007 einsetzenden Verbreitung von Smartphones.

Trendsetter Apple verweigerte seinerzeit die Integration in die erste Generation der iOS-basierenen Geräten aufgrund gravierender Mängel in der umgesetzten Performance, doch statt in den Zukunftsmarkt zu investieren, beschleunigte Adobe die Obsoleszenz von Flash durch die Einstellung der Entwicklung lediglich, trotz der Unterstützung durch Google in seinem Android-Betriebssystem – und gab somit einen Markt auf, dem bis 2016 ein stetiges Wachstum auf bis zu 2 Milliarden Endnutzergeräte prognostiziert wird.

Erst HTML5 lüftet den Schleier – Wie interaktiver Content endlich SEO-tauglicher wird

Als Quasi-Standard für Online-Videos und Streaming-Lösungen wurde Flash letztlich erst mit dem Inkrafttreten der Meilensteine von HTML5 abgelöst, welche Schrittweise zwischen den Jahren 2008 und 2012 stückweise freigegeben wurden. Im Zuge dieser Entwicklung begannen die Entwickler aller gängigen Browser-Engines die Neuerungen des kommenden Standards bereits ihre in Syntax zu integrieren, wenn auch zum Teil recht unvollständig.

Diese Neuerung erlaubt die Implementierung Beispielsweisevon Video-Containern direkt in native HTML-Quellcodes und bietet erstmalig die Möglichkeit für Webcrawler, die anzuzeigenden Inhalte zu indexieren. Zur verbesserten Erfas-sung der Container besteht neben den variablen Formatierungsmöglichkeiten durch die CSS/HTML-Attribute: height, width, poster, autoplay, controls und autobuffer. Zudem unterstützt der neue Befehl die Einbettung von DIV-Containern innerhalb vom Video-Containern, was auch für die Suchmaschinenoptimierung ein nicht gänzlich uninteressantes Spielfeld bei gegenwärtige und künftigen Methoden bei der Einbettung eröffnet wird.

Der Gnadenstoß des Nachfolgers – Das offene HTML5 übernimmt weitgehende Funktionalitäten von Flash

Da ein Großteil der Funktionalität, welche bisher effektiv durch die Vewendung von Flash erledigt wurde, steigt die „Lesbarkeit“ für Webcrawler auch in Umgebungen mit interaktiven Inhalten zukünftig, was eine verbesserte Indexie-rung erlaubt und nur nocht geringfügige „blinde Flecken“ bei der Katalogisierung durch die Google Webcrawler

Die letzten beiden Domänen, in denen sich das SWF-Format derzeit noch halten kann, sind im Einsatz als animierte Banner-Ads sowie dem Einsatz als Plattform für die Gestaltung von Browserspielen. Jedoch stehen auch diese letzten Bastionen unlängst zur Disposition, da die Funktionalitäten von HTML5 erfolgreich die Umsetzung von performance-schonenden Browsergames demonstriert haben.

Somit schwindet zusehends ein technologischer Vorreiter für die Entwicklung der vollintegrierten und plattformunab-hängigen Darstellung multimedialer Inhalte im Internet in den Annalen der Geschichte.

Wir verabschieden uns mit folgendem Nachruf: „Adobe Flash – We hardly knew thee“

The post Flash ade – Interaktivität endlich SEO-tauglich(er) – Teil 2 appeared first on Austrianweb - Internetmarketing.

]]>
Flash ade – Interaktivität endlich SEO-tauglich(er) https://www.austrianweb.eu/homepage/flash-ade-interaktivitat-endlich-seo-tauglicher/ Tue, 05 Mar 2013 11:13:27 +0000 https://www.austrianweb.eu/?p=715 Die Einführung von HTML5 – Der finale Abgang von Adobe Flash Teil 1 Ein Format, das die Gemüter spaltete: Was dort anno 1997 im Hause Macromedia vom Stapel lief, würde sich in kürzester Zeit zu einem umstrittenen, jedoch ebenso unausweichlichen Darstellungsformat für multimediale Inhalte auf Webseiten entwickeln, dem in Ermangelung konkurrenzfähiger Alternativen über mehr als...
Weiterlesen »

The post Flash ade – Interaktivität endlich SEO-tauglich(er) appeared first on Austrianweb - Internetmarketing.

]]>
Die Einführung von HTML5 – Der finale Abgang von Adobe Flash Teil 1

Flash vs HTML5Ein Format, das die Gemüter spaltete: Was dort anno 1997 im Hause Macromedia vom Stapel lief, würde sich in kürzester Zeit zu einem umstrittenen, jedoch ebenso unausweichlichen Darstellungsformat für multimediale Inhalte auf Webseiten entwickeln, dem in Ermangelung konkurrenzfähiger Alternativen über mehr als ein Jahrzehnt hinweg ein faktisches Monopol beschert sein sollte.

Seine Abkommandierung durch die native Einbindung von Video-Containern in HTML-Quellcodes durch das im Rollout begriffenen HTML5 hinterlässt nur wenige trauernd – In der Erinnerung der Suchmaschine Google hingegen nur einen schwarzen Flecken nicht katalogisierter Objekte und Webseiten.

Endlich Multimedia! – Wie das plattformunabhängige SWF-Format Bewegung in den Browser brachte

Um die Sympathie in diesen frühen Tagen zu verstehen, die man Flash gegenüber mit seiner Entdeckung als webtaugliches Containerformat an den Tag legte, kommt man kaum umher, sich in die Tage der frügen Jugend des Internets zurück zu versetzen, als die Suchmaschine Google noch nicht existierte und sich der Datenaustausch im Internet hierzu-lande weitgehend über analoge Dial-Up Modemverbindungen abspielte während in den USA die ersten Kabelmodems neue Standards setzten:

Die Funktionen von HTML, welche durch das W3C-Konsortium für die zeitgenössischen Versionen festlegten, lieferten nicht viel mehr als statisches Rendering des Quelltextes, aus dem sich nur mit den Bordmitteln der Sprache nicht viel mehr bewegen ließ, wenn man von den nervtötenden Marquee-Lauftexten absah und das höchste der Gefühle mit dem Anblick einer hakeligen Animation im GIF-Format erreicht wurde, dessen Spezifikationen 1987 das erste mal definiert wurden und an der sich von 1989 an nichts mehr ändern sollte. Von einer nahtlosen Medien-Integration, wie sie Google derzeit mit der Umsetzung der HTML5-Syntax in seinen Produkten demonstriert, war man in der Zeit vor 2000 hinge-gen noch weit entfernt, es fehlte schlichtweg an Entwicklungsimpulsen und der noch geringen Bedeutung des Internets als kommerziell attraktive Plattform, auf der sich einmal neue Märkte und Marketingformen entwickeln sollten.

Mangelnde Innovationskraft bremste lange Zeit die Entwicklung des multimedialen Content im WWW

Das alles fand in einer Umbruchszeit statt, in der sich spätestens seit 1994 unter dem Marketing-Buzzword „Multime-dia“, die ersten Anzeichen zum Wandel in Richtung digitaler Gesellschaft abzeichnete und sich auf den Desktop-PCs eine bewegte und bunte Welt, garniert mit ersten Video-Einbettungen in gnadenlos herunter gerenderten AVI-Containern präsentierte, die erste Begehrlichkeiten der frühen Pioniere des Internets weckte, die im Internet eine recht übersichtliche Ödnis erlebten – in den Zeiten vor Anbruch der Google-Ära herrschte weitgehender Stillstand in den Fenstern der Webbrowser, ohne Anzeichen für eine Weiterentwicklung zur Beseitigung dieses Umstandes.

Ein anderes, ebenso wie Flash bis zur Unkenntlichkeit vernageltes und propieträres Phänomen stellte sich ab 1995 ein und mauserte sich zum Schrecken aller PC-Besitzer: Der RealPlayer, welcher bis heute bekannt für seine Klassfizierung als Badware und ebenfalls wie das berühmt-berüchtigte ActiveX, welches als reiner Windows-Plattformer, mehr laufen-de Sicherheitslücke der Marke „Scheunentor“ darstellte, als tatsächlichen Funktionszuwachs bot, was sich bei Active X durch fehlendes Sandboxing noch sonstiger Sicherheitsfunktionen präsentierte und im Falle des RealPlayer als erste kommerziell groß angelegte Verbreitung von Spyware darstellt. Umstände, die in beiden Fällen bis zum heutigen Tag nicht geändert haben.

Der Aufstieg von Macromedia Flash – Wie das ursprüngliche Animationsprogramm Bewegung ins Web brachte

Wie eine Offenbahrung musste in diesen Tagen doch der Markteintritt der ersten Version von Macromedia Flash und dem dazu gehörigen Shockwave Flash Player gewirkt haben. Denn zum ersten mal wurde ein Format verfügbar, wel-ches durch seine plattformunabhängige Skriptsprache erstmals einen Container zur Wiedergabe von multimedialen Content bereit stellte, der auf allen Plattformen gleich dargestellt wurde. Damit ging Flash den ersten Schritt des Inter-nets in Richtung des „Rich Content Web Experience“. Durch seine Alternativlosigkeit in Ermangelung geeigneter Konkurrenten entwickelte sich Flash ungestört und wurde später Dreh- und Angelpunkt eines wunderlichen Modebooms.

Die Erinnerungen an diesen Boom sind bei den Zeitzeugen dieser kurzen, aber nicht minder heftigen Ära der Flash-Webseiten noch frisch im Gedächtnis wie am ersten Tag. Mit dem zweiten Aufblühen des Internets, das sich nach dem Abklingen der Nachwehen der 2000er Dotcom-Blase einzustellen begann, erlebte auch Flash eine Renaissance, um nicht zu sagen: Einen massiven Boom. Das Wachstum der Verfügbarkeit von Internetanschlüssen oberhalb der Leistungklasse, welche die 56k-Modems oder ISDN boten, führte zu einem explosionsartigen Trend, über dessen An-halten dem Beobachter der Eindruck entstehen konnte, das jede Webseite, die vermeintlich etwas auf sich hielt, sich vollständig in Flash umsetzen ließ, mit der Folge eines massiven Anstiegs der Ladezeiten, da Flash per se eimal als einzelne SWF-Datei zunächst vollständig geladen wurde, ehe eine Darstellung der Inhalte folgen konnte und die Teilung von Datenstrings zur optimierten Ladegeschwindigkeit noch nicht „state of the art“ waren.

Lesen Sie heute in einer Woche unseren 2ten Teil zu “Flash ade” – die Einführung von HTML5

The post Flash ade – Interaktivität endlich SEO-tauglich(er) appeared first on Austrianweb - Internetmarketing.

]]>
Was ist eigentlich die „Off Page“-SEO …. https://www.austrianweb.eu/seo-2/was-ist-eigentlich-die-off-page-seo/ Fri, 18 Jan 2013 11:21:14 +0000 https://www.austrianweb.eu/?p=704 und wodurch zeichnet sie sich aus? Wir erklären es: Die Optimierung eines Online-Projekts „Auf“ dessen Seiten und den Maßnahmen, welche „Abseits“ dieser stattfinden sind zwei wichtige Teile eines Ganzen. Erfahren sie hier, was „Off-Page“ in der SEO bedeutet! Im Maßnahmenkatalog eines SEO-Professionals findet sich ein Allerlei an Methoden, welche er für die Optimierung einer Webseite...
Weiterlesen »

The post Was ist eigentlich die „Off Page“-SEO …. appeared first on Austrianweb - Internetmarketing.

]]>
und wodurch zeichnet sie sich aus?

Wir erklären es: Die Optimierung eines Online-Projekts „Auf“ dessen Seiten und den Maßnahmen, welche „Abseits“ dieser stattfinden sind zwei wichtige Teile eines Ganzen. Erfahren sie hier, was „Off-Page“ in der SEO bedeutet!

Im Maßnahmenkatalog eines SEO-Professionals findet sich ein Allerlei an Methoden, welche er für die Optimierung einer Webseite zur Verfügung hat. Manche gelten als „On-Page“ und werden im Rahmen ihrer Onlinepräsenz durchgeführt, andere jedoch, welche abseits ihrer Webseite Umsetzung finden, werden als „Off-Page“ bezeichnet. Bei dieser Optimierung geht es vorrangig darum, durch die Platzierung von Links hochwertiger Webseiten auf ihr Projekt die Relevanz zu erhöhen, welche sich aus der Honorierung durch ein höher bewertetes Angebot ergibt. Diese eingehenden Hyperlinks werden „Backlinks“ genannt und sind das Kernstück ihrer „Off-Page“-SEO, genauer genommen des sogenannten „Linkbuilding“, welches auf lange Frist dafür Sorge trägt, das bei einer positiven Entwicklung die Relevanz ihres Webprojektes bezogen auf ihre schwerpunktmäßigen Keywords steigt und somit auch eine hohe Platzierung auf den Ergebnisseiten der organischen Google Suche denkbar wird.

Jung, ledig, sucht: Eine virtuelle Nachbarschaft bei Google – Kaum einfacher als die reale Wohnungssuche

Eine virtuelle Nachbarschaft entsteht durch eine gegenseitige Verlinkung des jeweils anderen. In diesem Augenblick werden sie und andere beteiligte Webseiten, die sich mit Backlinks honoriert haben, von den Webcrawlern der Algorithmen der Suchmaschine als Nachbarschaft wahrgenommen.
Langfristig ist es das anzustrebende Ziel, ihr Projekt in ein, auf möglichst natürlich gewachsene Nachbarschaft ein zu binden, in der sie nach Möglichkeit ausschließlich „gesunde“ und „saubere“ Nachbarn haben, also keine Pappenheimer, die wöchentlich durch Penalty oder durch Ausschluss aus dem Index auffallen. Spätestens wenn diese Nachbarn als „Schmuddelkinder“ gebrandmarkt sind, sollten sie mit jenen besser nicht mehr spielen, wenn ihnen daran gelegen ist, dass deren Schmuddeligkeit nicht auf sie abfärbt.

Kritisch wird es besonders bei Webseiten in ihrer Nachbarschaft, welche Malware verbreiten. Mit solchen Nachbarn hilft nur noch ein zügiger Auszug samt Rückbau der bestehenden Strukturen und einer Neuorientierung auf vertrauenswürdigere Linkpartner. Denn verzichten, das kann heute noch keiner. Zumindest, wenn er sich an publikumsrelevanter Position in den Google SERPs wiederfinden will. Nein, dafür ist der Google PageRank und die Linkpopularität noch zu wichtig für das Ranking
einer Webseite.

Entgegen aller Verlautbarungen: PageRank und Linkpopularität sind längst nicht obsolet, viel mehr alternativlose Indikatoren im Google Ranking

So ist schon alleine die Linkpopularität als technische Manifestation von Relevanz und Popularität einer Webseite für den Bereich der von ihr beanspruchten Keywords ein bisher alternativloser Faktor im Ranking der Suchmaschine, auch wenn Google diesem Faktor oftmals die Relevanz abspricht. Die Linkpopularität entsteht, wenn eine Webseite eine Bewertung erhält, welche sich aus der Summe eingehender Backlinks auf das Online-Projekt zum einen, als Grundwert, ergibt und welcher durch den PageRank des Verlinkenden positiv beeinflusst wird. Dieser Multiplikator wird berücksichtigt, sobald die Webseite von jener der Backlink ausgeht, einen höheren Wert als die Zieldomain aufweist. Dieser Effekt skaliert Stärker, je höher die Differenz zwischen den jeweiligen PageRank von Sender und Empfänger ausfällt.

So wird ein eingehender Backlink einer höher bewerteten Seite im Normalfall nach dem Abschluss der Crawlings durch Google eine positive Auswirkung aus die Platzierung der empfangenden Partei haben. Sollte sich dieser Effekt nicht einstellen und auch über mehrere Durchläufe des Update-Turnus der Suchmaschine zu keinem Ergebnis führen, ist ihnen dringen angeraten, die Auswertung ihrer Domain per Google Webmaster Tools abzurufen. Hier finden sie detaillierte Informationen über die Rückmeldung der Google Crawler und eventuell aufgetretenen Problemen bei der Indexierung ihrer Webseite.

Wenn der Erfolg sich nicht einstellt – Ein Blick in die Google Webmaster Tools schafft Abhilfe und Einsicht und bestehende Probleme

Dem sollten Sie nachkommen, denn dieser Umstand wäre äußerst ungewöhnlich, denn einer Aufwertung stünde theoretisch nichts im Wege und hätte sich mindestens binnen zweier Durchläufe der Webcrawler einstellen müssen. Dies jedoch nur, wenn ihre Webseite keine Penalty erhalten oder mit negativen Flags versehen wurde. Diese würden eben die Einstellung dieses Erfolges unterbinden. Daher prüfen sie unbedingt die Meldungen in den Webmaster Tools! Es besteht die Möglichkeit, dass sie unbemerkt einem automatischen Penalty unterzogen wurden. Diese Form der Sanktion ist solange aktiv, bis das der Webmaster den ursächlichen Auslöser der Penalty beseitigt hat. Ab dort geht es im Übrigen recht schnell: Sobald Google durch eine vom Nutzer angeforderte Neu-Indexierung die Beseitigung verifizieren konnte, werden die verhängten Abwertungen aufgehoben im Regelfall aufgehoben.

Ausnahmen bestätigen wie üblich die Regel: Vor allem Wiederholungstäter und besonders schwere Fälle, in denen offensichtliche Versuche zur Manipulation festgestellt wurden, werden oft mit langfristigen De-Rankings bestraft, nicht selten verbrennen Betrüger bei dem Versuch der Manipulation ihres Rankings sogar die ganze Domain durch eine permanente Beflaggung, etwa als Spam. Hierdurch wird die gesamte Domain entwertet, abgestempelt und von der Aufnahme in den Index bis auf weiteres ausgeschlossen. Wer eine solche Domain unwissend erworben hat oder sich von Google zu Unrecht bestraft fühlt, dem bleibt nur ein Weg um diese permanenten Sanktionen zu beseitigen: Nämlich die Eingabe eines „Reconsideration Request“ an das Google Web Spam Team, welches anhand ihrer Angaben und der Auswertung der Log-Files darüber entscheidet, ob ihrem Anliegen entsprochen werden kann, oder nicht.

Unser Fazit zum Theme „Off-Page“-SEO

Wie wir ihnen dargelegt haben, ist die „Off-Page“-SEO nach wie vor eine nicht zu vernachlässigende Methode um die Grundlage für spätere Erfolge und das optimale Wirken ihrer Maßnahmen „on Page“ tatsächlich zur Geltung kommen zu lassen. Es schadet also mitnichten, sich auch im kommenden Jahr mit dieser klassischen Methode zur Suchmaschinenoptimierung auseinander zu setzen, die bisher und vor allem auch nicht durch das „Penguin“-Update abgelöst werden konnte.

The post Was ist eigentlich die „Off Page“-SEO …. appeared first on Austrianweb - Internetmarketing.

]]>
Serverstandort Österreich https://www.austrianweb.eu/seo-2/serverstandort-osterreich/ Thu, 15 Nov 2012 08:28:08 +0000 https://www.austrianweb.eu/?p=449 Webhosting nimmt Einfluss auf die Suchmaschinenoptimierung Eine erfolgreiche Webpräsenz steht und fällt mit ihrer Platzierung in den Suchmaschinen. Um einen der vorderen Plätze in den Ergebnislisten erzielen zu können, ist es notwendig, dass die Webseite nicht nur SEO optimiert wird, sondern auch eine durchgehend gute Erreichbarkeit aufweist. Der Garant dafür ist immer ein optimales Webhosting...
Weiterlesen »

The post Serverstandort Österreich appeared first on Austrianweb - Internetmarketing.

]]>
Webhosting nimmt Einfluss auf die Suchmaschinenoptimierung

Eine erfolgreiche Webpräsenz steht und fällt mit ihrer Platzierung in den Suchmaschinen. Um einen der vorderen Plätze in den Ergebnislisten erzielen zu können, ist es notwendig, dass die Webseite nicht nur SEO optimiert wird, sondern auch eine durchgehend gute Erreichbarkeit aufweist. Der Garant dafür ist immer ein optimales Webhosting wie es z.B. die alt eingesessene Firma World4you gewährleistet.

Das kann ein guter Weboster für Ihr Webprojekt erreichen:

  • Ihr Webprojekt ist immer und jederzeit erreichbar
  • Starke und schnelle Server Hardware
  • Wollen Sie bei Google.at gut gelistet sei ist ein Hoster mit Serverstandort Österreich von Vorteil
  • Diverse Servereinstellungen ermöglichen besonders suchmaschinenfreundliche Webseiten. Z.B mod_rewrite, mod_pagespeed usw.
  • Unterstützt .htaccess Dateien
  • Serversicherheit. Hackern wird es schwer gemacht Ihr CMS zu manipulieren
  • Mit der Zeit gehen. Aktuell gehaltene PHP und MYSQL Versionen usw.
  • Arbeitserleichterung durch Skriptinstallationen per Mausklick (WordPress, Joomla, Drupal, Typo 3 usw.)
  • Kann eventuell mehrere IP Adressen aus unterschiedlichen Class C Netzen zur Verfügung stellen

Für eine optimale Erreichbarkeit der Webpräsenz ist zunächst ein zuverlässiger Server notwendig, auf dem die Webseite abgelegt ist. Im Regelfall entscheiden sich Webseitenbesitzer für sogenannte “managed Server”, bei denen die Verwaltung in den eigenen Händen verbleibt und die man ohne große technische Vorkenntnisse einfach über den Browser steuern kann. Damit ist es auch möglich, neue Domains registrieren zu lassen und diese ganz einfach zu verwalten.

Jede Webpräsenz ist auf ein zuverlässiges Webhosting also zwingend angewiesen, um auch in den Suchmaschinen glänzend da zu stehen. Ob ein privater Blog, die Webseite einer öffentlichen Einrichtung, eine Vereinswebseite oder der Online-Shop eines Unternehmens, für alle Arten von Webprojekten findet man eine individuelle Lösung.

Natürlich ist der Sicherheitsaspekt ein besonders wichtiges Kriterium für die Entscheidung zu einem Webhosting in Österreich. Neue Domains registrieren ist eine Sache, deren gesicherte Verwaltung eine andere. Da bei den Österreichischen Webhostern wie World4you noch Wert auf persönliche Betreuung gelegt wird, kann man sicher sein, immer einen qualifizierten Ansprechpartner zu finden, der sich der Kundenprobleme zeitnah und en Detail annimmt.

The post Serverstandort Österreich appeared first on Austrianweb - Internetmarketing.

]]>
SEO für KMU – 5 Fehler beim Linkaufbau https://www.austrianweb.eu/seo-2/seo-fur-kmu-5-fehler-beim-linkaufbau/ Wed, 17 Oct 2012 06:54:59 +0000 https://www.austrianweb.eu/?p=280 Immer mehr kleine und mittlere Unternehmen erkennen die Bedeutung der Suchmaschinenoptimierung und widmen sich verstärkt der On- und OffPage-Optimierung. Doch besonders beim Linkaufbau passieren häufig Fehler. Dadurch wird die Sichtbarkeit bei Google & Co. behindert, wodurch ein gutes Ranking ausbleibt. Wir nennen Ihnen die häufigsten Fehler, die den SEO-Erfolg deutlich schmälern und erklären, wie Sie...
Weiterlesen »

The post SEO für KMU – 5 Fehler beim Linkaufbau appeared first on Austrianweb - Internetmarketing.

]]>
Immer mehr kleine und mittlere Unternehmen erkennen die Bedeutung der Suchmaschinenoptimierung und widmen sich verstärkt der On- und OffPage-Optimierung. Doch besonders beim Linkaufbau passieren häufig Fehler. Dadurch wird die Sichtbarkeit bei Google & Co. behindert, wodurch ein gutes Ranking ausbleibt. Wir nennen Ihnen die häufigsten Fehler, die den SEO-Erfolg deutlich schmälern und erklären, wie Sie diese beheben bzw. vermeiden können.

1. Zu schnelles Linkwachstum

Wird eine Website gerade neu aufgebaut, dann wünscht man sich diese komplett live geht – mit allen Texten, Multimedia-Inhalten und Links. Beim letzten Punkt sollte man sich jedoch zurückhalten und nicht zu forsch an die Einbindung von Inbound- und Outbound-Links herangehen. Google wittert in diesem Fall schnell Betrug, was eine Abstrafung nach sich ziehen kann.

Unser Tipp: Setzen Sie auf langsames, aber kontinuierliches Linkwachstum. Darüber hinaus empfiehlt es sich, beim Aufbau mit sogenannten Brand-Links zu beginnen. Bei dieser Textlink-Gattung werden Unternehmens- oder Markennamen als Anchor genutzt. Später werden dann Keyword-Links auf die Website integriert. So erzielt man ein möglichst natürliches Linkwachstum.

2. Ein unausgewogener Link-Mix

Bei der Suchmaschinenoptimierung wird Einseitigkeit bestraft – und zwar mit schlechten Rankings. So genügt es nicht, mit einigen Partnern Linktausch zu betreiben oder allein auf Social Media zu setzen. Im Web stehen zahlreiche Linkquellen zur Verfügung, die dazu beitragen einen bunten Mix zu kreieren. Und natürlich sollte besonders auf die Qualität der Links geachtet werden. Dazu zählt zum Beispiel die Verlinkung auf einer Website mit einem Pagerank von mindestens 5. Auch externe Links mit Keyword-Anchor gelten als hochwertig.

Unser Tipp: Wie so oft im Leben ist das Mittelmaß der richtige Weg. Bei der Bestückung mit Links sollten Website-Administratoren darauf achten, eine breitgefächerte Linkstruktur zu etablieren. So spielt etwa die Linkqualität, die Platzierung, die Linksorte sowie das richtige Verhältnis eine wichtige Rolle. So sollten beispielsweise einerseits nicht zu wenig, aber andererseits nicht zu viele Keyword-Links integriert sein.

3. „Bad Neighbourhood“

Die Bezeichnung der „schlechten Nachbarschaft“ wurde von Google entwickelt und bezeichnet in der Suchmaschinenoptimierung abgestrafte Websites, mit denen mal verlinkt ist. Diese ziehen die eigene Homepage im Ranking schnell herunter. Die Herausforderung ist es zu erkennen, welche Websites Google als schlecht klassifiziert. In erster Linie zählen Webpräsenzen mit einem niedrigen Pagerank zu den Verdächtigen. Verlinkungen zu unseriösen Seiten werden schnell durch Entwertung bestraft. Bei einer schlechten Nachbarschaft kann es sich jedoch durchaus auch um eine Auswahl „guter Links“ handeln. In dem Fall ist meist ein allzu eintöniger Mix mit immer denselben Linkquellen schuld.

Unser Tipp: Ein adäquates Mittel, um schlechte Nachbarschaften zu erkennen, gibt es (noch) nicht. Stattdessen gilt es, die Entwicklung der eigenen Website zu beobachten. Wie verhalten sich die Besucherzahlen? Sind die Zahlen zurück gegangen, statt zu wachsen? Gibt es negative Veränderungen im Pagerank? Anzeichen wie diese können auf eine schlechte Nachbarschaft hinweisen. Verlinkungen sollten deshalb mit größter Sorgfalt gesetzt werden. Abwechslung und Qualität helfen dabei eine gute Linknachbarschaft zu generieren.

4. Duplicate Content auf externen Seiten

„Content is King“ – und es kann nun mal nur einen geben. Warenhersteller haben jedoch oft das Problem, dass Verkaufsportale die Produktbeschreibungen einfach von der Unternehmenswebsite kopieren. Dies wird von Google & Co. jedoch nicht gern gesehen – vor allem bei der Integration von Links. Dasselbe gilt natürlich für Blogartikel, Forenbeiträge oder andere Textsorten.

Unser Tipp: Achten Sie darauf, dass alle Inhalte, die Sie selbst auf externen Webseiten wie Artikelverzeichnissen publizieren, einzigartig sind. Bei Onlineshops empfiehlt sich die Überarbeitung der eigenen Produktbeschreibungen, sollten gleiche Textstellen bei Drittanbietern auftauchen. Somit bleibt der externe Content einzigartig und es drohen keine Abwertungen durch Google.

5. Unterschätztes Verhältnis von Follow-/NoFollow-Links

NoFollow-Links gelten in beim Linkbuilding als unbeliebt, weil durch das Attribut die positiven Werte eine starken Website, etwa der Pagerank, partiell nicht weiter gegeben werden. Ursprünglich wurde NoFollow eingeführt, um Spam-Links zu unterbinden. Doch trotz des negativen Images ist eine NoFollow-Verlinkung von einer angesehenen Seite nicht zu unterschätzen, denn wie die Links von den Suchmaschinen gewertet werden, ist nicht genau bekannt.

Unser Tipp: Ein Mix aus Follow- und NoFollow-Links ist für eine natürliche Linkstruktur unverzichtbar. Über das genaue Verhältnis lässt sich wie so oft in der SEO-Szene streiten. Grundsätzlich sollten die Follow-Links jedoch überwiegen. Laut seovista.de wurde auf großen Websites ein Verhältnis zwischen Follow- und NoFollow-Links von durchschnittlich acht zu eins beobachtet.

Weitere Infos (externe Seiten):

The post SEO für KMU – 5 Fehler beim Linkaufbau appeared first on Austrianweb - Internetmarketing.

]]>
Eine Übersicht: Wann greifen Googles Abstrafungen? https://www.austrianweb.eu/seo-2/eine-ubersicht-wann-greifen-googles-abstrafungen/ Mon, 10 Sep 2012 06:00:08 +0000 https://www.austrianweb.eu/?p=224 In den vergangenen Monaten gab es viel Wirbel um Googles Neuerungen „Panda“ und „Pinguin“. Legt das eine Update neue Maßstäbe in Sachen Content, so optimiert gleich das andere einen ganzen Algorithmus. Das Ergebnis der beiden Schritte: in der SEO-Branche herrscht Verunsicherung. Besonders das Pinguin-Update stiftet Unruhe: Auf welche Merkmale der Suchmaschinenoptimierung legt der erneuerte Google-Algorithmus...
Weiterlesen »

The post Eine Übersicht: Wann greifen Googles Abstrafungen? appeared first on Austrianweb - Internetmarketing.

]]>
In den vergangenen Monaten gab es viel Wirbel um Googles Neuerungen „Panda“ und „Pinguin“. Legt das eine Update neue Maßstäbe in Sachen Content, so optimiert gleich das andere einen ganzen Algorithmus. Das Ergebnis der beiden Schritte: in der SEO-Branche herrscht Verunsicherung. Besonders das Pinguin-Update stiftet Unruhe: Auf welche Merkmale der Suchmaschinenoptimierung legt der erneuerte Google-Algorithmus Wert? Welche Maßnahmen werden nunmehr belohnt, welche bestraft? Der folgende Artikel soll die Verwirrung um Panda und Pinguin ein wenig auflösen, denn wir sagen Ihnen, welche Fehler ab jetzt unbedingt vermieden werden sollten.

1. Mangelnde Linkqualität

Auch wenn es auf den ersten Blick so aussieht, aber Link ist nicht gleich Link. Vor allem in der Offpage-Optimierung werden häufig mehr oder weniger legale Maßnahmen ergriffen – bewusst oder unbewusst. Daraus folgt, dass Website-Betreiber beim Einsatz von Verlinkungen viele Fehler machen. So gibt es eine Vielzahl von Linkarten, die Google abstraft. Dazu zählen unter anderem versteckte Links, Spamlinks oder auch Broken Links. Die Qualität, Menge und andere Formalien können ebenfalls zu Penalties führen. Zu schneller Linkwachstum erweckt bei Google ebenso Misstrauen wie zu viele Links zu fremdsprachigen Websites. Auch Links zu „schlechten“ Seiten werden negativ bewertet. Werden Links in großem Maß getauscht oder gar gekauft, so führt auch das zu einer Abstrafung durch Google. Aufgrund all dieser Fakten ergibt sich eine einfache Regel: Setzen Sie auf natürlichen Linkwachstum!

2. Schlechte Content-Qualität

Eigentlich eine Selbstverständlichkeit, mit dem „Panda“-Update aber noch einmal stärker ins Bewusstsein der SEOs gerückt: Auf jede Webseite gehört hochwertiger Content, der den Besuchern einen möglichst hohen Mehrwert bietet. Die Suchmaschinen sind bestrebt, den Usern nützliche Inhalte bei Ihrer Suche zu liefern. Je besser der Inhalt, umso höher steigt eine Internetseite im Ranking. Natürlich ist der Einsatz von Keywords noch immer ein wichtiges Element der OnPage-Optimierung. Allerdings wird die Qualität der Texte auch von der Keyword-Ausstattung beeinflusst.

Viele Maßnahmen mindern den Wert eines Textes, zum Beispiel Keyword-Stuffing. Wer Hidden Text auf seiner Website nutzt, riskiert ebenfalls eine Strafe. Denn diese Inhalte dienen lediglich der Sichtbarkeit bei den Suchmaschinen, bieten den Lesern jedoch keinerlei Nutzen, da sie unsichtbar sind. Ein absolutes No-Go ist natürlich Duplicate Content. Und auch Text-Spinning ist zwar eine beliebte, jedoch eher unschöne Methode der Content-Generierung.

3. Zuviel Werbung

Dieser Punkt befasst sich ebenfalls mit dem Thema Content. Kritisch wird es für Website-Betreiber dann, wenn das Verhältnis zwischen Werbung und Inhalt nicht stimmt. Finden Besucher auf der Homepage also mehr Werbung als Content vor, dann zeigt Google die rote Karte. Das betrifft vor allem den oberen Teil der Website (above the fold). Denn hier werden traditionell die wichtigsten Botschaften einer Website platziert. Deshalb sollte in der oberen linken Hälfte des Bildschirms nur wenig Werbung eingeblendet werden. Zumindest muss der eigentliche Inhalt der Internetseite überwiegen. Am besten wird die Homepage regelmäßig mit neuen Inhalten in Form von Texten, Bildern oder Videos eingebunden. Die Dynamik steigert die Attraktivität der Seite bei Google & Co.

4. Klickbetrug

Grundsätzlich eine klare Sache: Betrug wird bestraft – das gilt auch bei SEO. In diesem Fall ist das Corpus Delicti die Beeinflussung der Besucherzahlen einer Website. Durch Klickbetrug wird die Zahl nach oben getrieben, was sich wiederum positiv auf das Ranking in den SERPs auswirkt. Diese Manipulation geschieht unter anderen mithilfe von Programmen oder manuell – beide Methoden werden von Google bestraft. Ehrliche Besucherzahlen werden hingegen durch interessante Inhalte geschaffen. Diese erhöhen nicht nur den Traffic einer Website, sondern verbreiten sich häufig auch viral über soziale Netzwerke. So können dauerhaft hohe Besucherzahlen generiert werden, ganz ohne Betrug.

Ein Artikel von Claudia Morgenstern

Weitere Infos (externe Seiten):

The post Eine Übersicht: Wann greifen Googles Abstrafungen? appeared first on Austrianweb - Internetmarketing.

]]>
Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update https://www.austrianweb.eu/seo-2/artikelverzeichnisse-gespaltene-meinungen-nach-pinguin-update/ Mon, 03 Sep 2012 07:58:42 +0000 https://www.austrianweb.eu/?p=219 Lange Zeit galt die Nutzung von Artikelverzeichnissen in puncto Suchmaschinenoptimierung als eine effektive Methode, um den Linkaufbau einer Webpräsenz voranzutreiben. Bei den Verzeichnissen handelt es sich um Websites, zum Beispiel Blogs, auf denen jeder User selbst verfasste Beiträge kostenlos publizieren kann. In die Texte dürfen Verlinkungen, die so genannten In-Content Links, zu andern Seiten eingefügt...
Weiterlesen »

The post Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update appeared first on Austrianweb - Internetmarketing.

]]>
Lange Zeit galt die Nutzung von Artikelverzeichnissen in puncto Suchmaschinenoptimierung als eine effektive Methode, um den Linkaufbau einer Webpräsenz voranzutreiben. Bei den Verzeichnissen handelt es sich um Websites, zum Beispiel Blogs, auf denen jeder User selbst verfasste Beiträge kostenlos publizieren kann. In die Texte dürfen Verlinkungen, die so genannten In-Content Links, zu andern Seiten eingefügt werden – und damit sind die Artikelverzeichnisse eine hervorragende Möglichkeit, um bei Google & Co. besser gerankt zu werden. Denn „In Content“-Links galten bisher als nützlich und gut. Allerdings driften nun die Meinungen zu Artikelverzeichnissen und SEO-Experten auseinander. Der Grund dafür ist das Algorithmus-Update „Pinguin“ von Google.

Vorteile und Nachteile der Verzeichnisse

Auch wenn die Artikelverzeichnisse vornehmlich für den Linkaufbau genutzt werden, so bergen sie dennoch eine große inhaltliche Qualität. Denn alle Texte müssen einzigartig sein, um von den Suchmaschinen nicht abgestraft zu werden. Wie bei allen Webinhalten hier gilt die Devise „(Unique) Content is King“. Man kann ein Artikelverzeichnis also nicht grundsätzlich negativ einstufen. Vielmehr gibt es zwischen den einzelnen Verzeichnissen gravierende Qualitätsunterschiede. Ein weit schlimmeres Problem mit dieser Art von Websites ist jedoch häufig, dass viele Backlinks gekauft sind. Damit wird fast schon mustergültig viel Schindluder betrieben, denn Google erkennt nicht, welche Links gekauft wurden oder nicht. Jedoch gehen die Käufer oft nach bestimmten Mustern vor und diese werden ihnen und dem Artikelverzeichnis zum Verhängnis. Googles Algorithmen sind mittlerweile hoch entwickelt und erkennen solche Muster. Die Folgen sind bekannte Strafen wie Herabsetzung des Rankings oder gar Entfernung aus dem Index. Doch welche Verzeichnisse sind von strengen Kriterien des Pinguin-Updates betroffen? Wonach richtet sich die Entscheidung für oder gegen ein Artikelverzeichnis?

Was sich mit Pinguin verändert hat

Laut Analysen gibt es Gewinner und Verlierer des Updates. Wie eine Studie von Christoph C. Cemper verdeutlicht, wurden unter anderen viele kommerzielle Artikelverzeichnisse herabgestuft. Auf der anderen Seite zählen vertrauenswürdige Anbieter wie Wikipedia oder T-Online zu den Gewinnern. Bemerkenswert erscheint bei der Verschiebung die Bedeutung von „In Content“-Links, die ja bis dato als eine positive Linkart bewertet wurden. Jedoch scheint sich dieses Charakteristikum seit Pinguin in gewisser Hinsicht verändert zu haben. Denn nun spielt nicht nur die Quantität, sondern insbesondere die Qualität eine wichtige Rolle. Wie Cemper herausfand, haben die Gewinner des Updates hauptsächlich so genannte „Trusted Links“ vorzuweisen und die gelten als besonders hochwertig. Die Verlierer sind demnach jene Websites, die zwar viele, aber wenig wertvolle „In Content“-Links eingebunden haben.

Unser Tipp für den Umgang mit den Online-Verzeichnissen: Veröffentlichen Sie einzigartige, gut recherchierte Texte nur auf Verzeichnissen, die thematisch relevant sind. Statt auf Masse zu setzen, sollten die Verzeichnisse nach Thema und Ansehen ausgewählt werden und Texte individuell verfasst werden. Auf Methoden wie Textspinning sollte verzichtet werden, da die Algorithmen von Google auch hier Muster erkennen können. Wie bei allen Komponenten des Linkbuildings sollte Wert auf Natürlichkeit gelegt werden. Ein allzu aggressives Vorgehen kann Website-Betreibern seit der Einführung von Pinguin nur schaden.

Ein Artikel von Claudia Morgenstern

Weitere Infos (externe Seiten):

The post Artikelverzeichnisse: Gespaltene Meinungen nach Pinguin-Update appeared first on Austrianweb - Internetmarketing.

]]>
Bleibt alles anders? https://www.austrianweb.eu/seo-2/bleibt-alles-anders/ Wed, 11 Jul 2012 07:57:00 +0000 https://www.austrianweb.eu/?p=200 Eine kritische Betrachtung der neuen Update-Politik von Google Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender...
Weiterlesen »

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Eine kritische Betrachtung der neuen Update-Politik von Google

Im Zuge des Penguin genannten Updates der Suchmaschine Google sind viele Neuerungen in die Darstellung von Suchergebnissen auf den SERPs ersichtlich geworden. Was im Changelog des Suchmaschinenriesen zunächst lapidar als „regionale Anpassung von Suchergebnissen“ daher kommt, hat sich in der Praxis innerhalb der letzten Wochen als schwerwiegender als erwartet auf das Nutzererlebnis der Anwender ausgewirkt. Ebenso beklagen SEO-Professionals die schwankenden Resultate der Google Suche und die damit verbundenen Schwankungen in der häufig vom Kunden erwünschten Leistungsnachweise durch Ranking-Statistiken.

Der Impact der neuen Regeln, nach denen die Suchmaschinen-Ergebnisseiten von Google generiert werden, hat sich noch nicht zu seinem vollen Potential gezeigt, da die Umgliederung der Darstellungsform und der damit verbundenen Neubewertung der von den Google Crawlern erfassten Webseiten noch nicht abgeschlossen ist und wie man in den stetig anders dargestellten Results erkennen kann, wird hier offensichtlich am lebendigen Objekt live mit Mini-Hotfixes die neuen Algorithmen rekalibriert, was den Suchmaschinenoptimierern der SEO-Branche zur Zeit das Leben schwer macht.

Offensichtlichste Änderung in der Darstellung und Ausgabe der SERP ist die Lokalisierung der Suchergebnisse: Wer heute in Wuppertal und Köln nach dem selben Begriff googelt, wird feststellen dass die Resultate seiner Google Suche unterschiedlich ausfallen. Durch die mangelnde Optimierung der Webseiten lokaler Händler läuft diese Initiative, neben den Großhändlern auch kleinere Business-Formen in die SERPs zu bringen, zunächst in die Leere, während die Großhändler wie Amazon hingegen weiterhin mit Leichtigkeit auf diese Änderungen reagiert haben und ihre Optimierung mit ebenfalls lokalisierten Unterseiten versehen haben und so weiter die Top-Rankings belegen.

Weiter haben sich skurrile Vereinfachungen im Testversuch gezeigt: Die Begrenzung der in den SERPs dargestellten verschiedenen lokalisierten Webseiten wurde massiv reduziert und auf Wirtschafts- und Unionsräume, bis zur Größenordnung von Kontinenten und Subkontinenten in Ergebniskategorien zusammengefasst. Das bedeutet: Ein international versendender Händler oder Hersteller kann, wenn noch zuvor durch mühsam Aufgebaute Pagerankings und Optimierung seines Angebotes in der organischen Google Suche mit fehlendem Hinweis im Suchbegriff vollkommen aus dem Resultat eines Nutzers fallen, wenn dessen geografische Herkunft in einem anderen von Google definierten Bereich liegt. Das schränkt nicht nur SEO-Agents in ihrem Handeln bei der OnPage-Optimierung ein sondern belastet diesen Bereich zumindest über die Bürde durch die massive Optimierung auf künftige regionale Zielgebiete für den Absatz und das Anbieten und etablieren der Kundenmarke. Die Reichweite kommender Google Suchen werden massiv abnehmen und erregen damit bereits in der Theorie großen Unmut.

Gleichzeitig führen scharf umrandete Suchbegriffe nach populären Angeboten oder Marken und Produkten sehr häufig über die ersten Ergebnis-Seiten schlichtweg auf die Angebote der jeweiligen Anbieter. Das kann bedeuten, dass die Suche, z.B. nach einem großen Telekommunikationsanbieter dazu führen kann, das nicht mehr, wie zu früheren Versionen der Suchmaschine, möglichst viele unterschiedliche Suchergebnisse von unterschiedlichen Domains und TLD sowie kategorisierten Präsentationsformen wie Blogs und Foren in die SERP eingebunden werden, sondern so das faktische Resultat der Nutzersuche darauf hinausläuft dass Google schlichtweg sich zu einem Register der PR-Darstellung der Unternehmen entwickelt, statt weiterhin kritische und unabhängige Angebote in seine Suchergebnisse mit zu integrieren, die geringere Popularität aufweisen, wohl aber konkrete Themenrelevanz besitzen.

Weiterhin treibt die Update-Politik des uneingeschränkten Marktführers weitere Blüten: Die hauseigenen Produkte von Google und ihrer Schwesterunternehmen werden mehr und mehr in den Vordergrund gerückt. War die Einbindung von Google Maps in die Suchergebnisse für Lokalitäten noch sehr nah am Puls des Bedürfnisses und mit dem Sinn der Weiterentwicklung erfüllt, ist es heute schwer, nach Google Shopping, der Bildersuche oder schlichtweg dem +1-Button von Google auszuweichen. Hinsichtlich der Neutralität entwickelt der Konzern hier ein kritisches Eigenleben, der mit der hier beschriebenen Manipulation der Suchergebnisse und der geografisch bedingten Darstellung auf lange Sicht von einem freien Internet eher zu einem „Closed Net“ führen könnte, gebrandet mit dem Logo des Suchmaschinenkonzerns und der damit totalen Erfassung aller Nutzerdaten – die Krux, die man von frühester Stunde befürchtet hatte – und welche dann auch konkret gegen das Schaffen der Suchmaschinenoptimierer führt, denn: Die von für Suchmaschinen optimierten Webseiten fakturierten Informationen würden so langfristig durch die Ergebnisse der Auswertung von Protokollen aus den „sozialen“ Elementen aus den Google Plus Accounts der Kunden raffiniert.

In früheren Zeiten stand der Pinguin als Wappentier des Betriebssystem Linux stets für offene und technische Neuerungen, jedoch ist der Pinguin, der Google seinen Kunden und auch den gewerbetreibenden Professionals im Bereich der Suchmaschinenoptimierung und des Suchmaschinenmarketings eher ein schwarzes Schaf, als ein possierlicher Pinguin, denn schon bei der ethischen Frage nach einer Vorselektion von Suchergebnissen stößt der ambitionierte Nutzer des Internets auf schwerwiegende Fragen, die nach der Neutralität des Netzes und der Suchmaschinen, wenn es eine solche Freiheit im weitesten Sinne jemals in der Google Suche gegeben hat große Fragezeichen stehen lassen.

Als vorläufiges Fazit bleibt also: Die Diversität des Internets scheint zur Zeit stark gefährdet zu sein und wir verfolgen diese Entwicklung vorerst gespannt, da die erwähnten Hotfixes an den Suchalgorithmen zumindest von technischer Seite davon Zeugen, dass zur Zeit nicht alles so läuft, wie Gedacht. Es bleibt zu Hoffen, das Google seinem Grundsatz „Don’t be evil“ treu bleibt und nicht die sich andeutende, der Kritik würdigen, Änderungen weiter hinter verniedlichenden Projektnamen zu verbergen sucht.

The post Bleibt alles anders? appeared first on Austrianweb - Internetmarketing.

]]>
Der Google Author Page Rank(ing) kommt https://www.austrianweb.eu/seo-2/der-google-author-page-ranking-kommt/ Thu, 05 Jul 2012 10:08:41 +0000 https://www.austrianweb.eu/?p=182 Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen. Damit steigt die...
Weiterlesen »

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
Etwas, was sich in früheren Jahren kaum jemand getraut hat zu denken, wird nun offensichtlich Fakt und knallhartes Bewertungskriterium in Googles Kampf um den Qualitäts-Content: Der Author Page Rank. Was früher also nur der allgemeine Pagerank für die Bewertung einer Webseite hinsichtlich der bekannten Faktoren war, wird nun noch einmal autorenspezifisch vorgenommen.

Damit steigt die Relevanz zum bestimmten Autoren im Bereich des SEO weiter, es werden hierbei die Verknüpfung des Social Graphs mit logischen Links und echten Links bestimmter Autoren vorgenommen. Realisiert wird das ganze unter anderem über den Tag „rel=author“, der in die Bewertungskriterien bei der Zuweisung rücksicht nehmen wird, zusätzlich zu den Faktoren von sozialen Netzwerken via +1, Likes und Shares sowie den klassischen Bewertungskriterien durch Backlinks, der Bounce Rate und der Aufenthaltsdauer von Usern auf bestimmten Inhalten eine höhere Bewertung zu erlangen. Schlüssel dabei wird wohl die Themen-Relevanz der Inhalte in Kumulation mit der Kategorisierung der jeweiligen Autoren und dem vergebenen Author Page Rank sein.

SearchMetrics hat dazu eine Tabelle erstellt, die sich auf eine Million deutschsprachiger Keywords bezieht, die einer Autorenintegration in die Inhalte unterliegt und aus den Werten dieser . Die gesamte Tabelle finden sie hier (http://blog.searchmetrics.com/de/wp-content/uploads/2012/04/Top200-Google-Autor-Integrationen.xlsx)

Dass das Autorenprofil von Google, das jüngst eingeführt wurde, dabei eine große Rolle spielen kann, wie viele Erstklick-Raten der Inhalt erfährt, zeigen auch die Anaylsen von Neil Patel, einem freien SEO-Agent, der seine eigenen Inhalte mit diesem System und anhand der Google-eigenen Werkzeuge zurück verfolgt hat. Der Impact auf die Besucherzahlen hat dabei etwa den wert von rund 150%.

Hauptwirkmittel dieser Methode ist dabei das unterbewusste und unaufdringliche Schaffen von Vetrauen beim User durch eine Personalisierung und Sozialisierung des Inhaltes, indem ein Suchergebnis auf der SERP bereits mit einem Namen und einem Gesicht verbunden wird und die Neigung des Users prinzipiell steigt, Inhalte mit einem Autorenprofil eher anzuklicken. Weiterhin schafft dieses Autorenprofil eine konkrete Verlinkung des Autoren noch im Suchergebnis selbst, was später bei der Kopplung eines Pagerankings direkt mit einem Autorenpagerank sich von Vorteil erweisen wird, denn hier werden Autoren im Bereich SEO, wie etwa die SEO-Texter ganz klar in den Vordergrund gestellt.

Das hat den von Google gewünschten Effekt, das SEO-Maßnahmen vor allem durch konkret aufgebaute und entsprechend gut bewertete Autoren vorgenommen wird. In Zukunft wird also ein hoch bewertetes Autorenprofil respekte der Author Page Rank bares Geld wert sein und damit auch die gesamtheitliche Bedeutung des eigenen Google+ Profils massiv verstärken, vor allem gegenüber der Heerschar an unbekannten Textschaffenden, die das Internet bisher mit einer Unzahl an suchmaschinenoptimierten Texten geflutet haben. Qualität steht hier definitiv im Vordergrund, inklusive der sozialen Komponente der social networks, die sich durch die offenen APIs von Facebook und Google+ für die Suchmaschinen relativ leicht tracken lassen, wie man an den in den USA bereits verfügbaren „More by“-Tags ersehen kann: Hier werden ganze Lebenswerke in der digitalen Welt konkret verknüpft und schaffen eine höhere Zugänglichkeit, gerade bei Fach- und sachbezogenen Texten und Artikeln, die auch im Bereich SEO und SEM ihre bestimmte Relevanz erhalten werden, man möchte geradezu meinen, die Zeit der schlechten und immer wieder aufs neuen kopierten Contents könnte sich einem Ende nähern.

In ihr CMS automatisch einfügen können sie ihr Autorenprofil über generell wie bei WordPress  verfügbare Plug-Ins, die nach Einrichtung der Werte automatisch den entsprechenden und gültigen Autoren-Tag an ihre Artikel anheftet und gleich dem Google Crawler bereit stellt.

Kritische Fragen, die sich zum Autorenprofil und der konkreten Bewertung der Autoren durch den Google Autor Pagerank beziehen, schwanen da aber auch kritische Fragen im Bereich des Rechts: Wie werden Medienhäuser und Verlage darauf reagieren, das „ihre“ Autoren durch den höheren Marktwert bei höherer Bewertung eine größere Eigenständigkeit und vielleicht auch Fluktuation erhalten? Wird man in Zukunft großkalibrige Autoren damit beauftragen, auf Firmeneigenen Weblogs zu schreiben um die Google-Metrik zum eigenen Vorteil zu nutzen? Oder wird es gar eine instinktive Klagewelle gegen diese Maßnahmen geben, da die Urheberrechte in Deutschland trotz ihrer Unteilbarkeit gerne de facto verkauft werden? Wie tief greift das Autoren-Crawling in Zukunft? Werden öffentliche Kommentare und andere Äußerungen in die Bewertung fallen?

Diese und andere Fragen stellt sich die Community bereits jetzt vor dem ganz großen Anlauf der Überarbeitung des Suchalgorithmus und man kann die Spannung diesem neuen Werkzeug gegenüber regelrecht spüren. Denn mit über 95% Marktanteil bedeutet diese neue Bewertungsstrategie großes Potential – und eine Gefahr für diejenigen, die nicht frühzeitig die neuen Methoden adaptiert und entsprechende Autoren aufgebaut haben im Rennen um die vorderen Plätze der SERPs.

 

The post Der Google Author Page Rank(ing) kommt appeared first on Austrianweb - Internetmarketing.

]]>
Ist der Ruf erst ruiniert… https://www.austrianweb.eu/seo-2/ist-der-ruf-erst-ruiniert/ Wed, 27 Jun 2012 11:37:19 +0000 https://www.austrianweb.eu/?p=196 Warum Online Reputation Management auch für SEO relevant ist Die Werbeform der Suchmaschinenoptimierung gilt heute gesichert als eine der erfolgreichsten B2C-Kommunikationsformen. Mit dieser Wichtigkeit, die das HTML- und Google-Gerechte Anpassen der eigenen Systeme und Inhalte mit sich bringt, stehen auch neuerliche Fragen im Raum, denn niemand steht unangefochten alleine auf weiter Flur auf der ersten...
Weiterlesen »

The post Ist der Ruf erst ruiniert… appeared first on Austrianweb - Internetmarketing.

]]>
Warum Online Reputation Management auch für SEO relevant ist

Die Werbeform der Suchmaschinenoptimierung gilt heute gesichert als eine der erfolgreichsten B2C-Kommunikationsformen. Mit dieser Wichtigkeit, die das HTML- und Google-Gerechte Anpassen der eigenen Systeme und Inhalte mit sich bringt, stehen auch neuerliche Fragen im Raum, denn niemand steht unangefochten alleine auf weiter Flur auf der ersten SERP, oft mischen sich zu den eigenen Suchergebnissen auch die Angebote von Verbraucherportalen, Foren und anderen formen der öffentlichen Kommunikation unter den Klang der eigenen Marken- und Angebots-Kommunikation mit besonderen Synergie-Effekten, die sich bei schlechtem Produktmanagement zu einem sprichwörtlichen Sturm entwickeln können und vor allem die Mehrzahl der Suchergebnisse auch beeinflussen können – und das nicht zu ihrem Vorteil.

Für diesen Umstand gibt es das sogenannte Online Reputation Management. Mittel eigens für ihren Zweck entworfenen Crawling Tools werden zunächst Maßnahmen getroffen eine gewisse Übersicht über ihre Online Reputation zu erstellen. Dazu werden die von Google Trust kategorisierten Foren und Blogs von diesen Crawlern erfasst und für sie in einer Übersicht zusammen gestellt. Das bewahren oder wiedererlangen der Reputation Control istd er zweite Schritt im Maßnahmenkatalog zur Wiedererlangung ihrer Hoheit über die Öffentlichkeitsdarstellung: Sie werten die Ergebnisse per Hand aus und verschaffen sich so die Übersicht, ob unter den von ihnen vermerkten Einträgen möglicherweise eine Kampagne versteckt, wie zum Beispiel eine Semantik-Analyse schnell nachweisen kann. Weiterhin können sie nun erfassen, ob es juristisch relevante Aussagen und Behauptungen gibt, die sie durch Unterlassungserklärungen und -klagen schnell unterbinden können. So gewinnen sie neben der Markenübersicht auch die Kontrolle der über sie getätigten Aussagen wieder, die leider viel zu oft sehr impulsiv und selten sachlich wie fachlich korrekt ausfallen und dennoch beim Kunden meist schwer wiegen, doch dazu später mehr.

Für den Bereich der SEO ist dieses Reputation Management in sofern relevant, das sich mit kombinierten SEO und PR-bezogenen Kampagnen synergische Effekte ganz klar Nutzen lassen. Gerade im Bereich B2C können sie mit einer erfolgreichen Kampagne, die möglicherweise virale Elemente enthält, schnell die Effekte der Google SEO mit dem besten Tool verbinden, das in der SEO und SEM bekannt ist: Mundpropaganda. Der klassische Buschfunk ist heute noch ein ganz klarer Modifikator für ihre Besucherströme und entscheidendes Kriterium für ihre Geschäftsabschlüsse. Heute findet die klassische C2C-Kommunikation nicht mehr nur persönlich oder per Telefon statt: Durch den durchschlagenden Effekt der sozialen Netzwerke multiplizieren sich die „Kunde zu Kunde“-Werbeeffekte um ein Vielfaches, da bereits zwei auf Facebook geteilte Beiträge ihrer Kampagne ein potentielles Publikum von 500 bis 1000 Menschen erreicht, was sich entsprechend auch in den SEO-relevanten Faktoren wie der Besucherzahl ihres Angebotes niederschlägt und so eine Verbindung in die Suchmaschinenoptimierung bildet.

Um jedoch die vom Marketing erzielten Erfolge auf kurze und lange Frist zu sichern, bedarf es einer „weißen Weste“. Dazu gehören unverbrauchte Marken, eine qualitativ hochwertige Palette an Produkten oder Dienstleistungen und die Kontrolle über die öffentliche Darstellung. Es sei ihnen dazu angeraten, neben ihren Marketing- und Sales-Managern ebenso einen Online-Reputation-Manager anzustellen, wenn sie mit ihrer Marke oder ihrem Produkt eine gewisse Reichweite erreicht haben. Idealerweise mit einem SEO-Hintergrund, vermag dieser einzelne Manager ihrem Unternehmen die Einbrüche zu vermeiden, sie Marken wie Jack Wolfskin mit ihrer Abmahnwelle gegen ihre eigenen Kunden erleiden mussten. Denn mitnichten gilt im Online-Bereich dass auch schlechte Werbung Werbung sei. Der Konsument von heute orientiert sich an den Kundenportalen und der öffentlich dargelegten Meinung viel mehr, als es zu Zeiten des Ein-Wege-Konsums von Marketingmaßnahmen und Werbemitteln der Fall war.

Da dieser Umstand auch ihrer Konkurrenz und der Schar der sogenannten „Fanboys“ nicht unbekannt ist, werden sie schnell erfahren, das alsbald sie ihr Produkt in einem Bereich mit angrenzender Konkurrenz platzieren, sie mit den beiden o.g. Fraktionen in Kontakt kommen werden. Hier gilt es, durch geschickt platzierte Kampagnen eigene, im Internet aktive Kunden und Partner zu binden und sie zur Gegendarstellung zu animieren, vor dem Vorhang der klassischen Markenbindung, um im Kampf um die Bewertungen und Sternchen in der Suchmaschine und ihrer SERPs die Oberhand behalten zu können.

Abschließend muss festgestellt werden, das jede Firma, jede Marke, jedes Produkt, das sich auf den Markt begibt und im Internet zu finden ist, sich in einen gnadenlosen Konkurrenzkampf begibt, den es nur mittels strikter SEO-Maßnahmen in Verbindung mit Public-Relations-Kampagnen und der Fokussierung auf dynamische Elemente wie der C2C-Kommunikation aufbaut und ihre mächtigen Effekte entwickelt. Dazu gehört natürlich ebenso ein gewisser Grad an Ehrlichkeit – sie werden niemals ein schlechtes Produkt erfolgreich vermarkten können und sollten eine gewisse Selbstachtung hierbei bewahren. Online Reputation Management bedeutet nicht schlechte Meinungen zu unterdrücken, sondern rechtlich relevante und sachlich falsche zu widerlegen und die Vorzüge ihrer Produkte und Marken durch Nutzerbeiträge zu präsentieren, um ein Abrutschen ihrer Marke durch negative Einflüsse von externen Feindkampagnen zu verhindern.

The post Ist der Ruf erst ruiniert… appeared first on Austrianweb - Internetmarketing.

]]>