Leistung - FAQ - FAQ Suchmaschinenoptimierung

FAQ Suchmaschinenoptimierung

Sie suchen praxisnahe Antworten auf Ihre Fragen in Sachen Suchmaschinenoptimierung? Dann informieren Sie sich doch einfach mit unseren FAQ, denn wir haben das Know-how zu dieser Marketingdisziplin in kom- pakter Form für Sie zusammengefasst und liefern Ihnen konkrete Antworten auf Fragen, die für Sie als Unter- nehmer entscheidend sind. Damit sind Sie der Lage, die Chancen und Potenziale des Suchmaschinenmarke- tings zu erkennen und das Internet noch effektiver als Erfolgsfaktor für Ihr Geschäftsmodell zu nutzen.

Allgemeine Fragen

Wo finde ich Referenzen und Projekte?

Über die Referenzen können sich Unternehmer jederzeit auf der Agenturhomepage informieren, detaillierte Angaben zu einzelnen Kundenprojekten fallen allerdings unter den Datenschutz und können daher nicht öffentlich gemacht werden. Eine umfassende persönliche Beratung rund um die Themen Suchmaschinenoptimierung und andere aktuelle Möglichkeiten im Online Marketing sind aber ohnehin meist aussagekräftiger als Verweise auf prominente Referenzkunden.

Woran erkennt man unseriöse SEO-Dienstleister?

Vorsicht ist geboten, wenn SEO-Agenturen Spitzenplätze in den Google-Rankings innerhalb kürzester Zeit versprechen und dies für beliebige Keywords. Meist handelt sich um überteuerte Leistungsangebote, die ihr Ziel nicht ansatzweise erreichen oder sogar kontraproduktiv sind und zu einer Verschlechterung der Suchergebnisse beitragen.

Seriöse SEO-Dienstleister erkennt man an kompetenter Beratung, Transparenz, nachhaltigen Strategien und nicht zuletzt an namhaften Referenzen, nach Möglichkeit aus derselben Branche wie das auftragsgebende Unternehmen.

Was unterscheidet Black-Hat-SEO von White-Hat-SEO?

Unter dem Schlagwort „White Hat SEO“ fasst man Techniken und Methoden der Suchmaschinenoptimierung zusammen, die von den Suchmaschinenbetreibern akzeptiert bzw. weitgehend geduldet werden sowie einen langfristig nachhaltig wirkenden, auf das Geschäftsmodell des Kunden angepassten und vor allem nicht manipulativen Charakter haben. Dazu gehört die Veröffentlichung keywordspezifischer Texte (Landing Pages, Pressemeldungen etc.), die Verwendung optimierter Metadaten, aber auch der natürliche Linkaufbau beispielsweise durch Linkpartnerschaften mit thematisch verwandten Internetseiten.

Im Gegensatz hierzu bezeichnet man mit dem Begriff „Black-Hat-SEO“ Techniken, die kurzfristig zu einer Verbesserung der Google-Rankings führen können, dabei aber auf Mittel der Täuschung und Manipulation zurückgreifen. Typische Black-Hat-Methoden sind das Keyword-Stuffing, Cloaking oder das Betreiben von Linkfarms. Die Nutzung von Instrumenten aus dem Bereich Black- Hat-SEO stellt ein Risiko für Unternehmen dar, denn die Suchmaschinen können unlautere SEO-Praktiken mittlerweile meist kurzfristig erkennen und verhängen in diesem Fall Sanktionen, die bis zur Löschung der Seiten aus dem Index führen können.

Was ist Crawler Friendliness?

Eine logisch aufgebaute Navigation erleichtert Besuchern nicht nur das Orientieren auf einer Homepage, sie sorgt auch dafür, dass Suchmaschinen die Seiten schneller und gründlicher einlesen können - sie ist damit ein nicht unwichtiger Faktor der Suchmaschinenoptimierung. Die Stichworte lauten Crawler Friendliness und Benutzerfreundlichkeit.

Welche Kategorien sollten bei der Seitenerstellung verwendet werden?

Bei der Auswahl der Kategorien bzw. Menüpunkte kommt es neben der Berücksichtigung der SEO-Erfordernisse vor allem darauf an, dem Besucher das Auffinden der gewünschten Informationen zu erleichtern. Insofern müssen die Kategorien, wie auch die gesamte Seitennavigation, klar und logisch aufgebaut sein und den Anforderungen der Usability gerecht werden. Insbesondere sollte die Menüführung möglichst intuitiv und an den anzunehmenden Informationswünschen der Besucher orientiert sein. Für komplexer strukturierte Seiten empfiehlt sich meist eine Gliederung nach Haupt- und Unterkategorien, die einzelnen Unterpunkte lassen ich dabei typischerweise durch Pull-Down-Menüs erreichen. Eine Sitemap ist bei komplexen Firmenauftritten mit vielen Untermenüs unbedingt ratsam.

Zu den Standardkategorien gehören neben Verlinkungen auf die eigenen Produkt- bzw. Leistungsvorstellungen (Landing Pages) eine Rückverlinkung der Startseite („Home“), das vom Gesetzgeber vorgeschriebene Impressum sowie eine Seite für die direkte Kontaktaufnahme, zum Beispiel über ein Kontaktformular.

Wie wichtig sind Menüpunkte als SEO-Faktor?

SEO-spezifische Kategorien können ein wichtiger Erfolgsfaktor bei der Suchmaschinenoptimierung sein. Suchbegriffe, die als „Ankertext“ in klickbare Menüpunkte etc. statt nur im Fließtext in eine Website eingebaut sind, werden von Google hoch gewichtet. Dieser Effekt wird zusätzlich verstärkt, wenn die einzelnen Menüpunkte im Quellcode mit den entsprechenden Tags (<LI> bzw. <UL>) tatsächlich als Liste bzw. Aufzählung eingebettet sind. Im Optimalfall sollten sämtliche Hauptkeywords über eine Kategoriestruktur in die Website eingebaut werden. Dies ist eine Option, die insbesondere von spezialisierten Onlineversandhändlern regelmäßig wahrgenommen wird. In diesem Fall verweist jeder keywordoptimierte Link auf eine Landing Page, die ebenfalls auf diesen Suchbegriff optimiert ist.

Wie relevant sind Meta-Tags für die Suchmaschinenoptimierung?

Früher waren die Meta-Tags ein zentraler Faktor der Suchmaschinenoptimierung, mittlerweile gilt der eigentliche textliche Content der Seite („Content is King“) ebenso wie deren Navigation, Usability, Glaubwürdigkeit und vor allem Backlinkstruktur als wesentlich ausschlaggebender für das Google-Ranking. Der geringe Aufwand bei der Optimierung der Meta-Tags sorgt aber dafür, dass entsprechende Anpassungen im Quellcode ein fester Bestandteil marktüblicher SEO-Leistungspakete sind.

Darüber hinaus können interessant formulierte Title- und Decscription-Tags beim Suchmaschinennutzer für erhöhte Aufmerksamkeit sorgen und die Zahl der Seitenaufrufe steigern.

Was sind Meta-Tags und wie lassen sie sich optimieren?

Meta-Tags sind im HTML-Quellcode einer Website enthaltene Informationen, die der Browser nicht anzeigt, von Suchmaschinen aber ausgelesen und interpretiert werden können. Die wichtigsten Angaben in den Meta-Tags betreffen unter anderem Titel, Beschreibung, aber auch die Urheber der Seite sowie eine Liste von Schlagwörten, die von Google als Suchbegriffe identifiziert und bei der Analyse der Seite berücksichtigt werden. Die Metadaten zu Titel und Beschreibung werden in den Google-Suchergebnissen öffentlich angezeigt und können in dieser Funktion wie ein kurzer Teaser genutzt werden, um mittels bestimmter Schlagwörter Aufmerksamkeit beim Nutzer zu erregen. Siehe auch: FAQ: Wie funktioniert Keyword Placement?

Meta-Tags sind auch für die Neuindexierung einer Unternehmenswebsite von Bedeutung: Der sogenannte „Robot“-Tag weist den Google-Crawler an, die Seite (inklusive der verlinkten Unterseiten) zu erfassen und in den Index aufzunehmen. Dieser Tag kann den Crawler allerdings auch anweisen eine Seite vorerst nicht zu indexieren – zum Beispiel weil die Seiten sich noch in der Entwicklung befinden und noch nicht öffentlich einsehbar sein sollen.

Können Änderungen an der Website während der Optimierung vorgenommen werden?

Grundsätzlich sollten keine Änderungen oder Uploads auf der Website ohne Rücksprache mit der SEO-Agentur erfolgen. Dies gilt vor allem für Änderungen am Startseitentext oder den Landing Pages. Hier können unbedachte Maßnahmen schnell unerwünschte und das Ranking negativ beeinflussende Folgen haben. Die interne Verlinkung sollte ebenfalls nur agenturseitig angepasst werden. Wenn überhaupt, sollte der Auftraggeber allenfalls an den Seiten selbständig arbeiten, die nicht direkt in die SEO-Kampagne mit einbezogen sind, beispielsweise Seiten zum Mitarbeiterrecruiting oder dem Pressebereich. Ebenfalls unproblematisch sind auch kleinere Überarbeitungen des Webdesigns.
Eigenständige Maßnahmen zur Backlinkgewinnung stellen unter Umständen ein weiteres Risiko für die SEO-Kampagnen dar. Der kompetente agenturseitige Ansprechpartner sollte bei eventuellen Unklarheiten auf jeden Fall weiterhelfen.

Was ist der Unterschied zwischen On-Site- und Off-Site-Optimierung?

Die On-Site-Maßnahmen setzen direkt an der zu optimierenden Internetseite an, die Off-Site-Optimierung zielt vor allem auf die Stärkung der Backlinkpopularität ab, hängt also von indirekten Faktoren ab. Für den Erfolg einer SEO-Kampagne sind grundsätzlich beide Aufgabenbereiche der Suchmaschinenoptimierung ausschlaggebend.

Zum Paket typischer On-Site-Maßnahmen zählen insbesondere Erstellung und Einbau von keywordoptimierten Landing Pages und einer neuen Startseite, die Verbesserung der Menüstruktur und der Navigation sowie die Anpassung von Meta-Tags.

Im Bereich der Off-Site-Maßnahmen sorgen SEO-Dienstleister für den systematischen Aufbau einer Backlinkstruktur, dies bedeutet sie sorgen für qualitativ hochwertige, themenrelevante Hyperlinks von externen Webseiten, beispielsweise durch Linkpartnerschaften oder den Einbau so genannter Link-Baits. Die Anpassung interner Links, d.h. von Verweisen zwischen verschiedenen Unterseiten auf der eigenen Internetpräsenz, fällt sowohl in den On-Site- als auch den Off-Site-Bereich.

Was ist Online-Targeting?

Mit dem Schlagwort Online-Targeting bezeichnet man das zielgruppenspezifische Schalten von Internetwerbung. Im engeren Sinne betrifft dies vor allem die Funktionsweise von AdWords- oder AdSense-Anzeigen. Die Methode, die vor allem im AdSense-Bereich zum Einsatz kommt, ist das semantische Targeting, auch bekannt als kontextbasiertes Targeting. Diese Targetingtechnik vergleicht Internetseiten auf inhaltlicher Basis, legt hierfür allerdings nicht allein einzelne Schlagwörter bzw. Keywords zugrunde, sondern prüft den Content mittels verschiedener Analyseinstrumente auf tatsächliche thematische Übereinstimmung und damit auf eine ähnliche Besucherstruktur. Damit stellt Google sicher, dass über das Partnernetzwerk AdSensewerbung möglichst interessen- bzw. nachfragespezifisch eingeblendet wird und das Klickverhalten die erwarteten Ergebnisse erbringt.

Eine andere Methode des Online-Targeting ist das Behavioural-Targeting, das sich an den Internet- bzw. Suchgewohnheiten eines Nutzers orientiert und Werbeeinblendungen von gespeicherten personalisierten Daten abhängig macht. Diese Technik wirft allerdings nicht zuletzt datenschutzrechtliche Fragen auf, die immer wieder Gegenstand heftiger Kontroversen sind.

Was sind Webkataloge?

Bei Webkatalogen handelt es sich um Unternehmensverzeichnisse, die zum Teil regional oder branchenspezifisch ausgerichtet sind, und in die sich Unternehmen kostenlos bzw. teilweise kostenpflichtig eintragen lassen können – ähnlich wie bei den bekannten „Gelben Seiten“. Einige Webkataloge verlangen für einen Eintrag einen Backlink auf ihre Seite, dabei handelt es sich also um eine Variante der Linkpartnerschaft.

Früher galten die Webkataloge als wichtige Backlinkquelle. Heute haben Sie als Mittel der Suchmaschinenoptimierung an Bedeutung verloren, können aber potentiellen Kunden das Auffinden der eigenen Seiten unter Umständen erleichtern. Voraussetzung ist allerdings, dass das eigene Unternehmen mit vollständigen Daten in die trafficstärksten Kataloge eingetragen wird und die Verschlagwortungsfunktion effektiv eingesetzt wird.

Was ist Universal Search?

Universal-Search ist die gleichzeitige Suche nach Textartikeln, Bildern, Videos, Blog- und Forenbeiträgen sowie aktuellen Nachrichten zum selben Keyword. Es stellt mittlerweile den Standard bei allen wichtigen Suchmaschinen wie Google dar. Google zeigt bereits seit einigen Jahren beispielsweise Videoclips oder aktuelle Pressemeldungen auch zwischen den konventionellen organischen Suchergebnissen an und hebt diese meist grafisch hervor. Zugleich kann der User über die Auswahl der entsprechenden Tabs die Suchergebnisse auf Bilder, Videos, News etc. beschränken.

Für prominente Platzierungen, beispielsweise von Videokanälen oder Fotogalerien in den Google-SERP, ist die Suchmaschinenoptimierung eine entscheidende Voraussetzung – genau wie bei schwerpunktmäßig textlichen Inhalten.

Was ist Geo-Coding?

Der Zweck des Geo-Coding besteht in der räumlichen Lokalisierung von Webseitenbesuchern oder der regionalen Zuordnung von Klicks respektive auf AdWords- oder AdSense-Anzeigen. Methoden des Geo-Coding kommt insbesondere beim Schutz vor Klickbetrug eine wichtige Funktion zu, da sich auf diese Weise feststellen lässt, ob in einer bestimmten Region unnatürlich viele Klicks generiert werden.

Darüber hinaus spielt das Geo-Coding bei der lokalen Suche die entscheidende Rolle, da Google bei der Erstellung der Suchergebnisse die räumliche Nähe zum Google-Nutzer als einen zentralen Faktor berücksichtigt.

Wie lange dauert eine SEO-Kampagne?

Um dauerhaft effizient zu sein und Marktanteile im eCommerce zu sichern, sollte für die Suchmaschinenoptimierung kein fixes Enddatum definiert werden. SEO ist ein kontinuierlicher Prozess, der nur als Paket langfristiger Maßnahmen anhaltende strategische Vorteile verschaffen kann bzw. dabei hilft, die eigene Marktposition auszubauen. Eine Ausnahme bildet die Vermarktung von Saison- oder Auslaufartikeln, die zu einem bestimmten Zeitpunkt beendet sein wird – in diesem Fall können zeitlich beschränkte SEO-Maßnahmen (oder auch entsprechende Suchmaschinenwerbung) vernünftig sein.

Sinnvoll aber sind auf jeden Fall Termine für die regelmäßige Erfolgsevaluation der SEO-Kampagne, die Nachjustierungen zum Beispiel bei der optimalen Keywordauswahl zulassen und damit die Erfolgsperspektiven steigern.

Über das Kundenmenü kann die Erfolgsauswertung tagesaktuell vorgenommen werden.

Wer setzt die vereinbarten Optimierungen (SEO) eigentlich um?

Die vertraglich vereinbarten Anpassungen an der Kundenhomepage (Überarbeitungen des Quellcodes und der internen Verlinkungen, Upload und Einbau von Landing Pages etc.) erfolgen in aller Regel direkt durch die SEO-Agentur. Dafür ist die Übertragung der entsprechenden Zugangsdaten (FTP, CMS etc.) erforderlich. Ein Alternative hierzu ist die Umsetzung bzw. der Upload durch den Auftraggeber selbst, die SEO-Agentur liefert in diesem Fall die einzupflegenden Codes, Files und den SEO-Konzeptplan. Grundsätzlich ist allerdings zur Gesamtbetreuung durch die Agentur zu raten, da diese die personellen Ressourcen und das Know-how besitzt, alle Maßnahmen zeitnah und zielführend umzusetzen.

Wieso weichen die Suchergebnisse auf einigen Rechnern ab?

Dies kann zwei Gründe haben. Möglicherweise ist die lokale Suche aktiviert, dies lässt sich durch einen Blick in die linke Spalte neben den organischen Suchergebnissen überprüfen. Hier sollte als Ort „Deutschland“ angegeben sein; ist dies nicht der Fall, kann der Ort über die Funktion „Standort ändern“ angepasst werden.

Die zweite Anforderung an nicht-individualisierte Suchergebnisse betrifft das sogenannte Webprotokoll. Die aktuellen Einstellungen lassen sich bei Google durch Klick auf das Zahnrad in der oberen rechten Ecke prüfen. Klickt man im Menü auf „Webprotokoll“, so sollte dort stehen: „Die Anpassung auf der Grundlage von Suchaktivitäten abgemeldeter Nutzer ist deaktiviert.“

Was bedeutet überhaupt SEO?

Die weltweit gebräuchliche Abkürzung SEO steht für Search Engine Optimization, das heißt die Optimierung von Internetseiten gemäß der Such- und Indexierungskriterien der Suchmaschinen, im Schwerpunkt natürlich der von Google. Die primäre Zielsetzung der Suchmaschinenoptimierung besteht in der Verbesserung des Google-Rankings der eigenen Seiten in den organischen Suchergebnissen, das heißt dem zentralen Teil der Search Engine Result Pages (SERP), der nicht zur Suchmaschinenwerbung gehört. Grundsätzlich geht der Optimierung eine eingehende Analyse und Definition der umsatz- und imagerelevanten Suchbegriffe voraus, diese bilden darüber hinaus den späteren Erfolgsmaßstab der Optimierungskampagne.
Die Maßnahmen der Suchmaschinenoptimierung gliedern sich in die Bereiche Onsite (Einbau von Landing Pages, Navigation, Contentqualität, Crawlerlesbarkeit) und Offsite (Linkpopularität).
Die strategischen Ziele der Suchmaschinenoptimierung sind die Steigerung der Umsatzzahlen durch Gewinnung von qualifiziertem Traffic sowie die Maximierung der Marken-, Produkt- und Unternehmensbekanntheit. Eine speziellere Zielsetzung der Suchmaschinenoptimierung ist der Schutz des Marken- oder Firmenimages durch Schaffung rankingstarker Internetpräsenzen (ein Teilbereich des Online Reputation Management).

Suchmaschinen

Was ist das Google Hummingbird-Update?

Im September 2013 brachte Google das Algorithmus-Update mit dem Namen "Hummingbird" (auf deutsch: "Kolibri") an den Start. Mit der Aktualisierung will der Suchmaschinenbetreiber unter anderem den Erfordernissen des "Conversational Search" gerecht werden und Usern Ergebnisse liefern, die passgenau dem hinter der Suchanfrage stehenden Informationsbedürfnis entsprechen - und daher insbesondere praktischen Mehrwert bringen. Mit "Hummingbird" versucht Google zum Beispiel auf Suchanfragen wie "Wo ist die nächste ..." oder "Wie finde ich ..." noch informativere Suchergebnisse zu liefern, die dem User die Informationen verschafft, die er wirklich benötigt.

Sollte die Suchmaschinenoptimierung auch bing oder Yahoo! berücksichtigen?

Grundsätzlich wirken sich Onsite- und Offsite-Optimierungen nicht nur auf die Google-SERP, sondern auch auf das Ranking in anderen Suchmaschinen förderlich aus - und damit auch auf Traffic und qualifizierte Besucher -, doch für das Erfolgstracking sollte vor allem das Ranking beim Branchenführer entscheidend sein. Dies untermauern aktuelle Zahlen zur Nutzungsintensität der verschiedenen Suchmaschinen klar und deutlich: Google wird hierzulande von 94,87% der Internetuser zur Recherche über Produkte, Marken, Unternehmen oder andere Themen eingesetzt, bing und Yahoo! zum Beispiel liegen mit nur 2,51% bzw. gerade mal 2,02% weit abgeschlagen dahinter.*

Google verteidigt seine Marktmacht energisch und mit Erfolg. Wer mit SEO maximale Ergebnisse für sein Geschäftsmodell erzielen will, der sollte seinen Fokus primär auf den Major Player richten und seine Marketingstrategie entsprechend steuern. Denn soviel ist sicher: Potenzielle Kunden, Entscheider und Fachjournalisten experimentieren nur selten mit Google-Konkurrenten, wenn sie im Netz nach Informationen suchen.

*Statista, Okt. 2014: http://goo.gl/kcWsxZ

Was ist das Google Penguin-Update?

In ähnlicher Weise wie das Panda-Update soll auch das Penguin-Update dem Faktor Contentqualität mehr Geltung bei der Erstellung der SERP verschaffen. Seit dessen Start im April 2012 kommt es für eine erfolgreiche Platzierung von Internetseiten noch stärker auf einen natürlichen, themenrelevanten Backlinkaufbau und vor allem auf hochwertigen, uniquen Content an. Internetseiten, die Links aus dubiosen Quellen erhalten oder aus kopierten Inhalten bestehen, werden von den Google-Algorithmen schneller erkannt und mit teils drastischen Einbußen in den Google-Suchergebnisseiten bestraft.

Was ist das Google Caffeine-Update?

Das Google Caffeine-Update trat im Juni 2010 in Kraft und sorgt in den Suchergebnissen seither für eine stärkere Gewichtung tagesaktueller und dynamischer Seiten – zum Beispiel Onlinezeitungen oder Newsportalen – gegenüber statischen Seiten. „50 percent fresher results for web searches …“ lautete 2010 das Versprechen, mit dem Google das Caffeine-Update ankündigte.

Was ist der Grund für zeitweilige Rankingverluste bei Google?

Wenn sich die Suchergebnisse in Google plötzlich verschlechtern, das heißt die Unternehmenswebseite bei relevanten Suchbegriffen nur noch auf hinteren SERP listet, lässt sich dies in dem meisten Fällen auf Updates der Suchalgorithmen zurückführen. Google passt seine Bewertungs- und Suchkriterien von Zeit zu Zeit an. Dies kann Fluktuationen in den SERP bewirken, die teils vorübergehende, teils aber auch langfristige Rankingverluste für einzelne Keywords bedeuten.

Die logische Konsequenz, die aus SEO-Perspektive zu ziehen ist, lautet: die Optimierungsmaßnahmen nicht auf einige wenige Keys beschränken, sondern mindestens auf 10 bis 20. Die sukzessive Erweiterung ist ratsam, da jeder einzelne Suchbegriff optimiert werden muss. Eine diversifizierte, das heißt auf viele verschiedene Keywords ausgerichtete Strategie der Suchmaschinenoptimierung stellt sicher, dass der Gesamttrend in Bereichen des Rankings und Traffics langfristig positiv bleibt oder sich auf hohem Level stabilisiert. Anders herum gilt: Erfolgt die Optimierung nur auf einzelne Keys, ist das Risiko, nach Google-Updates vorübergehend „unsichtbar“ zu werden, umso höher.

Noch gravierender allerdings sind Rankingverluste, die aus Google-Penalties resultieren und zur vollständigen Löschung aus dem Google-Index führen können. Dies ist eine Sanktion, die Google für Methoden des Black-Hat-SEO verhängt.

Welcher Zugewinn an Besuchern ist durch Suchmaschinenoptimierung konkret zu erwarten?

Steigt das Ranking eigener Seiten in den SERP, dann erhöht sich aufgrund der höheren Sichtbarkeit auch die Zahl der Besucher und somit der qualifizierte Traffic an Nutzern, das heißt der potenziellen Kunden oder Auftraggeber. Darüber hinaus bestimmt sich die Zahl der Seitenbesuche auf der Unternehmenshomepage nach einer Vielzahl anderer Faktoren. Zum Beispiel gelangen viele Nutzer über Weiterleitungen in Social Networks oder einen Corporate Blog (mit eigener Domain) auf die jeweilige Website und sorgen für zusätzlichen Traffic auf der zentralen Unternehmenswebseite. Deswegen sollte nicht nur die zentrale Homepage, sondern alle offiziellen Onlineauftritte in die SEO-Strategie integriert werden.

Einige SEO-Anbieter versprechen eine Website in mehrere Tausende Suchmaschinen einzutragen. Ist dies seriös?

Angebote dieser Art sind nicht zu empfehlen und können sogar ein Risiko für die Suchmaschinenoptierung bedeuten. Diese Dienstleister melden die Website vor allem in außereuropäischen und für den deutschen Markt irrelevanten Suchmaschinen an. Da diese Registrierung automatisch abläuft und für jede Suchmaschine dieselben Firmenbeschreibungen benutzt werden, erzeugt dies zumeist unkontrollierbaren Duplicate Content sowie einen aus Suchmaschinenperspektive unnatürlich erscheinenden Linkaufbau.

Erfolgsentscheidend ist für deutsche Unternehmen die Platzierung in den Suchmaschinen Google, bing! und Yahoo. Deren Crawler indexieren neue oder auf andere Domains umgezogene Firmenhomepages automatisch, kostenlos und in aller Regel bereits wenige Tage oder sogar Stunden nach deren Onlineschaltung. Die Aufnahme in den Google-Index kann auch manuell über die Webmastertools vorgenommen werden, bei Beauftragung einer SEO-Agentur sind diese Leistungen zumeist inklusive.

Wie kann beim Top-Keyword Platz 1 in den Google-SERP erreicht werden?

Top-Platzierungen auf der ersten Google-Ergebnisseite sind das Resultat kontinuierlicher SEO-Kampagnen mit hohem Budgeteinsatz und einer professionellen Betreuung durch spezialisierte Dienstleister, die ihr Metier professionell ausüben. Wenn diese Voraussetzungen geschaffen sind, bestehen Chancen auf erstklassige Platzierungen selbst bei umsatzrelevanten und stark umkämpften Suchbegriffen.

Definitive Vorhersagen allerdings, ob oder wann Top-Rankings auf der ersten Google-Seite erreicht werden, können vor allem bei viel beworbenen Keywords nicht gemacht werden. Maßnahmen der Suchmaschinenoptimierung führen aus Erfahrung nur bei langfristigen und nachhaltig strukturierten Kampagnen zum Ziel.

Wie lange dauert es, bis eine SEO-Kampagne zu Top-Rankings führt?

Dauerhaft erfolgreiche Suchmaschinenoptimierung funktioniert heutzutage nur noch mittel- bis langfristig. Kurzfristige Fortschritte in Sachen SEO sind allenfalls bei Nischenkeywords (den sogenannten Long-Tails) durchaus auch innerhalb weniger Wochen möglich. In jedem Fall hängt der Erfolg einer SEO-Kampagne von der Auswahl und Schwierigkeit der Keywords, dem zur Verfügung stehenden Budget sowie der Professionalität und Erfahrung der SEO-Agentur ab. Nicht zuletzt spielt der Zeitfaktor bei der Suchmaschinenoptimierung eine gewichtige Rolle, dazu zählt bei den zu optimierenden Seiten auch der Zeitpunkt der erstmaligen Indexierung durch Google.

Eine präzise Prognose, wann sich die erwünschten Erfolge einer SEO-Kampagne einstellen, ist im Vorfeld kaum möglich, zumeist wird von einer Mindestdauer von 8 bis 12 Wochen ausgegangen. Optimierungen auf besonders umsatzträchtige Keywords können erfahrungsgemäß SEO-Kampagnen über viele Monate oder sogar Jahre erfordern. Sollen die Rankings langfristig Bestand haben, muss die Suchmaschinenoptimierung außerdem ohne zeitliche Beschränkung fortgesetzt werden – andernfalls drohen Rankingverluste in den Suchergebnissen.

Was ist der Google-Index?

Der Google-Index ist ein Verzeichnis von Internetseiten, das nach Eingabe eines Suchbegriffs in das Google-Suchfeld durchsucht wird und auf dessen Basis die Search Engine Result Pages (SERP) erstellt werden. Der sogenannte Google-Crawler durchsucht bereits indizierte Seiten in verschiedenen Intervallen und aktualisiert die gesammelten Daten, gleichzeitig werden neue Internetseiten in den Google-Index aufgenommen. Um bei einem Websitelaunch nicht auf den ersten Scan durch den Google-Crawler warten zu müssen, können Webseitenbetreiber diese Seiten auch manuell in den Index eintragen, dies ist über die Google Webmastertools möglich. Prognosen, wann der Google-Crawler die Seite erfassen wird, können allerdings nicht gegeben werden.

Unter bestimmten Umständen kann eine Internetseite auch von Google aus dem Index gelöscht werden. Diese Sanktion trifft vor allem Websites, deren Betreiber unlautere Methoden der Suchmaschinenoptimierung (Black-Hat-SEO) eingesetzt haben. Entfernt Google eine Seite aus dem Index, bleibt diese zwar (durch Direkteingabe der URL in das Browseradressfeld) erreichbar, sie wird aber nicht mehr in den Suchmaschinenergebnissen angezeigt. Eine Wiederaufnahme in den Index (auch Re-Listing) ist möglich, falls die Black-Hat-Methoden unterlassen werden.

Wie funktioniert das Listing in Suchmaschinen wie Google?

Google berechnet das Listing bzw. Ranking, das heißt die Platzierung der Website in Abhängigkeit vom eingegebenen Keyword, auf Basis von Suchalgorithmen, die aus einem dynamischen System von Formeln bestehen. Bei der Berechnung werden alle im Google-Index eingetragenen Internetseiten ausgewertet und nach ihrer Relevanz für das Keyword in den Search Engine Result Pages (SERP) aufgelistet. Für diesen Prozess legt Google nicht unbedingt den tagesaktuellen Status der indexierten Websites zugrunde, sondern greift auf die im Google-Cache gespeicherten Versionen zurück. In welchem Intervall eine Internetseite vom Google-Crawler für den Index bzw. Cache neu gescannt wird, hängt ebenso wie das Ranking in den SERP von einer Vielzahl struktureller und inhaltlicher Faktoren ab (Stichwort: „Crawler Friendliness“).

Die SERP bestehen bei Google im Wesentlichen aus einem organischen und einem für die AdWords definierten Bereich. Maßnahmen der Suchmaschinenoptimierung (SEO) zielen auf das Ranking in den organischen Ergebnissen, die der Suchmaschinenwerbung (SEA) auf die in den Werbeeinblendungen ab.

Beispiel: Suchbegriff „Gebrauchtwagen“

Blau markiert sind die organischen Suchergebnisse, rot die AdWords.

Linkstruktur

Wie funktioniert das Listing in Suchmaschinen wie Google?

Google berechnet das Listing bzw. Ranking, das heißt die Platzierung der Website in Abhängigkeit vom eingegebenen Keyword, auf Basis von Suchalgorithmen, die aus einem dynamischen System von Formeln bestehen. Bei der Berechnung werden alle im Google-Index eingetragenen Internetseiten ausgewertet und nach ihrer Relevanz für das Keyword in den Search Engine Result Pages (SERP) aufgelistet. Für diesen Prozess legt Google nicht unbedingt den tagesaktuellen Status der indexierten Websites zugrunde, sondern greift auf die im Google-Cache gespeicherten Versionen zurück. In welchem Intervall eine Internetseite vom Google-Crawler für den Index bzw. Cache neu gescannt wird, hängt ebenso wie das Ranking in den SERP von einer Vielzahl struktureller und inhaltlicher Faktoren ab (Stichwort: „Crawler Friendliness“).
SERP

Die SERP bestehen bei Google im Wesentlichen aus einem organischen und einem für die AdWords definierten Bereich. Maßnahmen der Suchmaschinenoptimierung (SEO) zielen auf das Ranking in den organischen Ergebnissen, die der Suchmaschinenwerbung (SEA) auf die in den Werbeeinblendungen ab.

Welche Einfluss haben Links aus Social Media für das Ranking?

Für Facebook gilt: Google liest die Inhalte des sozialen Netzwerks inklusive der Likes und Shares (zum Teil) aus - das Ranking der verlinkten/geliketen Seiten beeinflusst Facebook als Linkquelle hingegen nicht. Dies zeigt eine aktuelle Untersuchung von Stone Temple*. Für Shares aus Google+ lässt sich ein klarer Zusammenhang mit den Rankings ebenfalls nicht nachweisen. Dennoch ist das Google-eigene Social Network ein Faktor für die Entdeckung und Indexierung von Internetseiten - anders als Facebook.

*http://www.stonetemple.com/does-facebook-activity-impact-seo/

Was sind Ankertexte und wie lassen sie sich optimieren?

Unter dem Begriff Ankertext (englisch: anchor text) versteht man den Wortlaut eines Text-Backlinks, das heißt einer anklickbaren Verlinkung auf eine andere (vor allem externe) Internetseite. Im Sinne der Suchmaschinenoptimierung sollten die Ankertexte, die beispielsweise auf einzelne Landing Pages verweisen, möglichst exakt an die umsatzrelevanten Keywords angepasst werden – sofern dies zum Beispiel bei Linkpartnerschaften oder Links von Geschäftspartnern usw. möglich ist. Der Hintergrund leuchtet ein: Besteht eine Korrelation von Suchbegriff, Ankertext und Keyword-Density auf der verlinkten Unterseite, wird dieser Backlink von Google höher bewertet, folglich steigen die Chancen auf starke Platzierungen bei diesem Suchbegriff.

Für das Thema Ankertext-SEO gilt: Im Idealfall sollte der Ankertext mit dem Keyword bzw. der Keywordkombination komplett übereinstimmen (exact match), mindestens aber sollten die wichtigsten Schlagwörter innerhalb des Textlinks zu finden sein (partial match). Lautet der Suchbegriff zum Beispiel „Gebrauchtwagen BMW München“ (und wurde die zugehörige Landing Page auf diese Keywordkombination hin erstellt), dann sollte auch der Hyperlink nach Möglichkeit aus denselben drei Keys „Gebrauchtwagen BMW München“ bestehen bzw. diese zumindest enthalten. Die Variante „Gebrauchtwagen München“ wäre in diesem Fall also für Optimierungswecke nur die zweitbeste Lösung.

Welche Links sind für die Optimierung am wertvollsten?

Seitdem Google nach den jüngsten Updates immer striktere Kriterien an Linkquellen anlegt und verdächtige Seiten massiv abwertet, ist klar: Inbound-Links, das heißt Links, die auf eigene Seiten verweisen, haben nur dann einen Wert für die Suchmaschinenoptimierung, wenn sie von vertrauenswürdigen und inhaltlich hochwertigen Quellen ausgehen, die bereits einen hohen Status im Google-Index besitzen. In diese Klasse gehören zum Beispiel profilierte Onlinezeitungen mit hohen Besucherzahlen, professionell geführte Blogs, Social Networks oder auch bestimmte Webverzeichnisse. Neben der Qualität zählt selbstredend auch die Themenrelevanz der Linkquelle, respektive die konkrete inhaltliche Beziehung zwischen Linkquelle und verlinkter Seite.

Ebenfalls nützlich, wenn auch weniger ausschlaggebend für Google-Rankings, sind Einträge in Gratis-Newsportalen und kostenlosen Firmenverzeichnissen. Auch Links aus Social-Bookmarking-Diensten können einen geringen Beitrag für die Suchmaschinenoptimierung leisten.

Oftmals weitestgehend nutzlos und in vielen Fällen sogar schädlich sind hingegen die berüchtigten „Kauflinks“ aus Content- oder Linkfarmen bzw. Seiten, die aufgrund von Black-Hat-SEO eine Abstrafung durch Google erhalten haben. Die Seitenbetreiber machen oftmals durch Spammails oder andere aggressive Werbung auf Ihre Angebote aufmerksam und versprechen Topplatzierungen innerhalb kürzester Zeit. Wer aber auf Offerten dieser Art eingeht, riskiert eine Google-Penalty, die empfindliche Platzierungsverluste in den SERP zur Folge haben kann. Von kostenlosem Linktausch mit unseriösen Betreibern ist zwecks Vermeidung von „Bad Neighbourhood“ und den genannten Konsequenzen ebenfalls abzuraten.

Wozu dienen Link-Baits?

Links-Baits sollen Webseitenbesucher dazu motivieren, die Unternehmenshomepage bzw. eine sonstige Präsenz im Internet beispielsweise auf ihrem privaten Blog zu verlinken und damit die Backlinkpopularität der Seite zu steigern. Konkret kann es sich bei Link-Baits um exklusiven Content textlicher oder multimedialer Art, um Downloads, Gewinnspiele, kostenlose Apps oder vieles andere handeln, was aufgrund seines Informations- oder Unterhaltungswerts für die spezifische Zielgruppe von besonderem Interesse ist. Der Erfolg im Link-Bait-Management lässt sich in aller Regel nicht vorhersagen. Hier hängt vieles von Erfahrungswerten und präzisen Kenntnissen der eigenen Konsumentenschaft bzw. der Brand- Community ab. In jedem Fall sind Link-Baits oftmals eine kostengünstige und authentische Alternative zu anderen Formen des Linkbuilding.

Im Idealfall generieren Link-Baits vor allem in den Social Networks eine ganze „Welle“ an Verlinkungen und Facebook-„Shares“- das Schlagwort für diese Effekte lautet „Viralität“.

Was ist Link-Juice?

Link-Juice bezeichnet den Gesamtwert der auf eine bestimmte Website weisenden Hyperlinks, ein ähnlicher Begriff lautet „Linkpopularität“. Ein sich positiv entwickelnder Link-Juice resultiert in stabilen bzw. steigenden Platzierungen (Rankings) in den Suchmaschinen, seine Maximierung ist deswegen eine zentrale Zielvorgabe der Suchmaschinenoptimierung. Eine Seite mit hohem Link-Juice stärkt durch ausgehende Links auch andere Websites, zum Beispiel eigene Präsenzen in den Social Networks.

Welchen Effekt haben selbstgesetzte Links in Blog-Kommentaren?

Diese haben keinen messbaren positiven Effekt. Die Kommentarbereiche der Blogs sind meistens so konzipiert bzw. angepasst, dass ausgehende Links automatisch auf Nofollow gesetzt sind, respektive von Google und anderen Suchmaschinen nicht als echter Hyperlink interpretiert werden und deshalb keine Linkpower auf die angegebene Seite leiten. Sinnvoller ist der systematische Aufbau konstruktiver Beziehungen zu bekannten und renommierten Bloggern – Stichwort „Blogger Relations“.

Wie nützlich sind Links aus Social-Bookmarking-Diensten?

Die populären Lesezeichendienste galten einst als wichtiger Backlinkgenerator, doch mittlerweile haben die großen Social Networks bzw. Microblogs (Twitter) Mister Wong, Y!GG oder auch Delicious den Rang abgelaufen. Dennoch sollten die Bookmarking-Buttons unter keiner Pressemeldung fehlen, die unternehmensseitig im Internet verbreitet wird, denn die Links werden von den Suchmaschinen regelmäßig ausgelesen und können unter Umständen für hohe Leser- bzw. Besucherzahlen sorgen. Von Vorteil ist auch, dass dieser Linkaufbau kosten- und personalneutral funktioniert – anders als beispielsweise systematische Linkpartnerschaften oder Backlinkkampagnen.

Als PR-Faktor spielen digitale Lesezeichen daher eine gewisse Rolle, als Umsatzfaktor allerdings kaum. Nachteilig ist vor allem die Qualität des Traffics zu bewerten, denn Nutzer, die über Bookmarks auf Unternehmensseiten kommen, haben in den wenigsten Fällen konkrete Kaufabsichten und sind mehr an allgemeinen Informationen zu Produkten oder Dienstleistungen interessiert.

Was ist der Unterschied zwischen Follow- und Nofollow-Links?

Beim Erstellen einer Website kann im Quellcode angegeben werden, ob die Suchmaschinen einen Hyperlink tatsächlich als Link auslesen und die verlinkte Seite analysieren sollen oder ob dieser lediglich wie ein Textelement zu behandeln ist. Diese Entscheidung hängt in erster Linie davon ab, welche URL verlinkt werden soll und ob deren Verlinkung Vor- oder Nachteile im Sinne der Suchmaschinenoptimierung bedeutet. Grundsätzlich sollten interne Links oder Links auf externe, aber zum eigenen Onlineauftritt gehörende Internetseiten als Follow-Link geschaltet sein, um Backlinkpower auf diese Seiten zu verteilen. Nofollow-Links empfehlen sich hingegen für Verlinkungen externer Seiten in verkauften Werbeflächen oder zum Beispiel für Quellenangaben auf Websites, die dubiose SEO-Methoden einsetzen oder fragwürdigen Content enthalten – Stichwort „Bad Neighbourhood“. Bei Corporate-Blogs sollte die Funktion Nofollow für die Verlinkung in Kommentaren aktiviert sein, damit die Linkpower der Seite unter Kontrolle bleibt und gezielt für bestimmte Internetseiten verwendet werden kann.

Was ist eine Linkfarm?

Mit dem Schlagwort bezeichnet man geschlossene Linknetzwerke, deren Websitebetreiber die zur Linkfarm gehörenden Seiten wechselseitig verlinken. Das Ziel ist die gegenseitige Stärkung der Linkpopularität durch quantitative Maximierung der Backlinks und damit die Erreichung hoher Google-Rankings in einem möglichst kurzen Zeitraum.

Mittlerweile kann Google Linkfarms anhand einschlägiger Kriterien meist frühzeitig erkennen und wertet die beteiligten Websites ab oder löscht sie aus dem Index. Das Betreiben einer Linkfarm zählt zu den unseriösen und meist nachteilbehafteten Methoden des Black-Hat-SEO.

Was ist ein Hyperlink?

Einfach formuliert, ist ein Hyperlink ein Link auf eine externe Website, bei der es sich um einen Linkpartner, eine verwendete inhaltliche Quelle oder eine eigene Nebenpräsenz – zum Beispiel in einem Social Network – handeln kann. Hyperlinks können abhängig vom Linkziel als Follow- oder Nofollow-Links gesetzt werden. Den höchsten Wert haben aus SEO-Perspektive klickbare und graphisch hervorgehobene Hyperlinks, die auf Follow gesetzt sind.

Die Gewinnung von Hyperlinks auf externen Seiten, die auf die zu optimierende Seite verweisen, fällt in den Bereich Offsite-Optimierung (Stärkung der Backlinkpopularität).

Was ist der Unterschied zwischen relativen und absoluten Backlinks?

Von absoluten Backlinks spricht man, wenn ein ausgehender Link als komplette URL in den Quellcode eingetragen ist (also mit www...). Ein relativer Link hingegen, der nur für interne Verlinkungen infrage kommt, wird in der verkürzten Form „/xyz.html“ in die Website integriert.

Was sind die Vorteile/Nachteile einer Linkpartnerschaft?

Linkpartnerschaften, das heißt zwei Webseitenbetreiber verlinken ihre Seiten über Banner etc. wechselseitig, sind eine kostenneutrale und schnell umsetzbare Möglichkeit der Gewinnung von Backlinks und – im Falle von Onlineshops – der Maximierung qualifizierten Traffics, der die Konversionsrate verbessert. Damit diese Vorteile allerdings zum Tragen kommen, muss die verlinkende Partnerwebseite (Linkquelle) eine hohe Themenrelevanz haben. Dies bedeutet, dass sie in einer inhaltlichen Beziehung zur eigenen Website oder der verlinkten Unterseite stehen muss und sie sollte einen hohen Status im Google-Index besitzen. Ob inhaltliche Relevanz besteht, können die Suchmaschinen durch Analysen und Vergleiche des Contents und vorhandener Linkstrukturen feststellen. Als geeignete, weil aus SEO-Aspekten sinnvolle Linkpartner, bieten sich zum Beispiel Onlinefachmagazine an, deren redaktioneller Schwerpunkt zur eigenen Branche und dem Produkt- bzw. Leistungsspektrum passt. Allerdings gibt es auch potentielle Linkpartner, von denen abgeraten werden muss, zum Beispiel aufgrund der Anwendung unlauterer Black-Hat-SEO-Methoden (das Schlagwort „Bad Neighbourhood“ spielt bekanntlich auch im Internet eine Rolle). Deswegen sollte die Auswahl der Linkpartner einer erfahrenen SEO-Agentur überlassen bleiben.

Wichtig ist neben der Gewinnung von Hyperlinks aus Linkpartnerschaften natürlich vor allem auch eine wechselseitige Verlinkung eigener Seiten – Stichwort: Crosslinking. Wie bei jeder Linkquelle zählt auch hier für den maximalen Erfolg insbesondere die inhaltliche Qualität der Seiten (und die Qualität der dort angewendeten Methoden der Suchmaschinenoptimierung). Damit ist klar, warum hochwertige, contentorientierte Seiten Synergieeffekte für die gesamte eigene Internetpräsenz auslösen können.

Was sind überhaupt Backlinks?

Einfach formuliert: Ein echter Backlink ist ein klickbarer Verweis von einer externen, nicht-eigenen Website auf die eigene Unternehmens- oder Shopwebseite. Damit unterscheidet sich der Backlink als Hyperlink grundsätzlich von einer internen Verlinkung zwischen verschiedenen Unterseiten auf derselben Homepage.

Die sogenannte Linkpopularität – also die Quantität und Qualität der Links, die von externen Seiten auf die eigene Website verweisen – ist heute der zentrale Offsite-Faktor und damit entscheidenden Erfolgsbedingungen der Suchmaschinenoptimierung. Um die Zahl der Backlinks zu steigern, kommen für Unternehmer verschiedene Möglichkeiten in Betracht: Das regelmäßige Schaffen von hochwertigen, informativen Inhalten („Content is King“), das Verfassen von Fachartikeln in traffic-starken und renommierten Onlinemedien, die Backlinks erlauben, aber auch Linkpartnerschaften und andere Maßnahmen der Backlinkgewinnung. Auch durch die quantitative Begrenzung ausgehender Links auf der eigenen Internetpräsenz lassen sich die gewünschten Effekte steigern.

Backlinks können abhängig vom Linkziel im Quellcode als suchmaschinenlesbarer Follow-Link oder als – für die Backlinkgewinnung allerdings weitgehend wertloser – Nofollow-Link gesetzt werden.

Text und Content

Wie lassen sich rein grafische Internetseiten optimieren?

Graphisch aufwendige Startseiten, die keine oder nur sehr wenige Textelemente enthalten, lassen sich trotzdem (allerdings in sehr begrenztem Umfang) auf bestimmte SEO-Keywords optimieren. In jedem Fall können der Title-Tag sowie eingebundene Graphiken per ALT-Tag suchmaschinenkonform gestaltet werden (letztere nur dann, wenn die Graphiken per Klick auf Unterseiten weiterleiten). Wegen der schmalen Handlungsspielräume beim Thema SEO steht bei grafikorientierten oder insbesondere auch Flash-basierenden Websites aber meist der Offsitefaktor im Vordergrund, also vor allem die systematische Stärkung der Backlinkpopularität.

Bei der Optimierung textloser Internetseiten ist von Tricksereien gegen die Richtlinien der Suchmaschinenbetreiber unbedingt abzuraten. Ein meist nicht kalkulierbares Risiko stellt beispielsweise der Einbau von sogenannten Hidden Layers in eine Homepage dar. Hierbei handelt es sich um für Besucher nicht sichtbare Texte, die aber von den Suchmaschinen ausgelesen werden können. Selbst wenn der Text mit dem Inhalt der sichtbaren Homepage zu 100 Prozent übereinstimmt, besteht bei dieser SEO-Praxis die Gefahr einer Abstrafung der Seiten durch Google (Google Penalty). Siehe auch FAQ: Black Hat SEO.

Welche Keyword-Density ist für den Startseitentext ratsam?

Hier gilt das gleiche wie für jeden SEO-optimierten Text: Eine Keyword-Density von 2,5 bis maximal 4 Prozent ist heute ausreichend. Wird die Suchbegriffsdichte zu hoch angesetzt, leidet darunter nicht nur die Qualität der Texte, es droht vor allem auch das Risiko einer Abstrafung der eigenen Seiten durch Google und damit Platzierungsverluste in den Ergebnisseiten (SERP). Der einschlägige Begriff lautet „Keyword-Stuffing“.

Wie sollte der Startseitentext erstellt werden?

Der Startseitentext ist wegen seiner besonderen inhaltlichen Relevanz und der hohen Besucherzahl meist der wichtigste Text der gesamten Firmenwebsite. In seiner Außenwirkung ist er mit einer persönlichen Visitenkarte zu vergleichen. Der Text sollte aus diesem Grund intern oder von externen Fachkräften mit profunden Branchen- und Marktkenntnissen verfasst werden. Um den Erfordernissen der Suchmaschinenoptimierung Rechnung zu tragen, muss der Startseitentext den Hauptsuchbegriff (zum Beispiel den Unternehmensnamen, Schlagworte zu bestimmten Dienstleistungen oder das eigene Topprodukt) in der erforderlichen Keyword-Density erhalten. Professionelle SEO-Dienstleister übernehmen sämtliche Schritte der Startseitenkonzeption – von der Texterstellung und der Errichtung der Menüstruktur über das graphische Layout bis zur Veröffentlichung und dem Traffic-Monitoring.

Wie wichtig ist eine SEO-optimierte Startseite?

Google misst der Startseite einer Website besonderes Gewicht bei der Rankingberechnung bei, deswegen sollte die Erstellung bzw. Optimierung dieser Seite eine der ersten Maßnahmen einer SEO-Kampagne sein. Bei diesem Schritt kommt es auf eine Vielzahl einzelner Faktoren an, die sowohl Content und Layout als auch Struktur und Menügestaltung der Startseite betreffen. Elementar ist neben aussagekräftigen – und die relevanten Keywords enthaltenden – Titeln, Überschriften und Unterpunkten vor allem ein hochwertiger suchmaschinenoptimierter Startseitentext. Dieser sollte eine ausreichende Länge haben, dem Leser aktuelle und fachlich versierte Informationen zum eigenen Leistungskonzept bieten, zum Weiterklicken auf andere Menüpunkte motivieren und natürlich das relevante Keyword mehrfach enthalten (Stichwort: Keyword-Density). Darüber hinaus muss der Startseitentext „unique“ sein, darf also nicht bereits zuvor im Internet veröffentlicht worden sein. Regelmäßige Updates der Startseitentexte können ebenfalls für eine nachhaltige Aufwertung der Website im Google-Index sorgen. Dasselbe gilt für den Einbau von Bildern und Graphiken, die idealerweise beschreibende Untertitel und keywordspezifizierte Alternativtexte enthalten sollten.

Ein weiteres wichtiges Element einer zeitgemäßen Startseite sind direkte Links auf Unternehmenspräsenzen in Social Networks (Facebook, XING etc.) und, falls vorhanden, den Twitter-Channel. Viele Unternehmen verlinken auch Ihren Corporate Blog direkt von der Startseite.

Was sind Landing Pages?

Landing Pages sind kompakte, übersichtlich und ansprechend gestaltete Internetseiten, die über einzelne Produkte oder Dienstleistungen informieren und so aktiv zur Umsatzgenerierung beitragen sollen. Der in den Landing Pages enthaltene Text (inklusive der Überschriften und Titel/Descriptions) ist auf spezifische Keywords optimiert mit dem Ziel, dass Konsumenten, die nach bestimmten Produktgattungen suchen und eine konkrete Nachfrage haben, auf diesen Seiten „ankommen“ und möglichst direkt zum Kauf bzw. zur Onlinebestellung motiviert werden. Deswegen müssen Landing Pages textlich und stilistisch den Erwartungen der jeweiligen Zielgruppe präzise entgegenkommen und zu erwartende Informationsbedürfnisse befriedigen.

Landing Pages haben auch in der Suchmaschinenwerbung eine wichtige Bedeutung, denn Klicks auf AdWords- bzw. AdSense-Anzeigen führen den Nutzer auf eine strikt produktbezogene Unterseite weiter. Von deren Qualität hängt die Conversion-Rate maßgeblich ab. Professionelle Landing Pages haben außerdem direkte Auswirkungen auf den Qualitätsfaktor (Quality Score) und damit auf den AdRank (AdWords).

Was bedeutet der Slogan "Content is King"?

Dieser Spruch geht ursprünglich auf den Microsoftgründer Bill Gates zurück, der ihn 1996 in einem Essay zu damaligen Trends im Online Marketing als Überschrift verwendete. Seit der Veröffentlichung von Gates‘ Artikel versteht man unter „Content is King“ in der SEO-Szene den Grundsatz, dass es langfristig vor allem der konkrete Inhalt einer Website – eben der „Content“ – ist, der für gute Google-Rankings, hohe Marken- und Unternehmensbekanntheit im Internet und für steigende Besucherzahlen sorgt – mehr als rein technische Maßnahmen der Suchmaschinenoptimierung.

Hochwertiger Content besteht vor allem aus lesenswerten, zugänglichen, mit Sachverstand erstellten und für ein breites Publikum geeigneten Texten und anderen Informationsquellen. Hier gilt: Für den Webseitenbesucher muss durch den Content ein realer Mehrwert entstehen, damit die Seiten dauerhaft zu einer Referenz für bestimmte Ziel- und Konsumentengruppen oder eine Fachöffentlichkeit werden und die Suchmaschinen dies durch gute Rankings honorieren. Darüber hinaus müssen die eigenen Inhalte heutzutage aber auch technisch für die freie Weiterverbreitung im Internet aufbereitet sein – zum Beispiel durch die Integration von Share- oder Social-Bookmarking-Funktionen.

Kann man SEO-relevanten Text auf einer Website verstecken?

Theoretisch ist dies möglich, allerdings bringt es meist mehr Nachteile als Vorteile. Texte, die wegen ihrer Formatierung oder aufgrund ihrer Positionierung außerhalb des sichtbaren Bereichs der Website nicht angezeigt werden, bewirken meist früher oder später eine Abwertung der Seiten im Google-Index und damit im Ergebnis Rankingverluste in den SERP.

Die Verwendung von sogenanntem „Hidden Text“ bzw. des „Cloakings“ (der suchmaschinenlesbare Textinhalt einer Seite unterscheidet sich von dem im Browser angezeigten Inhalt) zählt zu den Methoden des Black-Hat-SEO. Die heutigen Suchmaschinen erkennen derartige „Tricksereien“ meist schnell, daher sollte von unseriös arbeitenden Agenturen, die auf derartige Praktiken zurückgreifen, Abstand genommen werden.

Was ist Duplicate Content?

Duplicate-Content (DC) oder doppelter Content ist der Fachbegriff für „nicht-unique“ (einzigartige) Inhalte auf Internetseiten. Dies betrifft vor allem Textelemente verschiedener Art, in geringerem Maße allerdings auch Graphikelemente und andere typische Bestandteile einer Website. Die Suchmaschinen erkennen mehrfacht verbreitete Texte und qualifizieren Websites, die kopierten Content enthalten, teils drastisch ab. Im Sinne der Suchmaschinenoptimierung und der Erzielung hoher Google-Rankings sollte die Generierung von Duplicate-Content deswegen auf ein Minimum reduziert werden. Siehe auch: Sollten identische Texte mehrfach im Internet verwendet werden?

Sollten identische Texte mehrfach im Internet verwendet werden?

Grundsätzlich bewerten die Suchmaschinen einen Text höher, wenn dieser „unique“, also einzigartig ist und auf keiner anderen Website publiziert wurde. Deswegen sollten auf den offiziellen Internetpräsenzen inklusive der Social Networks und eigener Blogs nach Möglichkeit keine Texte mit identischen Formulierungen – sogenannter Duplicate Content – verwendet werden. Eine Ausnahme stellt die Veröffentlichung von Pressemeldungen in Nachrichtenportalen dar: Bei dieser Methode der Unternehmenskommunikation fallen die Nachteile „nicht-uniquer“ Texte weniger stark ins Gewicht, da die Mehrfachverbreitung identischer Artikel im Medium selbst begründet ist.

Kompetente SEO-Agenturen übernehmen die Erstellung des erforderlichen „Unique Content“ für den Auftraggeber und sorgen in Kooperation mit Textbüros etc. für anspruchsvolle, informative und suchmaschinenkonforme Internetseiten.

Keywords

Wie funktioniert Keyword-Placement?

Bei der Optimierung einer Website auf bestimmte Keywords zählt neben der Keyword-Density auch die exakte Platzierung der Schlagwörter im Text bzw. den Navigationselementen. Dabei kommt es allerdings weniger auf die im Browserfenster angezeigte Position der einzelnen Begrifflichkeiten an. Vielmehr ist die Platzierung im HTML-Quellcode wichtig, das heißt die entscheidenden Keywords sollten nach Möglichkeit im oberen Bereich des Codes eingetragen sein, damit Google sie als besonders hoch bewertet.

Die Position der Keywords betrifft übrigens auch den Title-Tag (Meta-Tags); hier empfiehlt es sich, die Suchbegriffe an den Anfang zu setzen, dies steigert auch die Klickwahrscheinlichkeit (Clickrate), da der Google-Nutzer die Begriffe aus der Sucheingabe im Titel wiederfindet. Ähnliches gilt für die Description – die beiden Zeilen, die in den Google-SERP unter der Überschrift erscheinen. Hier lassen sich Interesse weckende Schlagwörter bzw. werbliche Formulierungen ebenfalls platzieren.

In den Kontext des Keyword-Placements gehört auch das Schlagwort "Keyword- Proximity". Gemeint ist: Bei der Optimierung auf Suchbegriffskombinationen kommt es über den Faktor Density hinaus darauf an, dass die Suchbegriffe so nah wie möglich nebeneinander stehen sollten, das heißt auch möglichst innerhalb desselben Satzes. Diese Regel betrifft die Title- und Description-Tags, vorrangig aber den eigentlichen Haupttext der Seite.

Was sind Long-Tail-Keywords?

Unter Long-Tails versteht man Keywords, die aus mehreren Schlagwörtern zusammengesetzt sind oder einen längeren zusammenhängenden Ausdruck bilden und im Vergleich zu allgemeinen Suchbegriffen nur ein relativ geringes Suchaufkommen generieren. Für das Online-Marketing – SEO oder Suchmaschinenwerbung – stellen diese Nischenkeywords oftmals mehr als nur einen lukrativen Nebenmarkt dar. Der Vorteil der Long-Tails liegt schließlich auf der Hand: Konsumenten, die Suchbegriffe aus mehreren Worten bilden (zum Beispiel das Google-Keyword „Plasmafernseher 51 Zoll Frankfurt“), wissen meist sehr konkret, welche Produkte oder Dienstleistungen sie suchen. Entsprechend hoch ist die Kaufbereitschaft, wenn ein passender Anbieter gefunden ist.

Mit einer grafischen Darstellung lassen sich die Eigenschaften der verschiedenen Keywordtypen veranschaulichen:

Wie berechnet sich der Keyword-Efficiency-Index (KEI)?

Der Keyword-Efficiency-Index (KEI) bzw. Keyword-Effectiveness-Index bezeichnet die spezifische Konkurrenzsituation für einen bestimmten Suchbegriff, er berechnet sich nach folgender Formel:

Im Prinzip gilt: Je höher der KEI, desto größer sind die Chancen, mit eigenen, auf dieses Keyword optimierten Seiten bei einer entsprechenden Suchanfrage auf Topplatzierungen in Google zu kommen und umsatzstimulierenden Traffic auf die eigenen Seiten zu lenken. Die für die Berechnung des KEI erforderlichen Daten erhält man durch Eingabe des Suchbegriffs bei Google (Zahl der Suchergebnisse) bzw. in das Keyword-Tool (monatliche lokale bzw. globale Suchanfragen).

In der Suchbegriffsanalyse spielt der KEI traditionell eine wichtige Rolle, da er einen direkten Vergleich verschiedener Suchbegriffe sowie eine rationale Keywordauswahl ermöglicht und dadurch eine Grundlage für die Konzeption einer SEO-Kampagne schafft. Da die präzise Keywordauswahl allerdings von einer Vielzahl von Faktoren abhängt, sollte eine spezialisierte SEO- bzw. SEA-Agentur sowohl die Suchbegriffsanalyse als auch die Berechnung des KEI übernehmen.

Was ist die Keyword-Density?

Die Keyword-Density (Suchbegriffsdichte) gibt die Häufigkeit eines Keywords im Verhältnis zum textlichen Gesamtumfang einer einzelnen Internetseite an. Die klassische Methode der Suchmaschinenopimierung im Hinblick auf die Keyword-Density von etwa einer Landing Page oder eines Blogs ist das Verfassen eines Texts, der die relevanten Suchbegriffe in der notwendigen Dichte enthält. Als optimale Suchbegriffsdichte gilt heutzutage ein Wert zwischen 2,5 und 4 Prozent. Im Internet werden verschiedene Gratistools angeboten, mit denen sich die Density eines Textentwurfs testen lässt.

Ein Risiko stellt in diesem Zusammenhang das „Keyword-Stuffing“ dar: Überschreitet die Suchbegriffsdichte ein bestimmtes Maß – allgemein wird die Grenze auf 7 bis 10 Prozent geschätzt - kann die Seite im Google-Index abgewertet werden und damit in den Google-Rankings Positionen verlieren. Keyword-Stuffing zählt daher zu den Methoden des Black Hat SEO, das heißt Praktiken, die den Regularien von Google widersprechen.

Was sind die Unterschiede zwischen SEO- und AdWords-Keywords?

Ebenso unterschiedlich wie die strategischen Ziele der Suchmaschinenoptimierung bzw. Suchmaschinenwerbung sind die Prinzipien der jeweiligen Keywordauswahl. Für AdWords- oder AdSense-Anzeigen kommen in erster Linie Suchbegriffe in Betracht, die sich direkt auf den Umsatz auswirken (das heißt Conversions generieren) und somit im Verhältnis zum pro Klick gezahlten Preis einen messbaren Return-On-Investment (ROI) versprechen. Bei der Suchmaschinenoptimierung finden hingegen regelmäßig auch imagerelevante Suchbegriffe Verwendung, die für Traffic sorgen und die Markenbekanntheit steigern, aber keine unmittelbaren Onlineumsätze generieren.

Eine weitere Unterscheidung betrifft die Sichtbarkeit der Keywords: Bei der Suchmaschinenwerbung sind die gebuchten Keywordkombinationen für Google Nutzer wie für Mitbewerber zunächst nicht einsehbar. SEO-Suchbegriffe hingegen sind zumeist auch in den Meta-Tags oder zum Beispiel Überschriften einzelner Internetseiten (siehe Schlagwort Landing Pages) eingetragen und somit öffentlich.

Wie können die AdWords-Keywords geändert werden?

Die eigenen AdWords-Keywords lassen sich nach dem Login in den persönlichen Google-AdWords-Account ändern. Hierfür muss der Nutzer auf den Tab „Keywords“ klicken und danach auf den umzuformulierenden Suchbegriff. Falls gewünscht, kann auch der maximale Cost-per-Click-Preis mit diesem Tool erhöht oder vermindert werden. Bei der Änderung von Keywords ist zu bedenken, dass bei der Entfernung bzw. Umformulierung auch die Statistiken zur laufenden Performance zu diesem Begriff gelöscht werden. Dies erschwert später eine systematische Evaluation der Keywordentwicklung. Eine Änderung oder Löschung von AdWords-Keywords sollte in jedem Fall nur nach eingehender Prüfung und Abstimmung mit den zuständigen Abteilungen bzw. Agenturen erfolgen. Noch besser ist es, nachträgliche Anpassungen von AdWords-Keywords ausschließlich einer spezialisierten Agentur zu überlassen, die über entsprechende Analyse- und Monitoring-Tools verfügt und sämtliche Leistungen im Bereich Suchmaschinenwerbung aus einer Hand liefern kann.

Warum sind bestimmte Suchbegriffe nur langfristig optimierbar?

Top Keywords mit hoher Umsatzrelevanz - beispielsweise Suchbegriffe wie „iPhone“ oder „private Krankenversicherung“ - sind im Internet hart umkämpft. Entsprechend hoch sind die Anforderungen, die bei einer derart schwierigen Ausgangslage an SEO- und AdWords-Agenturen gestellt werden. Schnelle Erfolge lassen sich selbst mit hohen Budgets nicht kurzfristig erzwingen, denn auch die Konkurrenz investiert große Summen in die gezielte Optimierung ihres Internet-Marketings auf begehrte Spitzenkeywords. Diese Tatsache lässt sich bereits an den Cost-per-Click-Preisen für einzelne AdWords-Keywords ablesen, die häufig bis zu 5 Euro oder noch mehr betragen können. In diesen Fällen kommt es auf ein kontinuierliches und sämtliche Einzelfaktoren berücksichtigendes Suchmaschinenmarketing über viele Monate oder sogar Jahre hinweg an, damit sich die erwünschten Erfolge einstellen.

Gibt es AdWords-Keywords, die noch nicht gebucht worden sind?

Die beste Antwort auf diese Frage liefert der Praxistext: Wenn nach Eingabe eines Keywords in Google keine Anzeigen oberhalb oder neben den organischen Suchergebnissen angezeigt werden, ist zu dem entsprechenden Suchbegriff derzeit entweder keine AdWords-Kampagne geschaltet oder die Tagesbudgets für das gewählte Keyword sind verbraucht.

Google AdWords eignet sich auch zur Überprüfung einzelner Keywords. Zeigt das Tool in den Spalten „Wettbewerb“ sowie unter „monatliche lokale Suchanfragen“ keine Daten an, so ist der Begriff zum Zeitpunkt der Analyse nicht für AdWords gebucht.

Wie ermittelt man die wichtigen Keywords?

Die Keywords müssen so präzise wie möglich zum eigenen Produkt- und Leistungsportfolio und zu den zu erwartenden Suchanfragen passen, ohne dabei zu allgemein formuliert zu sein. Der Grund: Bei Keywords, die aus nur einem Begriff bestehen, wie beispielsweise „Plasmafernseher“ oder „Winterreifen“, besteht eine besonders verschärfte Konkurrenzsituation, weshalb die Chancen auf erfolgreiche Platzierungen insbesondere bei mittleren bis geringen SEO- und SEA-Etats und kurzen Kampagnenzeiträumen entsprechend niedrig sind. Sinnvoller sind in den meisten Fällen Kombinationen aus zwei oder mehreren Begriffen, zum Beispiel „Plasma-Fernseher 1080p günstig Frankfurt“. Diese Suchkombination ist exemplarisch für die Keywordklasse der sogenannten Long-Tail-Keywords, das heißt komplexe und seltenere Suchanfragen. Ein anderes Beispiel: Die Erfolgsaussichten wären bei zusammengesetzten Keywords wie „Gebrauchtwagen München BMW 5er“ deutlich besser als beim allgemeinen Schlagwort „Gebrauchtwagen“.

Eine Hilfestellung bei der Auswahl relevanter Suchbegriffe leistet das Google AdWords-Tool, insbesondere in Fragen der Suchmaschinenwerbung. Nach Eingabe eines Keywords liefert Google automatisch eine Liste inhaltlich verwandter Keywordvorschläge („Keywordideen“) inklusive Angaben zur aktuellen Wettbewerbssituation bei den einzelnen Suchbegriffen. Es empfiehlt sich aber auf jeden Fall, die Analyse und Auswahl der SEO- oder AdWords-Keywords einer professionellen Marketing- und Internetagentur zu überlassen. Diese unterbreitet dem Kunden im Vorfeld konkrete Keywordvorschläge, die umsatzrelevant und optimierbar sind. Eine SEO- bzw. SEA-Agentur kann auch die Umsetzung und Budgetverwaltung bei AdWords-Kampagnen vollständig übernehmen.

Was ist ein Keyword bzw. Suchbegriff?

Unter Keywords bzw. Suchbegriffen versteht man einzelne Schlagwörter bzw. Formulierungen aus mehreren Worten, auf deren Basis Google den organischen Teil der Search Engine Result Pages (SERP) erstellt und zugleich die Einblendung der zur Suchanfrage passenden AdWords vornimmt. Die Keywordanalyse und -auswahl, das heißt die Ermittlung und Erfassung der erfolgsrelevanten Suchbegriffe, ist die erste und zunächst wichtigste Maßnahme der Suchmaschinenoptimierung (SEO).

Ein strategisches Ziel jeder SEO- oder AdWords-Kampagne ist die Steigerung der Sichtbarkeit eigener Internetpräsenzen in den SERP bei umsatzrelevanten Keywords. Dies wird ermöglicht durch die Optimierung der Google-Rankings, das heißt durch die Platzierung der eigenen Domain auf den obersten Plätzen der Suchmaschinenergebnisse. Die prominente Positionierung dient der Gewinnung und der Sicherung von Marktanteilen. Eine zweite Zielsetzung fordert die Auswahl von Keywords nach Image- und Reputationsaspekten – ein zentraler Bestandteil des Online Reputation Managements (ORM).