OnPage-Opti­mie­rung umfasst alle Maß­nah­men, wel­che direkt auf der eige­nen Seite vor­ge­nom­men wer­den können.

In den nach­fol­gen­den Kapi­teln wer­den eine Reihe ein­zel­ner Maß­nah­men gelis­tet und kurz erläu­tert, wel­che für eine erfolg­rei­che Such­ma­schi­nen­op­ti­mie­rung erfor­der­lich sind.

Unter Berück­sich­ti­gung bestimm­ter Fak­to­ren, kann eine Opti­mie­rung zu einer höhe­ren Rele­vanz unter ent­spre­chen­den Such­an­fra­gen führen.

Bevor inhalt­li­che Aspek­te einer Web­site über­ar­bei­tet wer­den, soll­ten vor­erst stets die tech­ni­schen Kri­te­ri­en über­prüft werden.

Meta-Infor­ma­tio­nen

Wenn man Such­ma­schi­nen­op­ti­mie­rung betreibt, muss man sich im Kla­ren sein, dass jede Infor­ma­ti­on für die Craw­ler der Such­ma­schi­nen wert­voll sein kann.

Es gilt also eine Auf­be­rei­tung der Infor­ma­tio­nen durch­zu­füh­ren, wel­che nicht nur für den Men­schen sicht­bar sind, son­dern eben­so für die Such­ma­schi­nen. Dabei ist es wich­tig, diese so opti­mal wie mög­lich zu gestalten.

Mit Hilfe von soge­nann­ten Meta-Ele­men­ten las­sen sich Infor­ma­tio­nen für die Craw­ler bereitstellen.

Unter Meta-Infor­ma­tio­nen (auch Meta-Tags genannt) ver­steht man die im Hea­der-Bereich eines HTML-Codes zur Ver­fü­gung gestell­ten kom­pri­mier­ten Infor­ma­tio­nen eines Dokuments.

In die­sem Kapi­tel wer­den ele­men­ta­re Meta-Ele­men­te ange­spro­chen. Es gibt noch eine Viel­zahl wei­te­rer Tags, wel­che ein­ge­setzt wer­den können.

Title

Das Title Ele­ment wird häu­fig als Meta-Title oder Title-Tag bezeich­net und ist eines der wich­tigs­ten Ele­men­te, wenn es um SEO geht.

Die­sem Ele­ment rech­nen sämt­li­che Such­ma­schi­nen eine hohe Gewich­tung zu. Das liegt daran, dass hier, wie sonst nir­gend­wo im Doku­ment, der Inhalt so prä­zi­se wie mög­lich for­mu­liert wer­den muss.

Die Anga­ben im Meta-Title wer­den in der Titel­zei­le eines jeden Brow­sers dar­ge­stellt, da hier nur eine Zeile mit einer varia­blen, aber doch stark beschränk­ten Brei­te zur Ver­fü­gung steht, wer­den Web­mas­ter stets ange­hal­ten sich kurz zu fas­sen. Dies garan­tiert meist die Inte­gri­tät der jewei­li­gen Titel.

Das Title-Ele­ment dient eben­so der Web­site­be­schrei­bung, wel­che in den Such­ergeb­nis­sei­ten dar­ge­stellt wird.

Simon Mil­ler
Medi­en­in­for­ma­ti­ker (B. Sc.)

Es fun­giert als Über­schrift für die Anzei­gen der Such­ma­schi­nen­er­geb­nis­se und ist somit das erste Ele­ment, wel­ches einem Nut­zer ins Auge fällt, wenn die­ser Ihre Seite in den Such­ergeb­nis­sen findet.

Jeder Title soll­te eine gewis­se Prä­gnanz vor­wei­sen kön­nen und vor allem das Thema der Seite wider­spie­geln. Stel­len Sie sicher, dass das Title-Ele­ment jeder Seite ein­zig­ar­tig ist.

Eben­so soll­te es nach Mög­lich­keit das wich­tigs­te Key­word der jewei­li­gen Ziel­sei­te ent­hal­ten und die­ses soll­te so weit vorne wie mög­lich stehen.

Exper­ten­tipp

Die Länge des Title-Ele­ments soll­te zwi­schen 40 bis 60 Zei­chen liegen.

Title-Tag Beispiel

Descrip­ti­on

Stel­len Sie sicher, dass jede Seite eine ein­zig­ar­ti­ge Meta-Descrip­ti­on besitzt. Mit Hilfe des Descrip­ti­on-Ele­ments kön­nen Such­ma­schi­nen the­men­re­le­van­te Inhal­te auf den Ergeb­nis­sei­ten darstellen.

Die Descrip­ti­on soll­te so prä­gnant und prä­zi­se wie mög­lich sein. Das bedeu­tet, sie muss das Thema der Web­site tref­fend wie­der­ge­ben und dazu auch noch im Kon­text Sinn ergeben.

Exper­ten­tipp

Die emp­foh­le­ne Länge liegt hier bei 160–180 Zei­chen. Meist wer­den Texte gewählt, wel­che den Suchen­den neu­gie­rig wer­den lassen.

Mit Hilfe einer guten und indi­vi­du­el­len Meta-Descrip­ti­on kann man die Klick­ra­te über die Such­ergeb­nis­se beein­flus­sen.

Meta-Description (Beispiel)

Robots

Mit Hilfe des Robots-Ele­ments kön­nen Web­mas­ter die Inde­xie­rung bestimm­ter Sei­ten durch Such­ma­schi­nen ver­bie­ten.

Exper­ten­tipp

Über­prü­fen Sie die Robots-Ele­men­te auf all Ihren Sei­ten. Wenn Sie eine Abwei­chung fin­den, haben Sie wahr­schein­lich bereits erste Schwie­rig­kei­ten ent­deckt. Bspw. kann ein unbe­ab­sich­tig­tes no-index sich nega­tiv auf Ihre Such­ma­schi­nen­ran­king-Pläne auswirken.

Geo

Geo-Tags ver­mit­teln Infor­ma­tio­nen über den räum­li­chen Stand­ort. Etwa 25% aller ein­ge­hen­den Such­an­fra­gen bezie­hen sich auf einen Ort.

Das zeigt wie wert­voll der­ar­ti­ge Anga­ben für eine Platt­form sein können.

Wenn Sie z.B. für “Aalen Pizza” ran­ken wol­len, weil Sie einen Piz­zala­den in Aalen besit­zen, so soll­ten Sie sicher­stel­len, dass Ihre Adres­se auf jeder Seite Ihrer Web­site ver­tre­ten ist.

Eben­falls soll­ten Sie die Such­ergeb­nis­se in Goog­le Maps kon­trol­lie­ren, um zu sehen, ob Sie dort mit einem Goog­le MyBusi­ness Ein­trag ver­tre­ten sind.

Google Business Profile

Struk­tur und Darstellung

Alle ein­zel­nen Sei­ten der Sei­ten­struk­tur einer Web­site müs­sen so orga­ni­siert wer­den, dass diese zuein­an­der in einer logi­schen und hier­ar­chi­schen Bezie­hung ste­hen. Die Anord­nung soll­te für den Benut­zer stets trans­pa­rent und ver­ständ­lich erscheinen.

Der Craw­ler von Goog­le folgt strikt den Links, wel­che Sie ihm zur Ver­fü­gung stel­len. Wenn es beab­sich­tigt ist, dass alle Sei­ten im Index der Such­ma­schi­ne reprä­sen­tiert wer­den, so muss jede Seite über einen Link der Web­site erreicht wer­den. Es gilt die Navi­ga­ti­ons­steu­er­leis­ten sowie Abschnitts­über­schrif­ten zu überprüfen.

Um das Thema eines bestimm­ten Abschnitts zu bestim­men soll­ten stets beschrei­ben­de Über­schrif­ten vor­han­den sein. Über­schrif­ten wer­den mit dem H1-H6 Tag aus­ge­zeich­net. Bei der Num­me­rie­rung han­delt es sich um eine Form der Untergliederung.

Der H1-Tag steht für die höchs­te Ebene und soll­te dem­entspre­chend mit wich­ti­gen Schlüs­sel­be­grif­fen belegt werden.

Der H2-Tag kann als Unter­über­schrift ver­wen­det wer­den, ihm wird dem­nach eine nicht ganz so hohe Prio­ri­tät von den Such­ma­schi­nen beigemessen.

Such­ma­schi­nen schlie­ßen Über­schrif­ten für ihre Berech­nun­gen der Gewich­tun­gen ein­zel­ner Sei­ten mit ein.

Abge­se­hen von den Vor­tei­len hin­sicht­lich SEO, zeugt es von einem ordent­li­chen Pro­gram­mier­stil und sau­be­rem Design, wenn Über­schrif­ten so ein­ge­setzt wer­den, dass sie für den Anwen­der ziel­füh­rend sind.

Hin­ter einer gro­ßen, fet­ten Über­schrift wird gene­rell wich­ti­ger Inhalt ver­mu­tet, dem­nach wer­den Ihre Besu­cher ent­täuscht sein wenn sie die­sen nicht vorfinden.

Eine klar geglie­der­te Web­site, wel­che eine sinn­vol­le Struk­tur besitzt, schafft eine wesent­li­che Erleich­te­rung für den Benut­zer, sowohl bei der Hand­ha­bung, als auch bei der Orientierung.

Die Such­ma­schi­nen hin­ge­gen las­sen die Gesamt­struk­tur in ihre Berech­nun­gen mit ein­flie­ßen, in dem sie bspw. die Ver­zeich­nis­tie­fe einer Seite bestimmen.

Es wird davon aus­ge­gan­gen das rele­van­te Doku­men­te sich wei­ter oben in einer Struk­tur befin­den und weni­ger rele­van­te Doku­men­te tie­fer liegen.

Hier­zu gibt es Hin­wei­se für Vor­ge­hens­wei­sen, wel­che am Bes­ten bereits vor der Umset­zung bedacht wer­den sollten.

Ein Schlüs­sel­fak­tor zur Bewer­tung der Rele­vanz ist die Anzahl an Klicks, wel­che benö­tigt wird, um von der Start­sei­te auf die gewünsch­te Seite zu gelangen.

Eine Unter­sei­te, wel­che sich nur einen Klick von der Haupt­sei­te ent­fernt befin­det, muss zwei­fels­oh­ne eine wich­ti­ge Seite sein. Eine Seite, wel­che wie­der­um fünf oder mehr Klicks von der Haupt­sei­te ent­fernt ist, ist bei wei­tem nicht so ein­fluss­reich. In der Tat kann es vor­kom­men, dass die Such­ma­schi­ne eine der­ar­ti­ge Seite nie­mals fin­det. Dies ist aber auch immer von der Rele­vanz der Links auf der jewei­li­gen Seite abhängig.

Aus Erfah­rungs­be­rich­ten lässt sich schlie­ßen, dass gene­rell nie mit mehr als drei Ebe­nen gear­bei­tet wer­den sollte.

Exper­ten­tipp

Sei­ten­struk­tur so flach wie mög­lich halten.

Mini­mie­ren Sie die Anzahl an benö­tig­ten Klicks von der Start­sei­te zu allen wich­ti­gen Inhal­ten. Das soll nicht bedeu­ten, dass alle Sei­ten direkt von Ihrer Start­sei­te aus erreich­bar sind, zu viele Links auf einer Seite sind eben­falls nicht gut für Suchmaschinen.

Letzt­lich lässt sich sagen, dass Sie eine Sei­ten­struk­tur pla­nen müs­sen, wel­che so flach wie mög­lich ist ohne dabei eine Beein­träch­ti­gung der User-Expe­ri­ence darzustellen.

Wenn eine Seite unter­schied­li­che The­men umfasst, kann Goog­le mehr damit anfan­gen, wenn es für jeden die­ser The­men­be­rei­che auch eine eige­ne Seite gibt. Hier­bei soll­te dar­auf geach­tet wer­den das Sei­ten­ti­tel auch stets zum dar­ge­stell­ten Inhalt pas­sen. Durch diese Auf­tei­lung wird es den Such­ma­schi­nen erleich­tert alle Infor­ma­tio­nen zu erfas­sen und zu indi­zie­ren.

Soll bspw. ein Inter­net­auf­tritt für einen Künst­ler erstellt wer­den, wel­cher sich sowohl mit der Male­rei als auch mit dem Thea­ter beschäf­tigt, so ist es sinn­voll diese bei­den Tätig­kei­ten nicht unter einer Seite zusam­men zu fas­sen, son­dern für jeden Bereich eine sepa­ra­te Seite anzu­le­gen, wel­che sich inten­siv und gezielt mit dem jewei­li­gen Thema beschäftigt.

Die Start­sei­te bie­tet sich zur Posi­tio­nie­rung von aktu­el­len Mit­tei­lun­gen an. Besu­chern wel­che sich ziel­los auf Ihre Seite bege­ben haben, kann hier direkt eine Ori­en­tie­rungs­hil­fe ange­bo­ten werden.

Eine aus­führ­li­che Beschrei­bung der Haupt­na­vi­ga­ti­ons­punk­te und eine zusätz­li­che Nen­nung wei­ter­füh­ren­der Ver­wei­se kann für den Besu­cher eine star­ke Hil­fe­stel­lung sein. Zudem bie­tet es die Mög­lich­keit, auf eine natür­li­che Weise Stich­wör­ter direkt auf der Start­sei­te zu positionieren.

Exper­ten­tipp

Da die Start­sei­te meis­tens für den ers­ten Ein­druck ver­ant­wort­lich ist, gilt es hier beson­ders auf Klar­heit und Trans­pa­renz zu achten.

Gol­de­ne Regel

Eine Web­site wird in ers­ter Linie für Men­schen erstellt und nicht für Maschi­nen. Gene­rell stim­men die Inter­es­sen die­ser bei­den Par­tei­en sowie­so über­ein. Eine gut orga­ni­sier­te Seite, wel­che leicht zu bedie­nen ist und deren Bezeich­nun­gen ein­deu­tig gewählt wur­den, ist auch für einen Craw­ler leich­ter zu erfassen.

Die Prio­ri­tä­ten soll­ten stets an den Inter­es­sen der Besu­cher aus­ge­rich­tet werden.

Simon Mil­ler
Medi­en­in­for­ma­ti­ker (B. Sc.)

Letzt­lich soll­te die logi­sche Struk­tur Ihrer Seite mit der Denk­wei­se der Anwen­der über­ein­stim­men, hin­sicht­lich der Art wie sie über Pro­duk­te und Dienst­leis­tun­gen denken.

Es soll­te stets mit Begriff­lich­kei­ten gear­bei­tet wer­den, wel­che auch von Men­schen im All­tag und bei der Suche ein­ge­setzt werden.

Mega-Menü

Struk­tu­rel­le Entscheidungen

Eine der grund­le­gends­ten Ent­schei­dun­gen, wel­che über eine Web­site oder einen Online-Shop getrof­fen wer­den müs­sen, ist die inter­ne Ver­lin­kung sowie die Navi­ga­ti­ons­struk­tur.

  • Wel­che Sei­ten wer­den von der Start­sei­te direkt verlinkt?
  • Wel­che Sei­ten wer­den als Top-Level Kate­go­rien ver­wen­det, die dann zu ande­ren ver­wand­ten Sei­ten führen?
  • Sind die Sei­ten, wel­che eine Rele­vanz zuein­an­der besit­zen, mit­ein­an­der verlinkt?

Es gibt eine Viel­zahl an Aspek­ten, wel­che die Link­struk­tur einer Seite bestim­men. Es ist eine Haupt­auf­ga­be der Usa­bi­li­ty einer Seite den Besu­cher dazu zu brin­gen die Links zu benut­zen und Ihre Seite zu erforschen.

Für Such­ma­schi­nen ist die Link­struk­tur eben­falls sehr inter­es­sant, sie hilft den Craw­lern dabei zu bestim­men, wel­che Sei­ten ihrer Mei­nung nach am wich­tigs­ten sind und wie diese zuein­an­der in Bezie­hung ste­hen (Unter­sei­ten einer Kate­go­rie gehö­ren zur Haupt­ka­te­go­rie usw.).

Eine durch­dach­te und orga­ni­sier­te Navi­ga­ti­on stellt für ein schnel­les Auf­fin­den von Inhal­ten hier­bei aller­dings die wich­tigs­te Vor­be­din­gung dar.

Der Besu­cher soll­te also zu jedem Zeit­punkt der Navi­ga­ti­on genau wis­sen wo er sich momen­tan befin­det. Es gibt ein­fa­che, ele­gan­te und eta­blier­te Wege, um mit Hilfe von Kon­ven­tio­nen eine Ori­en­tie­rung zu gewähr­leis­ten. Die soge­nann­te Bread­crumb-Navi­ga­ti­on ist eine davon.

Es wird emp­foh­len aus­schließ­lich Text­links inner­halb der Navi­ga­ti­on zu verwenden.

Site­map

Auf einer Site­map wird die kom­plet­te Struk­tur einer Web­site abge­bil­det, dabei wird inner­halb der Site­map auf jede ein­zel­ne Seite verwiesen.

Für eine schnel­le Inde­xie­rung der ein­zel­nen Seite wird eine Site­map als XML-Datei gene­riert und in der Goog­le Search Con­so­le eingereicht.

Sitemap

Feh­ler­sei­ten und Umleitungen

Feh­ler­sei­ten und Umlei­tun­gen hel­fen bspw. dabei feh­ler­haf­te Ein­ga­ben abzu­fan­gen, den Anwen­der zu infor­mie­ren und Lösun­gen anzubieten.

Feh­ler­sei­te (404)

Ein wich­ti­ger Fak­tor ist die Kon­fi­gu­ra­ti­on einer Feh­ler­sei­te (404), wel­che beim Auf­ruf einer nicht vor­han­de­nen Res­sour­ce ange­zeigt wer­den kann.

Hier bie­tet sich eben­falls die Ver­wen­dung der Site­map an. Von dort aus kann der Besu­cher sich dann bequem neu ori­en­tie­ren und ver­lässt die Seite nicht sofort.

Eben­so kann eine eigens gestal­te­te Feh­ler­sei­te für Abhil­fe sor­gen. Der Besu­cher wird somit nicht durch eine Stan­dard-Feh­ler­sei­te abge­schreckt, son­dern über seine feh­ler­haf­te Ein­ga­be informiert.

404

Per­ma­nen­te Umlei­tung (301)

Ver­wen­den Sie einen Ser­ver-Hea­der-Che­cker um sicher­zu­stel­len, dass alle ver­wen­de­ten Umlei­tun­gen auf der Seite einen 301 HTTP Sta­tus Code wiedergeben.

Kon­trol­lie­ren Sie alle Umlei­tun­gen auf diese Art um sicher zu gehen, dass alles kor­rekt abläuft. Dies beinhal­tet eben­so die Über­prü­fung der kano­ni­schen Umlei­tung auf eine ord­nungs­ge­mä­ße Implementierung.

Tem­po­rä­re Umlei­tung (302)

Dies ist ein häu­fig auf­tre­ten­des Pro­blem auf Web-Ser­ver Platt­for­men oder bei Con­tent Manage­ment Sys­te­men (CMS). Die 302 Umlei­tung blo­ckiert Such­ma­schi­nen, diese kön­nen Ihre Absicht Inhal­te zu bewe­gen nicht erken­nen und sind dadurch sehr pro­ble­ma­tisch für SEO.

Sie soll­ten in jedem Fall sicher gehen, dass die stan­dard­mä­ßi­ge Wei­ter­lei­tung (sofern diese vor­han­den) Ihres Sys­tems ein 301 ist. Oder Sie machen sich mit der Kon­fi­gu­ra­ti­on ver­traut, sodass Sie es sel­ber ein­stel­len können.

Inter­ne Verlinkung

Links, wel­che nicht auf exter­ne Quel­len ver­wei­sen, son­dern die eige­nen Unter­sei­ten refe­ren­zie­ren, wer­den inter­ne Links genannt.

Goog­le hono­riert eine Web­site, wenn diese über eine durch­dach­te inter­ne Ver­lin­kung ver­fügt. Die Such­ma­schi­ne lei­tet dar­aus die Bedeu­tung ein­zel­ner Sei­ten ab.

So ist bspw. eine Seite, wel­che ordent­lich ver­linkt ist und sich nicht irgend­wo ver­steckt auf der Web­site befin­det, rele­van­ter als eine, wel­che kaum über Ver­lin­kun­gen ver­fügt und nur über bestimm­te Unter­sei­ten erreich­bar ist.

Viele inter­ne Links im Inhalts­be­reich sind zudem ein Indiz für eine hohe Rele­vanz der Seite.

Wenn Unter­sei­ten aus einem Text her­aus ver­linkt wer­den, macht es durch­aus Sinn das Title-Attri­but der jewei­li­gen Sei­ten zu ver­wen­den. Das bedeu­tet, wenn Sie bspw. in einem Text über ein Schlüs­sel­wort wie „Leder­arm­band“ auf die ent­spre­chen­de Unter­sei­te Ihrer Platt­form ver­lin­ken möch­ten, so ach­ten Sie dar­auf, dass der Besu­cher unter die­sem Link das genann­te Pro­dukt fin­det und die URL der Unter­sei­te auch bspw. www.beispieldomain.de/lederarmband lautet.

Anker­tex­te sind ein mäch­ti­ges Werk­zeug der inter­nen Ver­lin­kung. Als Ent­wick­ler müs­sen Sie am bes­ten direkt von Anfang in Ihrem Plan berück­sich­ti­gen, Key­word­rei­che Anker­tex­te in Ihrer inter­nen Ver­lin­kung zu verwenden.

Ver­su­chen Sie Beschrei­bungs­tex­te wie „More“ oder „Kli­cke hier“ zu ver­mei­den und stel­len Sie sicher, dass Ihr Tech­ni­ker und Ihre Redak­teu­re dies ver­ste­hen. Sie soll­ten eben­falls Zeit in eine Anker­text-Stra­te­gie für Ihre Seite investieren.

Interne Verlinkung (Beispiel)

Quell­code und Content

Die Grund­vor­aus­set­zung für eine erfolg­rei­che Opti­mie­rung und eine gelun­ge­ne Web­site über­haupt, ist der kor­rek­te Umgang mit den zu Grun­de lie­gen­den Web-Tech­no­lo­gien HTML und CSS.

Die rich­ti­ge For­ma­tie­rung des Quell­codes erleich­tert es den Such­ma­schi­nen the­men­re­le­van­te Inhal­te aufzufinden.

Die Gestal­tung der the­men­re­le­van­ten Inhalts­tex­te ist für eine erfolg­rei­che Opti­mie­rung eben­so unerlässlich.

Sau­be­rer Quellcode

Brow­ser besit­zen einen tole­ran­ten Par­ser und kön­nen Sei­ten trotz Feh­ler im HTML-Quell­code, meist pro­blem­los inter­pre­tie­ren und anzeigen.

Die Craw­ler der Such­ma­schi­nen sind hin­ge­gen nicht so feh­ler­to­le­rant. Es wird daher aus­drück­lich emp­foh­len auf einen sau­be­ren Code zu ach­ten, wel­cher keine syn­tak­ti­schen Feh­ler beinhaltet.

Da Craw­ler auf ein­zel­ne Ele­men­te wie z.B. den Title-Tag zugrei­fen, um die­sen eine geson­der­te Gewich­tung zu ver­lei­hen, ist es von enor­mer Wich­tig­keit das der HTML-Code die Aus­zeich­nun­gen erken­nen lässt.

Schlech­ter Quell­code kann uner­wünsch­te Aus­wir­kun­gen zur Folge haben.

Hier kann mit Hilfe eines Tools wie dem SEO Brow­ser die Seite so dar­ge­stellt wer­den, wie sie von Such­ma­schi­nen gese­hen wird.

Soll­te man bei­spiel­haft eine simp­le, schlie­ßen­de ecki­ge Klam­mer ver­ges­sen haben, kann dies schon zu einer Nicht­be­rück­sich­ti­gung gan­zer Teile des Doku­men­tes führen.

Häu­fig wer­den Feh­ler bei der Ver­wen­dung der Anfüh­rungs­zei­chen gemacht. Wenn diese nicht im Paar einen Wert umschlie­ßen, kann es sein, dass der Par­ser alles vom ers­ten Anfüh­rungs­zei­chen bis hin zum nächs­ten, als den Wert eines Attri­buts interpretiert.

Das W3C (World Wide Web Con­sor­ti­um) bie­tet eine Art Gül­tig­keits­check an, wel­cher es den Web­mas­tern ermög­licht Ihren HTML-Code auf Syn­tax­feh­ler hin über­prü­fen zu lassen.

Hier kann ent­we­der ein­fach die URL zum jewei­li­gen Doku­ment ange­ge­ben, oder unver­öf­fent­lich­te HTML-Datei­en zur Über­prü­fung hoch­ge­la­den werden.

Hier geht es zum Validator

Wert­vol­ler Content

Eine such­ma­schi­nen­freund­li­che Seite ver­fügt über Inhalts­tex­te, wel­che das Thema der Seite inhalt­lich und deut­lich ver­mit­teln.

Gene­rell soll­te beim Schrei­ben von Tex­ten immer dar­auf geach­tet wer­den, dass man das jewei­li­ge Thema in einer inten­si­ven und sach­li­chen Art behandelt.

Wich­ti­ge Schlüs­sel­be­grif­fe wer­den hier von selbst genannt und eine Aus­ein­an­der­set­zung mit der rich­ti­gen Key­word-Dich­te ist nicht erfor­der­lich.

Im Ide­al­fall soll­ten Sie sich aber noch bevor Sie Ihre Platt­form auf­set­zen über Schlüs­sel­be­grif­fe, wel­che den Inhalt Ihrer Platt­form wie­der­ge­ben Gedan­ken machen.

Ver­set­zen Sie sich in die Lage des idea­len Besu­chers, wel­cher an den Inhal­ten und Ange­bo­ten Ihrer Seite inter­es­siert ist. Wie würde die­ser Besu­cher seine Such­an­fra­ge for­mu­lie­ren? Wel­che Schlüs­sel­be­grif­fe würde er ein­set­zen um schnellst­mög­lich zu sei­nem Ziel zu gelan­gen? Eben diese Begrif­fe sind der Schlüs­sel, nach dem Sie Ihre Inhal­te schmü­cken sollten.

Die rele­van­tes­ten unter die­sen Begrif­fen soll­ten auf den Inhalts­sei­ten und all­ge­mein in den Tex­ten Ihrer Platt­form erschei­nen. Unter ande­rem soll­ten Sie in Über­schrif­ten, Sei­ten­tex­ten sowie Sei­ten­ti­teln und Meta-Tags vor­han­den sein.

Ach­ten Sie hier­bei aber dar­auf, dass der Besu­cher nicht von den Begriff­lich­kei­ten erschla­gen wird, oder die Text­qua­li­tät dar­un­ter lei­det. Soll­te Ihre Seite unter den von ihnen opti­mier­ten Such­be­grif­fen eine schlech­te Plat­zie­rung erfah­ren oder über­haupt nicht auf­tau­chen, so kann dies meh­re­re Grün­de haben.

Zum einen besitzt nicht jeder Such­be­griff den­sel­ben Wert, Begrif­fe wie „Filme“ oder „Musik“ ste­hen einer so gro­ßen Kon­kur­renz gegen­über, dass ein gutes Ran­king unter der­art all­ge­mei­nen Begriff­lich­kei­ten fast unmög­lich bzw. nur mit erheb­li­chen Auf­wand mög­lich ist.

Es emp­fiehlt sich hier kon­kret zu wer­den und Begrif­fe wel­che Ihre Platt­form aus­zeich­nen zu ver­wen­den, bspw. Begrif­fe wie „Immo­bi­li­en­mak­ler Aalen“ oder „Mak­ler für Eigentumswohnungen“.

Keywordrecherche (Beispiel)

Eine Key­wor­d­re­cher­che ist für eine erfolgs­ver­spre­chen­de Opti­mie­rung essen­ti­ell.

The­men­re­le­van­ter Inhalt einer Web­site bie­tet außer­dem die Mög­lich­keit sich von der Kon­kur­renz abzu­he­ben und die Reich­wei­te für poten­zi­el­le Ziel­grup­pen zu erweitern.

Neben den Besu­chern sind es vor allem Such­ma­schi­nen, wel­che ein­ma­li­gen Con­tent einer Seite hono­rie­ren.

Die Infor­ma­tio­nen aus Tex­ten, Gra­fi­ken und Vide­os haben direk­ten Ein­fluss auf die Rele­vanz einer Seite. Je höher die Rele­vanz, desto grö­ßer ist die Wahr­schein­lich­keit mit einem guten Ran­king in den Such­ergeb­nis­sen abzuschneiden.

Alle Gra­fi­ken einer Web­site soll­ten mit Alt-Tex­ten aus­ge­zeich­net wer­den, damit Such­ma­schi­nen ver­ste­hen kön­nen was auf einem Bild dar­ge­stellt wird. Diese Maß­nah­me ver­stärkt den gesam­ten Kon­text Ihrer Seite. Die­ser Kon­text kann wei­ter ver­stärkt wer­den indem genau­so mit den Datei­na­men der Gra­fi­ken ver­fah­ren wird.

So wie es zu einem guten Stil gehört die Unter­sei­ten einer Web­site mit spre­chen­den Bezeich­nern zu ver­se­hen, so gilt dies auch für Bild­da­tei­en. Ver­su­chen Sie im Bild­na­men den dar­ge­stell­ten Gegen­stand zu beschreiben.

Bei der Namens­fin­dung kön­nen fol­gen­de Fra­gen behilf­lich sein:

  • Was wird auf dem Bild dargestellt?
  • Wel­che Begrif­fe ver­wen­den poten­zi­el­le Kun­den, wenn sie nach die­sem Pro­dukt suchen?

Das Bild soll­te so genau wie mög­lich beschrie­ben wer­den, hier­bei kön­nen Sie ruhig meh­re­re Begrif­fe verwenden.

Die Chan­ce, in den Bild-Such­ergeb­nis­sen ange­zeigt zu wer­den, wird durch die rich­tig geschaf­fe­ne Zuord­nung erhöht.

Eben­so erhö­hen sich die Chan­cen, dass Bil­der gemein­sam mit der Web­site in den Such­ergeb­nis­sei­ten dar­ge­stellt werden.

Beach­ten Sie bei der abschlie­ßen­den Über­prü­fung der Inhalts­tex­te sowie des Quell­codes fol­gen­de Fak­to­ren:

  • Besit­zen die wich­tigs­ten Sei­ten Ihres Inter­net­auf­tritts genü­gend Inhalt?
  • Wer­den bei allen Sei­ten Hea­der-Tags (Über­schrif­ten) verwendet?

Eine etwas sub­ti­le­re Vari­an­te die­ser Über­prü­fung ist es dar­auf zu ach­ten, dass der Pro­zent­an­teil der Sei­ten, wel­che über wenig Inhalt ver­fü­gen nicht zu hoch im Ver­gleich zur Gesamt­zahl der Sei­ten auf Ihrer Web­site ist.

Das Ver­hält­nis von Inhal­ten, wel­che für den Besu­cher dar­ge­stellt wer­den und der dazu benö­tig­te Quell­code wer­den von den Such­ma­schi­nen bewer­tet. Wenn eine Seite nur wenig Inhalt anbie­tet, aber aus Unmen­gen Quell­code besteht, so wird sich das nega­tiv auf die Such­ma­schi­nen­be­wer­tung auswirken.

Struk­tu­rier­te Daten

Auf kom­ple­xen Web­sites und Online­shops wer­den tech­nisch gese­hen Unmen­gen an Infor­ma­tio­nen ver­ar­bei­tet. In den Daten­ban­ken wer­den die ein­zel­nen Pro­duk­te mit mög­lichst vie­len und rele­van­ten Infor­ma­tio­nen ver­se­hen. Für die Such­ma­schi­nen sind diese Infor­ma­tio­nen aber nicht ersicht­lich, sie ana­ly­sie­ren nur den zu Grun­de lie­gen­den HTML-Quell­text.

Das bedeu­tet, dass alle Anga­ben in der Daten­bank, wel­che sich nicht direkt auf der Seite befin­den für die Such­ma­schi­nen unsicht­bar sind.

Um dem ent­ge­gen­zu­wir­ken und der­ar­ti­ge wert­vol­le Infor­ma­tio­nen für Such­ma­schi­nen auf­zu­be­rei­ten, müs­sen diese in maschi­nen­les­ba­rer Spra­che im Quell­text hin­ter­legt werden.

Mit Hilfe von struk­tu­rier­ten Daten, kön­nen die eige­nen Sei­ten in den Such­ergeb­nis­sen mit wert­vol­len Infor­ma­tio­nen ange­rei­chert werden.

Diese geben dem Suchen­den nicht nur eine schnel­le­re Aus­kunft, son­dern fal­len ihm durch die opti­sche Her­vor­he­bung auch ins Auge. Diese wert­vol­len Infor­ma­tio­nen kön­nen bspw. einen posi­ti­ven Effekt auf die Kauf­ent­schei­dun­gen haben.

Mit Hilfe eines Mar­kups kann den Such­ma­schi­nen ver­mit­telt wer­den, wo genau sich die Anhalts­punk­te zur Erstel­lung von soge­nann­ten Rich Snip­pets befinden.

Es gibt drei ver­schie­de­ne For­men, um Daten auszuzeichnen:

  • Mikro­da­ten
  • Mikro­for­ma­te
  • RDFa

Mit deren Hilfe kön­nen nicht nur Pro­duk­te in Online-Shops aus­ge­zeich­net wer­den, son­dern auch Inhal­te wie Beur­tei­lun­gen, Ereig­nis­se und Video­con­tent.

Durch eine Struk­tu­rie­rung der Daten kön­nen Such­ma­schi­nen diese inter­pre­tie­ren und ver­ste­hen. Die Anga­be, um wel­che Infor­ma­ti­on es sich han­delt, erleich­tert den Such­ma­schi­nen die Zuord­nung und die kor­rek­te Darstellung.

Wenn eine Per­son auf einer Web­site der Autor eines Buches ist und auf einer ande­ren der Geschäfts­füh­rer einer Agen­tur, kann hier mit Hilfe der Über­mitt­lung von struk­tu­rier­ten Daten den Such­ma­schi­nen die Mög­lich­keit gege­ben wer­den, der­ar­ti­ge Zusam­men­hän­ge zu ver­ste­hen und diese auch rich­tig dar­zu­stel­len.

Strukturierte Daten (Beispiel)

Durch eine Ster­ne-Bewer­tung kann der Suchen­de sich schnell ein Bild davon machen was ande­re Besu­cher von die­ser Seite hal­ten und ob der ange­bo­te­ne Inhalt (in die­sem Fall ein Rezept) hilf­reich war.

Zusätz­lich wird ein Bild des Gerichts dar­ge­stellt und die Anzahl der Rezen­sio­nen sowie die Zube­rei­tungs­dau­er. Das alles sind wert­vol­le Infor­ma­tio­nen, wel­che die Suche dras­tisch beschleu­ni­gen können.

Die Ster­ne-Bewer­tung stellt ein sehr auf­fäl­li­ges Ele­ment dar, ist aber bei wei­tem nicht alles, was Rich-Snip­pets zu bie­ten haben.

Es gibt eine Viel­zahl von ver­schie­de­nen Arten, wie bereits in der Abbil­dung angedeutet.

Es muss bei der Aus­zeich­nung der Daten ledig­lich dar­auf geach­tet wer­den, dass der Code exakt den Richt­li­ni­en und Anfor­de­run­gen ent­spricht, so dass die Such­ma­schi­nen diese auch ver­ste­hen und aus­wer­ten können.

Um wel­che Richt­li­ni­en han­delt es sich hier­bei, wo fin­det man sie und wie wer­den diese definiert?

2011 wurde www.schema.org von Micro­soft, Goog­le und Yahoo! gegrün­det. Auf die­ser Seite wer­den die ein­heit­li­chen Richt­li­ni­en für die Aus­zeich­nun­gen von struk­tu­rier­ten Daten bekannt gegeben.

Yand­ex, die größ­te Such­ma­schi­ne Russ­lands hat sich die­ser Initia­ti­ve angeschlossen.

Web­ent­wick­ler haben somit den Vor­teil, sich nur nach einer Rege­lung rich­ten zu müs­sen, sodass nicht für jede Such­ma­schi­ne ein spe­zi­el­les Mark­up not­wen­dig ist.

Durch schema.org wird also den Web­mas­tern mit­ge­teilt in wel­cher Form struk­tu­rier­te Daten über­mit­telt wer­den kön­nen. Durch diese Aus­zeich­nun­gen kön­nen Such­ma­schi­nen die Infor­ma­tio­nen bes­ser erken­nen, deu­ten und verarbeiten.

Ob es sich nun um Erfah­rungs­be­rich­te, ein­zel­ne Per­so­nen oder Pro­duk­te, Unter­neh­men, Ver­ei­ne oder Orga­ni­sa­tio­nen, Rezep­te, Ver­an­stal­tun­gen oder Musik han­delt, es wird bereits ein brei­tes Spek­trum angeboten.

Suchen wir bspw. nach einer Band, so wird in den Such­ergeb­nis­sen nicht nur der Name dar­ge­stellt, son­dern eben­falls eini­ge Lie­der des Inter­pre­ten mit der jewei­li­gen Spieldauer.

Der­ar­ti­ge Infor­ma­tio­nen sind von bedeu­ten­dem Inter­es­se für den Suchen­den. In jedem Fall erhöht es die Chan­ce, dass der Suchen­de sich für die­ses Ergeb­nis ent­schei­det, da es den reichs­ten Infor­ma­ti­ons­ge­halt verspricht.

Den Quell­code auf­zu­be­rei­ten, sodass Infor­ma­tio­nen struk­tu­riert über­mit­telt wer­den kön­nen, ist kein Hexen­werk. Es gibt bereits Werk­zeu­ge, mit denen sich der ent­spre­chen­de Code auto­ma­tisch gene­rie­ren lässt (z.B. www.schema-creator.org).

Vor­tei­le durch Rich-Snippets

Durch struk­tu­rier­te Daten kön­nen die eige­nen Sei­ten in den Such­ma­schi­nen­er­geb­nis­sen ande­ren Sei­ten gegen­über deut­lich her­vor­ge­ho­ben und bes­ser dar­ge­stellt werden.

Dies kann sehr wert­voll für den Betrei­ber der Web­site sein, denn durch die zusätz­li­chen Infor­ma­tio­nen und die opti­sche Her­vor­he­bung, wird sich die Klick­ra­te eben­falls erhö­hen und dadurch wird zudem den Such­ma­schi­nen signa­li­siert, dass diese Seite für die jewei­li­gen Key­words rele­vant und beliebt ist.

Cross-Lin­king

Ver­lin­kun­gen zwi­schen ähn­li­chen Arti­keln, wel­che zuein­an­der gehö­ren oder in Bezie­hung ste­hen, kön­nen sehr mäch­tig sein. Diese hel­fen den Such­ma­schi­nen dabei, mit einer grö­ße­ren Sicher­heit bestim­men zu kön­nen, wie rele­vant eine Seite zu einem bestimm­ten Thema ist.

Dies kann die Ent­wick­ler und Desi­gner vor sehr schwe­re Her­aus­for­de­run­gen stel­len, vor allem dann, wenn es sich um einen gro­ßen Online­shop mit einer Viel­zahl an Arti­keln handelt.

Berei­che wie „Häu­fig zusam­men gekauft“ und „Was haben Kun­den gekauft, nach­dem sie die­sen Arti­kel gese­hen haben?“ sind eine gute Mög­lich­keit eine Grup­pe von Pro­duk­ten in Kate­go­rien zusam­men­zu­fas­sen, wel­che die Rele­vanz der Seite zu bestimm­ten The­men­ge­bie­ten her­stel­len, sowie um Ver­lin­kun­gen zwi­schen rele­van­ten Sei­ten zu ermöglichen.

Sie soll­ten eine Web­site-Archi­tek­tur pla­nen, wel­che es ermög­licht, ver­wand­te Ele­men­te mit­ein­an­der zu ver­net­zen.

Cross-Linking Beispiel (Amazon)

Wei­te­re Faktoren

Eini­ge wich­ti­ge Fak­to­ren wur­den bereits genannt. In die­sem Kapi­tel wird auf wei­te­re Punk­te ein­ge­gan­gen, wel­che von Bedeu­tung sein können.

Ein­satz und Gewich­tung hängt vom jewei­li­gen Anwen­dungs­fall ab.

Per­for­mance

Laut Matt Cutts, einem lei­ten­den Ange­stell­ten von Goog­le, ist die Per­for­mance einer Seite ein Ran­king­fak­tor. Klingt logisch oder?

Eine zu lange Lade­zeit kann das Erfas­sen der Seite durch die Such­ma­schi­nen und die Inde­xie­rung verlangsamen.

Nicht nur Goog­le freut sich über schnel­le Lade­zei­ten, son­dern vor allem der Besu­cher, wel­cher even­tu­ell nicht über die beste Inter­net­ver­bin­dung verfügt.

Zu lange Lade­zei­ten füh­ren mit gro­ßer Wahr­schein­lich­keit dazu, dass der Besu­cher die Seite ver­lässt, bevor diese über­haupt erst gela­den wurde.

Unter fol­gen­dem Link kann die URL der zu ana­ly­sie­ren­den Seite ein­ge­ge­ben wer­den und das Tool von Goog­le „Page­Speed Insights“ lie­fert nach kur­zer War­te­zeit wert­vol­le Ergeb­nis­se mit Hin­wei­sen zur Optimierung:

Ana­ly­se mit Page­Speed Insights

Gene­rell bie­ten sich meh­re­re Tech­ni­ken immer an um die Per­for­mance einer Seite zu optimieren.

Das kom­pri­mie­ren von Java­Script- und CSS-Datei­en, Bil­dern und HTML-Code sind hier­bei die geläu­figs­ten Metho­den.

Die rich­ti­ge Kon­fi­gu­ra­ti­on der Modu­le auf dem Ser­ver hat eben­falls Ein­fluss auf die Lade­zeit, hier soll­te bspw. Kee­pA­li­ve akti­viert werden.

Bei Kee­pA­li­ve han­delt es sich um einen Mecha­nis­mus, wel­cher das Ziel ver­folgt eine Ver­bin­dung auf­recht zu erhalten.

PDF-Doku­men­te

Befin­den sich PDF-Doku­men­te auf Ihrer Platt­form, so gilt es diese eben­so zu opti­mie­ren wie Ihre HTML-Datei­en. Gene­rell gel­ten die­sel­ben Regeln wie für die Publi­ka­ti­on von HTML-Doku­men­ten, wenn man von den spe­zi­el­len HTML-Eigen­schaf­ten absieht.

Bei der Kon­ver­tie­rung von PDF-Datei­en wer­den Fel­der zur Ver­fü­gung gestellt, wel­che die Plat­zie­rung von Meta-Infor­ma­tio­nen ermög­li­chen. Beson­ders rat­sam ist es hier das Title-Feld mit den­sel­ben Schlüs­sel­be­grif­fen wie die des Title-Ele­ments der jewei­li­gen Seite zu bestü­cken. Eine the­ma­ti­sche Struk­tu­rie­rung von Über­schrif­ten und Abschnit­ten ist hier eben­falls ein wich­ti­ger Fak­tor.

Robots.txt

Mit Hilfe einer robots.txt Datei kann ange­ge­ben wer­den, wel­che Sei­ten der Platt­form durch die Craw­ler der Such­ma­schi­nen besucht wer­den dür­fen und wel­che nicht.

Soll­te es z.B. noch Sei­ten geben wel­che sich im Auf­bau befin­den, so kön­nen diese von der Inde­xie­rung aus­ge­schlos­sen werden.

Es kann ein Hin­weis auf die Site­map der Web­site gesetzt wer­den, was die Über­mitt­lung und das Ein­le­sen der Seite für die Such­ma­schi­nen erleichtert.

Die robots.txt befin­det sich in der Regel im Haupt­ver­zeich­nis.

Ver­wen­den Sie die Goog­le Search Con­so­le um Ihre robots.txt Datei zu überprüfen.

Domain-Alter

Das Alter einer Domain ist als Ran­king­fak­tor zu berücksichtigen.

Mit stei­gen­dem Alter erhöht sich deren soge­nann­ter Trust, wel­cher für das zuge­mes­se­ne Ver­trau­en von Goog­le steht.

Bei Sei­ten wel­che über einen län­ge­ren Zeit­raum unter einer bestimm­ten Domain online sind, hat Goog­le die Mög­lich­keit bereits auf etli­che Daten zuzu­grei­fen und diese auszuwerten.

Das erleich­tert es der Such­ma­schi­ne eine genaue Aus­sa­ge zu tref­fen, ob es sich bei der Seite um eine rele­van­te oder eine weni­ger wich­ti­ge Web­site handelt.

Beschrei­ben­de URLs

Eine gute URL besitzt einen ein­präg­sa­men und kurz gehal­te­nen Namen.

Der Ide­al­fall lässt den Besu­cher anhand der URL auf das Thema der jewei­li­gen Seite schließen.

Stel­len Sie sicher, dass Sie sau­be­re, kurze und beschrei­ben­de (spre­chen­de) URLs besit­zen. Beschrei­bend bedeu­tet reich an Schlüs­sel­wör­tern, aber nicht vollgestopft.

Sie wol­len keine ange­häng­ten Para­me­ter, wel­che in der URL erschei­nen (wenn dies unum­gäng­lich ist, ist eine klei­ne Anzahl ver­tret­bar). Sie wol­len ein­fa­che, leicht ver­ständ­li­che URLs für den Anwen­der sowie Craw­ler anbieten.

Dadurch wird es dem Besu­cher eben­falls erleich­tert sich eine bestimm­te Adres­se zu mer­ken. In den Such­ergeb­nis­sen wer­den die URLs von Unter­sei­ten neben der Domain auch ange­zeigt. Deren Dar­stel­lung kann also durch­aus einen Fak­tor für die Klick­ra­te darstellen.

URL

Pro­blem­quel­len

Es gibt eine Viel­zahl von Pro­ble­men wel­che auf­tau­chen kön­nen, ohne dass der Web­mas­ter oder Shop-Betrei­ber hier­von etwas merkt.

Die wich­tigs­ten wer­den nach­fol­gend benannt und soll­ten je nach Mög­lich­keit ver­mie­den wer­den.

Sack­gas­sen

Man bezeich­net der­ar­ti­ge Sei­ten als Dang­ling Pages, diese stel­len einen blin­den End­punkt inner­halb einer Ver­lin­kungs­ket­te dar.

Aus die­sen End­punk­ten kann sich der Besu­cher nur über die Zurück-Funk­ti­on her­aus­na­vi­gie­ren.

Der­ar­ti­ge Ein­bahn­stra­ßen gilt es strikt zu ver­mei­den, daher soll­te es von jeder Seite zumin­dest eine Navi­ga­ti­ons­mög­lich­keit zur Start­sei­te geben, von der aus sich der Benut­zer dann neu ori­en­tie­ren kann.

Unnö­ti­ge Subdomains

Die Such­ma­schi­nen kön­nen even­tu­ell die Gesamt­heit der Ver­trau­ens­wür­dig­keit einer Domain nicht erfas­sen.

Dies ist vor allem der Tat­sa­che geschul­det das eine Sub­do­main unter der Kon­trol­le einer ande­ren drit­ten Par­tei sein könn­te. Des­halb müs­sen, aus der Per­spek­ti­ve der Such­ma­schi­nen, diese sepa­rat eva­lu­iert werden.

In einer gro­ßen Mehr­heit der Fälle kann der Inhalt von Sub­do­mains ein­fach in einen Unter­ord­ner abge­legt werden.

Java­Script, Java oder Flash

Such­ma­schi­nen fällt es schwer Inhal­te oder Ver­lin­kun­gen zu sehen und zu ver­ar­bei­ten, wenn diese in Skrip­ten etc. vorliegen.

Stel­len sie sicher, dass Ihre Links und Inhal­te über ein­fa­chen HTML-Text struk­tu­riert und dar­ge­stellt werden.

Inhalt hin­ter For­mu­la­ren (inkl. Pull-down Listen)

Inhalt wel­cher erst nach dem Aus­fül­len eines For­mu­lars oder ggf. eines Log­ins zugäng­lich gemacht wird, kann von Such­ma­schi­nen nicht erkannt werden.

Also nut­zen Sie diese Tech­ni­ken nicht, es sei denn Sie möch­ten Inhal­te ausblenden.

Ein­gangs­sei­ten

Bei Ein­gangs­sei­ten han­delt es sich um inhalts­lee­re Sei­ten, wel­che den Besu­cher auf die eigent­li­che Seite füh­ren. Manch­mal wird hier mit Mul­ti­me­dia-Spie­le­rei­en gear­bei­tet, oft sind es aber nur ein­fa­che sta­ti­sche Will­kom­mens­sei­ten, wel­che den Besu­cher über einen Link auf die Inhalts­sei­ten lotsen.

Da Goog­le nicht gerne auf inhalts­lee­re Ein­gangs­sei­ten in sei­nen Such­ergeb­nis­sen ver­weist, soll­ten diese mög­lichst ver­mie­den oder wenn bereits vor­han­den, abge­schafft werden.

Zudem sind der­ar­ti­ge Sei­ten fast immer ein Indiz für schlech­tes Web­de­sign.

Stel­len Sie sicher, dass bereits auf der Start­sei­te gene­rell wert­vol­le Infor­ma­tio­nen in Form von infor­ma­ti­ven Tex­ten ange­bo­ten werden.

Ses­si­on IDs oder User IDs in der URL

Frü­her war es häu­fig der Fall für CMS ein­zel­ne unter­schied­li­che Benut­zer mit Hilfe eines Track­ing-Codes am Ende der URL zu verfolgen.

Obwohl dies für die­sen Zweck gut funk­tio­nier­te war es für Such­ma­schi­nen hin­ge­gen weni­ger vor­teil­haft.

Jede URL wird als eine unter­schied­li­che Seite gese­hen, anstatt dass es sich hier um unter­schied­li­che Vari­an­ten der­sel­ben Seite handelt.

Stel­len Sie sicher, dass Ihr CMS oder Shop­sys­tem nie­mals Ses­si­on-IDs auftischt.

Über­flüs­si­ge Flags in der URL

Diese machen Goog­le viel­leicht nichts aus, kön­nen aber ande­re Such­ma­schi­nen stö­ren und wir­ken sich auch nach­tei­lig auf die User-Expe­ri­ence einer Platt­form aus.

Wenn sich in der URL lau­ter kryp­ti­sche Zei­chen befin­den, mit denen der Anwen­der nichts anfan­gen kann, so soll­ten diese ihm auch nicht dar­ge­stellt werden.

Dupli­ca­te Content

Wenn die Struk­tur der URLs ver­än­dert wird, muss dar­auf geach­tet wer­den das Goog­le unter den alten URLs keine Inhal­te mehr errei­chen kann.

Der erste Gedan­ke das mit mehr Ver­lin­kun­gen, mehr Volu­men und somit mehr Mög­lich­kei­ten für poten­zi­el­le Besu­cher ent­ste­hen um auf die Web­site zu gelan­gen, ist nahe­lie­gend. Aller­dings wer­tet Goog­le dies als Täu­schungs­ver­such, da glei­cher Inhalt mehr­mals zur Ver­fü­gung steht.

Der­ar­ti­ge Inhal­te wer­den als Dupli­ca­te Con­tent bezeichnet.

Exper­ten­tipp

Über­prü­fen Sie ob die nicht-www-Ver­si­on Ihrer Sei­ten (z.B. http://ihreseite.de) mit einem 301-redi­rect auf die www-Ver­si­on Ihrer Seite (z.B. http://www.ihreseite.de) ver­weist oder umgekehrt.

Wäh­rend Sie schon dabei sind über­prü­fen Sie gleich ob Ihre https: Sei­ten (sofern vor­han­den) keine Dupli­ka­te Ihrer http: Sei­ten sind.

Der ein­fachs­te Weg dies zu tun besteht darin, ein­zig­ar­ti­ge Strings (Text­stü­cke) aus jeder Haupt­in­halts­sei­te Ihrer Web­site zu kopie­ren und danach in Goog­le zu suchen.

Stel­len Sie sicher, dass Sie den Text­aus­schnitt in Anfüh­rungs­zei­chen set­zen (z.B.: “ein Text­aus­schnitt Ihrer Seite“) damit wird sicher­ge­stellt, dass Goog­le nach exakt dem­sel­ben String sucht.

Soll­te Ihre Seite einen zu mons­trö­sen Umfang besit­zen und somit einen zu gro­ßen Arbeits­auf­wand dar­stel­len, stel­len Sie sicher, dass Sie die wich­tigs­ten Sei­ten über­prü­fen und einen Pro­zess besit­zen, mit dem Sie neue Inhal­te einer Über­prü­fung unter­zie­hen, bevor Sie auf Ihrer Seite live gehen.

Exper­ten­tipp

Es besteht unter ande­rem auch die Mög­lich­keit Befeh­le wie inurl: und intit­le: zu ver­wen­den um Ihre Seite auf dop­pel­te Inhal­te zu untersuchen.

Wenn Sie zum Bei­spiel URLs besit­zen, wel­che unver­wech­sel­ba­re Kom­po­nen­ten beinhal­ten, kön­nen Sie nach die­sen mit Hilfe des inurl: Befehls suchen und fest­stel­len, ob Sie auf mehr als einer Seite zurück­ge­ge­ben werden.

Eine wei­te­re Dupli­ca­te Con­tent Auf­ga­be, wel­che erfüllt wer­den soll­te, ist das Sicher­stel­len, dass jedes Stück von Inhal­ten ledig­lich unter einer URL zu errei­chen ist. Dies stellt für große kom­mer­zi­el­le Sei­ten wohl am ehes­ten ein Pro­blem dar.

Das Pro­blem ist, dass der­sel­be Con­tent über meh­re­re Wege erreich­bar ist, was die Such­ma­schi­nen (und Besu­cher) dazu zwingt sich zu ent­schei­den, wel­che nun die zu ver­knüp­fen­de kano­ni­sche URL ist und wel­che nicht.

Kei­ner gewinnt, wenn Sei­ten sich selbst bekämp­fen.

Wenn Sie Inhal­te über ver­schie­de­ne Wege dar­stel­len müs­sen dann benut­zen Sie Coo­kies, so dass die Craw­ler nicht irri­tiert werden.

Inhal­te auf dyna­misch gene­rier­ten Seiten

Wich­ti­ge Inhal­te soll­ten in kei­nem Fall auf dyna­misch gene­rier­ten Sei­ten plat­ziert werden.

Exper­ten­tipp

Da dyna­mi­sche Inhal­te auf das Inter­ak­ti­ons­ver­hal­ten des Besu­chers hin unter­schied­lich ange­zeigt wer­den, kann dies bei einem Index­ro­bo­ter zu Pro­ble­men füh­ren, da die­ser kein mensch­li­ches den­ken­des Wesen ist.

Je nach Seite kann es dazu kom­men das der Craw­ler Unmen­gen an Sei­ten erzeugt, bis hin zum Absturz der Seite oder des Ser­vers.

Im Regel­fall ver­lässt ein Craw­ler des­halb die Seite sofort, sobald er dyna­misch erzeug­te Inhal­te trifft.

Frames

Such­ma­schi­nen fällt das Inde­xie­ren von Frame-Sei­ten sehr schwer. Hier wur­den bereits große Fort­schrit­te erzielt, aller­dings kommt es in den häu­figs­ten Fäl­len immer noch zu Feh­lern.

Wieso berei­ten Frames den Such­ma­schi­nen der­art große Pro­ble­me?

Exper­ten­tipp

Soll­te der Ein­satz von Frames unab­ding­bar oder gewollt sein, so muss dar­auf geach­tet wer­den, dass die Web­site Goog­le- und Benut­zer­freund­lich ist.

Dies geschieht indem Links zu den Sei­ten mit den­sel­ben Inhal­ten, nur ohne Frames, zur Ver­fü­gung gestellt werden.

Der Goog­le-Spi­der hat so die Wahl und kann die Infor­ma­tio­nen pro­blem­los erfas­sen. Dem Besu­cher wird eben­falls zusätz­lich die Mög­lich­keit gebo­ten den Anzei­ge­mo­di selbst auszuwählen.

Tricks gegen­über Google

Auch Such­ma­schi­nen wer­den von Spam nicht ver­schont, dabei steht Spam hier für alle mög­li­chen Metho­den, wel­che Such­ma­schi­nen täu­schen und mit fal­schen Infor­ma­tio­nen füttern.

Es gibt eine Viel­zahl an Tricks mit denen sich Such­ma­schi­nen mani­pu­lie­ren las­sen um bes­se­re Plat­zie­run­gen auf den Ergeb­nis­sei­ten zu erzielen.

Kein Bedarf

Da es aber kei­ner seriö­sen Arbeits­wei­se ent­spricht, die Such­ma­schi­nen immer raf­fi­nier­ter wer­den und Goog­le beim gerings­ten Anzei­chen von Mani­pu­la­ti­on sehr streng ver­fährt, soll die­ser Punkt hier nicht wei­ter erläu­tert werden.

Ihr Ansprech­part­ner für eine pro­fes­sio­nel­le OnPage-Optimierung

Sind Sie auf der Suche nach einer Wer­be­agen­tur, wel­che die OnPage-Opti­mie­rung für Sie über­nimmt und Ihnen mit Rat und Tat zur Seite steht?

Dann sind Sie bei smar­ter­Pre­sence an der rich­ti­gen Adres­se.

Erfah­ren Sie mehr über die Mög­lich­kei­ten der OnPage-Opti­mie­rung. Tre­ten Sie noch heute in Kontakt!

smarterPresence

Mehr Umsatz dank SEO

Strategie & Umsetzung aus einer Hand, damit IHRE Website dort erscheint, wo Nachfrage entsteht.

Über den Autor

Simon Miller

Simon Miller ist Geschäftsführer bei smarterPresence, leidenschaftlicher SEO und Webentwickler mit über 10 Jahren Erfahrung aus der Praxis.

Mehr über Simon