Google Webmaster Tools: 3. Teil: Website-Dashboard

Inhalt zuletzt aktua­li­siert: 26. April 2017

Nach­dem ich im zwei­ten Teil der Goog­le-Web­mas­ter-Tools-Arti­kel­rei­he auf die all­ge­mei­nen Ein­stel­lun­gen ein­ge­gan­gen bin, kom­me ich heu­te zum Web­site-Dash­board mit all sei­nen Funktionen.

Das Web­site-Dash­board wird ange­zeigt, wenn Sie in Ihren Goog­le Web­mas­ter Tools auf eine Ihrer dort ein­ge­tra­ge­nen Web­sites klicken.

Dann wer­den Ihnen in der lin­ken Sei­ten­spal­te die zur Ver­fü­gung ste­hen­den Funk­tio­nen ange­zeigt, die Sie nun für die ent­spre­chen­de Web­site auf­ru­fen können.

Dashboard - Google Webmaster Tools

Start­sei­te des Website-Dashboards

Startseite Website-Dashboard

Auf der Start­sei­te wer­den Ihnen drei Über­sich­ten im Haupt­fens­ter ange­zeigt, ein­mal der aktu­el­le Sta­tus mit mög­li­chen Craw­ling-Feh­lern, die Such­an­fra­gen der ver­gan­ge­nen Tagen mit Impres­sio­nen und Klicks sowie Site­maps mit der Anzahl der inde­xier­ten Seiten.

Im Dash­board fin­den Sie ver­schie­de­ne Sta­tis­ti­ken und Aus­wer­tun­gen, die Sie über tech­ni­sche Pro­ble­me Ihrer Web­site und deren Erreich­bar­keit infor­mie­ren. Dar­über hin­aus kann man über­prü­fen, ob der Goog­le-Bot auch Zugriff auf die eige­ne Sei­te hat und die­se somit inde­xie­ren kann. Aber nun zu den ein­zel­nen Funk­tio­nen im Dashboard.

Dar­stel­lung der Suche

Struk­tu­rier­te Daten

Die­ser Bereich ist nur inter­es­sant, wenn man struk­tu­rier­te Daten, soge­nann­te Rich Snip­pets auf sei­ner Web­site ein­setzt. Unter dem Punkt Struk­tu­rier­te Daten kann man ein­se­hen, wel­che Feh­ler­mel­dun­gen an die­sen Daten fest­ge­stellt hat. Aller­dings kom­men auch Feh­ler­mel­dun­gen, wenn man kei­ne struk­tu­rier­te Daten auf der ent­spre­chen­den Sei­te einsetzt.
Wer genau klä­ren will, was die ein­zel­nen Mel­dun­gen bedeu­ten, soll­te sich die wei­ter­füh­ren­den Infor­ma­tio­nen von Goog­le durchlesen.

Data High­ligh­ter

Der High­ligh­ter ermög­licht es Ihnen, Rich Snip­pets ohne ent­spre­chen­de HTML-Kennt­nis­se auf Ihrer Sei­te ein­zu­fü­gen. Sie kön­nen ein­fach Daten mit Ihrer Maus mar­kie­ren und den jewei­li­gen Daten­typ (sie­he Sche​ma​.org) aus einem Lis­ten­feld aus­wäh­len. Die­se Funk­ti­on steht noch nicht all­zu lan­ge zur Ver­fü­gung. Goog­le hat unter die­sem Punkt ein klei­nes Hil­fe­vi­deo ein­ge­bun­den, um den Usern den Ein­stieg in die The­ma­tik zu erleichtern.

HTML-Ver­bes­se­run­gen

Stellt Goog­le HTML-Feh­ler auf Ihrer Web­site fest, wie bei­spiels­wei­se feh­len­de oder dop­pel­te Meta-Descrip­ti­ons oder Title-Tags, dann wer­den die­se Feh­ler in die­sem Bereich aufgeführt.

Site­links

Unter Site­links sind auto­ma­tisch gene­rier­te Links zu ver­ste­hen, die unter den Such­ergeb­nis­sen für Ihre Web­site ein­ge­blen­det wer­den und den Usern bei der Navi­ga­ti­on auf Ihrer Web­site behilf­lich sein sol­len. Nur Web­site-Besit­zer haben die Mög­lich­keit, hier Site­links abzu­wer­ten, damit die­se nicht mehr in den Such­ergeb­nis­sen ein­ge­blen­det wer­den. Man gibt in das zur Ver­fü­gung ste­hen­de Feld die Sei­ten-URL ein und klickt auf den But­ton Abwer­ten.

Sitelinks

Site­links (rot mar­kiert) bei Spie­gel online

Such­an­fra­gen

Such­an­fra­gen

Häu­figs­te Such­an­fra­gen: Hier wer­den Ihnen die Key­word-Such­an­fra­gen auf­ge­führt, über die Ihre Web­site-Besu­cher in den letz­ten 30 Tage auf Ihre Sei­te gelan­gen. Dar­über hin­aus wer­den Ihnen noch die Impres­sio­nen der Sei­te ange­zeigt und die Klickrate.

Die häu­figs­ten Sei­ten: Unter die­ser Regis­ter­kar­te wird Ihnen ange­zeigt, wel­che Unter­sei­ten Ihrer Web­site am häu­figs­ten auf­ge­sucht werden.

Sie kön­nen die Zeit­räu­me der Such­an­fra­gen natür­lich ändern und dann ent­spre­chend auswerten.

Links zu Ihrer Website

Hier fin­den Sie die Web­sites vor, die zu Ihrer Web­site ver­lin­ken, und den Web­site-Con­tent, auf den am meis­ten ver­linkt wird. Außer­dem wer­den Ihnen die Anker­tex­te der Ver­lin­kun­gen aufgeführt.

Inter­ne Links

Unter die­sem Punkt lie­fert Ihnen Goog­le eine Über­sicht über alle inter­nen Links auf Ihrer Website.

Manu­el­le Maßnahmen

Hier soll­ten — falls sich Spam, Schad­soft­ware usw. auf der Sei­te ein­ge­schli­chen hat, ent­spre­chen­de Gegen­maß­nah­men auf­ge­führt wer­den. Bei mir habe ich noch nie eine Mel­dung unter Manu­el­le Maß­nah­men entdeckt.

Goog­le Index

Inde­xie­rungs­sta­tus

Hier fin­den Sie die Anzahl der inde­xier­ten Sei­ten des ver­gan­ge­nen Jah­res vor. Auch die Anzahl der blo­ckier­ten und der ent­fern­ten Sei­ten wer­den angezeigt.

Con­tent-Key­words

Unter die­sem Punkt wer­den die 20 am häu­figs­ten ver­wen­de­ten Key­words und deren Vari­an­ten, die auf Ihrer Web­site ein­ge­setzt wer­den, auf­ge­führt. Wenn Sie auf ein Key­word kli­cken, wer­den Ihnen 10 URLs (Unter­sei­ten Ihrer Web­site) ein­ge­blen­det, auf denen das Key­word beson­ders oft vorkommt.

URLs ent­fer­nen

Über die­se Mas­ke kön­nen Sie bestimm­te Sei­ten aus den Goog­le-Such­ergeb­nis­sen ent­fer­nen las­sen. Bevor man einen sol­chen Schritt durch­führt, soll­te man zuvor bes­ser die Anfor­de­run­gen zur Ent­fer­nung von Goog­le gele­sen haben.

Craw­ling

Craw­ling-Feh­ler

Web­site-Feh­ler: Hier fin­det man Feh­ler­mel­dun­gen, die in den letz­ten 90 Tagen auf­ge­tre­ten sind. Das kön­nen vor allem Feh­ler sein, die den Goog­le-Bot hin­der­ten, auf die eige­ne Inter­net­sei­te zuzu­grei­fen. Das Schau­bild ist in drei Kate­go­rien unterteilt:

  • DNS
    Hier ste­hen Anga­ben, wie oft der Goog­le-Bot nicht auf die eige­ne Web­site zugrei­fen konn­te, weil der DNS-Ser­ver nicht erreich­bar war oder Feh­ler bei der DNS-Umlei­tung auf­tra­ten. Soll­ten hier höhe­re Zah­len ste­hen, wen­det man sich am bes­ten an sei­nen Website-Hoster.
  • Ser­ver­ver­bin­dung
    Falls der eige­ne Web­space oder Ser­ver über­las­tet ist und damit die zuläs­si­ge Zeit für einen Sei­ten­auf­ruf über­schrit­ten wird, fin­det man hier einen Feh­ler­ver­merk. Genau­so taucht eine Feh­ler­mel­dung auf, wenn der Ser­ver über­haupt nicht erreicht wer­den kann.
  • Abruf von robots.txt
    Hier ste­hen Feh­ler­mel­dun­gen, wenn der Goog­le-Bot die robots.txt-Datei nicht lesen kann. Dann wird das Craw­ling abge­bro­chen. Bei einer sol­chen Feh­ler­mel­dung soll­te man sei­ne robots.txt kon­trol­lie­ren und mög­li­cher­wei­se neu erstel­len. Ich hat­te aber schon eine sol­che Feh­ler­mel­dung, obwohl mei­ne robots.txt völ­lig in Ord­nung war. Nach einem Tag hat das Craw­ling wie­der geklappt.

URL-Feh­ler: Der zwei­te Bereich unter Craw­ling-Feh­ler sind die URL-Feh­ler, die in die Regis­ter­kar­ten Desk­top, Smart­phone und Fea­ture-Pho­ne unter­teilt sind (Fea­ture-Pho­nes sind Han­dys mit Mul­ti­me­dia-Funk­tio­nen und die auch fürs mobi­le Sur­fen geeig­net sind, aber nicht die zahl­rei­chen Funk­tio­nen eines Smart­phones aufweisen).

In jedem der drei Regis­ter kön­nen die fol­gen­den Mel­dun­gen auf­tre­ten, die ich bei mir schon fest­ge­stellt habe:

  • Soft 404
    Die auf­ge­führ­te Ziel-URL exis­tiert auf Ihrer Web­site nicht, den­noch gibt der Ser­ver kei­ne 404-Feh­ler­mel­dung “Datei nicht gefun­den” zurück. Dass so eine Mel­dung nicht ange­zeigt wird, kann auch an einem Word­Press-The­me lie­gen, in dem kei­ne 404-Sei­te defi­niert wur­de. Dies kann man nach­ho­len. Goog­le selbst gibt Tipps, wie man eine benut­zer­de­fi­nier­te 404-Sei­te für die User erstel­len kann. Und auch für Word­Press fin­det man Anlei­tun­gen für eine indi­vi­du­el­le 404-Sei­te in den Suchmaschinen.
  • Ser­ver­feh­ler
    Wenn auf eine URL nicht zuge­grif­fen wer­den konn­te, weil der Ser­ver nicht geant­wor­tet hat, wird die ent­spre­chen­de URL hier auf­ge­lis­tet. Klickt man auf die URL, wer­den einem wei­te­re Details zur Feh­ler­mel­dung ange­zeigt, ob bei­spiels­wei­se die URL in der Site­map ent­hal­ten ist oder ob die URL ver­linkt ist.Kann man auf die­se Ver­lin­kung — weil sie intern ist — zugrei­fen, soll­te man die­se ent­fer­nen. Han­delt es sich um einen exter­nen Link, bleibt einem nichts ande­res übrig, als sich mit dem Web­mas­ter die­ser Web­site in Ver­bin­dung zu set­zen und die­sen zu bit­ten, den Link zu löschen. Hat man den Link ent­fernt, kann man die URL als kor­ri­giert mar­kie­ren und dann wird die­se aus der Lis­te entfernt.
  • Zugriff ver­wei­gert
    Falls eine URL eine Authen­ti­fi­zie­rung ver­langt oder der Ser­ver den Zugriff auf eine URL ver­wei­gert, wird die ent­spre­chen­de URL in die­ser Regis­ter­kar­te aufgelistet.
  • Nicht gefun­den
    Unter die­sem Punkt befin­den wohl bei sehr vie­len Web­sites die meis­ten Auf­lis­tun­gen bzw. Ein­trä­ge. Denn wenn man eine Unter­sei­te in sei­nem Web­auf­tritt löscht oder einen Bei­trag in einem Blog, kann der Goog­le-Bot die­sen Inhalt nicht mehr fin­den. Den­noch blei­ben die gelösch­ten Inhal­te lan­ge im Index von Goog­le enthalten.Wichtig ist, dass man die­se Sei­ten — falls sie noch in der Site­map ste­hen — dar­aus ent­fernt und inter­ne wie exter­ne Links auf die nicht mehr exis­tie­ren­de Sei­te löscht.

Craw­ling-Sta­tis­ti­ken

Hier wer­den die Sta­tis­ti­ken der letz­ten 90 Tage ange­zeigt. Ein­mal fin­det man drei Gra­phen vor, die die pro Tag gecrawl­ten Sei­ten, die pro Tag her­un­ter­ge­la­de­nen Kilo­byte und die Dau­er des Her­un­ter­la­dens einer Sei­te anzeigen.

Viel lässt dar­auf nicht able­sen, aber die Sta­tis­ti­ken zei­gen an, ob der Goog­le-Bot regel­mä­ßig vor­bei­schaut oder ob es plötz­lich Pro­ble­me gibt und der Bot sel­te­ner die Sei­ten inde­xiert. Dann soll­te man aktiv wer­den und schau­en, wor­an das liegt.

Abruf wie durch Google

Mit die­sem Tool kann man tes­ten, wie der Goog­le-Bot ein­zel­ne Sei­ten der eige­nen Web­site sieht. Geben Sie in das Feld die gewünsch­te URL der Web­site ein und nach eini­gen Augen­bli­cken wird die Sei­te so ange­zeigt, wie der Bot sie wahr­nimmt. Man kann ver­schie­de­ne Bots wie Web und Mobi­le testen.

Wenn Sie auf Erfolg­reich unter Abruf­sta­tus kli­cken, sehen Sie die Bot-Ansicht der Sei­te, was nur rei­ner HTML-Code ist.

Blo­ckier­te URLs

Hier wird Ihre robots.txt-Datei der jewei­li­gen Web­site ange­zeigt. Dabei kann man erken­nen, wel­che URLs durch die robots.txt blo­ckiert werden.

Außer­dem kann man tes­ten, wel­che URLs auf­ruf­bar sind oder wel­che blo­ckiert sind. Falls da Sei­ten gesperrt sind, die man nicht sper­ren möch­te (oder umge­kehrt), muss man Ände­run­gen an sei­ner robots.txt-Datei vornehmen.

Site­maps

All­zu viel Info bie­tet die­ser Punkt nicht. Es wird auf­ge­führt, wie vie­le Sei­ten der gemel­de­ten Sitemap.xml ein­ge­reicht und wie vie­le davon inde­xiert wurden.

Soll­te zwi­schen die­sen bei­den Zah­len eine gro­ße Dis­kre­panz herr­schen, obwohl man kei­ne Sei­ten gesperrt hat, soll­te man die Site­map noch­mals kon­trol­lie­ren und schau­en, wo da der Feh­ler liegt.

URL-Para­me­ter

Falls der Goog­le-Bot Pro­ble­me mit dem Craw­len Ihrer Web­site hat, wird hier emp­foh­len, Ihre Web­site-Para­me­ter zu kon­fi­gu­rie­ren. Damit soll­te man sich aller­dings nur aus­ein­an­der set­zen, wenn man weiß, wie die Funk­ti­ons­wei­se von Para­me­tern ist. Goog­le lie­fert zu die­sem The­ma auch eine Info- und Hilfeseite.

Sicher­heits­pro­ble­me

Soll­te Ihre Web­site Mal­wa­re ent­hal­ten oder ande­re Sicher­heits­pro­ble­me auf­wei­sen, wür­de das unter die­sem Punkt auf­ge­führt wer­den. Bei mir selbst wur­de bis­her noch nichts Dem­entspre­chen­des angezeigt.

Fazit

Sicher­lich muss man die in dem Arti­kel erwähn­ten Tools nicht jeden Tag anwen­den oder täg­lich in den Goog­le Web­mas­ter Tools vorbeischauen.

Aber ein- oder zwei­mal pro Woche soll­te man sich schon ein­log­gen und schau­en, was sich bei den Craw­ling-Feh­lern und den Web­site-URLs getan hat und ob man Auf­fäl­lig­kei­ten feststellt.

Außer­dem kön­nen wich­ti­ge Web­mas­ter-Mit­tei­lun­gen von Goog­le ein­ge­gan­gen sein, in denen drin­gen­de Pro­ble­me gemel­det wer­den. Dann heißt es, zeit­nah zu reagie­ren und die Feh­ler zu beseitigen.

Privatsphäre-Einstellungen ändern | Historie der Privatsphäre-Einstellungen | Einwilligungen widerrufen

WordPress Cookie Hinweis von Real Cookie Banner