Semalt Gitt d'Haaptgrënn Firwat Googlebot Net All Säit Op E puer Siten Crawelt


Mir hu Clienten erakomm fir ze beschwéieren datt e puer vun hire Site net vum Googlebot gekräizt ginn. Als SEO Experten ass et eis Aufgab de Problem ze fannen an ze fixéieren sou datt eis Clienten glécklech kënne sinn an hire Site am Peak Zoustand halen.

Dem Google säi John Mueller erkläert e puer Faktoren, déi beaflosse wéi d'Säiten op all Site gekräizegt ginn. Natierlech war dëst net spezifesch, awer et weist eis an déi richteg Richtung. An deem Post beliicht den John och firwat verschidde Säiten op engem Site net gekräizegt ginn.

D'Fro, déi dës Äntwert gefrot huet, war besuergt iwwer firwat Google Websäite mat engem relativ luesen Tempo gekräizegt huet, wat net genuch ass fir déi enorm Zuel vu Websäiten haut ze verschaffen.

Google Crawl Budget verstoen

Dëst ass dat éischt Gebitt op deem mir wielen ze fokusséieren, well et erkläert vill iwwer wéi dacks Google eng Websäit kraaft. Googlebot (den Numm fir de Google Web Crawler) geet duerch Websäiten an hält se indexéiert sou datt se op SERP klasséiere kënnen. Wéi och ëmmer, de grousse Volumen vu Websäiten gëtt e Problem, dofir huet Google eng Strategie ausgeschafft an där se nëmmen héichqualitativ Websäiten indexéiert. Denkt et als eng Form vu Filter. Anstatt all dës Ressourcen op Säiten auszeginn, déi héchstwahrscheinlech irrelevant fir de Benotzer sinn, fokusséiert Google nëmmen op Websäiten vun héich Qualitéit.

E Site Crawlbudget ass d'Quantitéit u Ressourcen, déi Google widmen fir dëse Site ze crawlen. Et ass och wichteg ze bemierken datt net alles wat gekräizt gëtt indexéiert gëtt. Websäiten ginn nëmmen indexéiert nodeems se gekräizt a als wäertvoll ugesi goufen.

Wann Äre Crawlbudget benotzt gouf, stoppt Google op Är Websäiten ze crawlen.

Setzt Äre Crawl Budget

E Websäit Crawl Budget gëtt vu véier Haaptfaktoren bestëmmt:
Et ass einfach ze verstoen firwat Dir esou besuergt sidd wann e puer vun Ären Inhalter net als Websäit Besëtzer gekräizt ginn. Dëst reduzéiert Är Chancen fir Ranking, besonnesch wann et ass Är wäertvoll Inhaltsstécker ginn ausgelooss.

Wéi Fixéiere Crawling Themen

Probleemer mat Äre Meta Tags oder robots.txt Datei fixéieren

Themen déi ënner dës Kategorie falen sinn normalerweis einfach z'entdecken an ze léisen. Heiansdo kann Är ganz Websäit oder spezifesch Säiten op Ärer Websäit vu Google gesi bleiwen well Googlebot net erlaabt ass se anzeginn.

Et ginn eng Zuel vu Bot Kommandoen déi Säitekrawelen verhënneren, an dëst ka fixéiert ginn andeems Dir Är Metatags a robots.txt Datei iwwerpréift. Déi richteg Parameteren ze hunn an adequat ze benotzen hëlleft Iech tatsächlech Äre Crawlbudget ze spueren an de Googlebot an déi richteg Richtung ze weisen.

No-Follow Links ze hunn ass och méiglech. An dësem Fall indexéiert de Crawler eng Säit awer gëtt gestoppt de Link ze verfollegen. Dëst ass net gutt fir Äre Site well Googlebot dës intern Links benotzt fir nei Säiten ze fannen. Dëst bréngt eis zum nächste Punkt.

Intern Broken Links

Gebrach Links ze hunn ass ni eng gutt Erfarung fir béid Benotzer a Crawler. Fir all Säit déi indexéiert gëtt, gëtt en Deel vum Site Crawlbudget erausgeholl. Wësse mir dat, mir verstinn datt wann et ze vill gebrach Links sinn, de Bot all Äre Crawlbudget verschwenden wäert se ze indexéieren, awer et kënnt net op Är relevant a Qualitéitssäiten.

Fixéiere vun Äre futtisse Linken hëlleft Ären Qualitéitsinhalt méi sichtbar fir Googlebot.

Intern gebrach Links kënnen e Resultat sinn vun URL Tippfeeler (wou et en Tippfeeler an der hyperlinkéierter URL Adress ass), verouderte URLen, oder Säiten mat refuséierten Zougang.

Server -verbonne Problem

Äre Server kann och de Grond sinn firwat Google verschidde Säiten net fënnt. Eng héich Quantitéit vu 5xx Feeler op Ärer Websäit ze hunn kann e Signal sinn datt et eppes falsch mat Ärem Server ass. Fir dëse Problem ze léisen, konfiguréiere mir Beräicher wou et Feeler ginn an d'Käfer fixéieren.

Heiansdo kann et sinn datt Äre Server iwwerlaascht gëtt. An dësem Fall stoppt et op d'Benotzer an d'Bot Ufroen z'äntwerten. Wann dëst passéiert, kënnen Är Betrachter, souwéi Bots, net op dës Säit zougoen.

An extremen Situatiounen kéinte mir no enger falscher Konfiguratioun vum Webserver kucken. Hei ass de Site fir mënschlech Benotzer sichtbar, awer et gëtt ëmmer eng Fehlermeldung u Site Crawler. Dëse Problem ass zimmlech komplizéiert well et ka schwéier bemierken. An dësem Fall ass d'Websäit fir Googlebot net zougänglech, wat et onméiglech mécht duerch Bots ze krabbelen an ze indexéieren.

Problemer mat der Sitemap XML

Sitemap beaflosst eng breet Palette vun Elementer op Ärer Websäit. Et ass essentiell d'URLen op Ärer Site Kaart relevant ze halen. Si sollten aktualiséiert a korrekt sinn. Dëst ass wichteg well wann Äre Crawlbudget net genuch ass, dirigéiert Äre Sitemap Crawler Bots op déi relevantst Siten. Op déi Manéier ginn Är wichtegst Säiten ëmmer nach indexéiert.

Feeler mat Webarchitektur

Dëst ass eng vun den usprochsvollen Themen fir ze léisen. Themen déi ënner dës Kategorie falen kënnen d'Crawler op Ärer Websäit blockéieren oder desorientéieren. Et kéint a Form vu Probleemer mat Ärem internen Verknëppung kommen. Oder et kann de Fall vu falsche Viruleedungen sinn. An dësem Fall gi Benotzer a Bots op manner relevant Säiten weidergeleet. Endlech hu mir duplizéiert Inhalt. Leider ass Duplikat Inhalt eng vun den heefegste SEO Themen. Dëst ass och ee vun den Haaptgrënn firwat Dir aus Ärem Crawlbudget leeft, an et gëtt schwéier fir Google e puer vun Äre Säiten ze crawlen.

Fazit

Google ass net fäeg Ären Inhalt ze fannen net nëmme wéinst Inhaltsrelatéierten Themen oder datt Dir fir déi falsch Schlësselwieder optimiséiert. Och optimiséierten Inhalt ka fir Google onsichtbar bleiwen wann et crawlabel Problemer huet.

Mir sinn hei fir erauszefannen wat falsch ass wéi och e Plang auszeschaffen wéi mir dat Thema kënne fixéieren. Kontaktéiert eis haut, an Semalt kann Iech hëllefen Ären Inhalt zréck op de Radar ze setzen.

mass gmail