Taktikker for utgivervekst i valgkampen | WEBINAR

Lær mer

SODP

SODP Media

  • Education
    • Articles
      • Audience Development
      • Content Strategy
      • Digital Publishing
      • Monetization
      • SEO
      • Digital Platforms & Tools
    • Opinion
    • Podcast
    • Events
      • SODP Dinner Event London 2025
      • SODP Dinner Event Dubai 2025
      • SODP Dinner Event California 2025
      • All Events
  • Top Tools & Reviews
  • Research & Resources
  • Community
    • Slack Channel
    • Newsletter
  • About
    • About Us
    • Contact Us
    • Editorial Policy
  • English
sodp logo
SODP logo
    Søk
    Lukk denne søkeboksen.
    Logg inn
    • Utdannelse
      • Podkast
      • Artikler
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Monetisering
        • SEO
        • Digitale plattformer og verktøy
        • Artikler
        • Mening
        • Podkaster
        • Arrangementer
        • Publikumsutvikling
        • Innholdsstrategi
        • Digital publisering
        • Monetisering
        • SEO
        • Digitale plattformer og verktøy
        • Vis alle
    • Toppverktøy og anmeldelser
        • Headless CMS-plattformer
        • Digitale publiseringsplattformer
        • Redaksjonell kalenderprogramvare
        • Magasinapper
        • Plattformer for e-postnyhetsbrev
        • Flere lister over de beste verktøyene
        • Anmeldelser
    • Forskning og ressurser
    • Fellesskap
      • Slack-kanalen
      • Kontortid
      • Nyhetsbrev
        • Slack-kanalen
        • Nyhetsbrev
    • Om
      • Om oss
      • Kontakt oss
      • Redaksjonell policy
        • Om oss
        • Kontakt oss
        • Redaksjonell policy
    plassholder
    SODP logo
    Bli en merkevarepartner

    Hjem > SEO-kurs for utgivere > Kapittel 2: Teknisk SEO > Gjennomsøkingshastighet og -frekvens
    6

    Krypehastighet og frekvens

    Krypehastighet og frekvens
    Forrige modul
    Tilbake til kapittelet
    Neste modul

    Læringsmål

    Etter å ha gått gjennom denne modulen, bør du forstå hva gjennomsøkingsbudsjett er, hvordan det fordeles på et nettsted og hvordan du optimaliserer for det.

    Videoens varighet

    23:27

    Svar på quiz

    Ta quiz for gjeldende modul

    Materialer

    Klar til bruk maler

    Ressurser

    Rapporter og ressurser

    Tidsgrense: 0

    Quiz-sammendrag

    0 av 9 spørsmål fullført

    Spørsmål:

    Informasjon

    Du har allerede fullført quizen. Derfor kan du ikke starte den på nytt.

    Quizen lastes inn…

    Du må logge inn eller registrere deg for å starte quizen.

    Du må først fullføre følgende:

    Resultater

    Quiz fullført. Resultatene blir registrert.

    Resultater

    0 av 9 spørsmål besvart riktig

    Din tid:

    Tiden har gått

    Du har nådd 0 av 0 poeng, ( 0 )

    Opptjente poeng: 0 av 0 , ( 0 )
    0 Essay venter (Mulige poeng: 0 )

    Kategorier

    1. Ikke kategorisert 0%
    1. 1
    2. 2
    3. 3
    4. 4
    5. 5
    6. 6
    7. 7
    8. 8
    9. 9
    1. Nåværende
    2. Anmeldelse
    3. Besvart
    4. Korrekt
    5. Uriktig
    1. Spørsmål 1 av 9
      1Spørsmål

      Hva er et gjennomgangsbudsjett?

      Korrekt
      Uriktig
    2. Spørsmål 2 av 9
      2Spørsmål

      Et mål på hvor ofte Google ønsker å gjennomsøke en bestemt side/nettsted på nytt kalles ____.

      Korrekt
      Uriktig
    3. Spørsmål 3 av 9
      3Spørsmål

      Gjennomsøkingsbudsjetter er vanligvis bare en bekymring for utgivere som har mer enn hvor mange sider på nettstedet sitt?

      Korrekt
      Uriktig
    4. Spørsmål 4 av 9
      4Spørsmål

      Hvor finner du gjennomsøkingsstatistikk?

      Korrekt
      Uriktig
    5. Spørsmål 5 av 9
      5Spørsmål

      Hva er robots.txt?

      Korrekt
      Uriktig
    6. Spørsmål 6 av 9
      6Spørsmål

      Hvilket av følgende kan redusere gjennomsøkingsbudsjettet ditt?

      Korrekt
      Uriktig
    7. Spørsmål 7 av 9
      7Spørsmål

      Hvilken av følgende oppgaver kan IKKE en tredjeparts crawler som Semrush eller Screaming Frog utføre?

      Korrekt
      Uriktig
    8. Spørsmål 8 av 9
      8Spørsmål

      Hva gjør følgende kommuniserer taggen med en robotsøker?

      Korrekt
      Uriktig
    9. Spørsmål 9 av 9
      9Spørsmål

      Hva betyr en 503-feilkode?

      Korrekt
      Uriktig

    2.6.1 Hva er et gjennomgangsbudsjett?

    Gjennomsøkingsbudsjettet er antall sider på nettstedet ditt en webcrawler vil gjennomsøke innenfor en gitt tidsramme.

    Hver gang du trykker på publiser-knappen, må Google gjennomsøke og indeksere innholdet for at det skal begynne å vises i søkeresultatene. Gitt omfanget og volumet av innhold på internett, blir gjennomsøking en verdifull ressurs som må budsjetteres og rasjoneres for mest mulig effektiv bruk.

    Enkelt sagt er det vanskelig for Google å gjennomsøke og indeksere hver eneste side på internett hver dag. Derfor gjennomsøker Google hvert nettsted i henhold til det tildelte budsjettet.

    2.6.2 Hvordan tildeles gjennomsøkingsbudsjett til nettsteder?

    Gjennomsøkingsbudsjettet tildeles nettsteder basert på to faktorer – gjennomsøkingsgrense og gjennomsøkingsetterspørsel.

    Gjennomsøkingsgrense

    Dette er et nettsteds kapasitet og/eller vilje til å bli gjennomsøkt.

    Ikke alle nettsteder er bygget for å bli gjennomsøkt hver dag. Gjennomsøking innebærer at Googlebot sender forespørsler til nettstedets server som, hvis de gjøres for ofte, kan belaste serverens kapasitet.

    Det er heller ikke alle utgivere som ønsker at nettstedet deres skal gjennomsøkes kontinuerlig.

    Gjennomgangsetterspørsel

    Gjennomsøkingsetterspørsel er et mål på hvor ofte en bestemt side ønsker å bli gjennomsøkt (på nytt). Populære sider eller sider som oppdateres ofte må gjennomsøkes og gjennomsøkes på nytt oftere.

    2.6.3 Hvorfor bør utgivere bry seg om gjennomsøkingsbudsjettet?

    Hvis Google ikke kan gjennomsøke og indeksere innholdet ditt, vil det rett og slett ikke vises i søkeresultatene.

    Når det er sagt, er gjennomsøkingsbudsjetter vanligvis bare et problem for mellomstore til store utgivere som har mer enn 10 000 sider på nettstedet sitt. Mindre utgivere burde ikke trenge å bekymre seg for mye om gjennomsøkingsbudsjetter.

    Utgivere med 10 000 eller flere sider på nettstedet sitt vil imidlertid unngå at Googlebot gjennomsøker sider som ikke var viktige. Hvis du bruker opp gjennomsøkingsbudsjettet ditt på irrelevant eller mindre viktig innhold, betyr det at sider med høyere verdi kanskje ikke blir gjennomsøkt.

    Dessuten vil nyhetsutgivere være forsiktige med bortkastede budsjetter for gjennomsøking, ettersom gjennomsøking er en av de tre måtene Google Nyheter oppdager nytt innhold på en rettidig måte. De to andre er ved hjelp av nettstedskart og Google Publisher Center, som vi har utforsket nærmere i modulene for Google Nyheter-nettstedskart og Google Publisher Center.

    2.6.4 Optimalisering for robotsøkeprogrammer

    Optimalisering av frekvensen og hastigheten som Googlebot gjennomsøker nettstedet ditt med innebærer å overvåke en rekke variabler. Vi begynner med å liste opp de viktigste faktorene som er involvert i optimalisering av gjennomsøkingsbudsjett og -frekvens.

    Overvåk innholdsgjennomgang

    De to mest nyttige taktikkene for å overvåke hvordan innholdet ditt blir gjennomsøkt, er å analysere loggfiler og Google Search Consoles (GSC) statistikkrapport for gjennomsøking.

    1. Loggfilanalyse

    En loggfil er et tekstdokument som registrerer all aktivitet på nettstedets server. Dette inkluderer alle data om gjennomsøkingsforespørsler, sideforespørsler, bildeforespørsler, forespørsler om javascript-filer og andre ressurser som trengs for å kjøre nettstedet ditt.

    For teknisk SEO bidrar loggfilanalyse til å finne mye nyttig informasjon om URL-gjennomsøking, inkludert, men ikke begrenset til:

    • Hvilke nettadresser som har blitt gjennomsøkt.
    • Hvilke nettadresser blir gjennomsøkt oftest.
    • Identifisere om noen lavverdi- eller unødvendige URL-er blir gjennomsøkt, og dermed sløser med gjennomsøkingsbudsjettet.

    Slik gjør du dette

    Loggfilanalyse er en oppgave som krever en viss grad av teknisk kjennskap til et nettsteds backend. Derfor anbefaler vi å bruke programvare for loggfilanalyse. Det finnes flere gratis og betalte verktøy for logganalyse, som Graylog , Loggly , Elastic Stack , Screaming Frog Log Analyzer og Nagios, for å nevne noen.

    Hvis du er en erfaren utvikler eller systemadministrator, kan du også utføre en loggfilanalyse manuelt.

    For å gjøre dette, følg disse trinnene:

    1. Logg inn på cPanel-en til hostingleverandøren din
    1. Naviger til Merics og deretter Raw Access
    1. Last ned loggfilen

    Når du har lastet ned loggfilen, kan du endre filtypen til .csv og åpne den ved hjelp av Microsoft Excel eller Google Sheets. Som sagt krever imidlertid denne tilnærmingen et visst nivå av ekspertise for å forstå loggfilen.

    Du kan også få tilgang til loggfilen ved hjelp av en FTP-klient ved å angi banen til loggfilen. En typisk loggfilsti ser omtrent slik ut:

    Servernavn (for eksempel Apache) /var/log/access.log

    Det er imidlertid mye mer praktisk å bruke et logganalyseverktøy i stedet. Når du har lastet opp loggfilen til verktøyet, kan du sortere dataene ved hjelp av flere filtre. Du vil for eksempel kunne se hvilke nettadresser som har blitt besøkt oftest av Googlebot.

    Du vil også kunne se om Googlebot har fått tilgang til unødvendige eller lavverdifulle URL-er, som fasetterte navigasjons-URL-er, dupliserte URL-er osv. Det er viktig å identifisere disse, ettersom de sløser bort gjennomsøkingsbudsjettet ditt.

    Se på skjermbildet nedenfor, hentet fra Screaming Frogs SEO Log File Analyzer, for å se hva vi mener.

    Analyse av loggfiler

    2. GSC-rapport for gjennomsøkingsstatistikk

    GSC gir nettstedseiere omfattende data og innsikt i hvordan Google gjennomsøker innholdet deres. Dette inkluderer detaljerte rapporter om:

    • Hvilke filer/sider ble gjennomsøkt og med hvilket formål.
    • Hvilken type Googlebot (nyheter, videoer, mobil osv.) utførte gjennomsøkingen.
    • Totalt antall gjennomsøkingsforespørsler osv.

    GSC tilbyr også lettforståelige grafer og diagrammer for å gi nettstedseiere enda mer informasjon. Skjermbildet nedenfor viser hvordan en typisk rapport om gjennomsøkingsstatistikk på GSC ser ut.

    GSC-rapport for gjennomsøkingsstatistikk

    Kilde

    GSC gir deg også beskjed om det er problemer med gjennomsøkingen. Den sjekker etter flere feil og tildeler hver av dem en kode. De vanligste feilene GSC sjekker etter inkluderer:

    • Serverfeil [5xx]
    • Omdirigeringsfeil
    • Innsendt URL blokkert av robots.txt
    • Innsendt URL merket med «noindex»
    • Den innsendte URL-en ser ut til å være en myk 404-feil
    • Innsendt URL returnerte 401
    • Innsendt URL ikke funnet (404)
    • Innsendt URL returnerte 403
    • Innsendt URL blokkert på grunn av et annet 4xx-problem

    GSC-rapporten viser også hvor mange sider som har blitt påvirket av hver feil, i tillegg til valideringsstatusen.

    Slik gjør du dette

    Slik får du tilgang til GSC-rapporten for gjennomsøkingsstatistikk for nettstedet eller nettsiden din:

    1. For å bruke GSC må du registrere deg .
    1. Deretter må du bevise at du eier nettstedet du ønsker å legge til i GSC. Dette kan gjøres ved å legge til det Google kaller en «egenskap». En egenskap er alt som må undersøkes i GSC. Det kan være en enkelt side eller et helt nettsted.
    1. For å bekrefte eierskap til nettstedet, velg «åpne GSC», naviger til Eiendomsvelger og klikk på «legg til ny eiendom» fra eiendomsvelgeren.
    1. Du vil da se en liste over bekreftelsesmetoder som lar deg bekrefte eierskapet ditt av nettstedet/siden.

    Disse inkluderer:

    • HTML-filopplasting
    • HTML-tag
    • Google Analytics-sporingskode
    • Google Tag Manager
    • Domenenavnleverandør
    • Google Nettsteder, Blogger eller Domenekonto.
    1. Velg bekreftelsesmetode. Når eiendommen din er bekreftet, vises den på GSC, og du kan se detaljert analyse av gjennomsøkingsbudsjettet og -aktiviteten.

    Optimaliser gjennomsøkingsbudsjettet 

    Vi vet nå at gjennomsøkingsbudsjettet er en verdifull ressurs hvis bruk må optimaliseres for best mulig resultat. Her er noen teknikker for å gjøre dette:

    1. Fiks duplikatinnhold

    Duplikatinnhold kan ende opp med å bli gjennomsøkt separat, noe som fører til sløsing med gjennomsøkingsbudsjettet. For å unngå at dette skjer, bør du enten slå sammen duplikatsider på nettstedet ditt til én, eller slette duplikatsider.

    2. Bruk Robots.txt

    Robots.txt er en fil som tjener en rekke formål, hvorav ett er å fortelle Googlebot at den ikke skal gjennomsøke bestemte sider eller deler av sider. Dette er en viktig strategi som kan brukes for å forhindre at Googlebot gjennomsøker innhold av lav verdi eller innhold som ikke trenger gjennomsøking.

    Her er noen gode fremgangsmåter når du bruker robots.txt for å optimalisere gjennomsøkingsbudsjettet:

    • Tildel prioritet til parametere som må blokkeres fra gjennomsøking i din prioriterte rekkefølge.
    • Spesifiser roboter, direktiver og parametere som forårsaker ytterligere gjennomsøking ved hjelp av loggfiler.
    • Blokker vanlige stier som CMS-er vanligvis har, for eksempel 404, admin, innloggingssider osv.

    Slik gjør du dette

    Å opprette og kjøre en robots.txt-fil for å begrense Googlebot-tilgang krever litt kodekunnskap. Her er trinnene som er involvert:

    1. En robots.txt-fil opprettes ved hjelp av et tekstredigeringsprogram, for eksempel en notisblokk. Filen må hete robots.txt for at Googlebot skal kunne gjenkjenne den.
    1. Når en fil er opprettet, legger vi til regler i den, det vil si at vi spesifiserer et sett med instruksjoner som forteller filen at den skal blokkere tilgang til bestemte agenter under spesifikke betingelser.

    En typisk robots.txt-fil vil ha følgende elementer:

    • En brukeragent, for eksempel Googlebot, som skal nektes tilgang til
    • En «ikke tillatt»- eller «tillat»-oppføring, som spesifiserer en fil eller katalog som tilgangen skal begrenses til for brukeragenten
    • Et nettstedskart som forteller Google hvilket innhold den skal gjennomsøke.

    Nedenfor ser du hvordan en enkel robots.txt-fil ser ut.

    Bruk Robots.txt

    Kilde 

    Denne koden betyr at en brukeragent – ​​Googlebot i dette tilfellet – ikke har lov til å gjennomsøke noen URL-er som begynner med « http://www.example.com/nogooglebot/ ».

    1. Når filen er opprettet og lagret på den lokale maskinen din, må den lastes opp til nettstedet ditt. Dette avhenger av serveren din og hostingleverandøren din. Du må kontakte leverandøren din for å finne ut nøyaktig hvordan du gjør dette.

    Vi anbefaler at du søker eksperthjelp hvis du ikke føler deg komfortabel med å opprette og laste opp robots.txt-filer selv.

    3. Segmentér XML-nettstedskart

    En gjennomsøkingsrobot ankommer et nettsted med en generell tildeling av hvor mange sider den skal gjennomsøke. XML-nettstedskartet dirigerer effektivt roboten til å lese utvalgte URL-er, noe som sikrer effektiv bruk av budsjettet.

    Merk at en sides rangering avhenger av flere faktorer, inkludert innholdskvalitet og interne/eksterne lenker. Vurder å bare inkludere toppsider i kartet. Bilder kan tildeles sitt eget XML-nettstedskart.

    Følg disse anbefalingene for å sikre optimal implementering av XML-sitemap:

    • Se XML-sitemapet fra robots.txt-filen.
    • Opprett flere nettstedskart for et veldig stort nettsted. Ikke legg til mer enn 50 000 nettadresser i ett enkelt XML-nettstedskart.
    • Hold det rent og inkluder kun indekserbare sider.
    • Hold XML-sitemapet oppdatert.
    • Hold filstørrelsen til under 50 MB.

    For en mer detaljert oversikt over nettstedskart, se vår dedikerte modul om dette emnet .

    4. Implementer en effektiv intern lenkestrategi

    Interne lenker utfører tre viktige funksjoner:

    • Å organisere innhold rundt temaer, noe som bidrar til å bygge opp autoritet for aktuelle emner.
    • Fordeling av sideverdi mellom sider med høy verdi og andre sider.
    • Hjelper brukere og webcrawlere med å navigere enklere på nettstedet.

    For effektiv gjennomgang er det derfor viktig å implementere en effektiv strategi for intern lenking. For mer informasjon om intern lenking, se vår detaljerte kursmodul her.

    5. Oppgrader hosting

    Hvis et nettsted kjører på en delt hostingplattform, vil gjennomsøkingsbudsjettet deles med andre nettsteder som kjører på nevnte plattform. En stor utgiver kan finne uavhengig hosting som et verdifullt alternativ.

    Før du oppgraderer hosting for å løse overbelastning av bottrafikk, er det noen faktorer verdt å vurdere som kan påvirke serverbelastningen på annen måte.

    • Behandle bilder ved hjelp av et separat innholdsdistribusjonsnettverk (CDN) som også er optimalisert for å være vert for neste generasjons bildeformater som webp.
    • Vurder hosting av CPU og diskplass basert på nettstedets funksjonalitet og krav.
    • Overvåk aktivitet ved hjelp av løsninger som New Relic for å overvåke overdreven bruk av plugins og roboter.

    Hvis du vil vite mer om fordelene med CDN-er, kan du sjekke ut modulen vår for sideopplevelse .

    6. Bruk Javascript med omhu

    Når Googlebot lander på en nettside, gjengir den alle ressursene på siden, inkludert Javascript. Selv om det er ganske enkelt å gjennomsøke HTML, må Googlebot behandle Javascript flere ganger for å kunne gjengi den og forstå innholdet.

    Dette kan raskt tappe Googles budsjett for gjennomsøking av et nettsted. Løsningen er å implementere Javascript-gjengivelse på serversiden.

    Slik gjør du dette

    Det krever kodeekspertise å ta opp Javascript i nettstedets kildekode, og vi anbefaler at du konsulterer en nettutvikler hvis du planlegger å gjøre slike endringer. Når det er sagt, er her noen retningslinjer for hva du bør se etter når du prøver å optimalisere bruken av Javascript.

    • Unngå å sende Javascript-ressurser til klienten for gjengivelse, slik at crawl-roboter ikke bruker opp ressursene sine og kan jobbe mer effektivt.
    • Bruk lazy loading på nettlesernivå i stedet for at det er Javascript-basert.
    • Bruk serversidetagging for analyser og tredjepartstagging, enten selvhostet eller ved hjelp av løsninger som stape.io.

    7. Overvåk CWV-er

    CWV-er er et mål på sideytelse som direkte påvirker hvordan siden din presterer i søkerangeringer.

    GSCs CWV-rapport grupperer URL-ytelse i tre kategorier:

    • Metrisk type (LCP, FID og CLS)
    • Status
    • URL-grupper

    CWV-er kan også påvirke gjennomsøkingsbudsjettet ditt. For eksempel kan sider som laster sakte, tære på gjennomsøkingsbudsjettet ditt, ettersom Google har begrenset tid til gjennomsøkingsoppgaver. Hvis sidene dine lastes inn raskt, kan Google gjennomsøke flere av dem innenfor den begrensede tiden de har. På samme måte kan for mange feilstatusrapporter forsinke gjennomsøkingen og sløse med gjennomsøkingsbudsjettet ditt.

    For en grundigere undersøkelse av CWV-er, se modulen vår om sideopplevelse .

    8. Bruk en tredjeparts crawler

    En tredjeparts crawler som Semrush , Sitechecker.pro eller Screaming Frog lar nettutviklere revidere alle URL-ene til et nettsted og identifisere potensielle problemer.

    Tredjeparts robotsøkeprogrammer kan brukes til å identifisere:

    • Ødelagte lenker
    • Duplikatinnhold
    • Manglende sidetitler

    Disse programmene tilbyr en rapport om gjennomsøkingsstatistikk for å fremheve problemer som Googles egne verktøy kanskje ikke vil oppdage.

    Å forbedre strukturerte data og redusere hygieneproblemer vil effektivisere Googlebots jobb med å gjennomsøke og indeksere et nettsted.

    Vi anbefaler følgende beste fremgangsmåter når du bruker tredjeparts robotsøkeprogrammer:

    • Emuler Googlebot via innstillinger for søkegjennomsøking for å unngå å bli blokkert fra hostingleverandører og for å identifisere og fikse alle tekniske problemer på riktig måte.
    • Feilsøk manglende sider fra en gjennomgang ved hjelp av denne flotte veiledningen fra Screaming Frog .

    9. Overvåk URL-parametere

    URL-parametere – den delen av nettadressen som kommer etter «?» – brukes på en side av en rekke årsaker, inkludert filtrering, paginering og søking.

    Selv om dette kan forbedre brukeropplevelsen, kan det også forårsake problemer med gjennomsøking når både basis-URL-en og en med parametere returnerer det samme innholdet. Et eksempel på dette kan være at «http://mysite.com» og «http://mysite.com?id=3» returnerer nøyaktig samme side.

    Parametere lar et nettsted ha et nærmest ubegrenset antall lenker – for eksempel når en bruker kan velge dager, måneder og år i en kalender. Hvis roboten får lov til å gjennomsøke disse sidene, vil gjennomsøkingsbudsjettet bli brukt opp unødvendig.

    Dette kan spesielt være et problem hvis nettstedet ditt bruker fasettert navigasjon eller øktidentifikatorer som kan generere flere dupliserte sider, som hvis de gjennomsøkes, kan føre til sløsing med gjennomsøkingsbudsjettet.

    Dupliserte URL-er kan også oppstå hvis du har lokaliserte versjoner av nettsiden din på forskjellige språk, og innholdet på disse sidene ikke er oversatt.

    Vi anbefaler følgende for å håndtere dette:

    • Bruk robots.txt for å hindre Googlebot i å gjennomsøke dupliserte sider.
    • Bruk<hreflang> taggen for å spesifisere innholdets språkvariasjoner. Hreflang-fanen forteller robotsøkemotoren at siden er en regional variant av hovedinnholdet, og dermed forhindrer den robotsøkemotoren fra å registrere den som en duplikat i tilfelle den ikke er oversatt ennå.

    Slik gjør du en enkel<hreflang> ser slik ut i kildekoden din:

    https://examplesite.com/news/hreflang-tags”/ >

    Dette forteller robotsøkemotoren at den angitte URL-en er en spansk (meksikansk) variant av hoved-URL-en, og at den ikke skal behandles som en duplikat.

    2.6.5 Kjekt å ha

    Vi har diskutert det grunnleggende ved administrasjon av budsjett for gjennomsøking. Punktene som er oppført i denne delen, er ikke kritiske for sunn budsjettadministrasjon for gjennomsøking, men de supplerer i stor grad teknikkene som er omtalt tidligere.

    Håndtering av krypende nødsituasjoner

    En gjennomsøkingsnødsituasjon oppstår når Googlebot overvelder nettstedet ditt med flere gjennomsøkingsforespørsler enn den kan håndtere. Det er viktig å identifisere problemet så raskt som mulig, noe som kan gjøres ved å overvåke serverlogger og gjennomsøkingsstatistikk nøye i Google Search Console.

    Hvis en plutselig økning i gjennomsøking ikke håndteres i tide, kan det føre til at serveren går tregere. Servertremming vil øke den gjennomsnittlige responstiden for gjennomsøkere, og som et resultat av denne høye responstiden vil søkemotorer automatisk redusere gjennomsøkingshastigheten. Dette er problematisk fordi reduserte gjennomsøkingshastigheter vil føre til tap av synlighet, ettersom nye artikler ikke blir gjennomsøkt umiddelbart.

    Hvis du merker at overcrawling belaster serverne dine, er det noen ting du kan gjøre:

    1. Begrens gjennomsøkingshastigheten

    Google har sofistikerte algoritmer som kontrollerer gjennomsøkingshastigheten. Så ideelt sett bør man ikke tukle med den. I en nødsituasjon kan du imidlertid logge på GSC-kontoen din og gå til Innstillinger for gjennomsøkingshastighet for eiendommen din.

    Hvis du ser at gjennomsøkingshastigheten er Beregnet som optimal, kan du ikke endre den manuelt. Du må sende inn en spesiell forespørsel til Google for å endre gjennomsøkingshastigheten.

    Hvis dette ikke er tilfelle, kan du ganske enkelt endre gjennomsøkingshastigheten selv til ønsket verdi. Denne verdien vil forbli gyldig i 90 dager.

    Hvis du ikke ønsker å tukle med gjennomsøkingshastighetene i GSC, kan du også blokkere tilgang til siden for Googlebot ved hjelp av robots.txt. Fremgangsmåten for å gjøre dette er forklart tidligere.

    2. Sjekk nettstedets gjennomsøkingshastighet

    Det kan ta Google opptil tre dager å gjennomsøke de fleste nettsteder. De eneste unntakene er nyhetssider eller andre nettsteder som publiserer tidssensitivt innhold som kan gjennomsøkes daglig.

    For å sjekke hvor ofte sidene dine blir gjennomsøkt, bør du overvåke nettstedloggen din. Hvis du fortsatt føler at innholdet ditt ikke blir gjennomsøkt så ofte som det burde, kan du følge disse trinnene:

    • Send inn det oppdaterte nyhetsnettstedkartet ditt til Google. Et nyhetsnettstedkart er et nettstedkart som er laget spesielt fra Google Nyheter.
    • Hvis du har gjort endringer i nyhetsnettstedskartet ditt, kan du bruke ping-verktøyet til å informere Google om det samme. Dette kan gjøres ved å sende en GET-forespørsel fra enten kommandolinjen eller nettleseren din til følgende adresse:

    https://www.google.com/ping?sitemap=FULL_URL_OF_SITEMAP

    • Bruk<lastmod> tagg i nettstedskart for å vise når en indeksert URL sist ble oppdatert eller endret.

    3. Returner en 503- eller 429-feilkode

    Merk: Dette trinnet bør sees på som den siste handlingen noen bør ta, da det medfører en viss grad av risiko. Hvis Googlebot ser 503- og 429-feil, vil den begynne å gjennomsøke saktere og kan stoppe gjennomsøkingen, noe som fører til en midlertidig nedgang i antall indekserte sider.

    En 503-feilkode betyr at serveren er midlertidig nede, mens 429 betyr at en bruker har sendt for mange forespørsler i løpet av en bestemt tidsperiode. Disse kodene gir Googlebot beskjed om at problemet er midlertidig, og at den bør komme tilbake for å gjennomsøke siden på et senere tidspunkt.

    Selv om det tilsynelatende er et lite skritt, er dette viktig fordi hvis Googlebot ikke vet hva slags problem en nettside opplever, antar den at problemet er av langsiktig karakter og kan markere siden som ikke-responsiv, noe som kan påvirke SEO.

    503-feilkoder opprettes via en PHP-fil, som settes inn i den eksisterende HTML-kildekoden på siden din sammen med en feilmelding. Du må også skrive noen ekstra linjer med HTML-kode som nevner når nettstedet forventes å returnere.

    Slik ser koden for en 503-viderekobling ut:

    Returner en 503- eller 429-feilkode

    Kilde

    Det krever avanserte HTML-kodingsferdigheter å utføre 503- eller 429-viderekoblinger, og vi anbefaler at du konsulterer med webutvikleren din før du prøver dette.

    2.6.6 Unngå disse vanlige fallgruvene

    Vi har nå en god forståelse av hva et gjennomsøkingsbudsjett er og hvordan vi kan optimalisere det. Det er imidlertid like viktig å vite hva man ikke skal gjøre når det gjelder gjennomsøkingsbudsjetter.

    Her er noen vanlige fallgruver du bør unngå for å sikre at du får mest mulig ut av nettstedets gjennomsøkingsbudsjett:

    Prøver å øke gjennomsøkingshastigheten uten god grunn

    Hyppigheten Google gjennomsøker nettstedet ditt med bestemmes av algoritmene deres, som tar hensyn til flere signaler for å komme frem til en optimal gjennomsøkingsfrekvens.

    Å øke gjennomsøkingshastigheten fører ikke nødvendigvis til bedre plasseringer i søkeresultatene. Gjennomsøkingsfrekvens eller gjennomsøking i seg selv er ikke en rangeringsfaktor i seg selv.

    Gjentatte ganger sende inn gammelt innhold for gjennomsøking 

    Google foretrekker ikke nødvendigvis nyere innhold fremfor eldre innhold. Google rangerer sider basert på relevans og kvalitet på innholdet, uavhengig av om det er gammelt eller nytt. Så det er ikke nødvendig å stadig gjennomgå dem.

    Bruk av gjennomsøkingsforsinkelsesdirektivet for å kontrollere Googlebot

    Direktivet om gjennomsøkingsforsinkelse bidrar ikke til å kontrollere Googlebot. Hvis du ønsker å redusere gjennomsøkingsfrekvensen som følge av overdreven gjennomsøking som overbelaster nettstedet ditt, kan du se instruksjonene i avsnittet ovenfor.

    Å ha en nettside som laster sakte

    Nettstedets lastehastighet kan påvirke budsjettet for gjennomsøking. En side som lastes raskt betyr at Google kan få tilgang til mer informasjon over samme antall tilkoblinger.

    For tips om optimalisering av lastehastighet, sjekk ut modulen vår om sideopplevelse .

    Bruk kun Nofollow-lenker for å blokkere roboter

    Nofollow-lenker kan fortsatt påvirke gjennomsøkingsbudsjettet ditt, da disse kan ende opp med å bli gjennomsøkt. På den annen side har lenker som robots.txt har forbudt ingen effekt på gjennomsøkingsbudsjettet.

    Alternative nettadresser og Javascript-innhold kan også bli gjennomsøkt, noe som forbruker gjennomsøkingsbudsjettet ditt, så det er viktig å begrense tilgangen til dem enten ved å fjerne dem eller ved å bruke robots.txt.

    2.6.7 Handlinger og konklusjoner

    Gjennomsøkingsbudsjettet er en verdifull ressurs, og det er viktig at du optimaliserer for det. Problemer med gjennomsøking og indeksering kan påvirke ytelsen til innholdet ditt, spesielt hvis nettstedet ditt har et stort antall sider.

    De to mest grunnleggende operasjonene som er involvert i å optimalisere gjennomsøkingsbudsjettet er å holde nettstedskartet oppdatert og regelmessig overvåke indekseringsproblemer fra GSCs gjennomsøkingsstatistikkrapport og loggfiler.

    Det er viktig å lære hvordan man bruker beste praksis for gjennomsøkingshåndtering både under utrullingen av nye nettstedsfunksjoner og når det oppstår engangsfeil.

    Forrige modul
    Tilbake til kapittelet
    Neste modul

    Aktiv nå

    6

    Krypehastighet og frekvens

    Se mer

    1

    Design og layout

    2

    Nettstedsarkitektur

    3

    Sideopplevelse

    4

    Nyhetsnettstedkart

    5

    Skjema

    7

    Lenker til sponset og brukergenerert innhold

    8

    Google Publisher Center

    9

    Bing News PubHub

    10

    Annonser, popup-vinduer og beste praksis

    SODP logo

    State of Digital Publishing skaper en ny publikasjon og et nytt fellesskap for digitale medier og publiseringsfagfolk, innen nye medier og teknologi.

    • Toppverktøy
    • SEO for utgivere
    • Personvernerklæring
    • Redaksjonell policy
    • Nettstedkart
    • Søk etter selskap
    Facebook X-twitter Slack LinkedIn

    TILSTANDEN FOR DIGITAL PUBLISERING – COPYRIGHT 2026