X-Robots-tag
Effektiv kontroll over søkemotorindeksering er viktig for SEO og personvern. Med en X-Robots-tag kan du styre hvordan søkemotorer håndterer filer som PDF-er, bilder og videoer direkte via HTTP-headeren, uten å endre HTML-koden på nettstedet ditt.
Hva er X-Robots-tag?
En X-Robots-tag er en HTTP-header som gir eieren av et nettsted muligheten til å kontrollere hvordan søkemotorer indekserer og følger lenker på en nettside. I motsetning til en robots.txt og meta robots tag, som implementeres direkte i HTML-koden, brukes X-Robots-Tag i HTTP-responsheaderen. Dette gjør den ideell for å styre indeksering av ikke-HTML-filer som PDF-er, bilder og andre ressurser.
Hvorfor er X-Robots-tag viktig?
En X-Robots-tag er viktig fordi den gir mer fleksibilitet enn tradisjonelle metoder for å kontrollere indeksering. Dette er noen av oppgavene den gjør:
Dette er spesielt nyttig for nettsteder som har en stor mengde filer som ikke bør indekseres, eller for webapplikasjoner der man ikke enkelt kan legge til meta tags i HTML-dokumenter.
Hvordan bruke X-Robots-tag riktig?
For å implementere X-Robots-Tag, må du konfigurere HTTP-responsheaderen i webserveren din. Dette kan gjøres i Apache, Nginx eller andre webservere.
I Apache
For å hindre søkemotorer i å indeksere alle PDF-filer:
<FilesMatch "\.pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</FilesMatch>
I Nginx
location ~* \.pdf$ {add_header X-Robots-Tag "noindex, nofollow";}
Du kan også spesifisere direktiver for spesifikke søkemotorer ved å bruke "googlebot" i stedet for "robots":
Header set X-Robots-Tag "noindex" env=googlebot.
X-Robots-tag eksempler
Her er noen vanlige bruksområder:
Flere ressurser om X-robots
For mer informasjon om hvordan du bruker X-Robots-Tag effektivt, kan du sjekke ut følgende ressurser.
X-Robots-tag kan med riktig bruk optimalisere synligheten på nettstedet ditt, og sikre at kun ønsket innhold blir indeksert av søkemotorene.
Kilder: Google.