Dansk hosting hos e-studio.dk
Webhotel
Søg domæne
Mailhotel
Hosting
WebhotelMailhotelDNShotelServerhostingReseller hostingServer-colocationFilemaker hosting
Domæner & licenser
DomænerMicrosoft 365
Hjemmeside
ServiceaftaleNy professionel hjemmesideHastighedsoptimeringHjemmeside beregner
Hjælp & support
FjernsupportVidensdatabaseDriftstatus og NyhederKontakt os
Log ind

    Hosting

  • Webhotel
  • Mailhotel
  • DNS hotel
  • Serverhosting
  • Reseller hosting
  • Server-colocation
  • Filemaker hosting
  • Domæner & licenser

  • Domæner
  • Microsoft 365
  • Hjemmeside

  • Serviceaftale
  • Ny professionel hjemmeside
  • Hastighedsoptimering
  • Hjemmeside beregner
  • Hjælp & support

  • Kontakt os
  • Log ind

Hvad er robots.txt?

  1. Vidensdatabase
  2. Hosting
  3. Hvad er robots.txt?

Hvad er robots.txt?

For at finde ud af hvad robots.txt er, eller hvad den gør, skal vi snakke lidt om søgemaskiner, som fx Google. Mange kendte søgemaskiner og blandt andet Google bruger BOTS til at scanne det store internet igennem daglig. De er også kaldt ”Crawlers”.

Formålet med crawlers er, at de scanner alle de hjemmesider, som de kan finde og indeksere hjemmesidens indhold. Det kan være godt og farlig. Det gode er, at man får en højere SEO-rang på sin side. Det kan være farligt, da de kan indeksere nogle informationer, som er følsomme. Fx dine kunders oplysningerne, fakturanr. eller andet.

Når dine følsomme data er indekseret, er det svært at sige, hvad der sker derfra. Et eksempel er, at dine kunders følsomme oplysninger kan søges på Google.

Man kan forhindre crawlers med robots.txt file. Robots.txt fungerer, som et vejskilt, der fortæller crawlers, hvor der er adgang, og hvor der ikke er adgang på ens hjemmeside. Man kan sætte en række regler for Google søgemaskine, Bing, Yahoo m.m.

 

Wordpress sider har en standard robots.txt file, som begrænser crawlers i at kravle ind i back-end sektionen.

 

Eksempel på en basisk opsætning af Robots.txt mod Googlebot:

User-agent: Googlebot

Disallow: /example-subfolder/

 

Den første linje fortæller, at reglen gælder kun for ”Googlebot”.

Linje nr. to fortæller, hvor der er adgang forbudt, URL: ”/example-subfolder/”.

Man kan også skrive ”*” i stedet for ”Googlebot” på linje et. Det betyder, at reglen gælder nu for alle crawlers. Googlebots, Bingbots, Yahoobots osv.

 

Eksempel på en basisk opsætning af Robots.txt mod alle crawlers:

User-agent: *

Disallow: /example-subfolder/


Tags:
begræns beskyt bing bot brængse data file følsom føsomme Google protect robot txt Yahoo

Var denne artikel hjælpsom?

mood_bad Nej 0
mood Ja 1
visibility Visninger: 2407

Login

Glemt din adgangskode?
Opret en konto

e-studio ApS
Højgårdsvej 25
DK-8620 Kjellerup
CVR: 37074640

support@e-studio.dk
Vi tager imod Visa kortVi tager imod MasterCard kortFølg os på FacebookFind os på Linkedin
Hosting
  • Webhotel
  • Mailhotel
  • DNShotel
  • Server hosting
  • Reseller hosting
  • Server-colocation
  • Filemaker hosting
Domæner & licenser
  • Domæner
  • Microsoft 365
Hjemmeside
  • Serviceaftale
  • Ny professionel hjemmeside
  • Hastighedsoptimering
  • Hjemmeside prisberegner
Hjælp & support
  • Anmod om fjernsupport
  • Vidensdatabase (FAQ)
  • Driftstatus og Nyheder
  • Kontakt os
Nyttige sider
  • Kundeområdet
  • cPanel og LiteSpeed
  • 1-click installer
Øvrige sider
  • Forside
  • Om os
  • Udvikling & rådgivning
  • Betingelser & persondata
  • Referencer
Telefontider

Mandag - torsdag 8:00 - 15:00
Fredag 8:00 - 13:00

Vagtopkald mod gebyr

+45 88 80 90 45

eLight, eBasic & eMedium har ikke telefonsupport!

© 2004 - 2025 e-studio.dk - Alle rettigheder forbeholdes - Alle priser er angivet i DKK inkl. moms.