Un sito web è un buon modo per promuovere la tua piccola impresa, oltre a mostrare i tuoi prodotti e le tue qualifiche uniche. Se gestisci un sito Web di grandi dimensioni, probabilmente utilizzi alcuni sottodomini e ogni sottodominio ha la propria cartella sul tuo host web. Se non desideri che i crawler dei motori di ricerca analizzino e indicizzino determinati sottodomini, puoi utilizzare il file robots.txt per bloccarli.
1
Fare clic sul pulsante Start nell’angolo inferiore sinistro dello schermo.
2
Digita “Blocco note” nella casella di ricerca nella parte inferiore del menu Start.
3
Fare clic su “Blocco note” nella sezione Programmi nella parte superiore del menu Start per avviare Blocco note. Un nuovo documento viene creato automaticamente in Blocco note.
4
Inserisci queste due righe nel documento Blocco note per impedire a tutti i robot di analizzare il sottodominio:
Agente utente: * Disallow: /
5
Premere “Ctrl-S” per aprire la finestra “Salva con nome”.
6
Digita “robots.txt” nella casella “Nome file”, seleziona una cartella in cui desideri salvare il file e fai clic su “Salva” per salvarlo.
7
Carica il file robots.txt che hai salvato nella directory principale di ogni dominio che desideri proteggere dai crawler dei motori di ricerca. La directory principale è la directory di primo livello.