Come utilizzare Robots.Txt per bloccare i sottodomini

Un sito web è un buon modo per promuovere la tua piccola impresa, oltre a mostrare i tuoi prodotti e le tue qualifiche uniche. Se gestisci un sito Web di grandi dimensioni, probabilmente utilizzi alcuni sottodomini e ogni sottodominio ha la propria cartella sul tuo host web. Se non desideri che i crawler dei motori di ricerca analizzino e indicizzino determinati sottodomini, puoi utilizzare il file robots.txt per bloccarli.

1

Fare clic sul pulsante Start nell’angolo inferiore sinistro dello schermo.

2

Digita “Blocco note” nella casella di ricerca nella parte inferiore del menu Start.

3

Fare clic su “Blocco note” nella sezione Programmi nella parte superiore del menu Start per avviare Blocco note. Un nuovo documento viene creato automaticamente in Blocco note.

4

Inserisci queste due righe nel documento Blocco note per impedire a tutti i robot di analizzare il sottodominio:

Agente utente: * Disallow: /

5

Premere “Ctrl-S” per aprire la finestra “Salva con nome”.

6

Digita “robots.txt” nella casella “Nome file”, seleziona una cartella in cui desideri salvare il file e fai clic su “Salva” per salvarlo.

7

Carica il file robots.txt che hai salvato nella directory principale di ogni dominio che desideri proteggere dai crawler dei motori di ricerca. La directory principale è la directory di primo livello.