Pin It

È ben noto che per ottenere dei risultati interessanti con il proprio sito internet, non basta solo proporre contenuti interessanti, ma dobbiamo lavorare sull’ottimizzazione SEO (Search Engine Optimization) ovvero eseguire tutta una serie di accorgimenti che permettono a Google di inserire il nostro sito nei suoi risultati di ricerca in una posizione vantaggiosa. Difficilmente, infatti, gli utenti esploreranno più di 1-2 pagine di risultati, quindi il nostro obiettivo è sicuramente quello di finire nella parte alta della prima pagina, fino all’ambitissima prima posizione.

Il Noindex

Uno strumento sicuramente importante per l’ottimizzazione SEO è l’utilizzo corretto del Noindex.

Fa parte dei “meta tag robots” e serve a dare le giuste indicazioni, ai motori di ricerca, per l’interpretazione delle nostre pagine web. Sono proprio i meta tag robots che comunicano ai motori di ricerca la keyword che abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei link interni ed esterni ed anche la nostra volontà di indicizzare una pagina.

La scelta di deindicizzare una pagina non è una scelta folle, ma ha un’utilità specifica, relativa soprattutto alla funzione di determinate pagine. Ci sono alcune pagine che potrebbe non avere nessuna utilità indicizzare, ma che abbiamo comunque bisogno della loro esistenza sul sito. Pensiamo ad esempio, alla privacy policy del sito, o pagine di servizio, quelle che insomma sono chiamate “pagine spam engine”  e che, se numerose, posso penalizzare il nostro sito. 

Queste pagine, come è evidente, non posso essere cancellate dal sito ma possiamo far capire a google che non vogliamo siano indicizzate.

Sarà proprio l’attributo rel=”noindex” che comunicherà a google il nostro non voler indicizzare la pagina. Naturalmente sarà solo una direttiva, che non costringe i crawler (software che analizzano i contenuti di una rete  in modo automatizzato per i motori di ricerca) ad eseguirla e che permette comunque a Google di salvare la pagina nel suo archivio.

Come e dove inserire il Noindex

L’inserimento dell’attributo Noindex dovrà avvenire tramite codice HTML nella sezione “Head” della nostra pagina.

Per impedire alla maggior parte dei web crawler dei motori di ricerca di indicizzare la pagina, inserisci il seguente meta tag:

<meta name="robots" content="noindex">

Per impedire solo ai web crawler di Google di indicizzare una pagina utilizza questo meta tag:

<meta name="googlebot" content="noindex">

Alcuni crawler potrebbero non interpretare l’istruzione Noindex, e quindi, è possibile che la nostra pagina venga ugualmente indicizzata e appaia in alcuni motori di ricerca.

Il file robots.txt

Un altro strumento molto importante  per far comprendere al meglio la struttura del nostro sito ai motori di ricerca è il file robots.txt.

SI tratta di un file che fa capire ai crawler quali pagine e file posso “analizzare” dal nostro sito. Viene usato per non sovraccaricare le richieste al sito e per permettere ai motori di ricerca di interpretare al meglio i nostri contenuti.

Non deve essere usato per escludere pagine web, per le quali esiste il già citato “Noindex”.

Nella sostanza il file robots.txt ha la funzione di gestire il traffico di scansione, evitando così eventuali sovraccarichi da parte dei crawler. Inoltre ci permette di gestire il traffico di scansione relativo ai file multimediali come file d’immagine, video e audio.

Puoi utilizzare questo file anche per bloccare i file di risorse, come script, immagini o di stile non importanti, stando attendo però a tenere conto del livello di comprensione dei crawler di Google. Se bloccando queste risorse rendiamo poco chiaro il contenuto delle nostre pagine a Google, ne risentirà l’indicizzazione e di conseguenza il nostro obiettivo di raggiungere le prime posizioni nella pagina di ricerca.

I limiti del file robots.txt

Questo sistema di blocco, ha di per sé alcuni limiti e non ha lo scopo di rendere totalmente intracciabili le tue pagine web.

Vediamone alcuni:

  • Può essere interpretata diversamente dai crawler: i web crawler dei maggiori motori di ricerca si attengono alle istruzioni di questo file, ma alcuni potrebbero non comprendere determinate istruzioni;
  • Le istruzioni robots.txt sono solo linee guida: come già detto si tratta d’istruzioni che non obbligano i vari bot a seguirle alla lettera, di conseguenza se abbiamo informazioni riservate da proteggere il miglior metodo è la password;
  • Una pagina bloccata può essere raggiunta se ha backlink provenienti da siti esterni: Anche se diciamo a Google di non eseguire la scansione di quella risorsa, potrebbe comunque raggiungerla se siti esterni hanno al loro interno link che rimandano alla risorsa bloccata.

Contatti

Sede: Via Luigi Gadola 3, 00155 Roma
Email: info@elamedia.it
Per conoscerci meglio scarica la nostra Brochure.  

Scrivici

  

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie) per le seguenti finalità:

       Via Luigi Gadola 3
00155 Roma

Email: info@elamedia.it

Partita IVA: 12238581008 

Per conoscerci meglio scarica la nostra Brochure


In alternativa puoi utilizzare il form che trovi 
in Home per comunicare con la nostra Web Agency 

GDPR e Cookie Privacy. Questo sito utilizza solo Cookies tecnici (necessari al suo corretto funzionamento). La prosecuzione della navigazione o l’accesso a qualunque sezione del sito senza avere prima modificato le impostazioni relative ai Cookies verrà interpretata come accettazione implicita alla ricezione di Cookies dal sito stesso.