Ormai la maggior parte delle aziende tende a sfruttare il web per potersi fare conoscere, pubblicizzare i propri prodotti o servizi e, in questo modo, ampliare gli ambiti o i mercati di riferimento e raggiungere una larga fetta di potenziali clienti, così da poter incrementare anche le proprie vendite. Lo stesso discorso lo si può fare anche per un professionista (un giornalista o un avvocato, ad esempio), che intenda raggiungere una certa notorietà su internet. Questo è diventato infatti un'importante ed utilissima vetrina.
Menu di navigazione dell'articolo
Tuttavia, creare e mantenere costantemente aggiornata una pagina web e soprattutto renderla sempre interessante ed accattivante per gli utenti non è una cosa facile. Sono tanti gli elementi che concorrono al successo di un sito, tra cui uno dei più importanti è senz'altro quello di affidarsi ad esperti in questo ambito e che sappiano inoltre utilizzare strumenti e mezzi idonei a questo scopo. Tra questi ultimi, è possibile usufruire di piccoli accorgimenti che "spingano" una nostra pagina.
È ben noto che per ottenere dei risultati interessanti con il proprio sito internet, non basta solo proporre contenuti interessanti, ma dobbiamo lavorare sull’ottimizzazione SEO (Search Engine Optimization) ovvero eseguire tutta una serie di accorgimenti che permettono a Google di inserire il nostro sito nei suoi risultati di ricerca in una posizione vantaggiosa. Difficilmente, infatti, gli utenti esploreranno più di 1-2 pagine di risultati, quindi il nostro obiettivo è sicuramente quello di finire nella parte alta della prima pagina, fino all’ambitissima prima posizione.
Come i maggiori esperti della rete sanno benissimo infatti, un semplice utente che sta cercando un'informazione, un sito o una pagina tende ad effettuare generalmente ricerche veloci su internet e che non richiedano molto tempo e sforzo. Di conseguenza, egli tende a visualizzare soltanto le primissime pagine dei risultati ottenuti e che soddisfino il suo interesse. Conoscendo tutto ciò, è importantissimo, come abbiamo detto, cercare di essere tra le prime visualizzazioni di un motore di ricerca. E come ottenere tutto questo? Di quali mezzi è possibile usufruire, di conseguenza, per ottimizzare la SEO? Vediamone alcuni.
Il Noindex
Uno strumento sicuramente importante per l’ottimizzazione SEO è l’utilizzo corretto del Noindex.
Fa parte dei “meta tag robots” e serve a dare le giuste indicazioni, ai Motori di ricerca, per l’interpretazione delle nostre pagine web. Sono proprio i meta tag robots che comunicano ai Motori di ricerca la keyword che abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei link interni ed esterni ed anche la nostra volontà di indicizzare una pagina.
La scelta di deindicizzare una pagina non è una scelta folle, ma ha un’utilità specifica, relativa soprattutto alla funzione di determinate pagine. Ci sono alcune pagine che potrebbe non avere nessuna utilità indicizzare, ma che abbiamo comunque bisogno della loro esistenza sul sito. Pensiamo ad esempio, alla privacy policy del sito, o pagine di servizio, quelle che insomma sono chiamate “pagine spam engine” e che, se numerose, posso penalizzare il nostro sito.
Queste pagine, come è evidente, non posso essere cancellate dal sito ma possiamo far capire a google che non vogliamo siano indicizzate.
Sarà proprio l’attributo rel=”noindex” che comunicherà a google il nostro non voler indicizzare la pagina. Naturalmente sarà solo una direttiva, che non costringe i crawler (software che analizzano i contenuti di una rete in modo automatizzato per i motori di ricerca) ad eseguirla e che permette comunque a Google di salvare la pagina nel suo archivio.
Come e dove inserire il Noindex
L’inserimento dell’attributo Noindex dovrà avvenire tramite codice HTML nella sezione “Head” della nostra pagina.
Per impedire alla maggior parte dei web crawler dei motori di ricerca di indicizzare la pagina, inserisci il seguente meta tag:
<meta name="robots" content="noindex">
Per impedire solo ai web crawler di Google di indicizzare una pagina utilizza questo meta tag:
<meta name="googlebot" content="noindex">
Alcuni crawler potrebbero non interpretare l’istruzione Noindex, e quindi, è possibile che la nostra pagina venga ugualmente indicizzata e appaia in alcuni motori di ricerca.
Il file robots.txt
Un altro strumento molto importante per far comprendere al meglio la struttura del nostro sito ai motori di ricerca è il file robots.txt.
SI tratta di un file che fa capire ai crawler quali pagine e file posso “analizzare” dal nostro sito. Viene usato per non sovraccaricare le richieste al sito e per permettere ai motori di ricerca di interpretare al meglio i nostri contenuti.
Non deve essere usato per escludere pagine web, per le quali esiste il già citato “Noindex”.
Nella sostanza il file robots.txt ha la funzione di gestire il traffico di scansione, evitando così eventuali sovraccarichi da parte dei crawler. Inoltre ci permette di gestire il traffico di scansione relativo ai file multimediali come file d’immagine, video e audio.
Puoi utilizzare questo file anche per bloccare i file di risorse, come script, immagini o di stile non importanti, stando attendo però a tenere conto del livello di comprensione dei crawler di Google. Se bloccando queste risorse rendiamo poco chiaro il contenuto delle nostre pagine a Google, ne risentirà l’indicizzazione e di conseguenza il nostro obiettivo di raggiungere le prime posizioni nella pagina di ricerca.
I limiti del file robots.txt
Questo sistema di blocco, ha di per sé alcuni limiti e non ha lo scopo di rendere totalmente intracciabili le tue pagine web.
Vediamone alcuni:
- Può essere interpretata diversamente dai crawler: i web crawler dei maggiori motori di ricerca si attengono alle istruzioni di questo file, ma alcuni potrebbero non comprendere determinate istruzioni;
- Le istruzioni robots.txt sono solo linee guida: come già detto si tratta d’istruzioni che non obbligano i vari bot a seguirle alla lettera, di conseguenza se abbiamo informazioni riservate da proteggere il miglior metodo è la password;
- Una pagina bloccata può essere raggiunta se ha backlink provenienti da siti esterni: Anche se diciamo a Google di non eseguire la scansione di quella risorsa, potrebbe comunque raggiungerla se siti esterni hanno al loro interno link che rimandano alla risorsa bloccata.
Questi, come abbiamo detto, non sono altro che alcuni dei vari strumenti di cui è possibile usufruire per "spingere" il nostro sito, come qualsiasi altro, su internet all'interno di un motore di ricerca. Questo è, in pratica, una sorta di vetrina che ci permette di mostrare i nostri prodotti e se riusciamo ad inserirli in primo piano e facilmente visibili per eventuali clienti interessati, allora potremmo essere riconosciuti, apprezzati ed avere così successo. Tuttavia, per ottenere tutto ciò sul web, bisogna utilizzare gli elementi o accorgimenti più utili, tra cui appunto il Noindex ed il file robots.txt.