Benvenuti in una nuova guida firmata dalla redazione di ElaMedia, una Web Agency di Roma formata da SEO Specialist di valore con più di 15 anni di attività nel campo della realizzazione di siti web.

Menu di navigazione dell'articolo

Dopo aver approfondito alcune tematiche legate al tag canonical, oggi cambiato tema.

Ormai la maggior parte delle aziende tende a sfruttare il web per potersi fare conoscere, pubblicizzare i propri prodotti o servizi e, in questo modo, ampliare gli ambiti o i mercati di riferimento e raggiungere una larga fetta di potenziali clienti, così da poter incrementare anche le proprie vendite. Lo stesso discorso lo si può fare anche per un professionista (un giornalista o un avvocato, ad esempio), che intenda raggiungere una certa notorietà su internet. Questo è diventato infatti un'importante ed utilissima vetrina.

Tuttavia, creare e mantenere costantemente aggiornata una pagina web e soprattutto renderla sempre interessante ed accattivante per gli utenti non è una cosa facile. Sono tanti gli elementi che concorrono al successo di un sito, tra cui uno dei più importanti è senz'altro quello di affidarsi ad esperti in questo ambito e che sappiano inoltre utilizzare strumenti e mezzi idonei a questo scopo. Tra questi ultimi, è possibile usufruire di piccoli accorgimenti che "spingano" una nostra pagina.

È ben noto che per ottenere dei risultati interessanti con il proprio portale internet, non basta solo proporre contenuti interessanti, ma dobbiamo lavorare sull’ottimizzazione SEO (hai già letto il nostro approfondimento su come fare l'ottimizzazione seo di un sito web?) ovvero eseguire tutta una serie di accorgimenti che permettono a Google di inserire il nostro sito nei suoi risultati di ricerca in una posizione vantaggiosa. Difficilmente, infatti, gli utenti esploreranno più di 1-2 pagine di risultati, quindi il nostro obiettivo è sicuramente quello di finire nella parte alta della prima pagina, fino all’ambitissima prima posizione.

Come i maggiori esperti della rete sanno benissimo infatti, un semplice utente che sta cercando un'informazione, un sito o una pagina tende ad effettuare generalmente ricerche veloci su internet e che non richiedano molto tempo e sforzo. Di conseguenza, egli tende a visualizzare soltanto le primissime pagine dei risultati ottenuti e che soddisfino il suo interesse. Conoscendo tutto ciò, è importantissimo, come abbiamo detto, cercare di essere tra le prime visualizzazioni di un motore di ricerca. E come ottenere tutto questo? Di quali mezzi è possibile usufruire, di conseguenza, per ottimizzare la SEO? Vediamone alcuni.

Il Noindex

Uno strumento sicuramente importante per l’ottimizzazione SEO è l’utilizzo corretto del Noindex. Può essere fondamentale se sei chiamato a gestire un sito web che si basa sul sistema ecommerce.

Fa parte dei “meta tag robots” e serve a dare le giuste indicazioni, ai Motori di ricerca, per l’interpretazione delle nostre pagine web. Sono proprio i meta tag robots che comunicano ai motori di ricerca la keyword che abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei Link interni ed esterni ed anche la nostra volontà di indicizzare una pagina.

La scelta di deindicizzare una pagina non è una scelta folle, ma ha un’utilità specifica, relativa soprattutto alla funzione di determinate pagine. Ci sono alcune pagine che potrebbe non avere nessuna utilità indicizzare, ma che abbiamo comunque bisogno della loro esistenza sul sito. Pensiamo ad esempio, alla privacy policy del sito, o pagine di servizio, quelle che insomma sono chiamate “pagine spam engine” e che, se numerose, posso penalizzare il nostro sito.

Queste pagine, come è evidente, non posso essere cancellate dal sito ma possiamo far capire a google che non vogliamo siano indicizzate.

Sarà proprio l’attributo rel=”noindex” che comunicherà a google il nostro non voler indicizzare la pagina. Naturalmente sarà solo una direttiva, che non costringe i crawler (software che analizzano i contenuti di una rete in modo automatizzato per i motori di ricerca) ad eseguirla e che permette comunque a Google di salvare la pagina nel suo archivio.

Ricorda che se ti occorre un Consulente SEO a Roma, puoi contattarci al numero 800 117 270.

Chiama l'800 119 270 o scrivici per un preventivo

Formula del consenso

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie)

Ti invitiamo a leggere il nostro articolo su Googlebot per esplorare più a fondo gli argomenti riguardanti la SEO.

Come e dove inserire il Noindex

L’inserimento dell’attributo Noindex dovrà avvenire tramite codice HTML nella sezione “Head” della nostra pagina.

Per impedire alla maggior parte dei web crawler dei motori di ricerca di indicizzare la pagina, inserisci il seguente meta tag:

<meta name="robots" content="noindex">

Per impedire solo ai web crawler di Google di indicizzare una pagina utilizza questo meta tag:

<meta name="googlebot" content="noindex">

Alcuni crawler potrebbero non interpretare l’istruzione Noindex, e quindi, è possibile che la nostra pagina venga ugualmente indicizzata e appaia in alcuni motori di ricerca. 

Ovviamente se hai bisogno di servizi di copywring a Roma, non pensarci due volte: chiamaci… ti risponderà un esperto SEO che sarà al tuo servizio per tutte le domande che ti vengono in mente.

Il file robots.txt

Un altro strumento molto importante per far comprendere al meglio la struttura del nostro sito ai motori di ricerca è il file robots.txt.

SI tratta di un file che fa capire ai crawler quali pagine e file posso “analizzare” dal nostro sito. Viene usato per non sovraccaricare le richieste al sito e per permettere ai motori di ricerca di interpretare al meglio i nostri contenuti.

Non deve essere usato per escludere pagine web, per le quali esiste il già citato “Noindex”.

Nella sostanza il file robots.txt ha la funzione di gestire il traffico di scansione, evitando così eventuali sovraccarichi da parte dei crawler. Inoltre ci permette di gestire il traffico di scansione relativo ai file multimediali come file d’immagine, video e audio.

Puoi utilizzare questo file anche per bloccare i file di risorse, come script, immagini o di stile non importanti, stando attendo però a tenere conto del livello di comprensione dei crawler di Google. Se bloccando queste risorse rendiamo poco chiaro il contenuto delle nostre pagine a Google, ne risentirà l’indicizzazione e di conseguenza il nostro obiettivo di raggiungere le prime posizioni nella pagina di ricerca.

Oltre ai consigli che trovi in questo articolo, per raggiungere un'ampia visibilità online e attrarre un pubblico globale è molto importante creare un sito con Joomla, un solido CMS, ma anche la successiva ottimizzazione per scalare la SERP (pagina dei risultati dei motori di ricerca) dell'elenco dei migliori motori di ricerca internazionali riveste un'importanza fondamentale.

I limiti del file robots.txt

Questo sistema di blocco, ha di per sé alcuni limiti e non ha lo scopo di rendere totalmente intracciabili le tue pagine web.

Vediamone alcuni:

  • Può essere interpretata diversamente dai crawler: i web crawler dei maggiori motori di ricerca si attengono alle istruzioni di questo file, ma alcuni potrebbero non comprendere determinate istruzioni;
  • Le istruzioni robots.txt sono solo linee guida: come già detto si tratta d’istruzioni che non obbligano i vari bot a seguirle alla lettera, di conseguenza se abbiamo informazioni riservate da proteggere il miglior metodo è la password;
  • Una pagina bloccata può essere raggiunta se ha backlink provenienti da siti esterni: Anche se diciamo a Google di non eseguire la scansione di quella risorsa, potrebbe comunque raggiungerla se siti esterni hanno al loro interno link che rimandano alla risorsa bloccata.

Questi, come abbiamo detto, non sono altro che alcuni dei vari strumenti di cui è possibile usufruire per "spingere" il nostro sito, come qualsiasi altro, su internet all'interno di un motore di ricerca. Questo è, in pratica, una sorta di vetrina che ci permette di mostrare i nostri prodotti e se riusciamo ad inserirli in primo piano e facilmente visibili per eventuali clienti interessati, allora potremmo essere riconosciuti, apprezzati ed avere così successo. Tuttavia, per ottenere tutto ciò sul web, bisogna utilizzare gli elementi o accorgimenti più utili, tra cui appunto il Noindex ed il file robots.txt.

Ricorda che se ti occorre una Consulenza Web puoi far affidamento ai nostri esperti. Contattaci al numero verde che trovi qui sulla destra.

In questo articolo dedicati all'ottimizzazione dei motori di ricerca, ci sentiamo di includere una menzione alla nostra guida sui redirect 301 o 302 per sottolineare l'importanza di gestire correttamente le modifiche dell'URL e minimizzare gli impatti negativi sulla visibilità online.

FAQ

Cos'è il noindex in SEO?

"Noindex" è una direttiva che puoi inserire in una pagina web per indicare ai motori di ricerca di non includere quella pagina nell'indice dei loro risultati di ricerca. Questo significa che la pagina non apparirà nei risultati di ricerca, anche se i motori di ricerca la rastrelleranno. L'uso di noindex è una pratica comune in SEO (Search Engine Optimization) quando non si vuole che determinate pagine del sito siano visibili nei motori di ricerca, come le pagine di ringraziamento, le pagine di amministrazione o quelle con contenuto duplicato.

Quando dovrei utilizzare la direttiva noindex?

L'utilizzo della direttiva noindex dipende dal contenuto del tuo sito e dai tuoi obiettivi SEO. Generalmente, la direttiva noindex viene utilizzata quando non vuoi che una pagina appaia nei risultati di ricerca. Alcuni esempi comuni includono pagine con contenuto duplicato, pagine temporanee, pagine di amministrazione o pagine che non aggiungono valore al tuo sito dal punto di vista SEO. Ricorda, però, che anche se una pagina è impostata come noindex, i link presenti su quella pagina possono comunque passare il valore SEO (link juice), a meno che non sia impostato anche il tag "nofollow" sui link.

Come posso impostare la direttiva noindex su una pagina?

Ci sono diverse tecniche per impostare la direttiva noindex su una pagina. Una delle più comuni è l'utilizzo del meta tag noindex. Questo può essere aggiunto all'HTML di una pagina, nel tag head. Ecco un esempio di come appare: <meta name="robots" content="noindex">. Un'altra opzione è utilizzare il file robots.txt del tuo sito per bloccare l'indicizzazione di intere Directory o tipi di file. Tuttavia, bisogna fare attenzione quando si utilizza questa tecnica, poiché un uso improprio del file robots.txt può portare a problemi di visibilità nei motori di ricerca.

Cosa succede se imposto la direttiva su una pagina?

Se imposti la direttiva noindex su una pagina, i motori di ricerca come Google non includeranno quella pagina nei loro indici, il che significa che non apparirà nei risultati di ricerca organici. È importante notare, però, che i motori di ricerca potrebbero ancora rastrellare (crawling) la pagina e seguire i link presenti su di essa, a meno che non sia impostato anche un tag "nofollow" sui link. Inoltre, se una pagina è già stata indicizzata e successivamente si imposta la direttiva noindex, potrebbe volerci del tempo prima che la pagina venga effettivamente rimossa dall'indice del motore di ricerca.

La direttiva influisce sul mio SEO?

La direttiva noindex ha un impatto diretto sul tuo SEO in quanto le pagine contrassegnate con noindex non saranno incluse nei risultati dei motori di ricerca. Questo può essere utile se ci sono pagine sul tuo sito che non vuoi che appaiano nei risultati di ricerca, come pagine con contenuto duplicato o di bassa qualità. Tuttavia, l'uso eccessivo o improprio del noindex può avere un impatto negativo sul tuo SEO, limitando la visibilità del tuo sito nei motori di ricerca. Pertanto, è importante utilizzare la direttiva noindex con attenzione e strategia.

Se vuoi andare più in profondità e studiare come ottenere più link esterni, ti suggeriamo il nostro approfondimento sulla Broken Link Building.

Autore: Enrico Mainero

Immagine di Enrico Mainero

Dal 2011 Direttore Responsabile e Amministratore unico di ElaMedia Group SRLS. Mi dedico prevalentemente all'analisi dei siti web e alla loro ottimizzazione SEO, con particolare attenzione allo studio della semantica e al loro posizionamento organico sui motori di ricerca. Sono il principale curatore dei contenuti di questo Blog (assieme alla Redazione di ElaMedia).