Ormai la maggior parte delle aziende tende a sfruttare il web per potersi fare conoscere, pubblicizzare i propri prodotti o servizi e, in questo modo, ampliare gli ambiti o i mercati di riferimento e raggiungere una larga fetta di potenziali clienti, così da poter incrementare anche le proprie vendite. Lo stesso discorso lo si può fare anche per un professionista (un giornalista o un avvocato, ad esempio), che intenda raggiungere una certa notorietà su internet. Questo è diventato infatti un'importante ed utilissima vetrina.

Tuttavia, creare e mantenere costantemente aggiornata una pagina web e soprattutto renderla sempre interessante ed accattivante per gli utenti non è una cosa facile. Sono tanti gli elementi che concorrono al successo di un sito, tra cui uno dei più importanti è senz'altro quello di affidarsi ad esperti in questo ambito e che sappiano inoltre utilizzare strumenti e mezzi idonei a questo scopo. Tra questi ultimi, è possibile usufruire di piccoli accorgimenti che "spingano" una nostra pagina.

È ben noto che per ottenere dei risultati interessanti con il proprio sito internet, non basta solo proporre contenuti interessanti, ma dobbiamo lavorare sull’ottimizzazione SEO (Search Engine Optimization) ovvero eseguire tutta una serie di accorgimenti che permettono a Google di inserire il nostro sito nei suoi risultati di ricerca in una posizione vantaggiosa. Difficilmente, infatti, gli utenti esploreranno più di 1-2 pagine di risultati, quindi il nostro obiettivo è sicuramente quello di finire nella parte alta della prima pagina, fino all’ambitissima prima posizione.

Come i maggiori esperti della rete sanno benissimo infatti, un semplice utente che sta cercando un'informazione, un sito o una pagina tende ad effettuare generalmente ricerche veloci su internet e che non richiedano molto tempo e sforzo. Di conseguenza, egli tende a visualizzare soltanto le primissime pagine dei risultati ottenuti e che soddisfino il suo interesse. Conoscendo tutto ciò, è importantissimo, come abbiamo detto, cercare di essere tra le prime visualizzazioni di un motore di ricerca. E come ottenere tutto questo? Di quali mezzi è possibile usufruire, di conseguenza, per ottimizzare la SEO? Vediamone alcuni.

Il Noindex

Uno strumento sicuramente importante per l’ottimizzazione SEO è l’utilizzo corretto del Noindex.

Fa parte dei “meta tag robots” e serve a dare le giuste indicazioni, ai motori di ricerca, per l’interpretazione delle nostre pagine web. Sono proprio i meta tag robots che comunicano ai motori di ricerca la keyword che abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei link interni ed esterni ed anche la nostra volontà di indicizzare una pagina.

La scelta di deindicizzare una pagina non è una scelta folle, ma ha un’utilità specifica, relativa soprattutto alla funzione di determinate pagine. Ci sono alcune pagine che potrebbe non avere nessuna utilità indicizzare, ma che abbiamo comunque bisogno della loro esistenza sul sito. Pensiamo ad esempio, alla privacy policy del sito, o pagine di servizio, quelle che insomma sono chiamate “pagine spam engine”  e che, se numerose, posso penalizzare il nostro sito. 

Queste pagine, come è evidente, non posso essere cancellate dal sito ma possiamo far capire a google che non vogliamo siano indicizzate.

Sarà proprio l’attributo rel=”noindex” che comunicherà a google il nostro non voler indicizzare la pagina. Naturalmente sarà solo una direttiva, che non costringe i crawler (software che analizzano i contenuti di una rete  in modo automatizzato per i motori di ricerca) ad eseguirla e che permette comunque a Google di salvare la pagina nel suo archivio.

Come e dove inserire il Noindex

L’inserimento dell’attributo Noindex dovrà avvenire tramite codice HTML nella sezione “Head” della nostra pagina.

Per impedire alla maggior parte dei web crawler dei motori di ricerca di indicizzare la pagina, inserisci il seguente meta tag:

<meta name="robots" content="noindex">

Per impedire solo ai web crawler di Google di indicizzare una pagina utilizza questo meta tag:

<meta name="googlebot" content="noindex">

Alcuni crawler potrebbero non interpretare l’istruzione Noindex, e quindi, è possibile che la nostra pagina venga ugualmente indicizzata e appaia in alcuni motori di ricerca.

Il file robots.txt

Un altro strumento molto importante  per far comprendere al meglio la struttura del nostro sito ai motori di ricerca è il file robots.txt.

SI tratta di un file che fa capire ai crawler quali pagine e file posso “analizzare” dal nostro sito. Viene usato per non sovraccaricare le richieste al sito e per permettere ai motori di ricerca di interpretare al meglio i nostri contenuti.

Non deve essere usato per escludere pagine web, per le quali esiste il già citato “Noindex”.

Nella sostanza il file robots.txt ha la funzione di gestire il traffico di scansione, evitando così eventuali sovraccarichi da parte dei crawler. Inoltre ci permette di gestire il traffico di scansione relativo ai file multimediali come file d’immagine, video e audio.

Puoi utilizzare questo file anche per bloccare i file di risorse, come script, immagini o di stile non importanti, stando attendo però a tenere conto del livello di comprensione dei crawler di Google. Se bloccando queste risorse rendiamo poco chiaro il contenuto delle nostre pagine a Google, ne risentirà l’indicizzazione e di conseguenza il nostro obiettivo di raggiungere le prime posizioni nella pagina di ricerca.

I limiti del file robots.txt

Questo sistema di blocco, ha di per sé alcuni limiti e non ha lo scopo di rendere totalmente intracciabili le tue pagine web.

Vediamone alcuni:

  • Può essere interpretata diversamente dai crawler: i web crawler dei maggiori motori di ricerca si attengono alle istruzioni di questo file, ma alcuni potrebbero non comprendere determinate istruzioni;
  • Le istruzioni robots.txt sono solo linee guida: come già detto si tratta d’istruzioni che non obbligano i vari bot a seguirle alla lettera, di conseguenza se abbiamo informazioni riservate da proteggere il miglior metodo è la password;
  • Una pagina bloccata può essere raggiunta se ha backlink provenienti da siti esterni: Anche se diciamo a Google di non eseguire la scansione di quella risorsa, potrebbe comunque raggiungerla se siti esterni hanno al loro interno link che rimandano alla risorsa bloccata.

Questi, come abbiamo detto, non sono altro che alcuni dei vari strumenti di cui è possibile usufruire per "spingere" il nostro sito, come qualsiasi altro, su internet all'interno di un motore di ricerca. Questo è, in pratica, una sorta di vetrina che ci permette di mostrare i nostri prodotti e se riusciamo ad inserirli in primo piano e facilmente visibili per eventuali clienti interessati, allora potremmo essere riconosciuti, apprezzati ed avere così successo. Tuttavia, per ottenere tutto ciò sul web, bisogna utilizzare gli elementi o accorgimenti più utili, tra cui appunto il Noindex ed il file robots.txt.

Pin It

Potrebbe interessarti anche...

Cronologia chat facebook: come cancellare e recuperare le conversazioni

cronologia chat facebook

Vediamo come prepararci a cancellare le conversazioni nel caso in cui decidessimo di attivare una nuova mail con dominio "facebook.com". Gli utenti di Facebook, il social network più famoso del mondo, aumentano di giorno in giorno. Facebook è infatti una piattaforma sociale molto utilizzata dal popolo del web perché consente di creare dei collegamenti massicci tra persone, non solo da un punto di vista personale ma anche sul versante prettamente lavorativo.

Leggi tutto...

Redirect 301 con file .htaccess: così non perdi page rank nella SERP!

Ci sono molti motivi per cui, nel corso di vita di un sito, ci si può imbattere nella necessità si modificare la URL, l’indirizzo di una o più pagine del sito, magari per renderle più parlanti e rispondenti ai contenuti del proprio sito (es: da www.mionome.it/indexpagina1 a www.mionome.it/homepage) o addirittura si può cambiare il dominio stesso (da .it a .com, per esempio).

Leggi tutto...

Guida linguaggio HTML: qui c'è davvero tutto

guida html

La promozione e la valorizzazione di un'attività, di un prodotto o di un determinato servizio, passa sempre più spesso attraverso l'utilizzo degli strumenti informatici. Le Web Agency sono proprio delle agenzie che si occupano di realizzare portali web, al fine di dare visibilità ai clienti che richiedono i loro servizi. La creazione di un sito web necessita infatti della conoscenza accurata di internet e del computer; ecco perché spesso è importante affidarsi a professionisti del settore per la realizzazione dello stesso. Il World Wide Web è incentrato soprattutto sull'uso, sulla comprensione e la padronanza dettagliata del linguaggio html; i siti web sono infatti una summa di pagine ipertestuali che sfruttano proprio tale linguaggio per esistere e fornire informazioni.

Leggi tutto...

Avviso sul Copyright

I contenuti di questo sito web sono protetti da Copyright. Ti invitiamo gentilmente a non duplicarli e a scriverci a info [@] elamedia.it se hai intenzione di usufruire dei servizi erogati dalla nostra Redazione.

Protected by Copyscape

Contatti

Sede: Via Luigi Gadola 3, 00155 Roma
Email: .
Per conoscerci meglio scarica la nostra Brochure.  

Scrivici

  

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie) per le seguenti finalità:

       Via Luigi Gadola 3
00155 Roma

Email: .

Partita IVA: 12238581008 

Per conoscerci meglio scarica la nostra Brochure


In alternativa puoi utilizzare il form che trovi 
in Home per comunicare con la nostra Web Agency 

GDPR e Cookie Privacy. Questo sito utilizza solo Cookies tecnici (necessari al suo corretto funzionamento). La prosecuzione della navigazione o l’accesso a qualunque sezione del sito senza avere prima modificato le impostazioni relative ai Cookies verrà interpretata come accettazione implicita alla ricezione di Cookies dal sito stesso.