Benvenuti in un nuovo articolo su ElaMedia Group, un'agenzia con oltre 15 anni di esperienza nella realizzazione di siti in Wordpress a Roma e provincia. Il nostro sito vi svelerà tutti i segreti del social più famoso di internet spiegandovi che cos’è Facebook Advertising e fornendo una pratica guida a Facebook engagement. Ma siamo anche esperti di Google, quindi, sul nostro sito troverai persino un approfondimento dedicato alla guida per Adwords. Ma oggi di cosa parleremo?

Menu di navigazione dell'articolo

Il 25 ottobre 2019, Google – il leader mondiale dei Motori di ricerca sul web – ha rilasciato un aggiornamento di software che prende il nome di BERT, l’acronimo di Bidirectional Encoder Representations for Transformers e che consiste in un potenziamento e miglioramento dei risultati di ricerca partendo da una migliore “comprensione” da parte del motore di ricerca del testo digitato dall’utente.

Dopo aver ampiamente dato tutte le informazioni su Google Analytics per fare Seo e sulla Google Search Console, quindi, adesso parliamo del nuovo algoritmo Google BERT che nasce come tecnica di pre-training nei processi NLP – di elaborazione del linguaggio naturale – e dopo un anno di sperimentazione approda nella quotidianità di utilizzo, sebbene per il momento solo in lingua inglese.

Ti ricordiamo che, nel caso in cui ti occorresse un'Analisi SEO, puoi fare appello ai nostri esperti, contattandoci al numero 800 119 270.

Come nasce BERT

La Bidirectional Encoder Representations for Transformers – BERT – nasce come tecnica in fase di pre-training durante il processo di acquisizione ed elaborazione del linguaggio naturale. L’esigenza di sviluppare questa tecnica parte dalla consapevolezza che i dati forniti ai dataset erano carenti e insufficienti, in parole povere, i motori di ricerca contengono solo alcune centinaia di esempi annotati – ovvero di Parole chiave – attraverso i quali individuare anche i testi non annotati. Per testo annotato si intende l’identificazione e l’etichettatura delle parole chiave all’interno di un testo con le quali i cosiddetti algoritmi machine learning “imparano” a individuare le parole e i testi anche in contesti non classificati.

La sostanziale insufficienza di dati ha indotto i ricercatori a sviluppare diverse tecniche di “pre-allenamento” degli algoritmi con l’impiego di testi non annotati presi dal web. I ricercatori di Google, in particolare hanno rilasciato già a fine 2018 l’algoritmo BERT come strumento open source per il pre-training affinché qualsiasi sviluppatore potesse allenare il proprio sistema di question answering. I risultati sono stati incoraggianti, al punto che la stessa azienda intende adottarlo per il suo motore di ricerca. Ma cosa fa BERT e come funziona?

Il funzionamento

monetizzare

La tecnica adottata dall’algoritmo BERT è bidirezionale non supervisionata e contestuale; per bidirezionale non supervisionata si intende che l’algoritmo prende in considerazione tutte le parole di una frase e non solo precedenti alla parola chiave o a quella che si vuole dare significato, ciò permette una maggiore precisione di individuazione e interpretazione del significato come per esempio nel caso di una ricerca di testo simile, ma dal significato diverso: “Traduci in inglese” e “Traduci dall’inglese”. Inoltre, l’algoritmo BERT è contestuale perché è in grado di dare un significato diverso ad una parola in base al contesto in cui compare, perché riesce a gestire un numero maggiore di “rappresentazioni” della stessa parola.

Per sviluppare questa precisione nell’interpretazione del linguaggio naturale, BERT funziona attraverso un’intelligenza artificiale in grado di imitare il funzionamento del cervello umano che è stata messa a punto proprio per capire cosa l’utente cerca realmente e fornire le informazioni più utili e puntuali possibili, rispondenti alla query e indipendentemente da come si combinano le parole. Gli utenti tendenzialmente inseriscono nella barra di ricerca frasi intere e di senso compiuto che fino ad ora comparivano o venivano ricostruite all’interno del risultato di ricerca, ma senza match (corrispondenza) esatta. Il nuovo algoritmo BERT elabora il senso compiuto della frase della ricerca e propone i risultati più pertinenti.

BERT è stato “allenato” dai ricercatori Google attraverso una selezione di migliaia di centinaia di frasi di senso compiuto che sono state, poi, scomposte a caso, chiedendo a BERT di ricostruire le frasi originali e dar loro un senso; questo “allenamento” è servito all’algoritmo per imparare a comprendere i contesti delle frasi e di conseguenza applicare i risultati di ricerca giusti.

I ricercatori di Google stimano che il nuovo algoritmo BERT avrà un impatto di circa il 10% sul miglioramento dei risultati di ricerca del proprio motore e si tratta di uno dei più grandi cambiamenti di metodo applicato ai motori di ricerca.

Se stai trovando interessante questo articolo ti consigliamo altri approfondimento di ElaMedia Group, che vi  sveleranno tutti i segreti di internet spiegandovi come avviene la riconsiderazione del sito da Google, fornendo una pratica guida sui fattori di ranking di Google e persino un approfondimento dedicato a Google Core Update. Potete salvarli e metterli da parte per leggerli più tardi!

Se ti occorre un Consulente Marketing per campagne che si propongano di fare arrivare traffico targettizzato al tuo sito, non esitare a contattarci al numero verde che vedi di lato. Da sottolineare che la nostra società si occupa anche di Campagne Google ADS a Roma.

Per approfondire ulteriormente le tematiche legate alla SEO, ti consigliamo la lettura del nostro articolo su Googlebot. Se vuoi conoscere un nuovo strumento da aggiungere alla tua collezione, consulta quello che abbiamo scritto su Google Suggestion

Con BERT, cosa cambia per le aziende che operano online

Il nuovo algoritmo Google BERT, poiché è in grado di migliorare la risposta alle ricerche degli utenti, quindi è in grado di cambiare la SERP (Search Engine Result Page – la pagina dei risultati di ricerca) e di conseguenza influenza sensibilmente anche la SEO, cioè l’attività di ottimizzazione delle pagine web per poter comparire tra i primi risultati di ricerca. Il meccanismo “neuronale” di BERT è capace di comprendere ricerche composte da parole chiave a coda lunga o che utilizzano espressioni complesse ma che appartengono al linguaggio naturale come nel caso delle ricerche effettuate tramite “comando vocale” con i dispositivi smart. È probabilmente proprio questa evoluzione verso l’impiego dei comandi vocali che ha indotto i ricercatori a migliorare sempre più la risposta alle query. L’algoritmo BERT, quindi, arriva fino al dettaglio di analisi dei metatag “Title” (il titolo della pagina web) e “Description” (la descrizione della pagina web visualizzata dopo l’url) con comprensibili cambiamenti per chi opera nell’ambito SEO e non solo.

Il cambiamento più evidente che influenzerà le aziende che si affidano ai copywriter SEO per posizionarsi in alto nei risultati di ricerca e ai SEO stessi consiste nell’utilizzo di una capacità redazionale “naturale” e rivolta a persone reali e non alla redazione di contenuti che adottano tecniche per farsi “capire” e intercettare dalle macchine. Un miglioramento della comprensione delle query porta l’innegabile vantaggio di una maggiore corrispondenza di risposta in linea con quanto ricercato dall’utente e – in ottica business – rispondente al bisogno reale dei potenziali clienti. Il vantaggio per le aziende è proprio quello di poter incrementare il numero di visite al proprio sito proprio grazie a risposte più appropriate e pertinenti alla ricerca.

Se pensi possa incuriosirti, in questo articolo abbiamo raccontato nel dettaglio come si può gestire la relazione tra un sito internet e la piattaforma Google Pubblisher.

Chiama l'800 119 270 o scrivici per un preventivo

Formula del consenso

L’interessato autorizza al trattamento dei propri dati personali (Informativa Privacy ex art. 13 Reg. (UE) 2016/679; clicca qui per sapere come gestiamo Privacy e Cookie)

Come utilizzare al meglio il nuovo algoritmo

La migliore strategia SEO per non essere penalizzati dall’innovazione introdotta con l’algoritmo BERT è quella di scrivere testi di qualità. Un buon testo in ottica SEO pro-BERT deve necessariamente saper sfruttare la capacità di comprensione del linguaggio umano sviluppata da BERT alzando il livello e la capacità di scrittura dei siti web. Inoltre, BERT sfrutta un’intelligenza artificiale che si evolve nel tempo e che è in grado di apprendere da solo per poter sempre fornire le risposte più appropriate e sensate rispetto alle richieste dell’utente; ciò significa che non esistono linee guida o trucchi per “ingannare” l’algoritmo BERT.

Il SEO copywriting concepito come metodo di scrittura per soddisfare i motori di ricerca è destinato a evolversi verso una capacità di scrittura rivolta sempre più agli essere reali che leggeranno i contenuti perché anche le macchine saranno sempre più capaci di interpretare le parole come gli esseri umani. La produzione di contenuti di qualità rivolti alle persone con l’inserimento di informazioni realmente utili e di interesse resta l’unico metodo di scrittura valido per il web. I copywriter e le agenzie SEO che già operavano in questa ottica, non dovranno sostanzialmente cambiare nulla nel loro modus operandi, così come non si dovrà intervenire sulle pagine dei siti già ben costruite. È forse da intendere in modo tendenzialmente positivo il dato che emerge dai primi effetti sulle SERP (di lingua inglese, perché è stato introdotto per il momento solo nella versione inglese di Google) a pochi giorni dall’introduzione dell’algoritmo BERT: non sono stati registrati scossoni o stravolgimenti nei risultati di ricerca rispetto al passato recente. Le ipotesi sono due o forse tre: Google BERT non funziona come ci si aspettava (improbabile), gli strumenti di tracking utilizzati attualmente non sono in grado di utilizzare ancora con precisione le parole chiave con coda lunga (probabile) oppure finalmente sul web circola informazione ben scritta e utile (auspicabile).

Qual è l'algoritmo che più di tutti ha punito l'eccessivo uso di annunci come quelli di Google AdSense?

L'aggiornamento dell'algoritmo di Google noto come "Page Layout Algorithm Update" (o "Top Heavy Update") è quello che ha principalmente affrontato la questione dell'eccessivo uso di annunci su una pagina web. Lanciato per la prima volta nel gennaio 2012, l'aggiornamento è stato progettato per penalizzare i siti che "mettono troppi annunci sopra la piega" o che presentano contenuti di bassa qualità o irrilevanti sopra la piega, rendendo difficile per gli utenti trovare il contenuto che stanno cercando.

L'obiettivo di questo aggiornamento era migliorare l'esperienza dell'utente riducendo la visibilità dei siti che erano troppo carichi di annunci o che presentavano troppo poco contenuto utile nella parte superiore della pagina. Se un sito è stato colpito da questo aggiornamento, potrebbe aver riscontrato un calo nei ranking di Google e nel traffico organico.

Per evitare di essere penalizzati da questo aggiornamento, Google consiglia di assicurarsi che il contenuto utile e di qualità sia immediatamente visibile quando un utente accede a una pagina del sito. Se un sito utilizza Google AdSense o un'altra forma di pubblicità display, è importante equilibrare attentamente la quantità e la posizione degli annunci con il contenuto del sito, per garantire che gli annunci non ostacolino l'esperienza dell'utente.

Lista degli algoritmi Google usciti negli ultimi anni

Creare un elenco completo di tutti gli aggiornamenti degli algoritmi di Google negli ultimi 20 anni è una sfida, considerando che Google apporta costantemente modifiche e aggiornamenti, molti dei quali non vengono ufficialmente annunciati o dettagliati.

  1. Google Toolbar (Dicembre 2000): Introduzione di Pagerank, un metodo per misurare l'importanza delle pagine web.
  2. Boston (Febbraio 2003): Primo cambio di algoritmo documentato da Google.
  3. Cassandra (Aprile 2003): Focus su link e domini nascosti.
  4. Esmeralda (Giugno 2003): Cambiamenti nell'architettura dell'indice di Google.
  5. Fritz (Luglio 2003): Google inizia ad aggiornare l'indice su base giornaliera.
  6. Florida (Novembre 2003): Uno degli aggiornamenti più noti, che ha colpito in modo significativo il SEO tradizionale.
  7. Brandy (Febbraio 2004): Espansione dell'indice di Google, Latent Semantic Indexing (LSI), aumento dell'importanza dei link (che si possono attrarre con apposite Campagne di Link Building) e delle parole chiave.
  8. Google Local/Maps (Ottobre 2004): Integrazione di Mappe e locali in Google.
  9. Jagger (Ottobre - Novembre 2005): Riduzione di link di bassa qualità, link reciproci e link a pagamento.
  10. Big Daddy (Dicembre 2005 - Marzo 2006): Cambiamenti nell'architettura per combattere lo spam e migliorare l'indicizzazione.
  11. Universal Search (Maggio 2007): Integrazione di risultati da varie fonti (video, immagini, notizie) nei risultati di ricerca.
  12. Buffy (Giugno 2007): Piccoli cambiamenti in omaggio a Vanessa Fox, che lasciò Google.
  13. Dewey (Aprile 2008): Cambiamento sconosciuto, probabilmente piccoli aggiustamenti all'interfaccia.
  14. Vince (Febbraio 2009): Maggiore enfasi sui Brand nei risultati di ricerca.
  15. Caffeine (Agosto 2009): Aggiornamento dell'infrastruttura per permettere aggiornamenti più rapidi e freschi dei risultati di ricerca.
  16. May Day (Maggio 2010): Cambiamenti nel ranking, con focus sui siti di lunga coda.
  17. Google Instant (Settembre 2010): Visualizzazione dei risultati di ricerca mentre si digita.
  18. Panda (Febbraio 2011): Focus sulla qualità dei contenuti, colpendo siti con contenuto scarso, duplicato o di bassa qualità.
  19. Top Heavy (Gennaio 2012): Penalizzazione dei siti con troppa pubblicità nella parte superiore della pagina.
  20. Penguin (Aprile 2012): Penalizzazione dei siti che utilizzano tecniche di spamming come keyword stuffing e link manipolativi.
  21. Pirate (Agosto 2012): Rivolto a siti che violano i diritti d'autore.
  22. EMD (Exact Match Domain) (Settembre 2012): Riduce il ranking di siti con nomi di dominio che corrispondono esattamente a query di ricerca ma offrono contenuto di bassa qualità.
  23. Hummingbird (Agosto 2013): Nuovo algoritmo che si concentra sulla comprensione del contesto e dell'intenzione dell'utente, piuttosto che sulle singole parole chiave.
  24. Mobile Friendly (Aprile 2015): Maggiore enfasi sui siti ottimizzati per i dispositivi mobili.
  25. RankBrain (Ottobre 2015): Introduzione dell'intelligenza artificiale e dell'apprendimento automatico per comprendere meglio le query degli utenti.
  26. Possum (Settembre 2016): Aggiornamento del ranking locale, migliorando la diversità dei risultati locali.
  27. Fred (Marzo 2017): Penalizzazione dei siti che sembrano essere creati solo per generare entrate pubblicitarie.
  28. BERT (Ottobre 2019): Un'altra importante evoluzione nell'interpretazione delle query, usando il modello di linguaggio BERT per una migliore comprensione del contesto.
  29. Core Updates: Google rilascia regolarmente aggiornamenti "core", che sono cambiamenti significativi nel suo algoritmo di ranking. Questi avvengono diverse volte all'anno e possono avere un impatto ampio sui risultati di ricerca.

Se ti è piaciuto questo articolo, cambia argomento: scopri anche come Google Page Speed o Google Trends possono potenziare la tua strategia SEO e approfondisci altri interessanti argomenti sui prodotti Google e l'ottimizzazione per i motori di ricerca.

Se ti interessano i prodotti Google ti consigliamo di leggere anche il nostro articolo su come creare un Blog di successo con Blogger. Ricordatevi sempre di inserire il tag canonical per permettere a Google di riconoscere le vostre pagine.

Bibliografia

La ricerca e l'ottimizzazione per i motori di ricerca (SEO) sono campi in rapida evoluzione, con Google che aggiorna frequentemente i suoi algoritmi per migliorare la qualità e la pertinenza dei risultati di ricerca. Di seguito, presento una bibliografia che include cinque opere di alta qualità, fondamentali per chiunque voglia approfondire la comprensione degli algoritmi SEO di Google, dalle basi teoriche alle strategie pratiche di ottimizzazione.

  1. Autore: Danny Sullivan

    • Nome testo: "Search Engine Land's Guide to SEO"
    • Casa editrice: Third Door Media
    • Note: Danny Sullivan è un riconosciuto esperto nel campo della ricerca online. Questa guida fornisce una panoramica completa delle pratiche SEO, con un'attenzione particolare agli algoritmi di Google e alle strategie per ottimizzare la visibilità online.
  2. Autore: Rand Fishkin

    • Nome testo: "Lost and Founder: A Painfully Honest Field Guide to the Startup World"
    • Casa editrice: Portfolio
    • Note: Sebbene non si concentri esclusivamente sugli algoritmi SEO, Fishkin, fondatore di Moz, offre preziose intuizioni sul mondo delle startup e del marketing online, inclusa la SEO. Il libro tratta delle sfide nell'adattarsi agli algoritmi in evoluzione di Google e delle strategie per navigare nel complesso ecosistema digitale.
  3. Autore: Eric Enge, Stephan Spencer, Jessie Stricchiola

    • Nome testo: "The Art of SEO: Mastering Search Engine Optimization"
    • Casa editrice: O'Reilly Media
    • Note: Questo testo è considerato uno dei manuali più autorevoli sull'SEO. Offre un'analisi approfondita degli algoritmi di Google, spiegando come costruire e implementare efficaci strategie SEO per migliorare il ranking e la visibilità di un sito web.
  4. Autore: Brad Geddes

    • Nome testo: "Advanced Google AdWords"
    • Casa editrice: Sybex
    • Note: Questo libro è essenziale per comprendere come utilizzare Google AdWords come parte di una strategia SEO complessiva. Geddes spiega come ottimizzare le campagne pubblicitarie in modo che lavorino in sinergia con gli algoritmi di ricerca organica di Google.
  5. Autore: Peter Kent

    • Nome testo: "SEO for Dummies"
    • Casa editrice: For Dummies
    • Note: "SEO for Dummies" è un'introduzione accessibile ma completa agli aspetti fondamentali della SEO, inclusa un'analisi degli algoritmi di Google. Kent fornisce consigli pratici per migliorare il posizionamento sui motori di ricerca in un linguaggio chiaro e comprensibile.

Queste opere offrono un'ampia gamma di prospettive sull'ottimizzazione per i motori di ricerca, dalle strategie di base a tecniche più avanzate. Leggerle può fornire una solida comprensione di come funzionano gli algoritmi di Google e come navigare efficacemente nel mondo della SEO per migliorare la visibilità online e il posizionamento sui motori di ricerca.

Autore: Enrico Mainero

Immagine di Enrico Mainero

Dal 2011 Direttore Responsabile e Amministratore unico di ElaMedia Group SRLS. Mi dedico prevalentemente all'analisi dei siti web e alla loro ottimizzazione SEO, con particolare attenzione allo studio della semantica e al loro posizionamento organico sui motori di ricerca. Sono il principale curatore dei contenuti di questo Blog (assieme alla Redazione di ElaMedia).