Algoritmi di Google: la cronologia dal 1998 a oggi

Perché sono nati gli algoritmi? Quando due studenti di Stanford, Sergey Brin e Larry Page, lanciarono Google nel 1998, non pensarono subito alle regole di cui il motore di ricerca aveva bisogno. Queste regole sono gli algoritmi di Google, strumenti complessi utilizzati per fornire risposte quanto più pertinenti alle richieste che gli utenti esprimono tramite query.

Poiché il web cambia di continuo, negli anni sono stati rilasciati numerosissimi algoritmi a seconda dei nuovi criteri di valutazione che vengono via via introdotti.

L’obiettivo è da sempre lo stesso: rendere il web un luogo migliore agli occhi (e alle esigenze) degli utenti.

Infatti, se inizialmente il web era un luogo privo di regole, a mano a mano che queste vengono stabilite nascono, in parallelo, le diverse professioni digitali, tra cui esperti che offrono servizi SEO.

Molti algoritmi e aggiornamenti riguardano proprio tale materia, perché i consulenti SEO sono coloro che si occupano di ottimizzare i siti web, seguendo le regole stabilite da Google, al fine di ottenere un buon posizionamento in SERP.

Indice articolo - Cronologia dei principali algoritmi di Google dal 1998 a oggi

Prima di immergerci nella cronologia degli algoritmi di Google e vedere quali e come si sono susseguiti nel corso della storia, è bene introdurre una precisazione.

Che differenza c’è tra Aggiornamenti di sistema e Algoritmi?

Google rilascia costantemente aggiornamenti che vanno a migliorare la qualità dei contenuti online. Alcuni di questi, tuttavia, sono più che altro aggiornamenti di sistema.

Non è sempre facile chiarire la differenza tra gli uni e gli altri, ma potremmo semplificare la questione dicendo che, mentre gli algoritmi colpiscono una determinata caratteristica di un sito web, gli aggiornamenti di sistema apportano una modifica più profonda.

Questi ultimi, anche detti Core Updates, sono aggiornamenti degli elementi essenziali di un motore di ricerca che vanno a colpirne le fondamenta.

Per semplificare ulteriormente, possiamo immaginare l’aggiornamento di sistema come un hardware (ad esempio, il computer) e l’algoritmo come un software (un programma, quale il pacchetto Office installato sul PC).

Vediamo insieme nel dettaglio come hanno reso migliore il web nel corso di oltre un ventennio.

Settembre 1998: PageRank e il valore dei link autorevoli 

Con il rilascio di PageRank, la sola ottimizzazione on-page non è più sufficiente. Questo algoritmo lavora operando una sorta di tassonomia delle pagine basata sulla quantità e qualità di link che riceve da altri siti. Sostanzialmente le valuta e assegna a ciascuna un punteggio da 0 a 10 a seconda dei contenuti online che si collegano a essa.

Alcuni hanno visto molto potenziale in questo procedimento, così sono nate le cosiddette link farm, ovvero siti che iniziano a distribuire link per manipolare le SERP di Google. Trovandosi davanti a un problema, il motore di ricerca ridimensionò il valore di PageRank attraverso una serie di strategie di calcolo, in modo da dare visibilità e rilevanza solo alle pagine contenenti link derivanti da fonti coerenti con l’argomento trattato.

Qui emerge anche il concetto di link juice, dal momento che se una pagina autorevole contiene il link a un’altra, trasmette a quest’ultima anche parte del proprio valore. Per questo è fondamentale avvalersi della Link Building, una tecnica SEO che ha lo scopo di aumentare il numero di link in ingresso: acquisendo link naturali da altri siti autorevoli, incrementa l’autorevolezza del proprio sito web.

PageRank è la base dell’algoritmo originario, inventato da uno dei due fondatori di Google. Oggi, anche se è diventato tutto molto più sofisticato, rappresenta ancora l’anima del motore di ricerca, importante – anche se meno rispetto al passato – per determinare l’autorevolezza e il posizionamento di una pagina.

 

Novembre 2003: Florida e il tentativo di arginare il Keyword Stuffing

Molto probabilmente ti sarà capitato di imbatterti in siti web quasi illeggibili, dove è evidente la ripetizione insistente delle parole chiave per cui ci si vuole posizionare. Tale tecnica rischia di penalizzare un sito perché non risulta scritto con naturalezza. Al fine di migliorare i contenuti online, con Florida Google ha iniziato a declassare i siti che utilizzano la tecnica di Keyword Stuffing.

Con questo cambiamento nel processo di indicizzazione dei contenuti ospitati sul web, qualità e unicità hanno iniziato ad assumere maggiore importanza. Con Florida Google ha stabilito che era ora di porre fine alla manipolazione del PageRank.

Dicembre 2003: Hilltop aumenta autorevolezza e affidabilità delle pagine

A distanza di anni da PageRank, viene introdotto Hilltop, un nuovo algoritmo di Google che permette di accrescere il valore delle pagine lavorando su autorevolezza e affidabilità. Con Hilltop emerge il concetto di rilevanza della pagina: ora Google riconosce le pagine più importanti considerando innanzitutto le keywords.

L’obiettivo di questo algoritmo – che è ancora attivo oggi – è di valutare la coerenza dei contenuti partendo dalle keywords inserite e individuare quei siti che cercano di ingannare i lettori. Come? Ad esempio promettendo di affrontare un determinato argomento nel titolo, per poi parlare d’altro nel corpo del testo.

Per evitare di incorrere in penalizzazioni simili e aumentare la rilevanza della pagina è importante effettuare una corretta, precisa e dettagliata analisi delle parole chiave SEO.

Gennaio 2004: Austin colpisce il Black Hat e migliora le ricerche online

Per incrementare ulteriormente la qualità delle pagine web, viene introdotto Austin, il nuovo algoritmo di Google. Il suo compito è quello di rintracciare la presenza di eventuali stratagemmi ritenuti non proprio corretti dal motore di ricerca. Tali tecniche vengono definite Black Hat: tattiche che mirano a manipolare il ranking per posizionare un sito in alto nella SERP.

Come? Ad esempio nascondono le parole chiave in font piccoli o dello stesso colore dello sfondo della pagina, ripetendole più volte, ma in modo che siano invisibili all’utente, quindi senza modificare la fruibilità del sito.

Austin nasce, quindi, per penalizzare le pagine che nascondono parole chiave all’interno del testo, al fine di migliorare le ricerche e le pagine dei siti web.

Febbraio 2004: Focus sugli Anchor Text e nascita dei sinonimi con l’introduzione di Brandy

Brandy è l’algoritmo di Google che si focalizza sulla rilevanza dei contenuti. Con l’introduzione del cosiddetto LSI, Latent Semantic Indexing, il motore di ricerca è maggiormente in grado di capire i sinonimi delle parole chiave utilizzando gli Anchor Text. In questo modo pone una maggiore attenzione alla rilevanza del testo di ancoraggio dei link.

Grazie a una migliore comprensione dei sinonimi, ora Google aumenta la sua capacità di capire anche il livello di analisi delle keyword.

Gennaio 2005: L’attributo Nofollow controlla la qualità dei backlink

Per favorire la qualità dei link in entrata, evitando di seguire i commenti nei blog e i link che fanno spam, viene introdotto l’attributo Nofollow. Il suo compito è quello di comunicare al motore di ricerca di non considerare determinati link.

Così, mentre per l’utente non cambia nulla, perché il link è sempre cliccabile e porta a una pagina diversa, chi lo inserisce in un sito indica in maniera esplicita ai bot di Google di non seguire il link in questione che, di conseguenza, non riceve autorevolezza.

Marzo 2005: TrustRank migliora ulteriormente la qualità dei backlink

A distanza di sette anni, il TrustRank rende il PageRank più preciso. Il suo compito consiste nell’analisi qualitativa dei backlink: è in grado di riconoscere i link realmente utili individuando lo spam e penalizzandolo.

L’algoritmo analizza dunque i collegamenti presenti nelle pagine di un sito per misurare l’attendibilità e l’autorevolezza delle informazioni e restituire all’utente contenuti più affidabili.

Il Trust Rank non si focalizza sulle singole pagine, ma sul sito web e, se quest’ultimo ha un rank elevato, ecco che viene considerato maggiormente autorevole. Di conseguenza, un backlink da un sito ad alto trust consente di migliorare il posizionamento del sito linkato.

Giugno 2007: Universal Search rivoluziona la struttura della SERP

Nel 2007 Google integra immagini, news, video e mappe nei risultati di ricerca. Con l’aggiornamento di sistema Universal Search il motore di ricerca incorpora altri motori di ricerca.

Si tratta di una struttura verticale che permette a ciascun utente di immettere una query e scegliere in quale “categoria” indagare. Se, ad esempio, cerco “agenzia SEO Imperia” potrei voler avere informazioni sulle agenzie esistenti in zona oppure trovare l’indirizzo di una struttura di cui non ricordo il nome.

Universal Search: esempio di ricerca agenzia SEO Imperia

Esempio di Google Universal Search

Si tratta di una vera e propria rivoluzione della struttura della SERP che agevola e amplia le possibilità di navigazione dell’utente. Infatti, grazie all’integrazione dei risultati di ricerca in un unico search engine, le persone possono visualizzare nelle pagine dei risultati tutte le informazioni pertinenti alla query digitata.

Agosto 2008: Google Suggest e il supporto nella digitazione delle query

Cosa stai cercando di preciso? Con l’introduzione di Google Suggest, l’utente riceve un aiuto dal motore di ricerca nel momento in cui digita qualcosa nella search bar. Grazie a questo algoritmo, quando immetti una query ricevi una lista di spunti che potrebbero corrispondere a ciò che stai cercando.

Google Suggest: esempio

Esempio di Google Suggest

I suggerimenti che compaiono durante la digitazione della query possono dipendere da diversi fattori, quali:

  • Ricerche precedentemente compiute
  • Luogo da dove si digitano le parole chiave
  • Frequenza con cui altri utenti hanno cercato un determinato termine o frase

Ecco che, grazie a Google Suggest, il Search Intent comincia ad assumere sempre più importanza.

Agosto 2009: Affidabilità e credibilità al centro della scena con Caffeine

Online vengono pubblicate continuamente una miriade di informazioni. Per migliorare e velocizzare scansione, archiviazione e catalogazione delle stesse, Google introduce Caffeine, un aggiornamento del sistema di indicizzazione.

Si tratta di una vera e propria rivoluzione del motore di ricerca che rende più rapido anche il processo d’indicizzazione. Mentre prima i crawler erano molto lenti e i tempi si dilatavano, con Caffeine Google riesce a velocizzare e rendere più efficace la scansione e l’indicizzazione di un numero più elevato di documenti.

Questa miglioria si traduce in un aumento della pertinenza e della rilevanza dei contenuti nei risultati di ricerca. I vantaggi sono notevoli soprattutto per chi ha costruito un brand solido: i suoi contenuti vengono ritenuti più affidabili e credibili e, di conseguenza, anche il suo posizionamento online migliora.

Dal momento che, con l’introduzione di Caffeine, Google premia anche le informazioni più nuove, l’ottimizzazione SEO diventa essenziale, anche in termini di aggiornamento periodico del proprio sito.

Febbraio 2011: Panda e la nascita del Copywriter

Nato come filtro, oggi Panda figura tra i principali algoritmi di calcolo. Il suo compito è stato, fin dal principio, declassare le pagine di bassa qualità e premiare i contenuti di ottima qualità. Se da un lato penalizza certi siti rispetto alle prime posizioni in SERP, dall’altro avvantaggia quelli più originali, “freschi” e attinenti alle keywords di ricerca.

Possiamo quasi affermare che, grazie a Panda, è nata la professione del copywriter e, a seguire, determinate regole hanno preso sempre più piede. Per assegnare un cosiddetto “punteggio di qualità”, questo nuovo algoritmo di Google verifica che i testi abbiano le seguenti caratteristiche:

Qualità – I contenuti devono essere scritti correttamente in termini di sintassi e grammatica. Oggi è possibile anche distinguere tra “testi automatici”, quindi generati da appositi software, e “testi scritti a mano”, i prediletti da Google.
Leggibilità – È importante che siano ben confezionati e formattati per aiutare l’utente nella lettura. Se il testo è invaso da banner pubblicitari o non c’è un corretto equilibrio tra contenuti testuali e grafici, leggibilità e qualità vengono compromesse.
Utilità – I contenuti devono offrire informazioni precise e dettagliate al fine di migliorare l’esperienza dell’utente.
Originalità – L’utente deve ritrovarsi faccia a faccia con contenuti originali che apportano realmente un valore aggiunto.
Autorevolezza – Testi e link inclusi in un determinato sito devono essere attendibili e confermati da fonti autorevoli.
Aggiornamento – Il concetto di freshness viene visto positivamente da Google, che è sempre alla ricerca di contenuti costantemente aggiornati.

Per contro, per penalizzare chi applica strategie scorrette Panda valuta elementi quali contenuti duplicati, pagine “eccessivamente ottimizzate”, thin content (contenuti scarni, spesso di bassa qualità, che non offrono un valore aggiunto all’utente) e testi non pertinenti all’intento di ricerca.

Novembre 2011: L’algoritmo Freshness premia i contenuti recenti

Nello stesso anno e sempre in materia di qualità dei contenuti, compare Freshness, un algoritmo di Google che premia i contenuti più “freschi”. Dal momento che il motore di ricerca presuppone che le informazioni più recenti rispondano meglio alle necessità di chi effettua una determinata ricerca, diventa ancora più importante aggiornare le pagine del proprio sito.

Se, ad esempio, abbiamo una Pillar Page (che, per natura, dev’essere un evergreen), è fondamentale rimetterci mano nel corso del tempo per modificare informazioni datate e integrare novità e dati più recenti. Non parlo solo di testo, ma anche di immagini, video e tutti gli elementi presenti nella Universal Search di Google.

Come suggerisce il nome stesso, con Freshness, Google inizia ad attribuire più rilevanza ai contenuti freschi e aggiornati con frequenza e costanza.

Aprile 2012: Penguin e la penalizzazione dei backlink di bassa qualità

È l’algoritmo che è stato introdotto per penalizzare i siti che attuano strategie di link building forzate e non connesse ai contenuti.

Colpisce principalmente i backlinks, ossia i link che un sito riceve in entrata. Questi ultimi sono rilevanti in quanto Google li considera al pari delle raccomandazioni nella vita reale, che attribuiscono o meno autorevolezza.

Se, ad esempio, il mio sito riceve link di bassa qualità, Penguin interviene per diminuirne il ranking. È il secondo provvedimento, dopo Panda, con il quale Google dimostra la sua intenzione di penalizzare l’utilizzo di pratiche scorrette per migliorare la visibilità.

Per verificare la qualità dei propri backlinks si può utilizzare il metodo della Link Pruning, un’analisi per capire se è necessario rimuovere quei link in entrata che potrebbero avere un effetto negativo sulla propria autorevolezza.

Penguin agisce sulla SEO off-site e affianca Panda che interviene sull’on-site: insieme hanno contribuito a dare autonomia e importanza all’attività SEO.

Agosto 2012: Pirate e il copyright

Pirate è l’algoritmo di Google che nasce per penalizzare i siti che ricevono molte segnalazioni per la violazione del copyright.

Pensa a quanti siti per scaricare musica e film abbiamo incontrato nel corso della nostra esperienza come utenti del web: i siti più colpiti sono quelli di pirateria digitale che rendono disponibili gratuitamente contenuti protetti dal diritto d’autore.

I siti declassati non vengono posizionati e, quindi, non appaiono nei risultati. In questo modo, tali contenuti non sono fruibili, con un conseguente miglioramento della SERP.

Agosto 2013: Hummingbird e la correlazione espansa

È uno dei più importanti aggiornamenti che potenzia la capacità semantica del motore di ricerca.

È stato definito da Google Conversational search: l’algoritmo mira a interpretare la frase intera e ha l’obiettivo di comprendere il significato e l’intento di ricerca dell’utente che stanno dietro alla query.

Nonostante le keywords mantengano la loro importanza, con Hummingbird assume maggiore rilevanza il contesto. Infatti, i risultati mostrati in SERP non si basano più esclusivamente sulla corrispondenza esatta tra query e parole chiave, ma diventano rilevanti:

  • Concetti e relazioni tra questi
  • Parole correlate
  • Sinonimi

Grazie a una migliore comprensione del linguaggio naturale – Natural Languages Processing – ora Google è in grado sia di posizionare le pagine per KW, senza che queste siano contenute esplicitamente al suo interno, sia di restituire all’utente risultati più vicini al suo intento di ricerca.

Luglio 2014: Pigeon e la local SEO

È un aggiornamento che ha inciso sull’algoritmo di ricerca locale. Rivoluziona le SERP aumentando la quantità di risultati a carattere local, favorendo così il posizionamento delle imprese che si trovano vicine al luogo di ricerca.

Ad esempio, se un utente si trova a Imperia e cerca “Agenzia SEO Liguria” riceverà dei risultati locali limitati alla zona in cui si trova, anziché relativi a tutta la regione.
Pigeon riguarda, quindi, l’ambito local che ha valenza nella SEO e rende ancora più rilevante il posizionamento geolocalizzato.

L’attenzione alla dimensione locale rende chiara la correlazione tra Pigeon e Google Maps. Se, in precedenza, quest’ultimo era focalizzato sulla navigazione per il raggiungimento di una località, ora l’esperienza utente e la posizione delle attività locali sono al centro dell’attenzione.

Infatti, la versione recente di Maps è stata integrata con informazioni utili, quali foto dei luoghi e attività vicine e consigliate.

Per concludere, diversamente da altri algoritmi, Pigeon non agisce penalizzando i siti web, ma semplicemente dando precedenza ai risultati migliori per l’utente.

Aprile 2015: Mobilegeddon o Mobile first

Con questo nuovo algoritmo Google introduce l’indice mobile che attribuisce maggiore importanza ai siti responsive. Questo stravolge il modo con cui il motore di ricerca scansiona i siti web: prima il crawler attribuiva maggiore importanza al contenuto desktop, mentre con questo aggiornamento la priorità passa alla versione mobile.

Dalla sua introduzione nell’aprile 2015 tutte le regole legate al mobile prendono vita e iniziano a svilupparsi le buone pratiche del Mobile-First Indexing.

È un cambiamento radicale, veicolato dalla diffusione degli smartphone, che rendono l’accesso alla rete più semplice e alla portata di molte persone. Di conseguenza, aumenta il numero di utenti che effettua le ricerche in rete da mobile.

Infatti, l’indagine di Statista condotta da inizio 2015 a fine 2021 mostra come la percentuale di traffico web da dispositivi mobile, a livello mondiale, è passata dal 31,16% al 54,4%. Alla fine del 2021 la metà del traffico web in tutto il mondo avviene con dispositivo mobile.

Ottobre 2015: Rank Brain e il machine learning volto a fornire risultati pertinenti

Rank Brain è un aggiornamento di Hummingbird che utilizza la tecnologia del Machine Learning, una branca dell’intelligenza artificiale che si occupa dell’apprendimento automatico dei software.

Questa tecnica viene utilizzata per interpretare la query e l’intento di ricerca dell’utente, al fine di fornire risultati sempre più pertinenti, svincolandosi dalle keyword “secche” e attribuendo maggiore attenzione al contesto.

Al momento del lancio, Rank Brain è stato definito da Google come il terzo fattore di ranking più importante.

Marzo 2017: Fred e la penalizzazione per eccesso di pubblicità

Per fortificare i controlli effettuati in precedenza dagli aggiornamenti Panda e Top Heavy, Google rilascia il nuovo algoritmo Fred.

Mentre ho già approfondito il primo, devi sapere che Top Heavy è un aggiornamento del 2012 che riguarda il layout delle pagine web. Nello specifico, penalizza i siti che sacrificano la rilevanza del contenuto per dare maggiore visibilità agli annunci pubblicitari.

L’introduzione di Fred contribuisce a penalizzare i siti che propongono contenuti:

  • di scarsa qualità;
  • sovra-ottimizzati;
  • ricchi di pubblicità;
  • estremamente mirati alla monetizzazione.

Di conseguenza, Fred punisce i siti pieni di pubblicità che non rispettano le linee guida di Google.

Agosto 2018: Medic Update e i fattori di autorevolezza EAT

È un Core Update importante e corposo che aggiorna l’algoritmo di base. Il soprannome Medic Update è dovuto alla tipologia di siti maggiormente colpiti, appartenenti al settore medico e del benessere.

Ovvero siti web che rientrano nella categoria your money your life perché trattano tematiche sensibili, che potrebbero influenzare e modificare la vita dell’utente che fruisce di tali contenuti.

Con questo algoritmo Google attribuisce maggiore importanza – per tutte le tipologie di siti e brand, ma in particolare per quelli di salute e benessere – ai fattori di autorevolezza EAT:

  • Expertise – competenza
  • Authoritativeness – autorevolezza
  • Trustworthiness – fiducia

I contenuti proposti devono essere affidabili, ossia basati su fonti autorevoli e fatti certi, per permettere all’utente di accedere a informazioni che apportano valore e trasmettono fiducia.

Ottobre 2019: BERT e la migliore comprensione del Search intent e dell’entità

A partire da Hummingbird l’implementazione dell’intelligenza artificiale è sempre più utilizzata negli aggiornamenti di Google, il che permette di allontanarsi dal concetto di keyword secca per avvicinarsi sempre più al contesto e alla rete di significati.

Questa è materia di BERT che, al suo rilascio, viene dichiarato da Google come il più importante aggiornamento degli ultimi 5 anni.

Ora, il motore di ricerca, attraverso l’utilizzo del Natural Languages Processing, aumenta ulteriormente la sua capacità di comprendere le sfumature del linguaggio.

BERT è la sigla di Bidirectional Encoder Representations from Transformers ed è l’algoritmo di Google che si basa su modelli matematici e reti neurali, detti appunto Transformers.

Il suo compito consiste nel miglioramente dei seguenti aspetti:

  • Comprensione della query
  • Interpretazione del testo
  • Identificazione dell’entità e delle relazioni tra queste

Questo significa che quando l’utente digita la query, Google cerca in maniera bidirezionale di comprendere ed espandere il significato, anziché limitarsi ad analizzare il significato delle parole digitate.

Infatti, con questo aggiornamento il motore di ricerca vuole rimarcare la rilevanza del Search Intent espresso dell’utente.

Marzo 2021: MUM e il potenziamento della comprensione semantica

MUM è l’acronimo di Multitask Unified Model ed è l’algoritmo di Google che, a soli pochi anni dal suo rilascio, potenzia ulteriormente BERT.

È stato introdotto allo scopo di ridurre i passaggi per generare risposte alle query complesse.

Infatti, MUM è multimediale e non si limita alla comprensione del testo, ma è in grado di capire altri formati come le immagini e i video. Google aumenta la sua abilità nel fornire risposte con contenuti testuali e visuali anche alle richieste più elaborate.

Con la sua introduzione, nell’espandere la query supera le potenzialità di BERT: ora, il motore di ricerca, non solo interpreta il risultato, bensì lo genera.

Giugno 2021: Page Experience Update e la UX come fattore di ranking

È l’aggiornamento che introduce come fattore di ranking una serie di metriche per valutare le prestazioni di un sito relativamente alla qualità dell’esperienza utente, detta User Experience.

Ottimizzare la UX significa permettere all’utente di ottenere ciò che desidera nel miglior modo possibile e con il minor sforzo.

Dal momento che i siti web vengono fruiti dagli utenti, è fondamentale che la loro esperienza sia ottimale; per questo Google lo introduce come fattore rilevante nel posizionamento di un sito.

Con il rilascio di questo algoritmo vengono considerati due differenti set di metriche.

I primi, detti “valori booleani”, prevedono un’analisi che fornisce una risposta sì/no, per elementi rilevanti quali, mobile friendly, protocollo HTTPS, navigazione sicura e assenza di annunci invadenti.

I secondi, i cosiddetti Core Web Vitali, consistono in un elenco di metriche e le relative soglie, per ciascun aspetto volto all’ottimizzazione dell’UX:

  • Velocità di caricamento – si misura con il Largest Contentful Paint (LCP)
  • Stabilità visiva – si misura con il First Input Delay (FID)
  • Interattività – si misura con la Cumulative Layout Shift (CLS)

Tali valori vengono aggiornati annualmente e si evolveranno nel tempo.

Aprile 2022: PaLM e il passo in avanti grazie all’intelligenza artificiale

PaLM è l’acronimo di Pathways Language Model. È il nuovo algoritmo di Google che, come altri, utilizza l’intelligenza artificiale, ma fa un grande passo in avanti.

Infatti, è in grado di comprendere relazioni e concetti complessi che finora si credevano comprensibili solo alla mente umana e incomprensibili per un computer.

La differenza fondamentale rispetto al passato è che, mentre prima Google creava un algoritmo per ogni esigenza specifica, con PaLM ambisce a dar vita a un unico modello che utilizza l’intelligenza artificiale per risolvere tutti problemi e apprendere in maniera veloce ed efficace nuove attività.

Conclusione

Dopo aver ripercorso la storia di alcuni dei più importanti aggiornamenti di Google possiamo constatare che il “motore di ricerca” si sta evolvendo in “motore di risposta”.

Come abbiamo visto, ad oggi è ancora evidente l’importanza di creare contenuti originali e di qualità, ma è anche vero che se il contenuto è il re, la query è diventata la regina.

Per chi gestisce un sito web e vuole emergere, in un panorama competitivo come quello attuale, è fondamentale consultare costantemente gli ultimi aggiornamenti del ranking apportati alla Ricerca Google.

L’obiettivo è sempre appagare l’utente e soddisfare il suo intento di ricerca, fornendo risultati utili e ottimizzando la sua esperienza sulla pagina.

Google è una Big Tech e come tale si avvale delle tecnologie più innovative. Per il suo sviluppo non è rilevante solo l’avanzamento tecnologico, ma anche il fatto che secondo la Legge di Moore la capacità di calcolo duplica ogni 18 mesi.

Questo è chiaro se si osserva che gli ultimi aggiornamenti sono incentrati sull’intelligenza artificiale. Nello specifico il Machine Learning e il Natural Language Processing necessitano di una quantità consistente di dati per permettere alla macchina di imparare, questo rende fondamentale la potenza della capacità computazionale.

Nel prossimo futuro tali implementazioni diventeranno più diffuse e raffinate. E se tra cinquant’anni, o forse meno, il motore di ricerca diventasse così abile da permettere all’utente di fare le ricerche solo con la forza del pensiero?