La ricerca di Google non si ferma mai. Introdotto da Google il 21 ottobre 2019, se non è semantica poco ci manca, o almeno ne è l’inizio. BERT, l’algoritmo che “comprende”, o almeno ci prova, a capire cosa intende l’utente con la query digitata, ossia risultati più pertinenti.
Ho guardato qualche giorno fa un webinar con Emanuele Arosio
ed Ale Agostini ed ho capito cosa si intende per “comprendere la query di ricerca dell’utente”.
La comprensione del linguaggio da parte dei motori di ricerca può essere più vicina di quello che sembra. La machine learning sta lavorando.
Tenendo presente che al momento BERT è operativo solo negli Stati Uniti in lingua inglese, ed al momento non in altre lingue, i risultati con e senza sono effettivamente diversi e sicuramente più pertinenti.
A quando in Italia? Ci arriveremo, secondo i due signori di cui sopra, entro fine anno sbarcherà anche in Europa anche se non ancora data per certa una data temporale definita, almeno ad ascoltare le parole di Danny Sullivan di Google.
Al momento accontentiamoci, come in almeno altri 20 Paesi, venga utilizzato per migliorare i featured snippet.
A farla breve, le reti neurali degli algoritmi sono progettate per il riconoscimento di schemi basandosi sull’apprendimento automatico di dati e vengono ormai comunemente usate per molte cose dove ormai la scienza ha fatto il suo ingresso nel mondo reale. Forme di AI sempre più performanti che imparano e lavorano, avvicinandosi sempre più all’efficienza del nostro cervello.
Sicuramente l’impatto minimo delle ricerche avrà un impatto del 10%, che si traduce anche sulla visibilità e traffico organico del sito riuscendo a soddisfare l’intento della ricerca.
BERT sta per Bidirectional Encoder Representations from Transformers ed indica una nuova tecnica basata sulla rete neurale e sull’intelligenza artificiale, per la elaborazione del linguaggio naturale. Nel semplice linguaggio nostrano, aiuta Google a discernere meglio il contesto delle parole nella query. Le varie preposizioni che collegano una sequenza di parole hanno significati diversi, logici nel contesto per chi legge, meno per una macchina che lavora in maniera mono-direzionale, dove BERT invece lavora (come riportato sopra) in maniera bidirezionale. Nell’esempio qui di seguito, proposto da Google, forse riusciamo meglio a comprendere cosa si intende: nelle frasi “nine to five” e “a quarter to five, la parola “to” ha due significati diversi, ovvi per noi che leggiamo, meno per una macchina fondamentale “stupida”. BERT è progettato per capire queste sfumature, quindi meno “stupida”.
La nuova frontiera di BERT sta nella sua capacità di formare modelli linguistici basati sull’intero insieme di parole in una frase (addestramento bidirezionale) piuttosto che sul modo tradizionale di allenamento sulla sequenza ordinata di parole, permettendo quindi al modello linguistico di imparare (e quindi anche riconoscere) il contesto delle parole in base alle parole circostanti anziché solo in funzione della parola che precede o segue immediatamente.
Arosio e Agostini (e naturalmente Google) hanno mostrato diversi esempi di come l’applicazione di BERT nella ricerca può influire sui risultati che cambiano proprio grazie al suo utilizzo (e contestualizzano meglio le ricerche).
Come abbiamo detto, al moento in Italia BERT è applicato solo sugli Snippet in primo piano, quando viene applicato.
In un esempio, Google confronta gli snippet in primo piano per la query “parcheggio su una collina senza marciapiede”, e spiega le differenze tra come un tempo le ricerche sarebbero state analizzate ieri a differenza di oggi.
Ieri, questa query avrebbe messo in confusione i sistemi di Google perché sarebbe stata data importanza alla parola “marciapiede” ignorando “senza”, non capendo quanto questa fosse importante per capirne il significato e per rispondere in modo appropriato a questa domanda.
Il sistema avrebbe restituito una risposta come risultato per il “parcheggio su una collina con un marciapiede”: il contrario rispetto a quanto l’utente aveva chiesto.
Sempre Agostini ed Arosio, pongono il focus sul problema SEO. O meglio per i SEP Specialist. Possiamo ottimizzare BERT? I nostri siti web dovranno essere ristrutturati? Grandi domande. No, non esiste alcun modo per ottimizzare il nuovo algoritmo, ma non prendiamo paura, mamma Google consiglia posizionarsi con le parole chiave, tenendo il focus sul soddisfare al massimo le richieste eventuali dell’utente. Concentriamoci quindi su quest’ultimo e non facciamoci deviare dall’algoritmo. Diciamo saremo premiati, più bravi saremo e più BERT ci verrà incontro soddisfando le ricerche.
E’ stata posta la domanda se i due algoritmi, BERT e RankBrain siano la stessa cosa. La risposta è stata chiara: seppur simili, RankBrain è un algoritmo che lavora integrandosi con altri apportando modifiche ai risultati di questi, regola i risultati osservando la query corrente e trovando query simili già cercate in passato. Quindi, esamina le prestazioni dei risultati della ricerca per quelle query storiche.
BERT non è stato creato per sostituire RankBrain ma per affiancarlo e per arricchire i metodi di comprensione di una query (e quindi di restituzione di un significato).
La componente bidirezionale di BERT è ciò che lo rende diverso perché, come sopra già detto, esso esamina il contenuto presente prima e dopo una parola per informare circa il suo significato e quindi la pertinenza di quella stessa parola: si tratta di un miglioramento molto importante per quel che riguarda l’elaborazione del linguaggio naturale poiché la comunicazione umana è naturalmente basata anche su deduzioni logiche ed a volte molto più complessa di quel che sembra.
Google può utilizzare più metodi per comprendere una query, il che significa che BERT potrebbe essere applicato da solo, insieme ad altri algoritmi di Google, insieme a RankBrain, in combinazione o meno, a seconda del termine di ricerca.
Ogni nuovo progetto è per noi una sfida: ci piace il confronto, l’analisi, la creazione di qualcosa di davvero unico e che porti risultati concreti. Contattaci, saremmo davvero lieti se il prossimo fosse il tuo!