Michael Lelli – Appassionato dell’universo informatico fin da piccolo e specializzato in area SEO da 10 anni.
Il Google data leak di maggio 2024 ha esposto alcune API di Google che potrebbero confermare alcune supposizioni sulla SEO. Scopri di più nel nostro articolo.
Nel corso degli scorsi giorni, all’interno di GitHub, è emersa una grande documentazione legata alle API di Google. Questa documentazione è uno dei primi grandi leak legati al colosso della Silicon Valley Americana.
I documenti che sono emersi sono quasi integralmente legati alla divisione “Search” , ovvero la parte aziendale che si occupa di ottimizzare il motore di ricerca e l’algoritmo.
Da questo data leak emergono alcune informazioni importanti che contraddicono molte dichiarazioni pubbliche che Google ha fatto nel corso degli anni. Andando ad analizzare quanto è emerso, possiamo notare che alcune “best practices” erano già state screditate nel corso degli anni dai SEO Specialist.
Ma andiamo ad analizzare cosa è emerso e cosa abbiamo appreso da questo Data Leak:
Come cambia la SEO questo Google data leak?
Il Google data leak di maggio 2024 porta con sé alcune informazioni che potrebbero cambiare la SEO. Tuttavia, come i nostri SEO Specialist avevano già accennato ai clienti , alcune delle dichiarazioni pubbliche non erano “reali”.
Grazie a dei test effettuati si era già notato come molte di queste dichiarazioni non fossero realistiche o come, all’atto pratico, non funzionavano esattamente come spiegato.
Dunque l’uscita di questa documentazione ha solo portato a diverse conferme ma ha anche dato adito a nuove speculazioni. Viene infatti confermando che esiste un intricato sistema algoritmico che spesso premia determinati domini rispetto ad altri.
Andando ad analizzare le API, si può notare come Google abbiamo analizzato, nel corso degli anni, il comportamento di navigazione dell’utente per riconoscere le URL. Questo vuol dire che la navigazione effettuata via Chrome inviava dati che venivano immagazzinati per migliorare la qualità del motore di ricerca.
Più dati venivano inviati, più quel sito risultava autorevole e dunque otteneva un boost di punteggio. E proprio da questo si è partiti per capire come il Google data leak abbia cambiato la prospettiva di molti domini in funzione dell’algoritmo. E la fuga dei dati ha rivelato che oltre 14.000 funzioni di ricerca che vengono utilizzate per classificare i website.
Cosa è emerso dalla fuga di dati di Google?
Questa fuga di dati, verificata anche dall’esperto SEO Rand Fishkin e dai nostri SEO Specialist, ha messo in luce varie caratteristiche dell’universo Google.
Alcune informazioni molto importanti trapelate sono infatti:
Non esiste la Domain Authority, esiste la Site Authority: contrariamente a quanto dichiarato da Google, nelle API esiste una metrica che classifica i website per autorità;
NAVBOOST : I dati sui clic classificano i contenuti, le interazioni degli utenti influenzano la SERP e danno Authority;
Effetto Sandbox : è confermato che i nuovi website sono limitati in progressione, dunque non si può posizionare un website nuovo nelle prime posizioni in poco tempo;
Chrome invia dati per l’algoritmo : la navigazione via Google Chrome invia dati all’algoritmo per influire sui risultati di ricerca, cambiando anche la SERP in base all’utente;
Sono attivi i TWIDDLERS : Google riorganizza i contenuti prima di visualizzarli per limitare i tipi di contenuti mostrati denominato Twiddler;
L’autore di un articolo è importante : l’autore viene preso in considerazione quando Google assegna un punteggio ai contenuti;
I domini a corrispondenza esatta sono penalizzati : un dominio come ad esempio “cibo-tipico-milano.it” sarà penalizzato rispetto a quelli globali;
GEOBOOST : La localizzazione del dispositivo è sempre attiva e cambia la SERP in base al luogo in cui si esegue la ricerca;
L’algoritmo assegna un punteggio in base all’intento dell’utente : soglie di attenzione, clic sui video, link o immagini per query dirette o correlate migliorano il punteggio del website;
Viene valutata la qualità complessiva di un website , non solo la pagina posizionata.
Questi parametri sono solo alcuni dei più importanti che sono emersi dal Google data leak di maggio 2024. La fonte che ha esposto questa documentazione, Erfan Azimi, ha infatti rilasciato poi un aggiornamento su come ha ottenuto i dati e ha pubblicato altre API che mettono in risalto altre correlazioni.
In totale, sono usciti oltre 2500 documenti tecnici che attestano come Google abbia spesso mentito agli utenti, oltre che agli addetti ai lavori.
SEO Olistica e strategie 2024
Michael Lelli e Daniel Casarin
Webinar & Live Q&A – 25 Gennaio
Come Google assegna un Navboost?
Uno dei dati più importanti usciti da questo Google data leak è legato al Navboost. La teoria ad esso legata nasce nel 2012 quando, con diversi test, vari SEO Specialist dimostrarono che venivano assegnati punteggi differenti a degli articoli molto simili.
Dall’immagine qui riportata, si può notare come Google assegni un punteggio alla navigazione utente e come questo punteggio vada poi ad influire sul ranking del website.
Diversi moduli nella documentazione fanno riferimento a caratteristiche come “goodClicks”, “badClicks”, “lastLongestClicks”, impressioni, clic schiacciati, non schiacciati ed età del website.
Da questo emerge come Google abbia dei modi per filtrare i clic che non vuole conteggiare nei suoi sistemi di ranking e includere quelli che invece vuole. Sembra inoltre che misuri la durata dei clic (cioè il cosiddetto effetto pogo – quando un ricercatore fa clic su un risultato e poi clicca rapidamente sul pulsante indietro, insoddisfatto della risposta trovata) e le impressioni.
Grazie a Chrome, Google può differenziare i website e dare punteggi
E anche questa teoria, che avevamo presentato ai nostri clienti diverso tempo fa, viene confermata dal Google data leak.
Il “clickstream” è ufficialmente realtà. L’immagine che vi riportiamo permette di capire come, all’interno delle API, Google riesca a identificare e dare un punteggio ad un website assegnando diversi valori ottenuti via Chrome
Questa è addirittura una della API più vecchie presenti nella documentazione. Fin dal 2005 Google tiene traccia della navigazione e assegna punteggi in base a come un utente naviga su Chrome.
Dal Google data leak emerge come vengono assegnati dei punteggi dalle visite via Chrome, dal “siteAutopilotScore” e dal Cluster (come Google divide in nicchie il web). Queste funzioni aiutano l’algoritmo a scaricare parte del lavoro sugli utenti che, usando Chrome, indicizzano senza saperlo determinati website.
A questo si aggiunge, un altro dato che supponevamo ma che abbiamo ora confermato, come Google generi i Sitelinks legati al dominio. Nel medesimo documento c’è una chiamata denominata “ topURL” che è correlata alla chiamata “chromeInTotal” : unendo queste due vengono generati i sitelink in base alle pagine più popolari.
Google utilizza i punteggi dei quality raters nell’algoritmo
Qua dobbiamo fare un passo indietro per capire chi sono i quality raters. Il progetto EWOK ha inserito, già dal 2005, oltre 16mila persone che testano i website e assegnano punteggi in base a diversi fattori.
Questi punteggi vanno dalla navigazione al testo passando per immagini, codice e informazioni varie. Il progetto era nato con lo scopo di “testare il web e capire come questo risponde alle esigenze utente ”.
Google ha sempre negato che i punteggi che venivano assegnati potessero influire in un qualsiasi modo sull’algoritmo. Tuttavia, nel Google data leak, è emerso come questi parametri siano invece calcolati e anzi abbiano anche un impatto importante.
Questo può cambiare la prospettiva di un website in base al giudizio di un umano che, ipoteticamente, potrebbe voler abbassare il punteggio di un altro website.
Se è vero che dobbiamo fidarci di come l’algoritmo funziona in maniera automatica e della buona fede di un quality raters, non è sicuro che un website non ottenga una penalizzazione in base ad un giudizio negativo.
Questo punteggio viene a sua volta inserito all’interno delle chiamate verso la SiteAuthority. Dato che questo è il metro principale di valutazione del motore di ricerca, un abbassamento del punteggio del website potrebbe compromettere una strategia SEO tecnica per motivi, a volte, sconosciuti.
Viene segnalato come il campo venga popolato solo in caso di una scala di valutazione, ma la scala di valutazione viene riempita e collegata al campo principale dell’autorità. Dunque, quasi sicuramente, rientrerà nel punteggio del website.
L’algoritmo lavora sul Brand e sui dispositivi verificati
Grazie ai dati sui clic ottenuti da Chrome, l’algoritmo riesce a capire quanto un Brand sia importante. Il volume di traffico, soprattutto da dispositivi verificati, permette di classificare il website in tre macro gruppi: alto, medio, basso.
Quando le pagine ottengono il punteggio alto, il punteggio del dominio rimane stabile. Questo punteggio viene mantenuto fino a quando non vengono sovrastate da pagine considerate “inutili” .
Questo può impattare negativamente su alcuni website che hanno un ottimo contenuto, classificato nelle prime posizioni, che viene però sovrastato da pagine non ottimizzate in ottica SEO.
In questa classificazione rientrano anche tutti i redirect e i 404 di un website. Dunque se si ottiene un NavBoost per una pagina è consigliabile ottimizzare tutto il website e attuare strategie SEO che possano mantenere alto il livello del website.
Google ha, fra le varie entità, il modo di identificare anche perfettamente il Brand o il website di un marchio ben conosciuto. Qua cambia come viene distribuito il punteggio. Se per un website piccolo il minimo errore potrebbe portare ad una penalizzazione, chi ha ”un’alta authority conosciuta ” in una specifica nicchia, subirà una penalizzazione inferiore.
Questo algoritmo premia dunque fortemente i grandi marchi a discapito dei piccoli siti aziendali o aziende indipendenti. Il dato era già emerso in passato, tramite alcune analisi che abbiamo realizzato per i nostri clienti, ma adesso abbiamo la conferma dal Google data leak.
I Google E-E-A-T sono importanti ma non completamente funzionanti
Come avevamo accennato durante il nostro webinar dedicato alla SEO Olistica 2024 , i Google E-E-A-T sono alcuni fattori importanti per l’indicizzazione ma hanno bisogno di una strategia molto più ampia.
Analizzando la documentazione legata al Google data leak emerge infatti che, al momento, non tutti i parametri vengono effettivamente conteggiati. Se esiste un punteggio per l’autore e la qualità del contenuto, non c’è traccia del calcolo sull’affidabilità del website.
Questo dato viene calcolato, infatti, tramite la Brand Authority e la SiteAuthority. Come abbiamo visto, questo può variare in base a fattori esterni e anche umani.
Possiamo dunque affermare che i risultati sono al 50% correlati ai Google E-E-A-T e che il restante 50% continui a provenire dall’algoritmo nato nel 2005 ed evoluto nel corso delle ultime versioni.
A questo fa riferimento anche la discussione, nata su x.com (l’ex Twitter), in cui si segnalava come un website veloce e un website lento avessero un posizionamento molto simile. Google risposte nel thread affermando che l’implementazione sulla velocità è stata rimandata al Q3 2024.
Wellbeing revolution di Alberto Ronco ed Eleonora Valè
I dati strutturati, le ancore, i testi e i titoli sono ancora importanti
Il Google data leak conferma come i dati strutturati, le ancore, i testi e i titoli di una pagina, se ben comunicati, sono ancora molto importanti.
Purché Google tenda a premiare i website più blasonati e importanti , l’algoritmo ragiona anche sulla comunicazione verso il cliente. Questo permette a website più piccoli di poter emergere su alcune ricerche, a patto di rispettare gli standard SEO richiesti.
Dai dati che abbiamo analizzato fino ad ora, ci sono molti fattori da tenere in considerazione, ma l’ottimizzazione è sicuramente un fattore che dovrà essere mantenuto.
Google continua a premiare i dati strutturati , dando loro importanza in quanto è il metodo più veloce per leggere il website da parte del crawler. Anche i testi devono rispondere alle esigenze del cliente ed essere cliccati.
Come spiegavamo nei nostri webinar, la SEO Olistica prevede di controllare tanti fattori per migliorare il website e tra questi c’è il raggiungimento di un pubblico sempre più ampio per migliorare la reputazione.
Questo dato è confermato dai leak in quanto viene calcolato anche il traffico in arrivo dai Social, oltre che dalla SERP. Viene loro assegnato un punteggio inferiore ma hanno assolutamente un valore.
Rivolgiti ad Adv Media Lab per una consulenza SEO professionale e rimani sempre aggiornato
Come abbiamo visto, questo Google data leak ha modificato la sensazione che potrà avere il pubblico sul marchio di Mountain View.
Il fattore che Google utilizzi gli utenti come “cavie” per gli esperimenti dell’algoritmo tramite Chrome potrebbe avere ripercussioni, soprattutto nel mercato USA. Anche quanto i quality raters influiscano sul punteggio potrebbe subire un cambiamento nel futuro.
Ma in Adv Media Lab i nostri clienti sono stati sempre aggiornati su quanto è successo nell’universo Google e come gli update abbiano influito nel loro website. Dunque, cosa aspetti a rivolgerti ad un consulente SEO esperto che ti segua passo passo in questo mondo in cambiamento? Non rischiare di perdere traffico per delle ottimizzazioni mancate.