Home Tecnologia Panico su Google: Leak espone le pratiche SEO del gruppo

Panico su Google: Leak espone le pratiche SEO del gruppo

0
Panico su Google: Leak espone le pratiche SEO del gruppo

Per evitare la “contaminazione” dei risultati di ricerca, Google ha sempre voluto che il suo algoritmo rimanesse segreto. Sfortunatamente, sembra che parte delle sue operazioni siano appena trapelate.

Per arrivare in cima ai risultati di ricerca di Google, i siti web utilizzano una serie di pratiche note come SEO. Ma nonostante alcune prove esistano (ad esempio l’uso di parole chiave specifiche), parte della strategia SEO brancola nel buio o addirittura nei miti. E c’è una buona ragione per questo.

Infatti, per evitare che le pratiche SEO inquinino completamente i risultati di ricerca con siti di scarsa qualità e pagine web irrilevanti, Mountain View ha sempre mantenuto segreta la “ricetta” del suo algoritmo di ricerca. Inoltre, viene regolarmente aggiornato con nuovi standard per adattarsi agli sviluppi della nostra società (come ad esempio l’emergere dell’intelligenza artificiale generativa e di ChatGPT).

Ma tutto questo bellissimo lavoro offensivo potrebbe essere stato (parzialmente) vano. In effetti, la fuga di notizie rivela informazioni precedentemente riservate. Pertanto, i documenti sono stati condivisi con uno specialista SEO, Rand Fishkin, da una fonte anonima che voleva smascherare le “bugie” di Google sul funzionamento dell’algoritmo, come riportato dai media in lingua inglese. il bordo.

Bisogna però guardare le cose in prospettiva, perché l’algoritmo in questione si baserà su almeno 14.000 criteri (o anche di più), e il leak ne svelerà solo una piccola parte. Inoltre, non rivelerà realmente come funziona l’algoritmo, quale dosaggio viene implementato in base a questi parametri. Il tutto, infine, sarà scritto in un linguaggio un po’ tecnico e un po’ rigido per i comuni mortali. Ciò ridurrà leggermente il rischio che i risultati di ricerca siano pieni di spam di ogni tipo.

In generale, ecco a cosa si riducono la maggior parte delle scoperte di Rand Fishkin, nella misura in cui sono corrette (tratteremo queste informazioni come tali):

NavBoost

Innanzitutto il leak rivela la presenza di un sistema chiamato NavBoost, la cui esistenza era già nota dal 2023 (ma fino ad allora senza molti dettagli). Questo, che si basa tra l’altro sui dati di Google Chrome (e potrebbe sembrare aver motivato originariamente Google nella creazione del browser), esamina non solo l’attività precedente, ma anche dopo aver fatto clic su un collegamento del motore di ricerca.

READ  Ecco i nuovi strumenti offerti da Antidote con AI

Per semplicità, oltre a occuparsi delle ricerche in senso stretto, NavBoost si baserà sulla distinzione tra “clic lunghi” e “clic brevi”, che in realtà si riferiscono al tempo che un utente trascorre su una pagina dopo aver fatto clic su una pagina. collegamento. In altre parole, proprio come l’algoritmo di YouTube, la “fidelizzazione” è un aspetto chiave dell’algoritmo di Google in questo caso.

Ma oltre a ciò, NavBoost monitora anche le attività dell’utente dopo aver cliccato sul collegamento. Se esegue un’altra ricerca successiva, si presume che manchino informazioni e l’algoritmo di Google ne terrà conto e sottrarrà l’elemento mancante dai suggerimenti precedenti.

Pertanto esiste una certa logica nel raggruppamento un po’ eterogeneo di parole chiave che talvolta i programmi SEO offrono, ma è comunque necessario che il progettista del sito web fidelizzi il lettore con contenuti di alta qualità.

Sembra inoltre che NavBoost penalizzerà alcune funzioni percepite come “segnali di spam”. È il caso ad esempio dei nomi a dominio, che saranno penalizzati se assomiglieranno troppo ad una semplice stringa di parole chiave in stile SEO.

Una cosa meno specifica dell’algoritmo di Google è la distinzione nell’affidabilità dei clic. Molto semplicemente, ogni clic non ha valore (ha un certo senso): se i tuoi clic, ad esempio, sembrano essere opera di un esercito di bot, avranno meno valore agli occhi di NavBoost che se non lo fossero. Non ancora arrivato. Anche la stessa Google si è espressa su questo argomento, parlando di “clic non validi”.

Tuttavia, la natura del clic viene giudicata principalmente dai dispositivi che utilizzano Chrome. Quindi un utente che utilizza solo Edge non avrà un impatto significativo sul suo SEO complessivo (o potrebbe addirittura essere considerato un “cattivo clic”, anche se non si dovrebbe speculare troppo al riguardo).

Navboost cerca anche di determinare l’intento dell’utente quando esegue una ricerca e tiene conto della posizione dell’utente mentre fa clic (il che ha perfettamente senso, il che spiega perché non si ottengono direttamente gli stessi risultati di ricerca a seconda del Paese). Le pagine locali sono spesso preferite rispetto alle pagine globali (con eccezioni come Wikipedia, ecc.). Quindi avrai difficoltà a trovare Geeko su Internet francese…

READ  Anthropic, sostenuta da Google, lancia il chatbot Claude in Europa

Navboost utilizza poi i dati sui clic per classificare i siti in tre livelli di affidabilità: se sono di bassa qualità (ovvero clic completi o quasi assenti), saranno praticamente assenti dal motore di ricerca se sono di alta qualità (sono considerati “); corretto” e clic multipli), avrà buone probabilità di essere incluso nella parte superiore dei risultati.

La casa al centro di tutto

Anche se i risultati puntano anche a pagine specifiche di un sito, in realtà praticamente tutto viene fatto nella home page del sito. Pertanto, la sua “classificazione” avrà un impatto su tutte le pagine del sito. Pertanto è la pagina più importante del sito (ma ne dubitavamo già).

Collegamenti e layout

Alcuni risultati confermano ciò che già si sapeva sul funzionamento dell’ottimizzazione per i motori di ricerca (SEO). Anche se i collegamenti non sono l’unico parametro preso in considerazione, e sono forse meno importanti di quanto si pensasse in precedenza, sono comunque al centro del lavoro dell’algoritmo.

Sapevamo già che il carattere è importante. C’è un motivo per cui evitiamo, ad esempio, di inserire collegamenti nel capitolo (la conclusione è all’inizio dell’articolo). C’è del vero in questo, poiché la dimensione del carattere, in particolare dei collegamenti, sembra avere un impatto sulla SEO.

Inutile dire che la correlazione casuale è ovviamente un grande fattore negativo. Ma è anche bene ricordare che poiché anche Google ha accesso ai dati di Chrome, i link non bastano, bisogna comunque cliccare su detti link…

Definire la “qualità”

Per fare questo, Google dispone anche di un sistema chiamato EWOK che a sua volta viene utilizzato per determinare la qualità del collegamento.

Ad esempio, ora sappiamo che Google è in grado di differenziare gli autori dei contenuti scritti, nonché la qualità dei contenuti. Inoltre, nel caso di un nome a dominio che utilizza più autori, non si può semplicemente fare affidamento sulla qualità di scrittura degli altri. Una bassa “qualità” e una cattiva reputazione possono avere conseguenze dannose per la SEO del sito nel suo insieme.

READ  L'intelligenza artificiale (AI) sostituisce i dipendenti di un grande marchio (foto)

Google terrà conto, oltre agli autori, anche delle autorità dei domini (cosa che Mountain View ha sempre negato, anche se ammette di utilizzare “qualcosa di simile”). Questa metrica è molto difficile da definire, ma in generale possiamo istintivamente interpretarla come la “cattiva reputazione” del settore. Capiremo, ad esempio, che Wikipedia, Facebook o Reddit avranno una “autorità di dominio” maggiore rispetto a un sito creato da una persona completamente anonima.

Anche la durata del sito ne risentirà.

Tuttavia, il metodo di calcolo utilizzato da Google al momento non è noto.

Argomenti delicati

Nel caso di argomenti particolarmente delicati, l’algoritmo di Google può diventare “più selettivo”. Questo ha perfettamente senso, perché i risultati qui potrebbero far male questa volta. Ad esempio, quando si cercano hotel, è abbastanza ragionevole credere che Google eviti di indirizzare potenziali viaggiatori a truffe. Ecco perché, anche se ovviamente non è l’ideale, Google utilizza un sistema di “whitelisting” per i siti di viaggio, nonché per argomenti delicati legati all’attualità.

Ciò non significa necessariamente che i siti non presenti nell’elenco saranno necessariamente invisibili. Potrebbero semplicemente essere retrocessi. Non sappiamo veramente quali criteri vengano utilizzati per determinare queste whitelist (tranne forse le informazioni ufficiali in cui è abbastanza chiaro che Google limiterà semplicemente la sua lista alle informazioni provenienti dalle autorità locali).

Ciò è legato anche al declino dei contenuti percepiti come “YMYL” (your money, your life), ovvero contenuti che possono mettere a rischio l’utente dal punto di vista finanziario o fisico.

_
Segui Geco su Facebook, Youtube E Instagram per non perdere nessuna bella notizia, quiz e offerta.

Ricevi le nostre ultime notizie direttamente sul tuo WhatsApp iscrivendoti a Il nostro canale.

LEAVE A REPLY

Please enter your comment!
Please enter your name here