Perchè gli indici SEO non servono a niente (se non hai una strategia)

Se qualche volta vi è capitato di leggere sui blog SEO argomenti un po’ più avanzati, oppure avete fatto qualche trattativa per la compravendita di link vi sarà capitato di imbattervi nei cosiddetti indici. In generale, infatti, trovate molti tipi di indice che vengono associati ai domini come alle singole pagine Web, e che rappresentano in qualche modo la qualità del dominio o del link stesso.

Analisi della Page-Authority di MOZ

Se di base avevamo solo il PageRank, successivamente sono usciti fuori il PA, il PD, l’AlexaRank e molti altri (ne abbiamo parlato ampiamente qui). La page-authority (PA) di Moz, ad esempio, è uno degli esempi più celebri (e altrettanto sopravvalutati); potrebbe sembrare strano questo mio ridimensionamento del fattore in questione, ma di fatto poiché viene utilizzato per valorizzare i link (E quindi attribuire un valore commerciale agli stessi) mi sembra importante razionalizzare il discorso, così come evitare di farsi prendere la mano, o peggio ipervalutare le risorse solo per via di un numero.

La cosa che ho fatto è stata andare a leggere la sua (molto sintetica) documentazione: ci sono alcuni passaggi interessanti, che possono chiarire il perché di questo mio punto di vista. Leggiamo anzitutto che si tratta di un punteggio da zero a 100 che misura la ability to rank (“capacità di posizionamento”), dove più alto è il suo valore, in pratica, maggiori saranno le potenzialità del dominio sui motori di ricerca, ovvero le sue potenzialità SEO. Si legge inoltre che, da un punto di vista matematico, il punteggio è su scala logaritmica: questo ha un’implicazione precisa, poiché l’indice si comporta come la misura del Decibel (procede per ordini di grandezza: a 10 corrisponde 10, a 20 corrisponde 100, a 50 corrisponde 100000, …), in modo tale che non sia banale arrivare a valori grossi (e quindi sia complicato manipolare l’indice stesso, almeno in teoria).

Per raggiungere un punteggio di 100 (dB), dovremmo avere ben 10 miliardi come input, e se immaginiamo che l’input siano i ranking factor coinvolti capiamo bene come solo in pochi riusciranno ad ottenere valori eccellenti. Tant’è che scrivono: it’s significantly easier to grow your score from 20 to 30 than it is to grow from 70 to 80, ovvero è molto più facile far aumentare il punteggio da 20 che a 30 di quanto non lo sia farlo da 70 a 80, e questo garantisce che i punteggi alti siano riservati a pochi, ma buoni domini. Si scrive inoltre che “a differenza di altri indici SEO, è difficile manipolarlo maliziosamente” (e questo è un bene, ovviamente), e che si tratta di un indice aggregato (aggregate of metrics, probabilmente una media pesata di più fattori) che produce uno score su scala logaritmica tra 0 e 100.

PA contrappone una complessità ad un’altra complessità

Arrivo al punto critico: nonostante il suo concept sia coerente ed “ingegneristico”, se vogliamo, rimane il grosso problema di fondo che il PA tenta di emulare la complessità di Google introducendo una propria, arbitraria, complessità: il che equivale a voler emulare il comportamento di un motore cercando di mettere assieme “ad occhio” pistoni, albero e ruote senza alcuna conoscenza di meccanica, o ricostruire in laboratorio il Big Bang senza alcuna conoscenza di cosmologia. È chiaro, quindi, che si tratta di un’approssimazione su una complessità che prova ad inventarsene un’altra, il che – da un punto di vista di rigore – potrebbe, addirittura, non avere alcun senso.

Quello che ho scritto vale tecnicamente per qualsiasi indice SEO, soprattutto nel caso in cui si contrapponga alla complessità X degli algoritmi di Google introducendo una propria complessità Y su cui non sappiamo comunque nulla (almeno finché gli algoritmi non saranno open source). Il discorso vale per qualsiasi indice artificiale, ma diventa vagamente più accettabile se lo utilizziamo per effettuare dei confronti: quindi, ad esempio, se confrontiamo PA e ZA (SEOZoom) dello stesso sito. Se invece viene utilizzato come indice in assoluto, della serie 10 = il sito non vale niente, 90 il sito è il top, rischiamo fortemente di effettuare valutazioni errate sui domini.

Diverso sarebbe il discorso, per inciso, se si riuscisse a inventare un indice SEO che vada a contrapporre alla complessità di Google un algoritmo semplice e chiaro, che ovviamente disponga dei corretti ed accettabili requisiti (ad esempio: sappia “comportarsi come Google” al 90%).

Il problema, quindi non è legato all’uso degli indici SEO in sè, che è spesso utile come metrica comparativa con i competitor, ad esempio; il problema è legato a come gli utenti tendono ad interpretare, sopravvalutare e rivalutare questi indici.

Conclusioni

Il ragionamento che ho riportato è applicabile a qualsiasi altro indice “alternativo” sviluppato da aziende private: si tratta di analizzatori software esterni a Google, che non possono usare i dati di Google (perchè l’azienda lo vieta) per cui si costruiscono indici interni e li usano anche per determinare liste di ranking factor. Si può benissimo dare credito a questi studi – ed ognuno è libero di fare e credere ciò che vuole, ci mancherebbe – ma resta il fatto che dovrebbe essere chiaro che sto cercando di misurare la “qualità” di un sito utilizzando criteri esterni a quelli che davvero contano, e basandomi sulla buonafede di chi produce quelle informazioni (che, per inciso, a volte potrebbe manipolare i dati per convincerci a comprare le loro consulenze).