Michele de Capitani aka De chigno, parla di penalizzazioni e rivalutazioni dei siti web. Perchè conta Google? perchè rappresenta il 71% del mercato USA (ottobre 2008) e perchè gli utenti che fanno ricerche su Google sono più orientati all’azione, si fidano.
Come scoprire se un sito è penalizzato o bannato. Per la penalizzazione 3 suggerimenti semplici e veloci:
– effettuare una query con il nome di dominio su google (senza http://www)
– ripetere la query con www
– poi ripetere la query con la keyword principale per il sito
Se non compare nelle prime 5 posizioni di queste 3 ricerche è probabile che il sito sia penalizzato.
Per vedere se è bannato: faccio una query con
site: nome di dominio (senza www)
Posso anche verificare dal web master tools se lo spider di google è passato.
Se il sito perde traffico e non è nè bannato nè penalizzato? fluttazioni sinusoidali, note anche come yo-yo effect.
Il 28 febbraio del 2007 Michele comincia a notare una fluttazione di un portale turistico su certe keyword.
Come capire quando un sito è in fluttazione? Basta guardare il traffico sul sito. Up e down. Altro modo è analizzare le serp dove eravamo visibili. Le pagine del sito restano indicizzate ma in 50 posizioni prima dei risultati omessi per serp che prima portavano molto traffico oppure in posizione 50/150/200. Le keyword più forti restano, crollano le keyword derivate dall’espansione della query, la long tail.
Quali siti colpisce?
A Marzo 2007 sembrava solo siti a medio trust, invece a luglio abbattuti anche siti di elevata opolarità, leader nel settore, che non avevano niente in comune (nè il tema, nè la piattaforma, nè la tecnologia). Siti vetrina, ecommerce, per adulti, con o senza adsense.
Sembrano più soggetti a fluttazioni portali pluritematici, siti di informazione e siti che distribuiscono Rss (in linea con l’intervento di Jinx). Siti dinamici di grandi dimensioni.
Perchè succede? Dopo 2 anni di studio ecco alcune ipotesi.
1) Variazione calcolo anchor text dei backlinks e introduzione filtro anti google bombing.
2) manutenzione e pulizia serp, se i siti trust vengono trattenuti i siti spam emergono e quindi poi eliminati
3) incrementare annunci adwords (ipotesi remota) se un sito scompare farà una campagna adwords!
4) rimescolamento naturale delle serp per non avere risultati sempre uguali.
5) bug nella gestione dei contenuti duplicati, problemi nell’identificazione della fonte primaria
6) filtro antispam troppo sensibile!
7) inserimento un filtro tematico per non sfruttare il trust per altri temi
Michele porta 7 case history: c’è sincronia nelle fasi di up e down di vari siti diversi. I 7 siti hanno fasi down nello stesso periodo (un mese), e fluttano a cadenza giornaliera. Poi si stabilizzano e poi tornano up tutti (tranne uno). La sincronizzazione non ha niente a che vedere con il trust e con estensione del dominio, unico elemento in comune: siti di informazione.
Fattori tecnici che possono incidere sulle fluttuazioni: contenuti duplicati, network spinti, elementi near to spam (keyword stuffing, il meta tag keywords, testo nascosto), modalità ricezione backlink, outbound link, anomalie e localizzazione geografica del server, generazione anomala di pagine dinamiche. Eliminando questi elementi si limita la fluttuazione.
Oltre a questo fa bene incrementare i link da siti a buon trust. Poi svilupparsi forme di visibilità indipendenti da Google.