I gravami dello spam: conseguenze pratiche e soluzioni, un caso concreto (parte 1 di 2)

Pochi giorni fa ero a Trieste da un cliente. Come spesso succede ci sono andato con la moto: tempi di percorrenza certi, nessuna coda e relax in una giornata praticamente estiva.
Il fine tuning della moto è una mia ossessione. Tengo sempre controllati i consumi e il gioco è consumare il meno possibile a parità di percorso e di stile di guida.
L’ideale sarebbero gli irraggiungibili 40km/litro del mio primo gilera 124-5 marce giubileo (perché poi giubileo? Mah!) col quale ho attraversato gli anni ‘70 del secolo scorso.
Mi beavo dei notevoli 22 km/litro dello scarabeo 500 GT dell’andata (autostrada a velocità codice) quando mi è venuto in mente di controllare, prima del ritorno, la pressione delle gomme. Non che ci fossero sintomi particolari, solo un andamento che non ricordavo sui giunti d’asfalto e una leggera rigidità del mezzo quando piegava. Sensazioni quasi impercettibili.
Infatti le ruote erano sgonfie: 1,5 bar a fronte dei 2,2 richiesti nel libretto uso e manutenzione e subito ripristinati.
Detto fatto, i consumi al ritorno schizzano a 25,9 km/litro.
Bel colpo: oltre il 17% in più senza toccare niente, a parte la pressione delle gomme.
Bel colpo e scemo io a non controllare con più metodo il mezzo, o meglio, a concentrare i controlli solo sulle parti meccaniche, sul motore, su quello che spinge cioè e non su quello che frena.

Vengo al dunque.

Agosto è un buon mese per fare SEO.
C’è il tempo di ragionare, chi si occupa dei contenuti generalmente è in ferie e i siti sono abbastanza fermi. Insomma, le interferenze sono al loro minimo possibile.
Agli inizi di agosto ho iniziato ad affrontare il sito www.multiplayer.it.
Si tratta di un portale di giochi online molto vasto, probabilmente il principale portale di giochi online italiano.Il traffico è elevato, solido, ma il cliente percepisce qualche difficoltà, nessun crollo ma un leggero calo, piuttosto costante. Il numero di pagine è molto alto. Il sito possiede molti terzi livelli dedicati ai singoli giochi, ha una robusta sezione cinema, molto aggiornata, e un canale di news in sofferenza: le news faticano a comparire in Google News. I contenuti sono unici, ottimi, ben scritti da redazioni specializzate e aggiornatissimi. Inoltre ha due aree con contenuti generati dagli utenti: un forum (i link nel forum hanno l’attributo rel=nofollow) e un terzo livello nel quale gli utenti potevano costruirsi un blog personale. I blog non hanno l’attributo rel=nofollow, sono però bloccati in pubblicazione da molto tempo ed è previsto il loro abbattimento definitivo agli inizi dell’anno prossimo, con la nuova versione del sito.

Perché Multiplayer aveva bisogno di un SEO? Perché è prevista una migrazione di CMS, e siccome il traffico da motori rappresenta una quota molto rilevante del traffico complessivo ecco che il cliente voleva fare le cose per bene, evitando i problemi che spesso capitano in occasioni simili.

Ad una prima analisi emergevano sostanzialmente due macro-problemi, subito individuati e oggetto di intervento:

  1. Nel sito veniva usata una forma di advertising interstiziale, simile a quella presente in Repubblica.it, ma senza redirezione automatica. In pratica dalla homepage tutti i link che portavano alle pagine interne di fatto dirigevano ad una pagina di pubblicità, ed era l’utente che doveva proseguire la navigazione cliccando un link che indirizzava all’articolo. La modalità di erogazione dell’advertising interstiziale rappresentava un ostacolo per gli spider, che potevano navigare il sito solo nei momenti in cui le campagne erano ferme, pochi giorni al mese. Tecnicamente venivano usati i cookie, e in assenza di cookie la pagina di pubblicità interstiziale veniva offerta stabilmente ad ogni articolo, invece che centellinata. Le difficoltà di Google News venivano subito imputate a questo problema.
  2. I blog erano stati vandalizzati da link a siti spam prima che fosse bloccata la possibilità di pubblicazione. Ma lo spam era rimasto, e Google lo vedeva. Apparentemente non c’erano ban sul terzo livello ne’ altrove, e neppure penalizzazioni evidenti. C’era anzi stato un periodo molto buono nell’inverno precedente (con lo spam presente), con ottime rese sia per il traffico da motori che per utenti unici. Al punto che lo spam non era percepito da nessuno come problema. A dirla tutta non era stato neppure visto. Emerge ad una semplice query site:blog.dominio.it pharmacy | cialis | gambling, ossia chiedendo a Google in quali pagine del sito fossero presenti le parole chiave pharmacy | cialis | gambling più altre estratte a campione dallo spam che quotidianamente affligge una normale casella di posta.. Un emulatore di spider lanciato sui primi blog evidenziati da queste query faceva emergere il carattere sistematico del vandalismo. Da sottolineare che in punta di logica era piuttosto complicato ascrivere il leggero calo di traffico degli ultimi mesi a un fattore presente anche durante il buon picco invernale: se lo spam è un problema, ed è presente da molto tempo, perché si manifesta solo ora? Logico, no? Apparentemente non fa una piega. Apparentemente.

 

Da segnalare che il settore giochi risente moltissimo delle “mode”: un gioco è di moda durante il suo lancio, quindi le ricerche si stabilizzano per un periodo per poi decrescere in modo naturale, a prescindere dai posizionamenti. L’arco di tempo è generalmente di pochi mesi, poi il pubblico che gioca è fidelizzato e non transita più per i motori. In queste condizioni ha poco senso fissare un pacchetto di parole chiave core-business con le quali misurare posizionamento e traffico, poiché l’interferenza del fattore “moda” (e la curva naturale del traffico) impedisce valutazioni sensate. Sotto un andamento di traffico complessivo piatto succedono a volte un sacco di cose.

Viene scelta un’altra strada, stare distanti dal ticky-tacky seo, irrobustire il sito per preparare la migrazione di CMS, renderlo quindi pienamente spiderizzabile e ripulirlo dallo spam. In altre parole: permettere al sito prima della migrazione di dispiegare pienamente il proprio potenziale, ora valutato compresso. Se non hai di fronte la curva naturale, effettiva e piena del traffico, non potrai capire se quello che fai è corretto o meno, se ha successo o meno. Guiderai insomma alla cieca e imputerai i risultati a questa o quella leva SEO in modo arbitrario.

Bene. Vi espongo i risultati degli interventi prospettati ed effettuati.

Il primo punto veniva risolto con una regola per gli user-agent che non accettano i cookie. Il default viene invertito: se non accetti i cookie non avrai mai la pubblicità interstiziale. Prima ce l’avevi sempre. Immediatamente riprende il flusso di news in Google News: da una dozzina a oltre 500 nel giro di pochi giorni. Questa questione viene risolta definitivamente nella prima decade di agosto, da allora il flusso di news in Google è costante e normale.

Il secondo punto prevedeva la soluzione canonica: l’abbattimento via Google Webmaster Tools dell’intero terzo livello contenitore dello spam, anticipando quanto era comunque previsto a gennaio.
Quindi nell’ordine: sitemap.xml e file di controllo per aprire il pannello, robots.txt con disallow: / e rimozione in blocco del terzo livello dal database di Google. Il tutto avveniva il giorno 20 agosto, a uffici chiusi, da un campeggio in Slovenia in riva a un lago. :-)

Ecco due grafici che illustrano meglio di ogni discorso le ripercussioni degli interventi.

Vengono usati due tool: il classico Google Analytics per il traffico da motori e Site Census di Nielsen per i visitatori unici.

Google Analytics, traffico da motori

Site Census, visitatori unici

Sottolineo che tutto avviene a bocce praticamente ferme, o quasi.
Nessuna attività significativa nel sito era in essere il 20 Agosto, nei giorni precedenti e in quelli successivi.
L’incremento di traffico è stato molto netto e istantaneo, tanto che quando al rientro dalle ferie ho contattato il cliente per notificargli quanto stava succedendo, questi mi ha detto che non c’era bisogno di nessun grafico per apprezzarlo: si erano riuniti d’urgenza dopo il 20 per negoziare un aumento di banda, visto che avevano raggiunto la saturazione.

Son soddisfazioni! :-)

Sono anche indicazioni di un comportamento dell’algoritmo molto diverso rispetto al 2006, quando le penalizzazioni erano evidenti e riguardavano il dominio in quanto tale.

Questi i fatti messi in fila. Tra pochi giorni, nella seconda parte di questo articolo, le considerazioni.

25 settembre 2007 Piersante Paneghel