Molti blog penalizzati per contenuti duplicati

Google  aveva annunciato, dichiarando guerra ai contenuti duplicati, una forte rivoluzione nell'indicizzazione dei blog e dei siti, ma non ci si immaginava che l'ondata di penalizzazioni fosse così intensa e riguardasse in particolar modo gli aggregatori, ovvero quei siti ai quali di solito ci si iscrive per incrementare le visite e il page rank. Gli aggregatori di notizie che utilzzano i feed infatti spesso sono indicizzati meglio dei siti linkati, e questo porta google a credere che la paternità dei siti sia dei primi e non dei secondi, eliminando così molti risultati dai risultati di ricerca.
Anche a me è successo con un blog, passato a dominio e senza pagerank poteva contare su un'indicizzazione buona visti i contenuti originali e una certa frequenza di visitatori provenienti dai motori di ricerca, soprattutto google.
Il calo delle visite è stato drastico, nel giro di 2 giorni sono crollate completamente e solo dopo avere analizzato attentamente la situazione del mio blog mi sono accorta che la causa del mio problema di indicizzazione era dovuta a un aggregatore a cui mi ero recentemente iscritta, ovvero webpedia. altervista.org.
Praticamente richiamando i titoli dei miei post non comparivano più i miei risultati ma solo i loro (e quelli di un altro sito che invece utilizzo con soddisfazione e che non attinge ai feed, che mi dirottava il poco traffico residuo).
Ho scoperto l'origine del problema anche al forum per webmaster di google, dove in questi giorni moltissime persone hanno lamentato lo stesso problema constatando una perdita di indicizzazione totale.
Nel mio caso il sito non è stato escluso da google ed eliminando i feed su webpedia sono riuscita a eliminare i link e gli stralci di contenuto, certo c'è ancora la cache su google che rimanda a quel sito ma le prime visite stanno ritornando e spero con questo di risolvere il problema.

I contenuti duplicati sono sicuramente un grave danno per la rete, ma quante volte capita che i vostri contenuti vengano rubati da altri siti che li ripubblicano, magari senza riconoscere il link di paternità? E se quel sito è  posizionato meglio del vostro, il danno sarà enorme per voi, che vi vedrete defraudati dai contenuti prima e dalle visite poi, rendendo di fatto vano fare web.
Un modo per difendersi è quello di pingare a google i propri articoli appena pubblicati, in modo da fargli sapere che sono nostri e che siamo stati i primi a riconoscerli come nostri.Google ha ideato un nuovo progetto impronunciabile, pubsubhubhub che permette di comunicare i propri aggiornamenti in tempo reale, il vieo che segue è in inglese, su pubsubhubbub probabilmente scriverò più avanti, quando avrò capito come farlo funzionare, al momento lo sto studiando soprattutto in associazione a feedburner, che dovrebbe semplificarne l'uso. Se con il feed si  pinga automaticamente a google, il problema si risolve. Per quanto riguarda il mio caso particolare l'aver identificato il problema con una tempistica accettabile spero che mi permetta di recuperare la paternità dei miei contenuti e le mie visite, non penso di intervenire ripubblicando gli stessi post parafrasandoli, sarebbe un modo per ammettere un errore che non c'è stato, però dagli aggregatori di notizie che attingono dai feed... ora me ne terrò bene alla larga, senza però criminalizzare anche i servizi buoni, quelli che danno la possibilità di inserire il testo manualmente, differenziandolo, per intenderci, e che creano dei link di reindirizzamento che rimandano chiaramente alla fonte (e che google legge come tali

0 commenti: