Nel mio lavoro di ottimizzazione SEO mi trovo spesso, così come tutti in questo ed in altri campi, a studiare e comprendere i competitors, per imparare, capire e carpire le informazioni del segmento in cui mi sto apprestando a lavorare.

Questo mi ha spinto, nei giorni scorsi, ad analizzare i file robots.txt di alcuni siti e mi sono accorto come la censura arrivi anche nel nostro mondo SEO. Ciò mi ha dato un’idea di paradossale, in quanto chi lavora nel campo del posizionamento sui motori di ricerca dovrebbe fare di tutto, white, sia possibile per migliorare la visibilità del proprio progetto, ma quando la visibilità si traduce in rischio e/o denuncia ovviamente anche i SEO esperti si tirano un attimino indietro.

Infatti se ci ricordiamo, anche perchè è abbastanza attuale, della Legge Bavaglio e la coniughiamo nell’ottica di un sito come un magazine online o un aggregatore o un blog, il tutto si configura in una sola parola: robots.txt.
Infatti proprio nel robots.txt ho trovato spesso l’esclusione dall’indicizzazione di alcune porzioni di sito che contenevano commenti o notizie che trattassero, anche senza flaming eccessivo, notizie inerenti personaggi politici.

In sostanza un senso di amarezza si è svegliato in me: è vero che in rete girano notizie a volte dubbie, dette anche bufale, ma la colpa non è del web ma di chi le scrive il quale poteva già essere perseguito ai sensi di legge, senza ulteriori restrizioni.
Quest’ultime hanno piegato ai loro piedi anche il lavoro di noi SEO con indubbia evidenza: non voglio criticare chi si riconosce in queste scelte di esclusione, perchè io avrei fatto la stessa cosa, ma anzi dargli il mio appoggio perchè così il lavoro si complica e se nasceva come passione così può diventare una trappola!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *