Quello che a distanza di mesi potrebbe essere ricordato come un aneddoto divertente e all’epoca mi provocò una incazzatura feroce introduce invero il tema della capacità di selezionare, riordinare e analizzare le fonti del sapere in un’epoca in cui l’eccesso di informazione, la costante produzione di nuove fonti e pseudo tali, la moltiplicazione dei media sociali richiedono nuovi strumenti e una nuova sensibilità nella ricerca e nel confronto dei contenuti.
Nel web, dove vi sono decine di sollecitazioni quotidiane a diffondere tramite un click fatti o fattoidi, gran parte delle persone opera senza alcuna altra competenza nell’analisi delle fonti che quella acquisita durante le ricerche scolastiche negli anni dell’infanzia e dell’adolescenza.
Una volta vi erano pochi depositari della conoscenza. Un qualsiasi tema poteva essere esaustivamente affrontato andando in una biblioteca pubblica e affiancando alla Enciclopedia Treccani o alla UTET qualche buon libro di riferimento sull’argomento. Oggi pure Wikipedia, al netto degli errori possibili e delle omissioni inevitabili, è un prodotto che non può esaurire la molteplicità delle pagine web che parlano di un dato argomento. Spesso vi è una necessità di risolvere in tempi brevissimi una necessità informativa e i tempi lunghi giorni o settimane di una ricerca vecchio stile sono un sogno antistress. E poi vi sono le opinioni personali. Un post di un blog può diventare una fonte per una tesi di laurea? Certo che sì, ma quando e sotto quali condizioni? L’idea di autorevolezza che ha il mondo accademico è ben distante da quella che ha il web.
Ecco dunque che l’urgenza presente del web non è quella di dare ulteriori informazioni ma soprattutto aggregatori e riordinatori.
Google non è tanto un motore di ricerca ma un sistema di riordino delle fonti sul web in base al prestigio che lo stesso web riconosce alle singole pagine in funzione dell’algoritmo del Pagerank. Netvibes non solo aggrega i tag e gli rss feed su un determinato argomento ma consente di ridurre enormemente i tempi di monitoraggio del web. Vedere in questa luce tali strumenti dischiude anche nuove modalità di utilizzo del web.
Ma quali sono i principi su cui può basarsi un’attività di riordino delle fonti e della conoscenza sul web?
Mi permetto di indicare quattro parametri:
- · profondità, intesa come numerosità delle pagine rilevate
- · ampiezza, intesa come molteplicità e diversità delle fonti monitorate
- · rilevanza, intesa come importanza relativa rispetto allo scopo della ricerca
- · prestigio, intesa come autorevolezza della fonte, sia l’autore che la testata web
In questo senso è evidente che anche uno strumento formidabile come Google è solo una parte della soluzione. Le pagine più linkate non sono per forza quelle con i contenuti più pregnanti mentre invece nel mondo accademico (cui Pagerank si ispira) spesso accade proprio così. Le migliaia di pagine che raggruppano motori di ricerca o reader rss feed restano su un’orizzonte piatto come il monitor: non si ha profondità e non si sa da quale pagina partire per una ricerca o una analisi. Un contenuto molto pregnante e prestigioso può affondare nelle pagine più remote di google a causa di una cattiva o nulla SEO.
In un quadro magmatico e cacofonico non sembra oggi emergere un parametro unico, semplificatorio e meccanico per valutare la qualità e l’affidabilità dei contenuti. Le metriche quantitative non dicono nulla perché un hoax può avere milioni di click, di like, di share o di tweet, sia perché chi vi ha cliccato non si poneva una questione di autorevolezza e veridicità sia perché poteva essere visto come un contenuto divertente e virabile. La differenza sostanziale sarà nella capacità dei singoli di reperire sul web e nel mondo tradizionale fonti comparabili e falsificabili (per citare Popper) capaci di avere maggiore forza persuasiva di altre concorrenti. In tal senso le comunità web mettono subito alla prova le fonti e ricordo al riguardo The Smocking Gun quando svelò il falso scoop di TMZ su John Fitzgerald Kennedy che si sollazzava al sole o il recente smascheramento della sceneggiata a Forum della falsa terremotata dell’Aquila.
In ogni caso resta la domanda: come si impara a trarre dal web contenuti pregnanti e affidabili? Ho provato a proporre quattro parametri, soprattutto con la speranza di non trovarmi altri potenziali stagisti che credono alla prima pagina web che leggono.
3 commenti:
Analisi molto lucida e come sempre to the point. Condivido i quattro parametri da te individuati, e aggiungo che, mentre profondità, ampiezza e prestigio, ritengo possano essere in qualche modo ricondotti anche all'ambito accademico, la 'rilevanza' acquisti una diversa sfumatura per quanto riguarda un'attività di riordino delle fonti sul web. In un contesto in cui i motori di ricerca ricercano (gioco di parole non a caso) un 'algoritmo perfetto' che risponda ai criteri utilizzati dell'utente (imparare a individuare le giuste keyword risulta fondamentale per poter trarre dal web contenuti più pregnanti e affidabili possibili - con le dovute limitazioni), spesso nella comodità dell'utilizzo di questo strumento ci si dimentica che si tratta alla fine di un semplice - seppur complicato e 'misterioso' - algoritmo. E come tutti gli strumenti, bisogna conoscerlo e imparare ad usarlo per ottenere da esso i migliori risultati. In questo caso non si tratta, infatti, di una bacchetta magica che fornisce le risposte alle nostre domande nel minor tempo (cronometrato) possibile. Per averne una semplice evidenza, si può banalmente svolgere la stessa ricerca su motori diversi (un metodo valido anche per raggiungere online un buon livello di profondità e l'ampiezza)...Con questo non voglio dire che non si tratti di uno strumento utile, che comunque ci aiuta a orientarci in quella che forzatamente si può definire una 'infinita biblioteca virtuale di bignami', quale è internet. Internet, infatti, rende disponibili moltissime informazioni, ma la conoscenza, e l'elaborazione dei contenuti che sottosta ad essa, difficilmente può trovare spazio nella prima schermata di pagerank, e, meno che meno all'interno di Yahoo Answers...Forse un quinto parametro, nonostante possa sembrare scontato, potrebbe essere proprio il senso critico.
mi trovi pienamente d'accordo. l'autorevolezza (reale) delle fonti è discriminata spesso da algoritmi che innalzano chi è stato più linkato o più bravo nel SEO (di solito uno è conseguenza dell'altro).
purtroppo il web ha reso le persone ancora più pigre. basta che qualcosa sia su wikipedia perchè sia vera. non viene mai in mente che qualcuno potrebbe modificare wiki in pochi secondi.
tutto a discapito della capacità di ricerca in un mare magnum che potenzialmente dovrebbe fornire più informazioni che rumore di fondo
ma sarà andata proprio così con quel ragazzo? o magari è stato storpiato qualcosa..??!! mhà...
Posta un commento