giovedì 30 giugno 2011

Content Curation, ovvero creare e trovare contenuti interessanti



Le attività di content curation si scontrano con una frase che è meno una condanna che una costatazione: “90% of everything is crap”, il 90% di ogni cosa è merda, ha detto Theodore Sturgeon. Valeva per i contenuti su supporto analogico e ancor di più per quelli digitali. Dunque come selezionare quel poco di contenuti effettivamente validi e originali che possiamo scovare dentro il web?

Inizio col proporre una tassonomia di strumenti di ricerca e selezione dei contenuti che vuole andare oltre il ricorso esclusivo agli algoritmi di ricerca.

1. 1. Dobbiamo innanzitutto distinguere tra content aggregator e news aggregator: nel primo caso ricade un sito come Liquida, nel secondo il classico Google news. La caratteristica di questi siti è quella di basarsi su meccanismi di individuazione e riorganizzazione delle fonti (blog, tweet e news in un caso, siti di informazione nell’altro) che si basano su tag (anche sul tagging e i metadata si potrebbe scrivere per anni ma non è il caso ora).

2. 2. Poi abbiamo i content producers, che possono essere tanto fonti giornalistiche, che istituti di ricerca che singoli blogger o produttori di contenuti digitali (audio, video, foto, mash ups).

3. 3. Poi abbiamo i resonators, ovvero utenti digitali (non solo blogger ma anche profili facebook, twitter, foursquare e così via) che hanno una forte connessione qualitativa e quantitativa con gli altri utenti del web sociale seguiti proprio perché capaci di proporre sempre o almeno spesso una selezione pregnante di contenuti

4. 4. Poi abbiamo i dashboard, strumenti come Netvibes che ci consentono di tenere sotto controllo una serie di tematiche grazie alla capacità di aggregare diversi contenuti con tag simili

5. 5. Quindi abbiamo le piattaforme che miscelano contenuti orginali, news aggregation e piattaforme per blogger quali Huffington Post e Il fatto quotidiano

6. 6. Infine abbiamo gli algoritmi come Google e Bing.

7. 7. Aggiungerei infine a questa panoplia anche altri strumenti di rilevazione instantanea come Google Alerts o Tweetdeck o whatthetrend.

Questi strumenti sono oggi il minimo armamentario di cui un utente digitale deve disporre se vuole operare sulla rete con un minimo di tempestività, efficacia e capacità di analisi.

La proposta di content curation che faccio non è tanto quella di basarsi solo su algoritmi o sull’intuito personale, né tanto meno di indirizzarsi subito verso sistemi molto evoluti di analisi semantica del web come quelli sviluppati da Onalytica, Sysomos , Radian6, ecc.

Si tratta invece di sviluppare un modello soggettivo che risieda nella capacità, nell’esperienza e nella cultura del fruitore umano, e questo per il semplice motivo che ogni contenuto porta in sé dei significati sempre in relazione alle capacità di produzione di senso (decodifica-codifica-distribuzione-connessione) di chi ne fruisce. Il web è relazionale non di per sé ma perché nell’intercambiabilità tra contenuto e relazioni esso ha creato la semiosi illimitata digitale che sta alla base di tutte le nuove forme di produzione di contenuti che assorbe il web quotidianamente. En passant ricordo che qualsiasi formula di controllo che vorrebbe imporre l’Autorità garante nelle comunicazioni sui contenuti digitale manifesti una chiara incapacità a capire quella che qui chiamo semiosi illimitata digitale.

È l’utente che “miscela” i diversi strumenti in funzione delle sue necessità di ricerca ed è evidente che in questo vi è una componente di artigianalità legata alla conoscenza del web, alla cultura personale, alle competenze tecniche nell’uso dei software.

Forse in tal senso possiamo anche intravedere i segni del declino dello stradominio tanto paventato di Google. Google non tramonterà, resterà molto probabilmente un brand importante anche nei decenni a venire ma sempre meno dominante, un po’ come è successo a Microsoft negli ultimi 10 anni, non perché gli sarà lanciato contro un progetto alternativo come il deludente Bing, ma perché l’espansione del web con la moltiplicazione di contenuti porterà ciascuno ad affiancare agli algoritmi di Mountain View un insieme di nuovi strumenti che meglio si adatteranno alle necessità e alle modalità di fruizione del web di ogni singolo utente digitale, o meglio gli forniranno quei fasci di contenuti da incrociare e analizzare per individuare i contenuti di cui è in cerca.

L’utente digitale è non solo un esploratore di contenuti ma a sua volta un produttore poiché la sua attività lo porta ae individuare nuovi nessi semantici tra i contenuti costantemente immessi nel web.

Già si è riproposta sul web la dicotomia che abbiamo avuto dai tempi dell’alfabetizzazione di massa: una persona colta non è chi sa leggere e scrivere e nemmeno una persona che passa tanto tempo a leggere (cosa poi?): una persona colta è chi sa cercare i contenuti, scovarne le fonti e rielaborarle. Allo stesso modo un utente digitale evoluto si costruirà i suoi percorsi per affrontareil gran mare dei contenuti digitali.

Come sempre dipende dai singoli, da tutti noi. Chi invece crede che la tecnologia o il web salvino da sole le persone o è un illuso o non ha capito nulla.

2 commenti:

Anonimo ha detto...

The small number of Medicaid recipients would qualify for farmacia on line.

The error has been rectified, '' said Dr.

my blog post :: online pharmacy

Anonimo ha detto...

On the other hand the Legend's button positions may provide better single-handed operation, and some of Pfizer's
most successful products, including impotence
pill Farmacia On Line, moved an appeals court panel has ruled.


Feel free to surf to my web page; http://expianetadidio.blogspot.com/2013/03/peg-una-societa-impreparata.html