Intelligenza Collettiva

  • Uploaded by: Alessio Mannucci
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Intelligenza Collettiva as PDF for free.

More details

  • Words: 3,132
  • Pages: 8
Il nuovissimo Center for Collective Intelligence del Massachusetts Institute of Technology di Boston si è posto un obiettivo ambizioso: capire «come le persone e i computer possono essere connessi in modo da agire collettivamente - in modo più intelligente di quanto qualunque individuo, gruppo o computer abbia mai fatto prima» (sarebbe ora, ndr). Nel progetto sono coinvolti: il Dipartimento di Computer Science e Intelligenza Artificiale, quello di Scienze Cognitive, il nuovo McGovern Institute for Brain Research e infine il celebre Medialab. Il Center for Collective Intelligence studierà le interazioni in rete che creano conoscenza con l'aiuto di strumenti tecnologici come database aperti, wiki, forum on line sulla linea di Google, Wikipedia, Linux ed eBay. Per il momento, è nato il “Climate Collaboratorium”, un forum on line sui cambiamenti climatici che userà: «una combinazione innovativa di interazioni mediate da internet, archivi di idee generate collettivamente, simulazioni e rappresentazioni che aiuteranno gruppi di ricercatori eterogenei e dispersi geograficamente a esplorare sistematicamente i problemi e risolverli. Gli utenti potranno condividere le loro idee e analizzare le diverse opzioni usando gli strumenti di simulazione, e poi prendere decisioni collettive». Un altro progetto si chiama «We are Smarter than Me», che significa «Noi siamo più intelligenti di Me». È un libro scritto collettivamente tramite un wiki, cioè un testo on line che ogni utente registrato può modificare liberamente. Sono già trecento i partecipanti che lavorano alla sua stesura, direttamente sulle pagine online: quest'anno è diventato un libro cartaceo che applica la teoria dell'intelligenza collettiva all'economia aziendale. Ma non è una novità: il modello Wikipedia è già stato applicato con successo ai libri da diversi gruppi. In Italia, per esempio, sono stati scritti collettivamente in forma wiki i libri del Gruppo Laser e quelli della «comunità di scriventi» Ippolita. Secondo il direttore del Center for Collective Intelligence Thomas Malone (professore di management e autore di “The Future of Work”), «nei prossimi anni molte persone faranno un sacco di esperimenti naturali con l'intelligenza collettiva - con o senza di noi». La novità è costituita dal tentativo del MIT di applicare questo modello alla scienza, coagulando forze intellettuali e risorse economiche con lo scopo di «aiutare a comprendere nuove forme di organizzazione che potrebbero diventare molto più efficienti, flessibili e innovative delle forme di organizzazione tradizionali». Ma è proprio quello che dice il movimento “open source”, e da parecchio tempo anche. Finora, il maggiore ostacolo allo sviluppo di una vera intelligenza collettiva è stata proprio la resistenza da parte della comunità scientifica e delle istituzioni, per niente disposti a rinunciare ai diritti di proprietà intellettuale e agli enormi profitti. A chi andrà attribuito il merito di una ricerca sviluppata in forma aperta da centinaia di persone sparse per il mondo e per la rete? Per Malone, «intelligenza collettiva è una forma che enfatizza eccitanti possibilità e che ha catturato l'entusiasmo di molte persone del MIT con le quali non avevamo mai lavorato prima». Il MIT, dunque, sembra voler abbracciare l'approccio “aperto” alla circolazione del sapere. Il

programma “OpenCourseWare”, ad esempio, consiste nella messa in rete dei suoi ricchi materiali didattici (i corsi sono disponibili gratuitamente, per permettere anche a chi non può pagare le altissime rette di studiare dispense e lezioni). Il metodo è stato adottato anche da altre università, come la UC Berkeley, che ha siglato un accordo con Google per mettere a disposizione di tutti, gratuitamente, le registrazioni video delle lezioni - dalla biologia sintetica al giornalismo, all'anatomia umana - che potranno essere condivisi liberamente e passati da un blog all'altro, da un link al successivo. (Pubblicato su Ecplanet 26-08-2007) MIT to Launch Center for Collective Intelligence 10 ottobre 2006 Intelligenza collettiva, al Mit 26 ottobre 2006 The Center for Collective Intelligence studies collaboration 08 gennaio 2007 Can Collective Intelligence Save the Planet? 05 maggio 2009 We Are Smarter Than Me - Wikipedia Future of Work ippolita.net We Are Smarter Than Me MIT OpenCourseWare OCW Open source- Wikipedia UC Berkeley on Google Video Intelligenza collettiva- - Wikipedia MIT Center for Collective Intelligence Global brain - Wikipedia I ricercatori del Technion, l'Istituto di Tecnologia israeliano, punta di diamante in fatto di scienza e tecnologia in Israele - fabbrica di premi Nobel che gode di fama mondiale per i risultati ottenuti negli studi di nanotecnologia, biotecnologia, utilizzo delle risorse idriche, ingegneria dei materiali, scienza aerospaziale e informatica, medicina - hanno deciso di sfruttare le conoscenze condivise di Wikipedia, progettando un sistema che permette di utilizzare l'enciclopedica mole di “wiki-informazioni” per fare connessioni logiche tra argomenti proprio come la mente umana. Questo nuovo metodo dovrebbe - secondo le intenzioni dei progettisti Evgeniy Gabrilovich e Shaul Markovitch del Department of Computer Science - aiutare le macchine a “ragionare” su compiti basilari come, per esempio, filtrare le e-mail dallo spam, effettuare ricerche Web più veloci ed affidabili e, in generale, elevare il livello dell'intelligenza elettronica collettiva molto al di sopra di quello attuale. I primi risultati sono stati presentati a Hyderabad, in India, durante il ventesimo Congresso Internazionale sull’Intelligenza Artificiale. Il progetto prevede la creazione di un

software che esegua una mappatura di singole parole e frammenti di testi più lunghi in un database “semantico” - un archivio di concetti essenziali - costruiti sulla base di Wikipedia - che, ricordiamo, conta ormai più di un milione di articoli nella sola lingua inglese costituendo una sorta di conoscenza basilare per comprendere il testo. La maggior parte dei motori di ricerca Web e filtri e-mail applicano già un principio simile, calcolando il numero di volte che una determinata parola compare in due testi a confronto; ma si tratta di un mero calcolo probabilistico, in quanto l'elaboratore non comprende il reale senso della frase, limitandosi ad una stima matematica. Con questa tecnologia, invece, un computer potrà inserire la singola parola in un contesto e verificarne l'attinenza. Questa metodologia dovrebbe aiutare anche a compiere scelte decisionali basandosi su termini ambigui, ad esempio decidendo se la parola “mouse” si riferisce al dispositivo per computer o alla forma animale. In futuro, i ricercatori contano di espandere il livello di conoscenza assimilabile anche ai collegamenti Web all’interno delle singole pagine di Wikipedia, aumentando esponenzialmente la base di conoscenza. Researchers Use Wikipedia To Make Computers Smarter ScienceDaily 08 gennaio 2007 Usare Wikipedia per costruire computer che pensano più in fretta 18 gennaio 2007 (Pubblicato su Ecplanet 07-02-2007) Il “web che pensa”, l'infrastruttura di rete che sta nascendo grazie ai progetti collaborativi e all'organizzazione sempre più raffinata di idee e contenuti chiamata “Web 2.0”, sta trovando un alleato prezioso nel crescente utilizzo dei “tag”: l'attività di “tagging” consiste nell'attribuzione di una o più parole chiave, dette appunto tag, che individuano l'argomento di cui si sta trattando a documenti, o più in generale files su internet, per catalogare le informazioni correlate agli utenti (in Italia, è stato il sito RadioRadicale.it uno dei primi ad etichettare i propri contenuti). Molti software per gestire blog supportano gli standard che si sono sviluppati attorno ai tags. Esistono anche i “geotags”, parole chiave che descrivono elementi geografici: il “geotagging”, oltre al semplice tagging che identifica elementi culturali, consente anche di identificare fisicamente nello spazio quanto pubblicato sul web. Su Flickr si usano “nuvole semantiche”, su YouTube i tag descrittivi dei video. Il fenomeno è in crescita, come attestato da una recente ricerca di mercato a curadi Pew Internet & American Life Project, secondo cui, nel corso di dicembre 2006, il 28% dei netizen ha fatto uso di tag, etichette e catalogazioni più o meno specifiche di contenuti on-line come foto, video, news o entry di blog. In un giorno di connessione tipico, il 7% degli utenti sostiene di dedicarsi a questa opera di classificazione. La ricerca, però, basata su interviste online e telefoniche, mette anche in evidenza come la pratica del tagging sia in realtà più complessa di quel che sembra: alcuni siti, ad esempio, permettono di catalogare i contenuti in maniera così semplice che gli utenti non sanno di stare partecipando alla costruzione del Web 2.0. Nel frattempo, continuano a crescere gli utenti di internet in tutto il mondo. Per quanto riguarda l'Italia, Nielsen//NetRatings ha comunicato i dati ufficiali relativi allo scenario Internet in Italia nel mese di marzo 2007: sono 18,8 milioni gli utenti che si sono connessi al Web almeno una volta nel mese da casa o dal luogo di lavoro

(+2% rispetto a febbraio 2007, +5% rispetto a marzo 2006), e che diventano 20,7 milioni se si prende in considerazione anche chi ha utilizzato applicazioni quali l'instant messenger o i programmi per scaricare musica e film. «Il mondo del Web 2.0, in particolare quello dei contenuti digitali audiovisivi, è il beneficiario privilegiato dell'alta velocità. L'ampliamento della banda consente una nuova esperienza di navigazione, più dinamica e appagante, capace di coniugare la fruizione televisiva dell’immagine e dei suoni con l'interattività della rete», ha dichiarato Ombretta Capodaglio, Marketing Manager Nielsen//NetRatings. A conferma dei successi dei siti del Web 2.0 come YouTube, i canali video di Libero, Alice, Google e le Web TV (come le sezioni TV e Multimedia di Repubblica e i Mediacenter di Corriere e Gazzetta), ma anche dei motori di ricerca “umani” come Wikipedia (6,6 milioni di utenti, più che raddoppiati nell'ultimo anno) e Yahoo! Answers (che in 10 mesi ha raggiunto un'utenza di 2,2 milioni) e dei siti dove costruirsi una vita virtuale come Second Life (ancora poco visitato in Italia, ma che solo nell'ultimo mese ha visto triplicare la propria utenza). Technorati segnala la classifica dei migliori motori di ricerca Web 2.0, che, in un modo o nell'altro, offrono sistemi alternativi dei presentazione dei dati, stilata recentemente dall'OEDB (Online Education Database): “FlickrStorm”, ad esempio, consente, oltre la semplice ricerca per parole-chiave, anche una ricerca indirizzata verso aree specifiche, che può essere raffinata mediante ulteriori termini correlati; “Keotag”, a partire da Del.icio.us, scandaglia i social bookmarks e può fungere anche da generatore di tag e link; “Whonu” è un eccellente aggregatore di tag che permette un'infinità di combinazioni per ricerche personalizzate e differenziate per categoria; “Mnemomap” punta invece sulla visualizzazzione grafica dei risultati, dopo aver setacciato i principali “tagging site”; “Ujiko”, con una interfaccia da videogioco, presenta i risultati circolarmente, mentre “Tagnautica” opta per sfere ondulanti. Tutti esperimenti da cui potrebbe nascere l'effettivo Web 2.0 del prossimo futuro. Un diverso modo di organizzare e presentare l'enorme quantità di informazioni disponibili su internet è d'altronde quanto mai necessario. Gli esperti sono preoccupati dall' “information overload” e dalla relativa perdita di attenzione che ne può derivare, così come dall'aumento di stress che può provocare. Qualcuno si è spinto perfino a dire che la quantità di dati è tale che l'adattamento ad essa impedirà, in un futuro prossimo, di dedicare un coinvolgimento reale nell'utilizzo dei nuovi media. Tim O'Reilly, l'editore e intellettuale della rivoluzione digitale, colui che ha inventato la definizione di Web 2.0 (al Web 2.0 Summit del 2005), qualsiasi cosa voglia dire oggi, ha presentato al Moscone Center di San Francisco il “Web 2.0 Expo”, una conferenza a cui hanno partecipato diecimila persone, decine di workshop e saloni, e una serie di speaker di tutto rilievo, da Jeffrey Bezos di Amazon a Eric Schmidt di Google e Jeff Weiner di Yahoo!. «L'informatica persistente, le connessioni globali, l'integrazione tra rete e business non sono affatto finite», ha detto

O'Reilly, «non va persa la fiducia nell'integrazione costante e proficua tra tecnologia, imprenditoria e individui come strumento di grande potenzialità per l'intero pianeta a ogni livello. Si tratta di costruire un network globale in grado di sfruttare a pieno l'intelligenza collettiva fornita da tutti coloro che sono connessi, come facenti parte di una stessa grande macchina». È ormai noto che il Web 2.0 rappresenta l'insieme delle tecnologie e metodologie che caratterizzano la seconda generazione del World Wide Web basate fondamentalmente su due paradigmi: l’ “user-generated content”, l'inserimento di contenuti direttamente da parte degli utenti finali (blog, wiki, forum ecc.), e l'immagazzinamento delle informazioni non più sul client, ma sul server, con accesso dell'utente tramite Web browser. TopQuadrant e Franz - aziende di punta nella programmazione di tool di sviluppo in questo settore - hanno comunicato che intendono unire le forze e i loro prodotti – “TopBraid Composer” e “AllegroGraph 64-bit” - in un unico ambiente di sviluppo semantico per il Web. La “Semantic Technology”, che aiuta i computer a meglio interpretare i dati, è particolarmente utile quando si tratta di organizzare ed utilizzare grandi quantità di informazioni, oltre che per tutte quelle applicazioni che si occupano di ricerca di informazioni, proprio perché permette agli elaboratori di effettuare relazioni tra gli elementi a disposizione. Una ricerca per keyword restituisce infatti solo i documenti che contengono quella parola specifica senza distinzione di contenuto, mentre una ricerca semantica restituisce solo informazioni relative al particolare significato della parola. Il Semantic Web però ancora non esiste, perché ancora non ci sono adeguati tool di sviluppo che permettano di realizzarlo. “Noi dobbiamo costruire questi applicativi per far sì che il Semantic Web possa decollare” ha detto Ralph Hodgson, co-fondatore nonché executive partner di TopQuadrant, aggiungendo che attualmente le applicazioni semantiche non sono particolarmente efficienti in fatto di scalabilità, utilizzando database e ambienti di sviluppo di tipo convenzionale. Esistono svariate specifiche semantiche per il Web, protocolli e linguaggi, inclusi RDF (Resource Description Framework), il Web Ontology Language, e SPARQL Query Language for RDF, oltre a tecnologie collegate come XML, che danno agli sviluppatori la possibilità di organizzare i dati in framework di tipo semantico. Quello che l'unione TopQuadrant-Franz aggiungerà a questo panorama è un ambiente di sviluppo grafico con un database integrato basato su Eclipse, appositamente ideato per gestire grandi quantità di dati RDF. Attualmente, molte società, come la farmaceutica GlaxoSmithKline e la Kodak, stanno testando AllegroGraph 64-bit per realizzare infrastrutture che rispondano meglio alle esigenze di marketing e produttività. Jeff Bezos ha dettagliato la sua nuova carta: la creazione di mega data-center per offrire in affitto spazi, infrastrutture, servizi web, puntando più in là a creare “magazzini globali” anche per merci fisiche. Un outsourcing tagliato su misura per utenti, start-up e aziende di ogni grandezza e Paese, con tariffe da pochi spiccioli, pagando “on-the-go”, per “bevanda” consumata. Anche se per ora, ha ammesso, «siamo nettamente in rosso con i conti». Kevin Lynch, di Adobe, ha parlato della nuova piattaforma “Apollo”, mirata a integrare i benefici delle applicazioni Web con le tipiche capacità dell'ambiente desktop, onde arrivare a far girare sul proprio PC in maniera autonoma i programmi che consentono poi l'interazione con i maggiori siti online. eBay sta già testando un applicativo basato su Apollo grazie al quale gli utenti possono operare in modo fluido, off-line, sui suoi siti di aste online. Bill Tancer di Hitwise e il boss di Technorati, Dave Sifry, hanno poi snocciolato i dati relativi allo “State of the Web 2.0”: mentre i più giovani consultano spesso Wikipedia, a inserire e rivederne le voci sono persone più adulte; rispetto all’upload dei video online, i meno rappresentati sono quelli compresi tra 18 e 24 anni; in discesa la percentuale di blog attivi, dal 36% di maggio 2006 al 21% di marzo 2007; aumentano i blog in lingue diverse dall'inglese (tuttora in vetta con il 43%), con il giapponese al 37%, il cinese all'8% e lingue inaspettate come il farsi che raggiunge l'1%.

All'Expo si sono anche potute mettere in luce esperienze meno note, come “Esnips”, una rete sociale che vanta oltre 2 milioni di utenti registrati e 10 milioni di visite al mese in poco più di un anno di attività. Alle spalle c'è una piccola azienda di Tel Aviv che ora, guarda caso, pensa di trasferirsi in Silicon Valley. Ha destato poi un certo scalpore l'incontro tra alcuni rappresentanti di Microsoft, Google, Mozilla e Opera per discutere del futuro “browser Web” mediante applicazioni Web 2.0. Oltre ai problemi legati alla sicurezza, l'opinione comune degli sviluppatori intervenuti pare essere quella secondo cui il vero sforzo vada fatto nel garantire la possibilità di utilizzare le stesse applicazioni su differenti browser. Da parte sua, Mozilla Foundation si è già lanciata in grande stile nel Web 2.0. con il nuovo add-on “The Coop”, un motore multisharing che permette la condivisione in tempo reale dei contenuti tra utenti tramite il browser. Rilasciato per ora a livello di prototipo nella versione 0.1, The Coop fa proprie le precedenti esperienze dei circuiti Zweitgeist e Dai.sy, e le sperimentazioni XMPP di Hyperstruct, per implementare direttamente su una barra laterale del browser gli elementi di social networking. In particolare, sarà permesso condividere foto, video, link, profili, tags, blog, rss, senza aver bisogno di webserver che facciano da tramite. Una sorta di peer-to-peer via browser che si preannuncia vincente già nell'idea, e su cui decine di sviluppatori si stanno gettando con anima e corpo. Eric Schmidt, di Google, invece, ha annunciato l'acquisto di Tonic System, società che da tempo propone una soluzione basata su Java per lo sviluppo di una nuova applicazione web che affiancherà le attuali soluzioni Google Docs & Spreadsheets. Il nuovo elemento permetterà di gestire in modo pratico e versatile le presentazioni multimediali e offrirà funzionalità simili a quanto garantito da Microsoft PowerPoint. Il boss di Google ha anche aggiunto che le applicazioni web based offerte dalla propria azienda non intendono competere con la suite di Microsoft. Ma accanto agli entusiasti ci sono anche i “Web 2.0scettici”: HitWise, la nota società di Consulenza e Marketing Internet fondata da Adrian Giles ed Andrew Barlows, ha lanciato l'allarme sull'attività degli utenti online, ancora troppo passivi. Sono pochissimi infatti gli utenti che partecipano alla costruzione del Web producendo contenuti: solo l'1% dei soggetti contribuisce con contenuti propri, il 10% svolge attività di commento, mentre la stragrande maggioranza, l'89%, si limita a godere del risultato (fonte: “Finanza e Mercati”, sabato 21 aprile). Per HitWise, dunque, gli utenti Web 2.0 per ora sono più che altro fruitori. Ciò che ancora manca è proprio l'input che O'Reilly indicava come condizione fondamentale per mettere la persona al centro della Rete e creare un social networking globale: l'immissione dei contenuti da condividere. Infatti, mentre i semplici fruitori di contenuti Web 2.0 crescono a ritmi del 668% annuo, sono ancora pochissimi gli utenti che uploadano materiale. In YouTube, ad esempio, solo lo 0,16% immette filmati; in Flickr, addirittura il 4 per mille. Ne esce male anche il fenomeno Wikipedia: a fronte di una consultazione divenuta uno standard mondiale per il reperimento enciclopedico, solo il 4,6% degli utenti immettono o modificano dati.

(Pubblicato su Ecplanet 11-05-2007) Esnips Flickr Hitwise The Coop Technorati Web 2.0 Expo 2007 TopBraid Composer Nielsen-NetRatings AllegroGraph 64-bit Adobe Labs - Apollo Online Education Database Web semantico - Wikipedia Pew Internet & American Life Project Top 25 Web 2.0 Search Engines | OEDb Resource Description Framework - Wikipedia LINKS Details of Collective intelligence 2 INTELLIGENZA COLLETTIVA 4 INTELLIGENZA COLLETTIVA 5 INFORMATION OVERLOAD DARKNET TEORIA DELL’INFO-CAOS GIORNALISMO OPENSOURCE 2.0 INFOWAR 2.0

CYBERWAR INTERNET GOVERNANCE WEB ESTETICA CYBERSPACE IS THE PLACE BUON COMPLEANNO INTERNET

Related Documents


More Documents from "Neuroscienze.net"

Creazione Senza Dio
April 2020 26
Gene Targeting
May 2020 28
The Jesus Myth
May 2020 22
Neuroufologia
May 2020 17
Video Dipendenza
April 2020 21
Regolazione Genetica
April 2020 20