MOTORI DI CREAZIONE
Parte Prima: I FONDAMENTI DELLA PREVISIONE Capitolo 1: Motori di Costruzione Capitolo 2: I Principi del Cambiamento Capitolo 3: Prevedere e Progettare ---------Capitolo 1: MOTORI DI COSTRUZIONE(1) Due Stili di Tecnologia La Tecnologia Molecolare Oggi Macchine Proteiche Esistenti Progettare con le Proteine Nanotecnologia di Seconda Generazione Assemblatori Universali Riepilogo delle Conclusioni Nanocomputer Disassemblatori Il Mondo Ricreato L'ingegnerizzazione delle proteine […] rappresenta (2) il primo importante passo verso una abilità più generale per l'ingegneria molecolare che ci permetterebbe di strutturare la materia atomo per atomo. KEVIN ULMER Direttore delle Ricerche Esplorative - Genex Corporation Carbone e diamanti, sabbia e circuiti integrati, tessuti sani e cancerosi: nel corso di tutta la storia, le variazioni nelle disposizioni di atomi hanno fatto la differenza fra scadente e pregiato, fra malato e sano. Disposti in una certa maniera, gli atomi formano suolo, aria, acqua; disposti in un'altra maniera diventano fragole mature. Disposti in un modo sono case ed aria fresca; in un altro, diventano cenere e fumo. La nostra abilità nel creare disposizioni di atomi è alle fondamenta della tecnologia. Siamo andati lontani nelle nostre capacità di disporre atomi, dallo scheggiare la selce per le punte di frecce al lavorare a macchina alluminio per navi spaziali. Siamo fieri della nostra tecnologia, dei nostri farmaci salva-vita e dei nostri computer da tavolo. Tuttavia le nostre navette spaziali sono ancora rozze, i nostri computer ancora stupidi, e le molecole dei nostri tessuti degenerano ancora nel disordine, danneggiando prima la nostra salute e poi la vita stessa. Per tutti i nostri progressi nella disposizione di atomi utilizziamo ancora metodi primitivi. Con la nostra tecnologia attuale siamo tuttora costretti a maneggiare gli atomi in gruppi indisciplinati. Ma le leggi della natura lasciano immenso spazio per il progresso, e le pressioni della competizione mondiale continuano a spingerci in avanti. Nel bene o nel male, il più grande "passo avanti" tecnologico della storia deve ancora arrivare.
Due Stili di Tecnologia La nostra tecnologia moderna è fondata su una tradizione antica. Trentamila anni fa, scheggiare la selce era l'alta tecnologia dell'epoca. I nostri antenati, per costruire le loro teste d'ascia, afferravano pietre contenenti milioni di miliardi di miliardi di atomi e ne rimuovevano schegge contenenti migliaia di miliardi di miliardi di atomi; sapevano svolgere un lavoro raffinato con abilità che oggi sono difficili da imitare. Essi disegnarono anche degli schizzi, spruzzando tinture sulle pareti di caverne della Francia ed usando le loro mani come stampini. In seguito fabbricarono vasi cuocendo argilla e poi bronzo cuocendo le rocce. Modellarono il bronzo martellandolo. Produssero ferro e poi acciaio, e scaldandolo, battendolo e rimuovendone le schegge, modellarono anch'esso. Oggi possiamo cuocere ceramiche purissime e acciai più forti, ma ancora li modelliamo martellandoli, scheggiandoli, ecc…. Cuociamo del silicio puro, lo tagliamo in fette e tracciamo degli schemi sulla sua superficie utilizzando minuscoli stampi e spruzzi di luce. Chiamiamo questi prodotti "chips" e li consideriamo squisitamente piccoli, almeno al confronto delle teste d'ascia. La nostra tecnologia microelettronica ha manipolato la materia fino a comprimere, su pochi chip di silicio e all'interno di computer di dimensioni tascabili, macchine altrettanto potenti di quei computer dei primi anni cinquanta che occupavano una intera stanza. Gli ingegneri stanno oramai realizzando dispositivi persino più piccoli, fissando gruppi di atomi ad una superficie cristallina per formare cablaggi e componenti di spessore dieci volte più sottili di quelli di un fine capello. Questi microcircuiti potranno anche essere piccoli a confronto con la selce scheggiata, ma ogni transistor consiste ancora di migliaia di miliardi di atomi ed i cosiddetti "microcomputer" sono ancora visibili ad occhio nudo. Giudicati secondo gli standard di una tecnologia più moderna e potente, ci sembreranno giganteschi. L'antico stile della tecnologia che ci ha condotto dalla selce scheggiata ai chip di silicio manipola atomi e molecole in massa; chiamiamola tecnologia di mole. La nuova tecnologia manipolerà atomi e molecole individualmente, con controllo e precisione posizionali; chiamiamola tecnologia molecolare. Essa cambierà il nostro intero mondo in più modi di quanti ne possiamo immaginare. I microcircuiti sono formati da parti costituenti che sono misurabili in micrometri ossia in milionesimi di metro; ma le molecole si misurano in nanometri (mille volte più piccole). Per descrivere il nuovo stile di tecnologia possiamo usare i termini nanotecnologia e tecnologia molecolare in modo intercambiabile. Gli ingegneri della nuova tecnologia costruiranno nanocircuiti, ma anche nanomacchine. La Tecnologia Molecolare Oggi Una definizione da dizionario (3) per "macchina" è la seguente: "qualsiasi sistema, di solito composto da corpi rigidi, le cui parti siano conformate e connesse per alterare, trasmettere ed applicare direttamente delle forze in modo predeterminato per svolgere uno specifico compito, come l'esecuzione di un lavoro utile". Le macchine molecolari si adattano a questa definizione perfettamente. Per immaginare queste macchine anzitutto si devono immaginare le molecole. Possiamo raffigurare gli atomi come delle palline e le molecole come dei gruppetti di tali palline; ossia possiamo immaginare una molecola come un gruppo di palline in ognuna delle quali un bambino abbia infilato dei gancetti metallici per poterle agganciare assieme. Di fatto, talvolta, i chimici visualizzano le molecole costruendone modelli con palline di plastica (alcune delle quali sono legate ad altre, in diverse direzioni, come fossero perni di un insieme di pezzi del "Mecano"). Gli atomi sono sferici come lo sono le palline e nonostante i legami molecolari non siano gancetti, la
nostra immagine cattura quantomeno il concetto essenziale che i legami possono rompersi e riformarsi. Se un atomo fosse della dimensione di una piccola biglia, una molecola piuttosto complessa dovrebbe avere la dimensione del vostro pugno. E ciò ci dà una utile immagine mentale, ma gli atomi sono in realtà circa diecimila volte più piccoli di un batterio e i batteri a loro volta sono circa diecimila volte più piccoli di una zanzara. (Un nucleo atomico, comunque, è circa centomila volte più piccolo della dimensione dell'atomo stesso; la differenza fra un atomo e il suo nucleo è come il divario che esiste fra un fuoco e una reazione nucleare.) Le cose attorno a noi si comportano nel modo in cui lo fanno, a causa del modo in cui si comportano le molecole che le costituiscono. L'aria non possiede una sua forma così come non possiede un suo volume, poiché che le sue molecole si muovono liberamente colpendosi e rimbalzando in tutto lo spazio aperto. Le molecole d'acqua aderiscono fra loro mentre si muovono, sicché l'acqua mantiene un volume costante mentre cambia forma. Il rame mantiene la sua forma perché i suoi atomi sono connessi assieme secondo degli schemi regolari; possiamo piegare e martellare il rame perché i suoi atomi possono scivolare l'uno sull'altro ma rimangono comunque legati assieme. Il vetro va in frantumi quando lo martelliamo perché i suoi atomi si separano prima di scivolare l'uno sull'altro. La gomma è costituita da molecole organizzate in reticoli attorcigliati simili ad un groviglio di molle. Quando tendiamo e rilasciamo la gomma, i suoi reticoli di molecole si stendono, per poi tornare a disporsi a spirale. Questi schemi molecolari semplici caratterizzano le sostanze passive. Schemi più complessi caratterizzano le nanomacchine "attive" delle cellule viventi. I biochimici lavorano già con queste macchine, che sono principalmente composte da proteine ossia dal principale materiale di ingegneria delle cellule viventi. Le macchine molecolari sono composte da relativamente pochi atomi e quindi le loro superfici si presentano grumose, come fossero le superfici di oggetti ottenuti incollando assieme una manciata di piccole biglie. Inoltre, molte paia di atomi sono accoppiate da legami che possono piegarsi o ruotare, sicché le macchine proteiche sono insolitamente flessibili. Ma come tutte le macchine, esse contengono parti di forme e dimensioni differenti, parti che svolgono un lavoro utile. Di fatto, tutte le macchine utilizzano dei raggruppamenti di atomi come loro parti costituenti. Le macchine proteiche differiscono semplicemente per il fatto che usano raggruppamenti molto piccoli. I biochimici sognano di progettare e costruire tali dispositivi, ma ci sono delle difficoltà da superare. Gli ingegneri usano dei raggi di luce per tracciare schemi sopra schegge di silicio, ma i chimici devono accontentarsi di costruire in modo molto più indiretto. Quando combinano molecole in varie sequenze, essi possono mantenere soltanto un controllo limitato sul modo in cui le molecole si legano fra loro. Quando i biochimici necessitano di macchine molecolari più complesse devono tuttora prenderle in prestito dalle cellule viventi. Ma se i biochimici potessero realizzare macchine molecolari avanzate, le potrebbero infine utilizzare per costruire nanocircuiti e nanomacchine con la stessa facilità e in modo altrettanto diretto di quanto possano attualmente fare gli ingegneri nella costruzione di microcircuiti o lavatrici. A quel punto, il progresso sarà repentino e drammatico. Gli ingegneri genetici hanno già indicato la strada da percorrere. Di solito, quando i chimici costruiscono delle catene molecolari - ossia i "polimeri" (4) - depositano, senza alcun particolare ordine, delle molecole in una vaschetta piena di liquido, all'interno del quale esse possono rimbalzare e agganciarsi a caso. Le catene che ne risultano hanno lunghezze variabili, e le molecole che le compongono sono come annodate assieme, in nessun ordine particolare. Ma nelle moderne macchine di sintesi dei geni, gli ingegneri genetici costruiscono dei polimeri più ordinati, ossia delle specifiche catene molecolari di DNA, unendo le loro molecole componenti in un particolare ordine. Tali molecole sono i nucleotidi del DNA (le lettere dell'alfabeto genetico) e
gli ingegneri genetici non li depositano tutti assieme in un unico mucchio indistinto. Piuttosto, dirigono la macchina affinché aggiunga nucleotidi distinti in una particolare sequenza, in modo da formare un particolare messaggio. Prima legano un tipo di nucleotide al termine della catena, poi sciacquano via il materiale residuo, ed infine aggiungono dei composti chimici per preparare l'estremo della catena a legarsi al successivo nucleotide. Sviluppano le catene mano a mano che vi legano i nucleotidi, uno alla volta ed in una sequenza programmata. Agganciano il primissimo nucleotide di ogni catena ad una superficie solida in modo da preservare la catena stessa durante i risciacqui con i bagni chimici. In questa maniera ottengono, in vitro, una macchina grande e rozza, un assemblato di specifiche strutture molecolari con parti costituenti di dimensioni cento milioni di volte più piccole della macchina stessa. Ma questo assemblaggio cieco, accidentalmente omette qualche nucleotide da qualche catena. La probabilità di errori cresce al crescere della lunghezza delle catene. Come operai che scartano le parti difettose prima di assemblare un'automobile, gli ingegneri genetici riducono gli errori scartando le catene sbagliate. Successivamente, al fine di congiungere queste brevi catene in geni funzionanti (lunghi tipicamente migliaia di nucleotidi), passano le catene stesse alle macchine molecolari che troviamo nei batteri. Queste macchine proteiche, chiamate enzimi di restrizione, "leggono" certe sequenze di DNA interpretandole come "taglia qui". Tali enzimi possono leggere al tocco gli schemi genetici del DNA, e lo fanno aderendo a tali schemi e tagliando la catena grazie alla modifica della disposizione di pochi suoi atomi. Altri enzimi accoppiano dei pezzi, essendo infatti capaci di interpretare come "incolla qui" le parti che ben si adattano a congiungersi assieme, e svolgono questo compito "leggendo" le catene per mezzo di una analoga adesione selettiva ad esse, per poi congiungere le catene a cui hanno aderito grazie alla modifica della disposizione di pochi atomi. Utilizzando macchine genetiche per "scrivere" ed enzimi di restrizione per eseguire operazioni di "taglia ed incolla", gli ingegneri genetici possono scrivere ed editare, in un DNA, qualsiasi messaggio desiderato. Ma di per se il DNA è una molecola piuttosto insignificante. Non è né forte come il Kevlar, né colorata come una tintura, né attiva come un enzima, pur possedendo certe proprietà per il cui utilizzo l'industria è pronta a spendere milioni di dollari: ossia "la capacità di dirigere alcune particolari macchine molecolari denominate ribosomi". Nelle cellule, le macchine molecolari anzitutto trascrivono il DNA copiando le sue informazioni per produrne una sorta di registrazione scritta su un "nastro" di RNA. Quindi, in maniera molto simile al funzionamento delle vecchie macchine utensili di lavorazione dei metalli che venivano controllate numericamente dalla informazione immagazzinata in un nastro, i ribosomi costruiscono proteine basandosi sulle istruzioni immagazzinate nei filamenti di RNA. E le proteine sono direttamente utilizzabili. Le proteine, come pure il DNA, assomigliano a nodosi cordoni di perline. Ma a differenza del DNA, le molecole proteiche si ripiegano nello spazio per dar forma a piccoli oggetti in grado di svolgere funzioni specifiche. Alcune proteine sono enzimi, macchine che costruiscono e spezzettano molecole (e copiano il DNA, lo trascrivono, e costruiscono altri tipi di proteine del ciclo vitale). Altre proteine sono ormoni, che si legano ad ulteriori proteine per inviare alle cellule dei segnali in grado di modificare il comportamento delle cellule stesse. Gli ingegneri genetici possono economicamente fabbricare questi oggetti, in quanto possono dirigere l'economico ed efficiente macchinario molecolare di organismi viventi affinché svolga il lavoro di fabbricazione all'interno degli stessi organismi. Mentre gli ingegneri che fanno funzionare un impianto chimico devono lavorare con vasche di reagenti chimici (che spesso dispongono gli atomi in modo sbagliato e generano anche sottoprodotti nocivi), gli ingegneri che lavorano con i batteri possono far assorbire loro dei composti chimici, ed ottenere una accurata re-disposizione degli atomi dei composti, oltre a poter scegliere se immagazzinare il prodotto o farlo rilasciare nel fluido che circonda i batteri.
Gli ingegneri genetici hanno oramai programmato batteri per costruire proteine che vanno dagli ormoni della crescita umana alla rennina (un enzima usato nella produzione di formaggio). La compagnia farmaceutica Eli Lilly di Indianapolis sta già commercializzando la Humulin, una insulina umana ottenuta tramite batteri. Macchine Proteiche Esistenti Queste proteine-ormoni e proteine-enzimi aderiscono selettivamente ad altre molecole. Un enzima cambia la struttura della sua molecola-bersaglio e successivamente si allontana da essa; un ormone influisce sul comportamento del suo bersaglio solo per il periodo di tempo durante il quale vi aderisce. Enzimi ed ormoni possono descriversi in termini meccanici, ma è più frequente che il loro comportamento sia descritto in termini chimici. Tuttavia esistono altre proteine che assolvono delle pure funzionalità meccaniche di base(5). Alcune spingono e tirano, altre agiscono come corde o sostegni e certe parti di alcune molecole costituiscono eccellenti cuscinetti meccanici. Il macchinario molecolare dei muscoli, per esempio, è composto da schiere ordinate di proteine che si allungano, afferrano una corda (anche questa fatta di proteine), la tirano, poi lasciano la presa, ed infine tornano ad allungarsi per una nuova presa; ogni volta che vi muovete usate queste macchine. Le amebe e le cellule umane si muovono e cambiano forma utilizzando fibre e bastoncini che agiscono come muscoli ed ossa molecolari. I batteri sono sospinti attraverso l'acqua da un motore reversibile a velocità variabile, che agisce per mezzo della rotazione di una elica propulsiva dalla forma a spirale. Se un hobbista volesse costruire minuscole automobili attorno a tali motori, ne potrebbe far stare miliardi di miliardi in una tasca e per automobili siffatte si potrebbero costruire, all'interno dei vostri più fini capillari, autostrade da 150 corsie. Dispositivi molecolari elementari si combinano assieme per formare sistemi che assomigliano a macchine industriali. Negli anni '50 gli ingegneri svilupparono macchine utensili che tagliavano il metallo sotto il controllo di un nastro di carta perforata. Un secolo e mezzo prima, Joseph-Marie Jacquard aveva costruito un telaio che intesseva complessi schemi sotto il controllo di una successione di schede perforate. Più di oltre tre miliardi di anni prima di Jacquard, le cellule avevano sviluppato il macchinario dei ribosomi. I ribosomi sono la prova che nanomacchine fatte di proteine ed RNA possono essere programmate per costruire molecole complesse. Consideriamo allora i virus. Uno di essi, il "batteriofago T4", agisce come una siringa caricata a molla ed assomiglia a un oggetto spuntato fuori da un catalogo di componenti industriali. Questo virus può aderire ad un batterio, incidervi un foro ed iniettare dentro il batterio del DNA virale (si, anche i batteri soffrono di infezioni). Come un conquistatore che prenda possesso di uno stabilimento industriale per costruire più carri armati, il DNA iniettato ordina al macchinario cellulare del batterio di costruire altro DNA virale ed altre siringhe. Come tutti gli organismi, questi virus esistono perché sono piuttosto stabili nonché capaci di far si che vengano realizzate copie di se stessi. Che siano o meno dentro una cellula, le nanomacchine obbediscono alle leggi universali della natura. Comuni legami chimici tengono assieme i loro atomi costituenti e comuni reazioni chimiche (pilotate da altre macchine) assemblano questi atomi. Le molecole proteiche possono combinarsi per dar forma a macchine composite persino in assenza di un particolare aiuto, guidate solo dall'agitazione termica e dalle interazioni chimiche. Mescolando in una provetta delle proteine virali (e il DNA per il quale esse lavorano), i biologi molecolari hanno assemblato virus T4 funzionanti. Questa capacità è sorprendente: immaginate di immettere le parti di una automobile in una grossa scatola, scuotere quest'ultima e, quando ci guardate di nuovo dentro, trovarci un'automobile
assemblata! Eppure il virus T4 è solo una delle molte strutture esistenti capaci di auto-assemblaggio (6). Nei macchinari dei ribosomi i biologi molecolari hanno individuato ed isolato oltre cinquanta molecole differenti, fra proteine ed RNA, e dopo averle messe tutte assieme in delle provette ne hanno ottenuto ancora una volta dei ribosomi funzionanti. Per capire come tutto ciò possa accadere, immaginate differenti catene proteiche del T4, sospese in acqua e libere di fluttuare. Ogni tipo di catena si ripiega nello spazio, a formare un piccolo agglomerato dotato di distintive cavità e protuberanze e ricoperto da schemi distintivi di oleosità ed umidità nonché di altrettanto distintivi schemi di distribuzione di carica elettrica. Immaginate queste catene vagare e roteare su se stesse, incalzate dalla spinta della vibrazione termica applicata dalle molecole d'acqua circostanti. Di tanto in tanto due catene si scontrano fra loro, rimbalzando via l'una dall'altra. Talvolta, piuttosto, due di esse si scontrano e si scoprono adatte l'una all'altra, poiché le protuberanze dell'una si adattano alle cavità dell'altra; poiché le due catene subiscono nel contempo una pressione di spinta l'una contro l'altra, le corrispondenze permettono loro di aderire stabilmente. In questo modo delle proteine si aggiungono ad altre proteine per formare sezioni del virus e le sezioni si assemblano assieme fino a formare l'intero virus. Gli ingegneri delle proteine non necessitano di nano-braccia o nano-mani per assemblare complesse nanomacchine. Tuttavia, l'esistenza di minuscoli manipolatori sarà di indubbia utilità e quindi c'è da attendersi che questi verranno costruiti. Proprio come, a partire da ordinari motori, ordinari cuscinetti ed ordinarie parti mobili, gli odierni ingegneri costruiscono macchine complesse quali suonatori meccanici di pianoforte o bracci robotici, così i biochimici di domani saranno in grado di utilizzare le molecole proteiche come motori, cuscinetti e parti mobili, per costruire bracci robotici in grado di manipolare molecole individuali. Progettare con le Proteine(7) Quanto lontano può essere spinta questa abilità? Sono stati intrapresi alcuni passi, ma molto è il lavoro che resta da fare. I biochimici hanno già steso mappe dettagliate delle strutture di molte proteine. Disponendo dell'aiuto fornito loro da macchine genetiche in grado di scrivere dei nastri di DNA essi potranno, ordinare alle cellule di costruire qualsiasi proteina riescano a progettare(8). Ma tuttora manca loro la conoscenza di come progettare catene che si ripieghino nello spazio per dar luogo a proteine con la giusta forma e funzione. Le forze che piegano le proteine sono deboli e nel contempo il numero di plausibili modi in cui una proteina potrebbe ripiegarsi è astronomico, cosicché non è facile progettare da zero una grossa proteina. Le forze che connettono assieme le proteine fino a formare macchine complesse sono le stesse che determinano anzitutto lo specifico ripiegamento spaziale delle catene proteiche. Le differenti forme e tipi di connessione di aminoacidi (le nodose perline molecolari che formano le catene proteiche) fanno in modo che ogni catena proteica si ripieghi spazialmente in una maniera specifica, per dar luogo ad un oggetto con una particolare forma. I biochimici hanno imparato qualche regola che suggerisce come una catena di aminoacidi potrebbe piegarsi ma le regole non sono molto rigorose. Provare a prevedere come una catena si ripiegherà è come provare a lavorare con le tessere di un "puzzle", ma un puzzle senza alcun disegno stampato sopra i suoi pezzi che possa indicarci se l'accostamento di due tessere risulti corretto, e con pezzi che sembrano accostarsi fra loro altrettanto bene (o altrettanto male) in molte differenti maniere, tutte sbagliate eccetto una. Le false partenze possono far sprecare tempi equivalenti a quelli di molte vite, ed una risposta corretta potrebbe anche non essere riconosciuta. I biochimici, pur utilizzando i migliori programmi per computer attualmente disponibili, ancora non riescono a prevedere in che modo si ripiegherà una lunga catena proteica naturale ed alcuni di loro disperano di riuscire a progettare molecole proteiche entro tempi brevi.
Tuttavia la maggior parte dei biochimici lavora come farebbe uno scienziato e non come farebbe un ingegnere. Lavorano cercando di prevedere come si ripiegheranno le proteine naturali e non tentando di progettare proteine che si ripieghino in maniera prevedibile. Questi obiettivi potrebbero sembrare simili(9), ma differiscono enormemente: il primo è una sfida scientifica, il secondo una sfida di ingegneria. Perché mai le proteine naturali dovrebbero piegarsi in modi che gli scienziati trovino facili da prevedere? Tutto quello che la natura richiede, infatti, è che esse si pieghino correttamente e non che si pieghino in modi che siano ovvi per la gente. Le proteine potrebbero venir progettate a priori con lo scopo di rendere più prevedibile il loro ripiegamento. Carl Pabo, scrivendo sulla rivista Nature(10), ha suggerito una strategia di progetto basata su questa intuizione ed alcuni ingegneri biochimici hanno progettato e costruito brevi catene composte da poche dozzine di pezzi(11) che si ripiegano e si assestano sulle superfici di altre molecole nel modo pianificato. Hanno progettato da zero una proteina con proprietà come quelle della melittina(12), una tossina presente nel veleno d'ape. Hanno modificato enzimi esistenti, alterando il loro comportamento in modi prevedibili(13). La nostra comprensione delle proteine cresce giornalmente. Nel 1959, concordando col biologo Garrett Hardin(14), alcuni genetisti dichiararono l'impossibilità dell'ingegneria genetica; oggi invece l'ingegneria genetica è un'industria. La biochimica e i sistemi CAD (sistemi di progettazione con l'ausilio del computer) stanno esplosivamente generando nuovi campi e come Frederick Blattner ha scritto nella rivista Science(15), "i programmi di computer per gli scacchi hanno già raggiunto un livello poco al di sotto di quello di gran maestro. Forse la soluzione al problema del ripiegamento delle proteine è più vicina di quanto pensiamo". William Rastetter dalla Genentech, scrivendo sulla Applied Biochemistry and Biotechnology(16) si domanda: "Quanto è distante la progettazione e la sintesi 'ex-novo' di enzimi? Dieci, quindici anni?". La risposta che propone è: "Forse, non così tanto". Forrest Carter nello U.S. Naval Research Laboratory, Ari Aviram e Philip Seiden in IBM, Kevin Ulmer alla Genex Corporation, ed altri ricercatori in università e laboratori industriali di tutto il globo, hanno già iniziato a sviluppare lavori teorici ed eseguire esperimenti mirati allo sviluppo di interruttori molecolari, di dispositivi di memoria e di altre strutture che potrebbero essere incorporate in un computer basato su proteine. Lo U.S. Naval Research Laboratory ha tenuto due seminari internazionali sui dispositivi elettronici molecolari(17), mentre un incontro sponsorizzato dalla U.S. National Science Foundation ha raccomandato il supporto alle ricerche di base mirate a sviluppare computer molecolari(18). Secondo quanto riferito in questo incontro, il Giappone avrebbe avviato un programma del costo di molti milioni di dollari che punta allo sviluppo di motori e computer molecolari auto-assemblanti e la VLSI Research Inc.(19), a San Jose, scrive in una relazione: "Sembra che la corsa ai 'bio-chips' [un altro termine per indicare sistemi elettronici molecolari] sia già iniziata. NEC, Hitachi, Toshiba, Matsushita, Fujitsu, Sanyo-Denki e Sharp hanno avviato sforzi di ricerca a tutto campo su bio-chips per 'bio-computers'". I biochimici hanno altre ragioni per voler imparare l'arte della progettazione di proteine. Enzimi di nuova progettazione promettono di eseguire processi chimici inquinanti in modi più economici e puliti, e proteine di nuova progettazione offrirebbero ai biotecnologi uno spettro interamente inedito di strumenti. Ci siamo già incamminati lungo la strada che conduce verso l'ingegneria proteica, e come Kevin Ulmer afferma nella citazione tratta da Science e riportata in testa al presente capitolo, questa strada conduce "verso una abilità più generale per l'ingegneria molecolare che ci permetterebbe di strutturare la materia atomo per atomo". Nanotecnologia di Seconda Generazione A dispetto della loro versatilità le proteine lasciano a desiderare come materiale da ingegneria. Le
macchine proteiche smettono di funzionare se non idratate, congelano se raffreddate, cuociono se riscaldate. Non penseremmo mai di fabbricare macchine fatte di carne, capelli e gelatina; lungo i secoli abbiamo imparato ad usare le nostre mani di ossa e carne per costruire macchine di legno, ceramica, acciaio e plastica. Faremo ancora qualcosa di simile in futuro. Useremo macchine proteiche per costruire nanomacchine fatte di roba più resistente delle proteine. Mano a mano che la nanotecnologia andrà oltre l'esigenza di dover semplicemente fare affidamento sulle proteine, essa si svilupperà secondo percorsi che, considerati da un punto di vista ingegneristico tradizionale, sembrano più ordinari. Le molecole saranno assemblate come fossero componenti del gioco del Mecano e a tali assemblaggi verranno mano a mano vincolate altre, ben legate, parti assemblate. Proprio come gli strumenti ordinari possono costruire macchine ordinarie a partire dalle loro parti costituenti, così gli strumenti molecolari legheranno assieme molecole per realizzare minuscoli ingranaggi, motori, leve e rivestimenti, ed in seguito assembleranno insieme queste parti per comporre delle macchine più complesse. Le parti contenenti solo pochi atomi avranno un aspetto piuttosto accidentato, ma gli ingegneri potranno lavorare anche con questi componenti dall'aspetto accidentato, se potranno supportarli con degli adeguati e levigati cuscinetti. È facile per alcuni legami fra due atomi funzionare da fini cuscinetti, in modo che un componente possa essere montato per mezzo di un singolo legame chimico(20) che lasci il componente capace di ruotare liberamente ed in maniera uniforme. Poiché un cuscinetto può essere realizzato utilizzando solo due atomi (e poiché le parti mobili necessitano solo di pochi atomi), le nanomacchine potranno di fatto essere costituite da componenti meccanici di dimensioni molecolari. Come si potrebbe riuscire a costruire queste macchine migliori? Nel corso degli anni, gli ingegneri hanno sfruttato la tecnologia per migliorare la tecnologia stessa. Hanno impiegato strumenti di metallo per modellare i metalli in strumenti migliori ed hanno utilizzato dei computer per progettare e programmare computer migliori. Allo stesso modo useranno nanomacchine costituite da proteine per costruire nanomacchine migliori. Gli enzimi ci indicano quale sia la giusta strada da intraprendere: assemblano grosse molecole "afferrandone" di più piccole dall'acqua attorno a loro e mantenendole vicine fra loro fino a formare un legame. Gli enzimi assemblano in questa maniera DNA, RNA, proteine, grassi, ormoni e clorofilla, ossia potenzialmente l'intero spettro delle molecole che è possibile trovare nelle cose viventi. Per cui, gli ingegneri biochimici costruiranno dei nuovi enzimi utilizzabili per assemblare nuove configurazioni di atomi. Per esempio, potrebbero fabbricare una macchina simile ad un enzima che aggiunga atomi di carbonio ad un piccolo puntino iniziale, livello su livello. Se correttamente legati, gli atomi formeranno una fibra di diamante(21) purissima e flessibile, oltre cinquanta volte più robusta di un blocco di alluminio dello stesso peso. Le compagnie aereospaziali farebbero la fila per comprare tonnellate di queste fibre, allo scopo di ricavarne avanzati materiali composti (e ciò mostra parzialmente quale sia uno dei tanti motivi per cui la competizione militare favorirà il progresso della tecnologia molecolare, come già in passato ha spinto in avanti tanti altri campi). Ma il grande progresso arriverà quando le macchine proteiche saranno capaci di realizzare strutture ben più complesse che non le semplici fibre. Queste macchine proteiche programmabili saranno gli analoghi dei ribosomi programmati dall'RNA, o gli analoghi della più antica fra le generazioni di macchine utensili automatiche programmate da nastri perforati. Le macchine proteiche programmabili schiuderanno un nuovo mondo di possibilità, consentendo agli ingegneri di fuggire dalle limitazioni imposte dalle proteine e di costruire con progettazione diretta macchine robuste e compatte. Le proteine ingegnerizzate potranno frantumare e ricomporre le molecole nello stesso modo in cui attualmente possono farlo gli enzimi. Le proteine esistenti si legano ad una gran varietà di molecole
più piccole utilizzandole come utensili chimici; le nuove proteine ingegnerizzate utilizzeranno tutti questi utensili e molti altri. Inoltre, i chimici organici hanno dimostrato che le reazioni chimiche possono produrre notevoli risultati anche senza nanomacchine che dirigano le molecole. I chimici non hanno controllo diretto sui movimenti tumultuosi delle molecole in un liquido, per cui le molecole sono libere di reagire in qualsiasi modo possano farlo a seconda di come vanno a scontrarsi l'una contro l'altra. Tuttavia i chimici non possono indurre delle molecole reattive(22) a formare strutture regolari come, ad esempio, molecole cubiche o dodecaedriche, o strutture dall'aspetto improbabile come anelli molecolari con legami altamente stirati. Le macchine molecolari, in quanto produttori di legami, saranno capaci di una versatilità ancora più grande perché potranno usare movimenti molecolari analoghi a quelli naturali e al tempo stesso potranno anche guidare questi movimenti in modi impossibili per i chimici. Infatti, poiché i chimici non possono ancora dirigere i movimenti molecolari, raramente possono assemblare delle molecole complesse in accordo ad intenti specificati. Le più grandi molecole con configurazioni complesse ed esattamente specificate che i chimici siano in grado di produrre sono tutte delle catene lineari. I chimici costruiscono queste configurazioni (come nelle macchine genetiche) aggiungendo in sequenza le molecole costituenti una per volta ed accrescendo gradualmente la catena. Esistendo un solo possibile sito di legame, imposto dalla catena stessa, i chimici possono essere certi di aggiungere il pezzo successivo nella posizione giusta. Tuttavia, nel caso di una molecola più o meno rotondeggiante, ma irregolare, e che abbia, diciamo, un centinaio di atomi di idrogeno sulla sua superficie, come potrebbero i chimici staccare via un atomo, proprio uno in particolare (ad esempio quello cinque atomi più su e tre di lato rispetto alla protuberanza frontale) per aggiungere qualcos'altro al suo posto? Provare a mescolare semplici reagenti chimici assieme di rado riuscirà a compiere il lavoro desiderato, perché le piccole molecole raramente possono selezionare specifiche posizioni in cui andare a reagire con una grossa molecola. Ma le macchine proteiche saranno molto più pignole. Una macchina proteica flessibile e programmabile afferrerà una grossa molecola (il pezzo di lavoro) e vi accosterà una piccola molecola esattamente nella posizione giusta. Proprio come fa un enzima, legherà le molecole assieme. Legando una molecola dopo l'altra al pezzo di lavoro, la macchina assemblerà una struttura via via più grande, mantenendo nel contempo il completo controllo del modo in cui gli atomi sono disposti. Questa è la abilità chiave che manca ai chimici. Proprio come già fanno i ribosomi, nanomacchine dotate di tali capacità possono lavorare sotto la direzione di nastri molecolari di istruzioni. Ma a differenza dei ribosomi esse maneggeranno una grande varietà di piccole molecole (non solo aminoacidi) e le collegheranno al pezzo di lavoro in qualunque posizione desiderata e non esclusivamente alla fine della catena. Le macchine proteiche saranno simultaneamente dotate delle tipiche capacità degli enzimi di separare e congiungere, e della programmabilità tipica dei ribosomi. Ma mentre i ribosomi possono costruire solo le labili disposizioni spaziali di una proteina, queste macchine proteiche potranno costruire oggetti piccoli e solidi fatti di metallo, ceramica o diamante: oggetti invisibilmente piccoli eppure tenaci. Dove c'è possibilità che le nostre dita di carne si ustionino o si feriscano, noi le sostituiamo con tenaglie d'acciaio. Dove c'è la possibilità che le macchine proteiche si stritolino o si disintegrino, le sostituiremo con nanomacchine composte da materiale più resistente. Assemblatori Universali Queste nanomacchine di seconda generazione, costituite da ben più che semplici proteine, sapranno
fare tutto quello che le proteine possono fare ma anche molto di più (23). In particolare, alcune serviranno come dispositivi più sofisticati per l'assemblaggio di strutture molecolari. In grado di tollerare, a seconda della loro specifica progettazione, ambienti acidi, vuoto, congelamento o cottura, gli analoghi degli enzimi rappresentati dalle macchine di seconda generazione saranno in grado di utilizzare come "strumenti" quasi qualsiasi molecola reattiva usata dai chimici, ma sapranno maneggiarla con la precisione di macchine programmate. Potenzialmente sapranno legare assieme gli atomi in qualsiasi schema stabile, aggiungendo pochi atomi per volta alla superficie di un pezzo in costruzione, fino a completare una complessa struttura. Si pensi a queste nanomacchine come assemblatori(24). Poiché gli assemblatori ci consentiranno di posizionare atomi in qualsiasi disposizione ragionevole (25) (come discusso nelle note), essi ci metteranno in grado di costruire quasi qualunque cosa la cui esistenza sia permessa dalle leggi della natura. In particolare, ci permetteranno di costruire qualunque cosa saremo in grado di progettare, inclusi altri assemblatori. Le conseguenze di ciò saranno profonde visto che i nostri rozzi strumenti ci hanno permesso fino ad ora di esplorare solo una piccola parte dell'insieme di possibilità consentito dalle leggi naturali. Gli assemblatori schiuderanno un intero mondo di nuove tecnologie. I progressi nella tecnologia spaziale, in quella medica, nel calcolo e nella produzione, nonché nella tecnologia bellica, dipendono tutti dalla nostra capacità di realizzare disposizioni di atomi. Con gli assemblatori saremo in grado di modellare nuovamente il nostro mondo, oppure di distruggerlo. Quindi, a questo punto, sembra saggio fare un passo indietro e guardare a queste possibilità con la massima chiarezza consentitaci, in modo da essere sicuri che assemblatori e nanotecnologia non siano un mero miraggio futuristico. Riepilogo delle Conclusioni In ognuna delle cose che ho descritto, mi sono strettamente attenuto a fatti dimostrati della chimica e della biologia molecolare. Tuttavia, la gente solleva regolarmente inevitabili obiezioni correlate ai principi della fisica e della biologia. Tali obiezioni meritano delle risposte più dirette. ° Il principio di indeterminazione della fisica quantistica rende inattuabili le macchine molecolari? Questo principio asserisce (fra le altre cose) che non è possibile stabilire precisamente la posizione di una particella durante un comunque fissato intervallo di tempo. Tale principio pone un limite a quello che le macchine molecolari possono fare, così come pone un limite a qualsiasi altra cosa si possa fare. Ciononostante, i calcoli mostrano che il principio di indeterminazione pone pochi importanti limiti su "quanto bene" gli atomi possano essere mantenuti in una posizione stabilita, almeno per gli scopi qui delineati. Il principio di indeterminazione rende le posizioni degli elettroni piuttosto "vaghe" e di fatto questa incertezza determina l'effettiva dimensione e struttura degli atomi. Un atomo, inteso come ente unico, ha comunque una posizione relativamente definita, determinata dalla posizione del suo nucleo di massa. Se gli atomi non stessero in una posizione sufficientemente definita, le molecole non esisterebbero. Non c'è bisogno di studiare la meccanica quantistica per confidare in queste conclusioni, poiché le macchine molecolari nelle cellule dimostrano che una macchina molecolare può funzionare. ° Le macchine molecolari potrebbero non funzionare, o comunque essere troppo inaffidabili per essere usate, a causa delle vibrazioni molecolari dovute al calore? Le vibrazioni termiche causeranno problemi ben più grandi rispetto a quelli causati dal principio di indeterminazione, tuttavia anche in questo caso l'esistenza di macchine molecolari naturali costituisce la dimostrazione diretta che le macchine molecolari possono funzionare a temperature
ordinarie. A dispetto delle vibrazioni termiche, il macchinario di copiatura del DNA in certe cellule(26) compie meno di un errore ogni cento miliardi di operazioni. Per ottenere questa accuratezza, comunque, le cellule utilizzano alcune particolari macchine (come l'enzima denominato " DNA polimerasi I ") che lavorano sulla copia come farebbe un correttore di bozze, correggendo gli errori della copia. Gli assemblatori potrebbero necessitare di analoghe capacità di controllo, detenzione e correzione degli errori, perché possano essere in grado di produrre risultati affidabili. ° Le radiazioni potrebbero distruggere le macchine molecolari, rendendole inutilizzabili? Le radiazioni d'alta energia possono rompere i legami molecolari e distruggere le macchine molecolari. Ancora una volta le cellule viventi mostrano che esistono delle soluzioni: esse funzionano per anni riparando e rimpiazzando le parti danneggiate dalle radiazioni(27). Poiché le macchine, individualmente, sono comunque così minuscole, esse costituiscono bersagli piccoli per le radiazioni e ne vengono raramente colpite. Inoltre, se un sistema di nanomacchine deve essere affidabile, deve tollerare una certa percentuale di danno e le parti danneggiate devono regolarmente essere riparate o sostituite. Questo approccio alla affidabilità è ben noto ai progettisti di aereoplani e navette spaziali. ° Poiché l'evoluzione non è riuscita a produrre assemblatori, questo non dimostra che essi sono impossibili o privi d'utilità? Alle prime domande si è risposto in parte guardando al funzionamento del macchinario molecolare delle cellule. Esso infatti rappresenta una prova semplice e potente del fatto che le leggi naturali consentono, a piccoli raggruppamenti di atomi, di comportarsi come macchine controllate in grado di costruire altre nanomacchine. Tuttavia, a dispetto della loro somiglianza di base con i ribosomi, gli assemblatori differiranno da qualsiasi cosa mai trovata nelle cellule; le cose che produrranno, pur fabbricate per mezzo di movimenti ordinari ed ordinarie reazioni molecolari, rappresenteranno risultati del tutto inediti. Nessuna cellula, per esempio, produce fibre di diamante. L'idea che nuovi tipi di nanomacchine ci metteranno a disposizione capacità nuove ed utili capacità, potrebbe sembrare sbalorditiva: in tutti i suoi miliardi di anni di evoluzione la vita non ha mai smesso di basarsi(28) sulle macchine proteiche. Questo suggerisce forse che sono impossibili dei miglioramenti? L'evoluzione avanza attraverso piccoli cambiamenti e l'evoluzione del DNA non può facilmente sostituire il DNA stesso. Poiché il sistema DNA/RNA/ribosomi è specializzato nel produrre proteine, la vita non ha nessuna opportunità reale di evolvere una alternativa. Qualunque manager di produzione ne può ben apprezzare la ragione; anche più di quel che accade in una fabbrica, la vita non può permettersi di arrestarsi per sostituire i suoi vecchi sistemi. Non dovremmo perciò essere sorpresi delle migliorie possibili sulle macchine molecolari più di quanto lo siamo del fatto di poter produrre leghe d'acciaio dieci volte più forti delle ossa o cavi di rame che trasmettono segnali un milione di volte più velocemente di quanto facciano i nervi. Le automobili sorpassano i ghepardi, gli aerei jet volano più veloci dei falchi ed i computer già superano le capacità di calcolo mentale umano. Il futuro porterà ulteriori esempi di migliorie che sono possibili rispetto alla evoluzione biologica, nell'ambito delle quali la seconda generazione di nanomacchine non sarà che una di esse. In termini fisici è abbastanza chiaro perché gli assemblatori avanzati saranno in grado di fare più di quanto siano capaci di fare le macchine proteiche esistenti. Essi saranno programmabili come i ribosomi, ma capaci di usare un insieme di strumenti più ampio di quello costituito da tutti gli enzimi di una cellula messi insieme. Poiché, rispetto alle proteine saranno fatti di materiali molto più forti rigidi e stabili, saranno quindi in grado di esercitare forze più grandi e muoversi con più
grande precisione nonché sopportare condizioni più difficili. Come i bracci di robot industriali, ma a differenza di qualsiasi cosa in una cellula vivente, essi saranno capaci di spostare e ruotare molecole in tre dimensioni e sotto controllo programmato, rendendo possibile il preciso assemblaggio di oggetti complessi. Questi vantaggi li renderanno capaci di assemblare un insieme di strutture molecolari più vasto di quello che le cellule viventi hanno finora realizzato. ° Non c'è qualcosa di magico e speciale nella vita che dovrebbe quindi essere indispensabile per rendere funzionanti le macchine molecolari artificiali? Si potrebbe dubitare che le nanomacchine artificiali possano mai eguagliare le capacità delle nanomacchine naturali delle cellule se ci fosse una qualche ragione di credere che le cellule contengano qualche specialità magica che permette loro di funzionare. Questa idea è chiamata "vitalismo". I biologi l'hanno abbandonata perché hanno trovato spiegazioni chimiche e fisiche per ogni aspetto delle cellule viventi finora studiato, inclusi il loro moto, la loro crescita e la loro riproduzione. Di fatto, questa conoscenza costituisce il fondamento essenziale delle biotecnologie. Le nanomacchine che fluttuano in sterili provette da laboratorio, ossia liberamente fuori dalle cellule, sono state in grado di svolgere tutti i tipi di attività basilari che svolgono nelle cellule viventi. Partendo da reagenti chimici che possono essere estratti da aria ricca di smog i biochimici hanno costruito macchine proteiche senza aiuto dalle cellule. R. B. Merrifield(29), per esempio, ha usato tecniche chimiche per assemblare semplici aminoacidi, fino a produrre ribonucleasi pancreatica bovina, un dispositivo enzimatico che disassembla molecole di RNA. La vita è speciale nella sua struttura, nel suo comportamento e in quello che di essa "percepiamo" essendo noi stessi "vivi", tuttavia le leggi della natura che governano il suo macchinario molecolare governano anche il resto dell'universo. ° I motivi della realizzabilità degli assemblatori e di altre nanomacchine saranno anche solidamente fondati, ma perché non aspettare semplicemente di vedere se queste cose possano essere sviluppate? La pura curiosità sembra motivo sufficiente per esaminare le possibilità che la nanotecnologia ci aprirebbe, ma ci sono anche motivi più forti per farlo. Questi sviluppi si propagheranno come un'onda lungo il mondo intero e lo faranno entro un periodo che va da dieci a cinquant'anni; il che significa entro il tempo di vita che ci attendiamo per noi stessi o per le nostre famiglie. C'è da dire inoltre che le conclusioni a cui si giunge nei capitoli seguenti suggeriscono che una politica di "aspetta e guarda" potrebbe essere molto costosa, nel senso che potrebbe costare molti milioni di vite nonché, forse, persino la fine della vita sulla Terra. I motivi della realizzabilità della nanotecnologia e degli assemblatori sono sufficientemente fondati da dover prendere in seria considerazione queste cose? Sembra che sia proprio così, perché il nucleo centrale della possibilità si basa su due fatti ben stabiliti della scienza e dell'ingegneria. Questi fatti sono: (1) che le macchine molecolari esistenti sono in grado di svolgere un insieme di funzioni di base, e (2) che le parti che svolgono queste funzioni di base possono essere combinate per costruire macchine complesse. Poiché le reazioni chimiche possono legare assieme gli atomi in diversi modi e poiché le macchine molecolari possono dirigere le reazioni chimiche in accordo a istruzioni programmate, gli assemblatori sono indubbiamente realizzabili. Nanocomputer Gli assemblatori prepareranno la strada ad un altro passo avanti tecnologico di importanza ovvia e basilare: gli ingegneri infatti sfrutteranno gli assemblatori per ridurre la dimensione ed i costi dei circuiti per computer ed accelerare di fattori enormi la loro velocità operativa.
Con l'attuale tecnologia di "mole", gli ingegneri tracciano degli schemi su schegge di silicio e vi lasciano depositare atomi e fotoni, ma gli schemi restano comunque piatti e sono inevitabilmente caratterizzati da difetti di scala molecolare. Tuttavia, con gli assemblatori, gli ingegneri realizzeranno circuiti in tre dimensioni e costruiti con precisione atomica. I limiti esatti della tecnologia elettronica odierna rimangono incerti, perché il comportamento quantistico degli elettroni in complesse reti di minuscole strutture è inscindibile da problemi complessi, alcuni dei quali risultanti direttamente dal principio di indeterminazione. Qualunque siano i limiti effettivi, sarà comunque possibile raggiungerli con l'aiuto degli assemblatori. I più veloci fra i computer sfrutteranno effetti elettronici, ma i più piccoli potrebbero anche non farlo. Ciò potrebbe sembrarci strano e tuttavia l'essenza della computazione non ha nulla a che fare con l'elettronica. Un computer digitale è una raccolta di interruttori in grado di far commutare altri interruttori da condizioni di "acceso" a condizioni di "spento". Gli interruttori del computer partono da una determinata configurazione (per esempio rappresentante la somma 2 + 2), poi si commutano uno con l'altro in una nuova configurazione (rappresentante 4) e così via. Tali configurazioni possono rappresentare quasi qualunque cosa. Gli ingegneri costruiscono computer composti da minuscoli interruttori elettronici e connessi fra loro da cablaggi elettrici semplicemente perché degli interruttori meccanici connessi da bacchette o corde risulterebbero, allo stato attuale delle cose, troppo grandi, lenti, inaffidabili e dispendiosi. L'idea di un computer puramente meccanico è tutt'altro che nuova. In Inghilterra, durante la metà del 1800(30), Charles Babbage inventò un computer meccanico costituito da ingranaggi d'ottone; la sua collaboratrice, Augusta Ada, contessa di Lovelace, inventò la programmazione per computer. Babbage riprogettò senza fine la sua macchina, circostanza che, assieme alle difficoltà tecniche per la accurata produzione degli ingranaggi ed all'ostilità dei critici attenti al bilancio economico (alcune di queste critiche riguardavano dubbi sulla stessa utilità dei computer!), contribuì ad impedire il completamento del progetto. In questa tradizione, Danny Hillis e Brian Silverman del Laboratorio di Intelligenza Artificiale del MIT, hanno costruito un computer "dedicato", specializzato nel giocare a tic-tac-toe (NdT - gioco noto in Italia come 'Tris'). Di dimensioni di metri e pieno zeppo di alberi rotanti e telai mobili che rappresentano lo stato del tavoliere di gioco e la strategia di azione, questo computer si trova adesso al Computer Museum di Boston. Assomiglia molto ad un enorme modello di molecola realizzato con biglie e bacchette che connettono le biglie, e proprio per questo è stato costruito con pezzi del Mecano. Ingranaggi di ottone e pezzi di Mecano possono solo dar forma a computer lenti ed ingombranti. Tuttavia, con componenti della estensione di pochi atomi, un computer puramente meccanico potrebbe occupare un centesimo di micrometro cubo e risulterebbe perciò molti miliardi di volte più compatto di quelli realizzabili con la "cosiddetta" microelettronica attuale. Anche se avesse un miliardo di bytes di memoria, un computer nanomeccanico potrebbe stare in una scatola di un micrometro di lato(31), all'incirca la dimensione di un batterio. E sarebbe persino veloce. Nonostante nelle macchine attuali i segnali meccanici(32) si propaghino circa centomila volte più lentamente dei segnali elettrici, i primi avrebbero bisogno di percorrere distanze un milione di volte più brevi, determinando così ritardi di propagazione inferiori. Sicché, un computer puramente meccanico lavorerebbe più velocemente dei frenetici computer elettronici odierni. Per finire, considerando invece dei nanocomputer elettronici, essi saranno probabilmente anche migliaia di volte più veloci dei microcomputer elettronici, anzi forse persino centinaia di migliaia di volte più veloci se uno schema di progetto proposto dal premio Nobel per la Fisica Richard Feynman(33) dovesse dimostrarsi capace di funzionare. In elettronica, accrescere la velocità per effetto della riduzione della dimensione è una vecchia storia. Disassemblatori
I computers molecolari dirigeranno gli assemblatori molecolari, fornendo loro il rapido flusso di istruzioni necessarie a comandare il posizionamento di un immenso numero di atomi. Nanocomputer con dispositivi molecolari di memoria, immagazzineranno anche dati generati da un processo che è l'esatto contrario dell'assemblaggio. Gli assemblatori aiuteranno gli ingegneri a sintetizzare le cose; i loro "complementari", i disassemblatori(34), aiuteranno gli scienziati e gli stessi ingegneri ad analizzare le cose. La realizzabilità degli assemblatori si basa sulla capacità degli enzimi e delle reazioni chimiche di formare legami e su quella delle macchine di controllare il processo. La realizzabilità dei disassemblatori si basa sulla capacità degli enzimi e delle reazioni chimiche di rompere legami e su quella delle macchine di controllare il processo. Enzimi, acidi, ossidanti, metalli alcalini, ioni ed i gruppi di atomi reattivi denominati "radicali liberi", possono tutti rompere legami e rimuovere gruppi di atomi. Poiché nulla è assolutamente immune alla corrosione, sembrerebbe perciò che gli utensili molecolari saranno in grado di smantellare ogni cosa, pochi atomi alla volta. Ed in più, una nanomacchina potrebbe (per necessità o convenienza) anche saper applicare adeguate forze meccaniche, riuscendo di fatto a curiosare all'interno dei gruppi di atomi appena liberati. Una nanomacchina in grado di far tutto questo e che allo stesso tempo mantiene una registrazione di ciò che, livello dopo livello, sta rimuovendo, è un disassemblatore. Assemblatori, disassemblatori e nanocomputer lavoreranno assieme. Per esempio, un sistema di nanocomputer sarà in grado di dirigere il disassemblamento di un oggetto, registrare la sua struttura e poi dirigere l'assemblaggio di sue copie perfette. E tutto ciò ci fornisce qualche indizio per afferrare quale sia la potenza implicita nella nanotecnologia. Il Mondo Ricreato Ci vorranno anni perché compaiano gli assemblatori ma il loro emergere sembra quasi inevitabile: sebbene percorrere l'intera strada che conduce verso gli assemblatori richieda il compimento di molti passi distinti, ogni passo ci condurrà al punto dal quale potremo cominciare a lavorare per il successivo, ed ogni passo compiuto comporterà immediate ricompense. I primi passi sono già stati fatti sotto i nomi di ingegneria genetica e biotecnologia. Sembra che esistano anche altre possibili strade che conducono verso gli assemblatori. Fatta eccezione per il verificarsi di eventi come distruzioni o dittature totalitarie di estensioni mondiali, la corsa tecnologica proseguirà, che lo si desideri o meno. E quando i progressi nella progettazione assistita dal calcolatore andranno ad accelerare lo sviluppo di strumenti molecolari, i progressi verso gli assemblatori diverranno acutamente più rapidi. Per avere qualche speranza di comprendere il nostro futuro, dobbiamo capire le conseguenze degli assemblatori, dei disassemblatori e dei nanocomputer. Essi promettono di provocare trasformazioni tanto profonde quanto quelle causate dalla rivoluzione industriale, dagli antibiotici e dalle armi nucleari, tutte assieme, in un unico massiccio passo avanti tecnologico. Per comprendere un futuro di così profonda trasformazione, ha senso esplorare gli intrinseci principi del cambiamento che hanno caratterizzato ognuno dei più grandi sconvolgimenti del passato. Essi possono dimostrarsi una utile guida. ---------Capitolo 2: I PRINCIPI DEL CAMBIAMENTO Ordine dal Caos Evolvere Molecole Spiegando L'Ordine
Organismi in Evoluzione Un altro Percorso all'Indietro L'Ascesa dei Replicatori Tecnologia in Evoluzione L'evoluzione della Progettazione Quali Sono i Nuovi Replicatori? Le Creature della Mente Selezionare Idee Si pensi al processo di progettazione(1) come qualcosa che richiede in un primo momento la generazione di alternative e successivamente la verifica di queste alternative contro un intera schiera di requisiti e vincoli. - HERBERT A. SIMON Gli assemblatori molecolari costituiranno una rivoluzione che non ha equivalente dai tempi dello sviluppo dei ribosomi, i primitivi assemblatori interni alla cellula. La nanotecnologia che ne risulterebbe può aiutare la vita a diffondersi oltre la Terra, un passo che non ha equivalente dai tempi in cui la vita si è diffusa al di fuori dei mari. Essa potrebbe anche aiutarci nel riuscire a far manifestare la "mente" nelle macchine, un fatto senza equivalente fin dai tempi in cui la mente si è manifestata nei primati. E ci permetterebbe di rigenerare le nostri menti e rimodellare i nostri corpi, un fatto senza equivalente alcuno. Queste rivoluzioni saranno accompagnate da pericoli ed opportunità troppo grandi per essere afferrate dall'immaginazione umana. Eppure i principi del cambiamento che sono stati applicati a molecole, cellule, animali, menti e macchine, dovrebbero mantenere la loro validità anche in un'epoca di biotecnologie, nanomacchine e menti artificiali. Gli stessi principi che sono stati applicati al mare, alla terraferma e all'aria, dovrebbero conservare la loro validità quando diffonderemo la vita terrestre verso le stelle. Comprendere i persistenti principi del cambiamento ci aiuterà a comprendere il potenziale benefico e il potenziale malefico delle nuove tecnologie. Ordine dal Caos L'ordine può emergere dal caos senza che nessuno lo imponga: cristalli ordinati si sono condensati da gas interstellari privi di forma molto tempo prima che apparissero il Sole, la Terra o la vita. Il caos può far emergere ordine cristallino anche sotto circostanze più familiari. Immaginate una molecola, forse regolare nella forma, o forse obliqua e nodosa come una radice di zenzero. Ora immaginate un immenso numero di tali molecole muoversi a caso in un liquido, roteando e spingendosi l'una con l'altra, come ubriachi privi di peso ed al buio. Immaginate il liquido che evapora e si raffredda, obbligando le molecole a disporsi più vicine fra loro ed a rallentare il loro moto. Queste molecole dalla forma strana e dai movimenti casuali si raccoglieranno semplicemente in mucchi disordinati? Generalmente no. Esse si disporranno, di solito, in uno schema cristallino, con ogni molecola accuratamente accoccolata contro le sue vicine, a formare righe e colonne così perfette come quelle di una scacchiera e spesso persino più complesse. Questo processo non coinvolge nulla di magico e nemmeno qualche speciale proprietà delle molecole e delle forze meccaniche quantistiche. Esso non richiede null'altro che l'esistenza di specifiche corrispondenze di forme, tali da consentire alle molecole proteiche di auto-assemblarsi in macchine. Biglie di uguale dimensione, se messe in una vaschetta ed agitate, si dispongono in schemi regolari. I cristalli si accrescono per tentativi e rimozione degli errori, per variazione e selezione. Non ci sono minuscole mani ad assemblarli. Un cristallo può cominciare con un fortuito agglutinarsi di
molecole in un piccolo gruppo: le molecole vagano, si urtano e si raggruppano a caso, ma i raggruppamenti sono più coesi quando confezionati secondo un appropriato schema cristallino. Altre molecole colpiscono questo primo minuscolo cristallo. Alcune di esse lo urtano nella posizione o nella orientazione sbagliata; si attaccano debolmente al cristallo e poi se ne distaccano. Ad altre molecole succede di urtare il cristallo nel modo appropriato; vi aderiscono meglio e spesso vi restano stabilmente attaccate. Un livello si costruisce su un altro livello, estendendo così lo schema cristallino. Nonostante la casualità degli urti fra molecole, esse non aderiscono a caso. Sicché dal caos si viene a sviluppare ordine per mezzo di variazione e selezione. Evolvere Molecole Nella crescita cristallina, ogni livello si comporta da stampo per il successivo. Livelli uniformi si accumulano, per formare un blocco solido. Nelle cellule, filamenti di DNA o RNA possono fungere anche loro come uno stampo, aiutati da enzimi che agiscono da macchine di copiatura molecolari. Ma le sub-unità dei filamenti di acido nucleico possono essere disposte in molte differenti sequenze, ed un filamento "matrice" può separarsi dalla sua copia. Sia il filamento originario che la copia(2) possono essere ulteriormente copiati. Il biochimico Sol Spiegelman(3) ha usato una macchina copiatrice (una proteina tratta da un virus) per esperimenti in provetta. In un ambiente pur semplice e privo di vita, essa riesce a duplicare molecole di RNA. Immaginate un filamento di RNA che fluttua in una provetta contenente macchine di copiatura e sub-unità di RNA. Il filamento rotea e si contorce su se stesso finché va ad urtare contro una macchina copiatrice nella giusta posizione per aderirvi. Le sub-unità si scontrano tutt'attorno fino a che una del tipo giusto incontra la macchina copiatrice nella giusta posizione per adattarsi alla forma del filamento-stampo. Mano a mano che le sub-unità cadono casualmente nella giusta posizione, la macchina copiatrice le cattura e le lega chimicamente alla copia in accrescimento; nonostante le sub-unità rimbalzino a caso, la macchina le lega in modo selettivo. Alla fine, macchina, stampo e copia si separano. Nella terminologia di Richard Dawkins, zoologo di Oxford, le cose che producono copie di se stesse sono dette replicatori(4). Nel caso dell'ambiente che stiamo ipotizzando, le molecole di RNA ben corrispondono alla seguente caratterizzazione: una singola molecola presto diventa "due" molecole, queste diventano quattro, quindi otto, sedici, trentadue e così via, in una moltiplicazione esponenziale. Successivamente, il tasso di crescita della velocità di replicazione si azzera: l'insieme considerato di macchine proteiche, può sfornare copie di RNA solo a quella velocità, non importa quante siano le molecole di "stampo" che si contendono i loro servigi. Più tardi ancora, i materiali grezzi per produrre molecole di RNA cominciano a scarseggiare ed il processo di replicazione giunge, per inedia, ad un arresto. L'esplosiva crescita di popolazione delle molecole raggiunge un limite al suo accrescimento, e le molecole smettono di riprodursi. Le macchine copiatrici, comunque, spesso copiano erroneamente i filamenti di RNA, inserendo o cancellando singole sub-unità, oppure accoppiandole in modo sbagliato. Il filamento mutante che ne risultata differisce dall'originale per lunghezza o nella sequenza delle sue sub-unità. Tali modificazioni sono in gran parte casuali e le differenze si accumulano sempre più mano a mano che le copie molecolari erronee vengono ancora una volta copiate erroneamente. Poiché le molecole proliferano, comincia a crescere il grado di differenza che c'è fra l'una e l'altra o fra loro e i loro progenitori. Questa potrebbe sembrare una sicura ricetta per il caos. I biochimici hanno riscontrato che molecole di RNA differenti si replicano a ritmi differenti, a seconda della lunghezza dei filamenti e degli schemi di disposizione delle loro sub-unità. I discendenti dei replicatori più rapidi, diventano naturalmente più comuni. Infatti, se un tipo di replicatore si replica con un tasso soltanto del 10 percento più rapido dei suoi simili, rispetto ad essi avrà, dopo cento generazioni, mille volte più discendenti. Le piccole differenze, in una crescita
esponenziale, si moltiplicano esponenzialmente. Quando in una provetta non ci sono più sub-unità libere, uno sperimentatore può prelevare campioni di RNA e "infettare" una nuova provetta. Il processo inizia nuovamente e le molecole che hanno dominato il primo round della competizione partono da una condizione di assoluta dominanza numerica. Appaiono ulteriori piccole variazioni che si accumulano nel tempo in variazioni più grandi. Alcune molecole si replicano più velocemente e la loro specie giunge a dominare la miscela della provetta. Quando le risorse si esauriscono, lo sperimentatore può prelevare dalla provetta altri campioni di RNA e ricominciare ancora una volta l'esperimento, ed ancora, ed ancora, mantenendo sempre stabili le condizioni sperimentali. Questo esperimento è rilevatore di un processo naturale: indipendentemente da quali siano le sequenze di RNA con cui l'esperimento viene avviato, l'apparente caos di errori casuali e copiature preferenziali porta avanti un solo tipo di molecola di RNA (fatta eccezione per qualche errore di copiatura). La versione tipica dell'RNA vincente ha una ben definita sequenza di 220 sub-unità. È il miglior RNA replicatore nel suo ambiente, sicché si moltiplica rispetto agli altri fino a restare solo. Un prolungato processo di copiatura, copiatura erronea e competizione, produce all'incirca sempre lo stesso risultato, indipendentemente da quale sia la lunghezza della molecola di RNA che ha avviato il processo o quale sia lo schema costituente la sua sequenza. Sebbene nessuno potrebbe prevedere quale sarà lo schema vincente, chiunque può accorgersi che mutazione e competizione tenderanno a portare avanti un singolo vincitore. In un sistema così semplice potrebbe accadere ben poco d'altro. Se questi replicatori si influenzassero fortemente l'uno con l'altro (aggredendosi selettivamente oppure aiutandosi l'un l'altro), allora il risultato potrebbe assomigliare ad una ecologia un po' più complessa. Ma per come stanno le cose, essi possono soltanto competere per le risorse. Una possibile "variazione sul tema" per questo esempio, ci mostra qualcos'altro: le molecole di RNA si adattano differentemente in ambienti differenti. Una macchina molecolare chiamata ribonucleasi afferra delle molecole di RNA che hanno determinate sequenze di sub-unità esposte, e le taglia in due. Ma le molecole di RNA, come le proteine, si ripiegano spazialmente in configurazioni che dipendono dalla loro sequenza, e ripiegandosi nel modo appropriato possono proteggere i loro punti vulnerabili. Gli sperimentatori hanno riscontrato che, quando la ribonucleasi è presente nel loro ambiente, le molecole di RNA evolvono sacrificando la rapidità di replicazione a vantaggio di una loro maggiore protezione. Ancora una volta emerge fra tutti un competitore "eccellente". Si noti come alcuni termini biologici si siano infiltrati in questa descrizione: poiché le molecole si replicano, la parola "generazione" sembra appropriata; le molecole "discendenti" da un comune "antenato" sono "imparentate", e le parole "crescita", "riproduzione", "mutazione" e "competizione" sembrano altrettanto adatte. Perché tutto questo? Perché queste molecole copiano se stesse con piccole variazioni, proprio come fanno i geni degli organismi viventi. Quando replicatori varianti vanno incontro a un successo variabile, il replicatore di maggior successo tende ad accumularsi. Questo processo, dovunque accada, è definito "evoluzione". Questo esempio della provetta ci consente di osservare l'evoluzione spogliata fino alla sua nuda essenza, libera dalla polemica emotiva che circonda l'evoluzione della vita. Gli RNA replicatori e le macchine copiatrici proteiche sono raggruppamenti ben definiti di atomi, che obbediscono a principi ben compresi e possono evolversi in condizioni di laboratorio ripetibili. I biochimici possono produrre RNA e proteine da comunissimi reagenti chimici prelevati dagli scaffali del loro laboratorio, senza alcun aiuto dalla vita. I biochimici prendono a prestito queste macchine copiatrici da un tipo di virus che infetta i batteri
ed utilizzano dell'RNA come suo materiale genetico. I virus sopravvivono entrando in un batterio, copiando se stessi con l'uso delle risorse del batterio e quindi fuggendo per infettare un nuovo batterio. Gli errori di copiatura dell'RNA virale producono virus mutati ed i virus che si replicano con maggior successo diventano i più comuni; questo processo rappresenta una evoluzione per selezione naturale, che a quanto pare si chiama "naturale" perché coinvolge parti "non umane" della natura. Ma a differenza dell'RNA in provetta, l'RNA virale deve fare di più che il semplice replicarsi come fa una molecola nuda. Per aver successo, l'RNA virale deve anche dirigere i ribosomi del batterio infettato perché costruiscano dispositivi proteici che gli permettano anzitutto di fuggire dal vecchio batterio, nonché di sopravvivere all'esterno ed infine entrare in un batterio nuovo. Questa informazione aggiuntiva comporta una lunghezza delle molecole di RNA virale di circa 4.500 sub-unità. Per replicarsi con successo, il DNA di grossi organismi deve fare ancora di più, dirigendo la costruzione di decine di migliaia di differenti macchine proteiche e lo sviluppo di complessi organi e tessuti. Questo richiede migliaia di geni, codificati in milioni di miliardi di sub-unità di DNA. Nonostante ciò, il basilare processo d'evoluzione attraverso variazione e selezione resta identico a quello che si svolge nella provetta, nei virus e in molti altri sistemi. Spiegando l'Ordine Ci sono almeno tre modi per spiegare la struttura di una popolazione di replicatori molecolari dopo un processo d'evoluzione, sia che si parli di RNA in provetta, che di geni virali o di geni umani. Il primo tipo di spiegazione è una descrizione passo-passo della loro storia: la spiegazione di come sono avvenute specifiche mutazioni e come si sono diffuse. Ciò è ovviamente impossibile senza registrare tutti gli eventi molecolari, ed una tale registrazione sarebbe in ogni caso enormemente tediosa. Il secondo tipo di spiegazione fa ricorso ad una parola in qualche modo ingannevole: scopo. Guardando nel dettaglio, vediamo soltanto variazioni a casaccio e replicazioni selettive. Tuttavia, guardando il processo da una maggiore distanza, si potrebbe descriverne il risultato finale immaginando che le molecole sopravvissute si siano trasformate per "raggiungere l'obiettivo" rappresentato dalla replicazione. Perché le molecole di RNA che evolvono sotto la minaccia della ribonucleasi si ripiegano spazialmente nel modo in cui fanno? A causa di una lunga e dettagliata storia passata, naturalmente, ma l'idea che "esse vogliano evitare attacchi e sopravvivere alla replicazione" sarebbe in grado di prevedere lo stesso risultato. Il linguaggio dello scopo costituisce una comoda scorciatoia (provare a discutere in termini di azione umana pur in assenza di questa), ma l'apparenza di uno scopo non deve necessariamente risultare dall'azione di una mente. L'esempio dell'RNA mostra tutto questo in modo piuttosto chiaro. Il terzo (e spesso il migliore) tipo di spiegazione in termini di evoluzione afferma che l'ordine emerge tramite la variazione e la selezione dei replicatori. Una molecola si ripiega in un particolare modo perché assomiglia ai suoi antenati che si sono moltiplicati con maggior successo (evitando attacchi, ecc..) e che sono riusciti a lasciare dei discendenti, compresa questa stessa particolare molecola. Come Richard Dawkins fa notare(5), il linguaggio dello scopo (se usato con attenzione) può essere tradotto nel linguaggio dell'evoluzione. L'evoluzione attribuisce schemi di successo alla "eliminazione di modifiche che non hanno incontrato il successo". Così facendo, interpreta un risultato positivo come equivalente ad un doppio risultato negativo, un tipo di spiegazione che, per la sua sottigliezza, sembra difficile da afferrare. Quel che è peggio, essa spiega qualcosa di visibile (entità di successo, entità con uno scopo) in termini di qualcosa di invisibile (entità senza successo che sono quindi scomparse). Poiché solo gli animali di successo hanno cosparso la terraferma delle ossa dei loro discendenti, i fallimenti
malformati del passato non hanno mai potuto lasciare molti fossili. La mente umana tende a focalizzarsi sul visibile, cercando cause positive per risultati positivi e cercando inoltre una forza ordinatrice dietro a risultati ordinati. Tuttavia, riflettendoci, possiamo vedere il grande principio che ha cambiato il nostro passato e modellerà il nostro futuro: l'evoluzione procede per variazione e selezione dei replicatori. Organismi in Evoluzione La storia della vita è la storia di una corsa agli armamenti basata sulle macchine molecolari. Oggi che questa corsa si avvicina ad una fase nuova e più rapida, è necessario che ci assicuriamo di comprendere bene quanto profondamente radicata sia l'evoluzione. In tempi in cui l'idea di evoluzione biologica è spesso disprezzata nelle scuole e talvolta attaccata, dovremmo ricordare che le prove a suo supporto sono solide come roccia e comuni quanto lo sono le cellule. In pagine di pietra, la Terra stessa ha registrato la storia della vita. Sul fondo dei laghi e nei letti marini si sono accumulate conchiglie, ossa e limo, livello dopo livello. Talvolta il cambiamento di una corrente o uno sconvolgimento geologico hanno spazzato via alcuni livelli; oppure essi sono semplicemente sprofondati più in basso. I primi livelli, profondamente seppelliti com'erano, sono stati distrutti, cotti, disciolti in acque minerali, e ritrasformati in pietra. Per secoli i geologi hanno studiato le rocce per leggere il passato della Terra. Molto tempo fa, essi trovarono conchiglie marine nelle rocce raggrinzite e frantumante di alcune catene montuose. Nel 1785, settantaquattro anni dalla pubblicazione del detestato libro di Darwin(6), James Hutton concluse che il fango dei letti marini era stato pressato fino a formare queste rocce, le quali erano poi state sollevate verso il cielo da forze non ancora comprese. Che cos'altro potevano pensare i geologi, a parte un inganno della natura stessa? Essi notarono che le ossa e le conchiglie fossili differivano da livello a livello. Videro che le conchiglie in un livello qui, corrispondevano a quelle trovate in un livello lì, per quanto profondamente sotterrati i livelli fossero. Diedero nomi ai livelli (A,B,C,D..., o Osagian, Meramecian, Lower Chesterian, Upper Chesterian,…) [NdT -Epoche del sottoperiodo Missisipiano nel Carbonifero Inferiore - da 345 a 320 milioni di anni fa], ed usarono i loro fossili caratteristici per identificare i livelli delle stratificazioni rocciose. Gli sconvolgimenti della crosta non hanno lasciato impressa in alcun luogo una completa sequenza di livelli, sicché i geologi, trovando A,B,C,D,E in un posto, C,D,E,F,G,H,I,J in un'altro e J,K,L da qualche altra parte ancora, poterono comunque concludere che A precedeva L. I geologi petroliferi (anche quelli per nulla interessati all'evoluzione o alle sue implicazioni) usano tuttora la datazione dei livelli di roccia basata sui fossili per comparare i livelli fra un sito di trivellazione ed un altro. Gli scienziati giunsero alla ovvia conclusione. Proprio come le specie marine odierne vivono in aree molto estese, così facevano le specie estinte in anni passati. Proprio come il livello odierno si è depositato sopra il più alto dei livelli passati, così fecero in passato. Conchiglie simili in livelli simili indicano sedimenti depositati nella stessa era. Le conchiglie cambiano da livello a livello perché le specie cambiano da era ad era. Questo è ciò che i geologi hanno trovato scritto in conchiglie ed ossa, su pagine di pietra. I livelli superiori delle rocce contengono ossa di animali più recenti, mentre i livelli più profondi contengono ossa di animali ormai estinti. I livelli ancora più primitivi non mostrano traccia di alcuna delle specie moderne. Sotto ossa di mammiferi giacciono ossa di dinosauri. Nei livelli più vecchi giacciono le ossa di anfibi, più giù conchiglie e ossa di pesci, ed infine del tutto nessuna conchiglia od osso. Le più antiche rocce che contengono fossili, portano solo tracce microscopiche
di singole cellule. La datazione con metodi radioattivi indica che queste tracce più antiche risalgono a qualche miliardo di anni fa. Le prime cellule più complesse dei batteri si datano a poco più di un miliardo di anni fa. La storia dei vermi, pesci, anfibi, rettili e mammiferi copre solo le ultime centinaia di milioni di anni. Ossa simili a quelle umane si datano attorno a qualche milione di anni da ora. I resti delle civiltà passate si datano entro qualche migliaio di anni. In tre miliardi di anni, la vita è evoluta da cellule singole in grado di assorbire semplici reagenti chimici a raggruppamenti di cellule che incorporano menti capaci di assorbire idee. Nell'ambito dell'ultimo secolo, la tecnologia si è evoluta dalla locomotiva a vapore e dalla luce elettrica fino alle navi spaziali ed ai computer elettronici, e questi ultimi cominciano ad imparare a leggere e scrivere. Con la mente e la tecnologia, il ritmo dell'evoluzione è schizzato in avanti di un milione di volte o più. Un'altro Percorso all'Indietro Il libro delle pietre registra le forme di organismi morti da tempo, tuttavia anche le cellule viventi contengono delle registrazioni, veri testi genetici che solo ora vengono letti. Come le idee della geologia, le idee essenziali dell'evoluzione erano note prima che Darwin(7) mettesse la penna sul foglio. In templi e monasteri illuminati da lampade ad olio, generazioni di scribi copiarono e ricopiarono i manoscritti. Talvolta copiarono erroneamente parole e frasi, sia per caso o perversità che per ordine del locale legislatore, e mano a mano che il manoscritto veniva replicato ad opera di queste macchine umane di copiatura, gli errori si sono accumulati. Gli errori peggiori potrebbero essere stati scovati e rimossi ed alcuni dei passi ormai famosi potrebbero essere sopravvissuti senza alterazioni, ma si generarono comunque molte differenze rispetto agli originali. I libri antichi raramente esistono nella loro versione originale. Le copie più vecchie sono spesso di secoli più giovani rispetto ai perduti originali. Ciononostante, da copie differenti con differenti errori, gli studiosi possono ricostruire versioni più vicine alla originale. Essi confrontano i testi. Possono tracciare linee di discendenza da antenati comuni sulla base di schemi di errori univoci, che tradiscano la copiatura da una sorgente comune (gli insegnanti scolastici conoscono questo principio: risposte identiche e corrette non sono sospette, a meno che non siano state copiate da un libro di testo, ma guai agli studenti seduti fianco a fianco che facciano gli stessi errori nei loro compiti in classe!). Dove tutte le copie sopravvissute concordano, gli studiosi possono assumere che la copia originale (o almeno l'ultimo comune antenato delle copie sopravvissute) contenesse le stesse parole. Dove le copie sopravvissute differiscono, gli studiosi trovano indicazioni per individuare il comune distante antenato da cui discendono le due copie divergenti, poiché le restanti aree di accordo delle due copie indicano una derivazione comune dalla versione più antica. I geni assomigliano a manoscritti composti con un alfabeto di sole quattro lettere. Così come uno stesso messaggio nel linguaggio ordinario può assumere più forme (non è necessario un grande sforzo per formulare nuovamente una idea con l'uso di parole totalmente differenti), così anche differenti parole genetiche possono dirigere la costruzione di identiche molecole proteiche. Inoltre, molecole di proteine con caratteristiche di dettaglio differenti possono svolgere funzioni identiche. Un gruppo di geni in una cellula è come un intero libro, come un vecchio manoscritto copiato e ricopiato da scribi imprecisi.
Come studiosi all'esame di antichi testi, i biologi generalmente lavorano con copie moderne del loro materiale (con la differenza che, ahimè, non c'è nessun "papiro" biologico proveniente da un mare ormai defunto, che sia stato trascritto per noi nei primitivi giorni della vita). Essi confrontano gli organismi dotati di aspetti simili (leoni e tigri, cavalli e zebre, ratti e topi) e scoprono che questi sono provvisti, nei loro geni e nelle loro proteine, di risposte simili agli stessi problemi. Più due organismi differiscono (leoni e lucertole, umani e girasoli), più queste risposte differiscono, persino fra macchine molecolari che assolvono identiche funzioni. Per dirla tutta, animali simili fanno errori simili: tutti i primati, per esempio, mancano di enzimi che producano vitamina C, una omissione condivisa soltanto da altri due fra i mammiferi conosciuti, il maiale della Guinea e il pipistrello della frutta. E ciò suggerisce che noi primati abbiamo copiato le stesse risposte genetiche da una sorgente comune, tanto tempo fa. Lo stesso principio che mostra le linee di discendenza dei testi antichi (e che aiuta a correggere i loro errori di copiatura) rivela così anche le linee di discendenza della vita moderna. Infatti, esso indica che tutta la vita conosciuta condivide la sua discendenza da un comune antenato. L'ascesa dei Replicatori I primi replicatori sulla Terra evolsero abilità che andavano oltre a quelle consentite a molecole di RNA che si replicano in una provetta. Al tempo in cui avevano raggiunto lo stadio batterico, essi avevano sviluppato il "moderno" sistema che utilizza DNA, RNA, e ribosomi per costruire proteine. Le mutazioni quindi modificarono non solo lo stesso DNA replicatore, ma anche le macchine proteiche e le strutture viventi che queste costruiscono e modellano. Squadre di geni modellarono cellule sempre più elaborate, quindi guidarono verso la cooperazione cellulare che costituì infine organismi complessi. Variazione e selezione favorirono squadre di geni che modellarono bestie con pelli protettive e bocche affamate, animate da nervi e muscoli, guidati da occhi e cervello. Come dice Richard Dawkins(8), i geni costruirono macchine di sopravvivenza sempre più elaborate per favorire la replicazione di se stessi. Quando i geni di un cane si replicano, spesso si mescolano con i geni di altri cani che sono stati artificialmente selezionati da persone che scelgono quali cuccioli tenere ed allevare. Lungo i millenni, la gente ha plasmato degli animali simili a lupi per trasformarli in levrieri, barboncini, bassotti e san bernardi. Selezionando quali geni dovessero sopravvivere, la gente ha rimodellato i cani sia nel corpo che nel carattere. I desideri umani hanno stabilito le caratteristiche di successo per i geni canini; pressioni ben diverse hanno definito i geni di successo dei lupi. Mutazione e selezione dei geni hanno, attraverso lunghe ere, riempito il mondo di erba e di alberi, di insetti e di pesci, e di gente. Più di recente altre cose sono apparse e si sono moltiplicate; strumenti, case, aerei e computer. E come le molecole di RNA prive di vita, questo hardware si è evoluto. Tecnologia in evoluzione Come le pietre della Terra registrano la comparsa di forme di vita sempre più complesse e capaci, così i resti e gli scritti dell'umanità registrano la comparsa di forme di hardware sempre più complesso e capace. Il nostro hardware più antico sopravvissuto fino ad oggi è la pietra stessa, seppellita assieme ai fossili dei nostri antenati; il nostro hardware più recente orbita sopra le nostre teste. Consideriamo per un momento l'ascendenza ibrida dello space shuttle. Per il suo aspetto di aereoplano, esso discende dai jet di alluminio degli anni sessanta, che derivano in linea diretta dagli
aerei rivestiti con alluminio della seconda guerra mondiale, dai biblani di legno e tela della prima guerra mondiale, dagli alianti a motore dei fratelli Wright, e infine dagli alianti giocattolo e agli aquiloni. Per il suo aspetto di razzo, lo shuttle deriva dai razzi lunari, che sono derivati dai missili militari, che discendono dai razzi di artiglieria dell'ultimo secolo ("ed il rosso bagliore del razzo..."), ed infine dai fuochi artificiali giocattolo. Questo ibrido aereoplano/razzo riesce a librarsi ed attraverso un processo di variazione dei componenti e della progettazione, gli ingegneri aereospaziali ne evolveranno di ancora migliori. Gli ingegneri parlano di "generazioni" di tecnologie; I progetti giapponesi per computer di "quinta generazione" mostrano quanto rapidamente alcune tecnologie crescano e prolifichino. Gli ingegneri parlano di "ibridi", di "tecnologie in competizione" nonché della loro "proliferazione". Il direttore delle ricerche dell'IBM, Ralph E. Gomory sottolinea con enfasi la natura evolutiva della tecnologia, scrivendo che "lo sviluppo della tecnologia è più evolutivo e molto meno rivoluzionario e meno basato su improvvisi passi avanti radicali, di quanto la maggior parte delle persone immagini" (Infatti anche passi avanti radicali come quelli rappresentati dagli assemblatori molecolari si svilupperanno attraverso molti piccoli passi). Nella citazione all'inizio di questo capitolo, il Professor Herbert A. Simon della Carnegie-Mellon University ci invita a pensare "al processo di progettazione come qualcosa che richiede in un primo momento la generazione di alternative e successivamente la verifica di queste alternative contro un intera schiera di requisiti e vincoli". Generazione e verifica di alternative sono sinonimi di variazione e selezione. A volte esistono già varie alternative. Nel testo "One Highly Evolved Toolbox" (Una Scatola degli Attrezzi Altamente Evoluta), tratto da The Next Whole Earth Catalog(9), J. Baldwin scrive: "La nostra scatola degli attrezzi portatile si è evoluta per circa venti anni fino ad oggi. Non c'è nulla di realmente speciale in essa, eccetto che un continuo processo di rimozione di utensili obsoleti o inadeguati nonché di sostituzione degli stessi con altri più adatti, è infine risultato in una collezione di utensili che l'ha resa un vero e proprio sistema per "fare-cose" piuttosto che un semplice mucchio di ferramenta". Baldwin usa il termine "evolvere" appropriatamente. Per millenni, invenzione e fabbricazione hanno generato variazioni nelle caratteristiche di progetto degli utensili e Baldwin ha individuato l'insieme risultante attuale tramite una "selezione competitiva", mantenendo gli utensili che funzionano meglio assieme ad altri che meglio si prestano per le sue necessità. Attraverso anni di variazione e selezione il suo sistema è evoluto, lungo un processo che egli raccomanda vivamente. Di fatto egli esorta chiunque a non tentare mai di valutare l'acquisto di un insieme completo di attrezzi. Piuttosto, egli consiglia di comprare solo gli attrezzi che si è soliti prendere in prestito, utensili selezionati dalla esperienza e non dalla teoria. Le variazioni tecnologiche sono spesso deliberate, nel senso che gli ingegneri sono pagati per inventare e collaudare. Tuttavia, alcune innovazioni sono assolutamente casuali, come la scoperta di una rozza forma di Teflon in un cilindro che si presumeva pieno di gas tetrafluoroetilene: pur con la valvola accidentalmente aperta, il cilindro restò pesante; quando venne segato ed aperto, rivelò uno strano e pallido materiale solido. Altre innovazioni sono derivate da sistematici tentativi alla cieca. Edison, quando era alla ricerca di un buon filamento per le lampade a bulbo, provò a carbonizzare ogni cosa, dalla carta al bambù, e persino tele di ragno. Charles Goodyear pasticciò in una cucina per anni tentando di convertire la gomma naturale in una sostanza resistente, fino a che gli capitò di far gocciolare della gomma solforizzata su un fornello caldo, ottenendo così la prima rozza vulcanizzazione. Nell'ingegneria, illuminati tentativi per prove ed errori, non pianificati da un impeccabile intelletto, hanno condotto alla maggior parte dei progressi; questo è il motivo per cui gli ingegneri costruiscono prototipi. Peters e Waterman(10) nel loro libro In Search of Excellence mostrano che
la stessa cosa è vera per i progressi dei prodotti commerciali e delle politiche aziendali. Questo è il motivo per cui le aziende eccellenti creano "un ambiente ed un insieme di attitudini che incoraggiano la sperimentazione" nonché il motivo per cui esse si evolvono "in modo realmente Darwiniano". Anche le industrie generano ordine tramite variazione e selezione. Grossolani sistemi di controllo della qualità saggiano e scartano parti difettose prima di assemblarle in prodotti completi, e sistemi di "controllo della qualità" più sofisticati utilizzano metodi statistici per individuare alla sorgente i difetti, aiutando gli ingegneri a minimizzarli per mezzo della modifica opportuna del processo di fabbricazione. Gli ingegneri giapponesi, basandosi sugli studi sul controllo statistico della qualità di W. Edwards Deming, hanno fatto di un tale processo di variazione e selezione un pilastro del successo economico del loro paese. I sistemi basati sugli assemblatori avranno analogamente bisogno di misurare i risultati per eliminare i difetti. Il controllo di qualità è una sorta di evoluzione perché mira non a modificare ma ad eliminare le variazioni dannose. Ma proprio come l'evoluzione Darwiniana può conservare e diffondere le mutazioni favorevoli, così dei buoni sistemi di controllo di qualità possono aiutare dirigenti ed operai a conservare e diffondere i processi più efficaci, sia che essi siano comparsi per caso che per consapevole progettazione. Tutto questo armeggiare da parte di ingegneri e produttori industriali prepara i prodotti al loro collaudo definitivo. Fuori, nel mercato, un'infinita varietà di chiavi inglesi, automobili, calzini e computer, competono per l'approvazione degli acquirenti. Se degli acquirenti adeguatamente informati venissero lasciati liberi di scegliere, i prodotti che fanno ben poco o costano troppo non riuscirebbero, probabilmente, ad essere riprodotti. Come accade in natura, la verifica sperimentale competitiva ha trasformato i migliori competitori di ieri nei fossili di oggi. "Ecologia" ed "economia" condividono ben più che comuni radici linguistiche. Sia nel mercato che su campi di battaglia reali ed immaginari, la competizione globale guida le organizzazioni nell'inventare, acquistare, elemosinare o rubare tecnologie sempre più capaci. Alcune organizzazioni competono principalmente cercando di fornire alla gente beni di qualità superiore, altre competono principalmente cercando di intimidire le prime con armi superiori. La pressione dell'evoluzione guida entrambe. La corsa tecnologica globale ha premuto sull'acceleratore per miliardi di anni. I ciechi vermi terrestri non poterono arrestare lo sviluppo di occhi negli uccelli. I piccoli cervelli degli uccelli e le loro maldestre ali non poterono impedire che gli uomini sviluppassero mani, menti e doppiette da fuoco. Analogamente, le proibizioni locali non possono bloccare i progressi nella tecnologia militare e commerciale. Sembra quindi che dobbiamo imparare a guidare la corsa tecnologica o morire, sebbene la forza dell'evoluzione tecnologica si faccia beffe dei movimenti antitecnologici: i movimenti democratici che si prefiggono l'obiettivo di imporre restrizioni locali possono soltanto riuscire a limitare le singole democrazie del mondo, non il mondo nel suo complesso. La storia della vita ed il potenziale delle nuove tecnologie suggerisce qualche soluzione, ma questo è l'argomento centrale della terza parte di questo libro. L'evoluzione della Progettazione Potrebbe sembrare che il processo della progettazione offra una alternativa all'azione dell'evoluzione, ma il progetto coinvolge implicitamente l'evoluzione stessa in due distinte maniere. Anzitutto, la stessa pratica progettuale evolve. Non solo gli ingegneri accumulano progetti che funzionano, ma accumulano anche metodi di progetto che funzionano. Questi metodi vanno dagli standard da manuale per la scelta di adeguate scansioni temporali delle fasi progettuali, ai sistemi gestionali per organizzare la ricerca e lo sviluppo. Come ha affermato Alfred North Whitehead(11), "La più grande invenzione del dicianovesimo secolo è l'invenzione del metodo dell'invenzione".
In secondo luogo, la progettazione stessa procede per variazione e selezione. Gli ingegneri spesso utilizzano leggi matematiche evolutesi per descrivere (per esempio) il flusso di calore o l'elasticità, al fine di sperimentare in modo simulato un progetto prima ancora di costruirne un prototipo. Essi quindi evolvono piani attraverso un ciclo di progetto, calcolo, critica e riprogettazione, risparmiandosi in parte la spesa economica del taglio del metallo per un prototipo. La creazione di progetti procede quindi attraverso una forma non materiale di evoluzione. La legge di Hooke, per esempio, descrive come i materiali si pieghino e si tendano: la deformazione è proporzionale alla forza di trazione applicata; raddoppiando la trazione, raddoppia lo stiramento ottenuto. Nonostante sia una legge solo approssimativamente corretta, resta abbastanza precisa fintanto che l'elasticità non si arrende alla tensione come infine è costretta a fare. Gli ingegneri possono usare una forma della legge di Hooke per progettare una barra metallica che possa sopportare un carico non eccessivamente deformante, poi ne realizzano una versione materiale un tantino più spessa per compensare le inaccuratezze della legge e dei loro calcoli di progetto. Essi possono anche usare una forma della legge di Hooke per descrivere la deformazioni e le contorsioni nelle ali degli aerei, nelle racchette da tennis, e nelle carrozzerie d'automobile. Ma delle semplici equazioni matematiche non si adattano facilmente a strutture così complicate. Gli ingegneri hanno adattato le equazioni alle forme più semplici (a pezzi del progetto) e successivamente hanno composto queste soluzioni parziali per descrivere la flessione dell'insieme. Si tratta di un metodo (denominato "analisi agli elementi finiti") che tipicamente richiede moli immense di calcoli, e che sarebbe impraticabile senza i computer. Grazie a questi, invece, è diventato un metodo di impiego comune. Tali simulazioni rappresentano l'estensione generalizzata di una tendenza antica. Quando abbiamo bisogno di selezionare una linea d'azione fra quelle possibili, le abbiamo sempre valutate immaginando le sue conseguenze auspicabili e quelle temibili. I modelli mentali più semplici (sia quelli innati che quelli appresi) guidano indubbiamente nello stesso modo gli animali. Quando sulla base di accurati modelli mentali gli esperimenti nel pensiero possono sostituire più costosi (o persino più pericolosi) esperimenti fisici, si favorisce uno sviluppo evolutivo. Le simulazioni degli ingegneri semplicemente estendono questa capacità di immaginazione delle conseguenze, per consentirci di compiere i nostri errori nel pensiero piuttosto che nei fatti. In "One Highly Evolved Toolbox", J. Baldwin discute di come strumenti e pensiero interagiscano durante lo svolgimento di un lavoro da officina: "Cominci a definire la capacità del tuo insieme di utensili secondo quello che pensi debba significare 'fabbricare le cose'. Quando qualcuno che costruisce un sacco di roba ti fornisce delle spiegazioni, gli utensili diventano presto una parte automatica del processo di progettazione. Ma gli utensili non possono diventare parte del tuo processo di progettazione se non conosci quali siano disponibili e che cosa i vari utensili facciano". Disporre di una percezione intuitiva delle capacità di uno strumento è essenziale quando si pianifica un lavoro da officina la cui consegna è per il prossimo mercoledì, ed è ugualmente essenziale quando si deve modellare una strategia per affrontare i progressi radicali delle prossime decadi. Migliore è la percezione degli strumenti disponibili in futuro, più verosimili sono i nostri piani per sopravvivere e prosperare. Un artigiano in una officina può tenere gli utensili bene in vista; lavorando tutti i giorni con questi utensili, essi divengono familiari per i suoi occhi, le sue mani e la sua mente. Egli acquisisce in modo spontaneo conoscenza delle loro capacità e può disporre di tale conoscenza per un loro utilizzo creativo immediato. Ma per la gente come noi riuscire a comprendere il futuro si presenta come una sfida ben più grande, a causa del fatto che gli strumenti futuri esistono per ora solo come idee e come possibilità implicite nelle leggi di natura. Questi strumenti non sono appesi al muro, e
nemmeno impressi nella nostra mente per mezzo di sensazioni visive, uditive o tattili o quantomeno non lo saranno fino a che non si materializzeranno fisicamente come hardware. Nei prossimi anni di preparativi, solo lo studio, l'immaginazione e la riflessione(12) possono illuminare le nostre menti sulle capacità di questi strumenti. Quali sono i Nuovi Replicatori? La storia ci mostra che l'hardware evolve. RNA in provetta, virus e cani, ci mostrano tutti come l'evoluzione proceda per modifica e collaudo dei replicatori. Ma l'hardware (quello odierno, quantomeno) non può riprodurre se stesso. Quindi quali sono i replicatori che sono alla base dell'evoluzione tecnologica? Quali sono i geni delle macchine? Ovviamente non è realmente indispensabile identificare i replicatori per riuscire a riconoscere la presenza di un processo di evoluzione. Darwin descrisse l'evoluzione prima che Mendel scoprisse i geni, ed i genetisti impararono molte cose sulla ereditarietà anche prima che Watson e Crick scoprissero la struttura del DNA. Darwin non aveva bisogno di alcuna conoscenza della genetica molecolare per accorgersi che gli organismi mutano e che alcuni lasciano più discendenti di altri. Un replicatore è uno schema che può riuscire a far si che siano fabbricate copie di se stesso. Potrebbe aver bisogno di aiuto, ed infatti il DNA non potrebbe replicarsi se non ci fossero delle macchine proteiche a copiarlo. Ma se considerate secondo questi standard, alcune macchine sono effettivamente dei replicatori! Le compagnie commerciali spesso realizzano macchine che cadono nelle mani di un concorrente; il concorrente impara quindi i segreti delle loro macchine e ne costruisce delle copie. Proprio come un gene "usa" le macchine proteiche per replicarsi, così queste macchine "usano" le menti e le mani umane per replicarsi. Con dei nanocomputer a dirigere l'azione di assemblatori e disassemblatori, si potrebbe persino automatizzare la replicazione dell'hardware. La mente umana, tuttavia, è una macchina di imitazione di gran lunga più sottile di qualsiasi semplice macchina proteica o assemblatore. Voce, scrittura e disegno possono trasmettere progetti da mente a mente prima che prendano forma fisica come hardware. Le idee che sono dietro i metodi di progetto sono ancora più sottili: in modo più astratto di quanto faccia l'hardware, esse si replicano ed operano esclusivamente nel mondo delle menti e dei sistemi simbolici. Se i geni si sono evoluti lungo generazioni ed eoni, i replicatori mentali si evolvono ora nell'arco di giorni e decadi. Come i geni, le idee si scompongono e ricombinano, ed assumono forme multiple (i geni possono essere trascritti da DNA ad RNA e di nuovo a DNA; le idee possono essere tradotte da una lingua ad un'altra). La scienza non può ancora descrivere gli schemi neurali che nel cervello danno forma alle idee, ma chiunque può osservare che le idee mutano, si replicano e competono. Le idee "evolvono". Richard Dawkins chiama(13) le unità elementari (i bit) degli schemi mentali "memi" (la pronuncia inglese di meme fa rima con cream). Egli afferma: "esempi di memi sono melodie musicali, idee, frasi d'effetto, stili di vestiario, modi di fabbricazione di vasi o di costruzione di archi). Proprio come i geni propagano se stessi nel 'pool' genetico di una popolazione saltando [generazione dopo generazione] da un corpo all'altro per mezzo di sperma o uova, così i memi propagano se stessi nel pool memetico saltando da cervello a cervello per mezzo di un processo che, in senso ampio, può essere chiamato 'imitazione'". Le Creature della Mente I memi si replicano sia perché le persone imparano che perché insegnano. Essi mutano perché le persone creano memi nuovi o fraintendono quelli vecchi. Essi vengono selezionati (in parte) perché
le persone non credono a tutto quello che ascoltano o non lo ripetono. Come le molecole di RNA in provetta competono per appropriarsi di macchine copiatrici e sub-unità dalla disponibilità limitata, così i memi devono competere per risorse limitate come l'attenzione e gli sforzi umani. Poiché i memi modellano il comportamento, il loro successo o il loro fallimento è d'importanza mortalmente seria. Fin da tempi antichi, modelli e schemi mentali di comportamento sono stati trasferiti da genitore a figlio. Gli schemi memetici che favorivano sopravvivenza e riproduzione hanno manifestato la tendenza a diffondersi (mangia questa radice solo dopo averla cotta; non mangiare queste bacche, gli spiriti malvagi ti torceranno le budella). Anno dopo anno, la gente ha variato le proprie azioni con risultati variabili. Anno dopo anno, alcune persone morivano mentre altre trovavano nuovi trucchi per sopravvivere e li trasferivano agli altri. I nostri geni costruiscono cervelli abili nell'imitazione perché gli schemi imitati erano, considerati nel complesso, schemi di valore; dopotutto i loro propositori originari erano sopravvissuti per diffonderli. I memi stessi, tuttavia, devono fronteggiare problemi di "vita" e di "morte": in quanto replicatori essi evolvono unicamente per sopravvivere e diffondersi. Ma come i virus, essi possono replicarsi senza favorire la sopravvivenza o il benessere di chi li ospita. Di fatto il meme del "martire-per-unacausa" può diffondere se stesso proprio grazie al semplice fatto di uccidere la persona che lo ospita. I geni, come i memi, sopravvivono per mezzo di molte strategie. Alcuni geni d'anatra hanno diffuso se stessi incoraggiando le anatre a formare coppie stabili che potessero prendersi cura dei portatori dei loro geni, ossia uova e piccoli. Alcuni geni d'anatra hanno diffuso se stessi incoraggiando (nei maschi d'anatra) lo stupro, ed altri (nelle femmine d'anatra) la posa delle uova in nidi d'altre anatre. Altri geni, anche questi riscontrati nelle anatre, sono geni virali capaci di diffondere se stessi senza contribuire alla generazione di ulteriori anatre. Proteggere le uova aiuta le specie d'anatra (e i singoli geni d'anatra) a sopravvivere; lo stupro aiuta un insieme di geni d'anatra a spese di un altro insieme; le infezioni virali aiutano i geni virali a spese dei geni d'anatra nel complesso. Come sottolinea Richard Dawkins, i geni hanno "cura" solo della propria replicazione: essi quindi si mostrano "egoisti". Ma motivi egoistici possono incoraggiare la cooperazione(14). La gente in cerca di denaro e di riconoscimenti personali, coopera alla costituzione di enti che servono i bisogni di altra gente. I geni egoisti cooperano per costruire organismi che spesso risultano essere cooperativi di per se stessi. Ma anche se le cose stanno così, immaginare che i geni servano automaticamente qualche bene più grande (il bene dei loro cromosomi? Delle loro cellule? Dei loro corpi? Delle loro specie?) significa interpretare erroneamente quello che è un effetto comunemente diffuso, confondendolo con una causa sottostante. Ignorare l'egoismo dei replicatori significa cullarsi con una pericolosa illusione. Alcuni geni nelle cellule sono in tutto e per tutto "parassiti". Come i geni dell'herpes inseriti nel cromosoma umano, essi sfruttano le cellule e danneggiano l'organismo che li ospita. Quindi, se i geni possono essere parassiti, perché non altrettanto i memi? Nel libro The Extended Phenotype(15), Richard Dawkins descrive un verme che parassitizza le api e completa il suo ciclo vitale in acqua. Esso induce l'ape che la ospita ad andare verso l'acqua, facendo in modo che l'ape si tuffi verso la sua morte. Analogamente, alcuni vermi che parassitizzano i cervelli di formica devono entrare in una pecora per completare il loro ciclo vitale. Per portare a termine questo compito, essi scavano cunicoli nel cervello della formica che li ospita, provocando in qualche modo dei cambiamenti che fanno sì che la formica "voglia" arrampicarsi sulla cima di un filo d'erba ed attendere di essere finalmente mangiata da una pecora. Così come i vermi penetrano in altri organismi e li usano per sopravvivere e replicarsi, così fanno i
memi. Infatti, l'assenza di memi che sfruttino la gente per i loro fini egoistici dovrebbe risultare sorprendente, sintomo di un sistema immunitario mentale piuttosto potente, di fatto quasi perfetto. Ma i memi parassiti indubbiamente esistono. Proprio come i virus evolvono per spingere le cellule a fabbricare virus, così le voci evolvono per suonare plausibili ed interessanti, stimolando la loro ripetizione. Non vi domandate se una voce è vera, domandatevi come si diffonde. L'esperienza mostra che le idee evolutesi per essere replicatori di successo hanno ben poco bisogno di avere a che fare con la verità. Nella migliore delle ipotesi, le catene di Sant'Antonio, le chiacchiere apocrife, le follie alla moda ed altri parassiti mentali, danneggiano la gente facendogli sprecare del tempo. Ma nella peggiore delle ipotesi, essi inculcano concezioni erronee mortali. Questi sistemi memetici sfruttano l'ignoranza e la vulnerabilità umana. Diffonderli è come avere un raffreddore e starnutire in faccia ad un amico. Nonostante alcuni memi agiscano in modo non dissimile da quello di un virus, le infezioni non sono necessariamente una cattiva cosa (pensiamo ad un sorriso contagioso, o ad un contagioso buon carattere). Se un corpo di idee ha dei meriti, la sua diffusione per infezione semplicemente ne aumenta il merito, ed infatti i migliori insegnamenti etici ci insegnano anche ad insegnare l'etica. Le buone pubblicazioni possono intrattenere, arricchire la comprensione, aiutare a giudicare, ed anche far propaganda per gli abbonamenti. Diffondere sistemi memetici utili è come offrire semi utili ad un amico che ha un giardino. Selezionare Idee I parassiti hanno obbligato gli organismi ad evolvere sistemi immunitari, come per esempio gli enzimi che i batteri utilizzano per fare a pezzi i virus invasori, o i globuli bianchi del sangue che pattugliano i nostri corpi per distruggere i batteri. I memi parassiti hanno obbligato le nostre menti a percorrere una strada analoga, ed esse hanno evoluto dei sistemi memetici che svolgono la funzione di sistemi immunitari mentali. Il più vecchio e più semplice sistema immunitario mentale ordina semplicemente: "credi nel vecchio, rifiuta il nuovo". Qualcosa di simile a questo sistema generalmente preserva le tribù dall'abbandonare le strade vecchie e già collaudate, in favore di nuove e folli nozioni come quella di obbedire a presunti fantasmi che ordinano una distruzione di tutto il bestiame e il grano della tribù, perché tale distruzione in qualche maniera provocherebbe una miracolosa abbondanza di cibo, nonché la disponibilità di grandi eserciti di antenati per scacciare gli stranieri (questo meme ha realmente infettato la gente della tribù dei Xhosa(16) nel Sud Africa nel 1856 e nei successivi anni sono morte 68.000 persone, principalmente di fame). Il sistema immunitario del vostro corpo segue una regola simile: generalmente esso accetta tutte i tipi di cellule già presenti all'inizio della vostra vita e rigetta come straniere e pericolose quelle che potrebbero essere potenziali cellule cancerose o batteri invasori. Questo semplice sistema "rigettail-nuovo" un tempo funzionava bene, tuttavia in questa era di trapianti d'organi può anche uccidere. Analogamente, in un'era in cui scienza e tecnologia regolarmente presentano fatti che sono nuovi ma anche attendibili, un sistema immunitario mentale rigido diventa una menomazione dannosa. Nonostante le sue manchevolezze, tuttavia, il principio del "rigetto del nuovo" è semplice ed offre vantaggi reali. La tradizione mantiene molto di ciò che è vero e provato (o, se non proprio vero, quanto meno funzionante). Cambiare è rischioso: proprio come la maggior parte delle mutazioni sono maligne, così molte delle nuove idee sono sbagliate. Persino la ragione può essere pericolosa: se una tradizione lega delle pratiche fondate ad una irrazionale paura dei fantasmi, la eccessiva confidenza nel pensiero razionale potrebbe gettar via il buono assieme al falso. Sfortunatamente, le tradizioni evolutesi per essere buone, potrebbero risultare meno attraenti rispetto ad idee evolutesi per sembrare buone. Come già detto, le tradizioni fondate potrebbero essere sostituite da idee
maligne che meglio si appellano alla mente razionale. Tuttavia, i memi che sigillano la mente per proteggerla dalle nuove idee, proteggono anche se stessi in un auto-utilitarismo che è sospetto. Mentre preservano tradizioni di valore da alterazioni maldestre, potrebbero anche funzionare come uno scudo che impedisca la verifica della veridicità di parassitari sproloqui ad effetto. In tempi di trasformazioni rapide essi possono rendere le menti pericolosamente rigide. Molta della storia della filosofia e della scienza potrebbe essere interpretata come la ricerca di migliori sistemi immunitari mentali, ossia di migliori modi per rigettare quel che è falso, inutile e dannoso. I sistemi migliori rispettano la tradizione, sebbene incoraggino la sperimentazione. Essi suggeriscono degli standard per giudicare i memi, aiutando la mente a distinguere fra parassiti e strumenti. I principi dell'evoluzione ci forniscono un modo per guardare al cambiamento, indipendentemente dal fatto che esso si presenti in molecole, organismi, tecnologie, menti o culture. Le questioni di base che vengono sollevate in tutte queste situazioni sono invariabilmente le stesse: Cosa sono i replicatori? Come mutano? Cosa determina il loro successo? Come si difendono dagli invasori? Tali questioni emergeranno nuovamente quando si esamineranno le conseguenze della rivoluzione degli assemblatori, ed ancora una volta prenderemo in considerazione i modi in cui la società potrebbe affrontare queste conseguenze. I principi fortemente invarianti del cambiamento evolutivo definiranno le forme in cui si manifesterà lo sviluppo della nanotecnologia, tanto più che la distinzione fra hardware e vita comincia a diventare sfocata. Questi principi mostrano moltissimo di ciò che possiamo o non possiamo conquistare, e possono aiutarci a indirizzare adeguatamente i nostri sforzi di modellare il futuro. Essi ci spiegano anche molto su quello che possiamo e non possiamo prevedere, perché guidano non solo l'evoluzione dell'hardware, ma della conoscenza stessa. ---------Capitolo 3: PREVEDERE E PROGETTARE Le Trappole della Profezia Scienza e Legge Naturale Scienza contro Tecnologia La Lezione di Leonardo Il Passo Avanti degli Assemblatori L'attitudine critica può essere descritta come il tentativo cosciente di fare in modo che le nostre teorie e congetture soffrano al posto nostro nella lotta per la sopravvivenza del più adatto. Essa ci da una possibilità di sopravvivere all'eliminazione di ipotesi inadeguate, dove una attitudine dogmatica le eliminerebbe eliminandoci(1). - Sir KARL POPPER Nel guardare avanti per vedere dove ci stia conducendo la corsa tecnologica, dovremmo porci tre domande. Cosa è possibile, cosa è ottenibile e cosa è desiderabile? Anzitutto, dove sia coinvolto dell'hardware, le leggi naturali impongono limiti al possibile. Dato che gli assemblatori apriranno una strada inedita verso il raggiungimento di questi limiti, comprendere gli assemblatori è una chiave per comprendere ciò che è possibile.
In secondo luogo, i principi del cambiamento ed i fatti specifici della nostra situazione attuale impongono limiti all'ottenibile. Dato che l'evoluzione di replicatori giocherà un ruolo basilare, i principi dell'evoluzione sono una chiave per comprendere ciò che è ottenibile. Per quanto riguarda cosa sia desiderabile o indesiderabile, la diversità dei nostri sogni spinge verso la ricerca di un futuro che abbia spazio per la diversità, mentre le nostre comuni paure spingono verso la ricerca di un futuro sicuro. Queste tre domande (sul possibile, l'ottenibile, ed il desiderabile) formano un cornice di riferimento entro cui definire un approccio alla previsione. In primo luogo, le conoscenze scientifiche ed ingegneristiche delineano una mappa dei limiti del possibile. Nonostante ancora confusa ed incompleta, questa mappa traccia i confini dei limiti permanenti all'interno dei quali il futuro deve muoversi. In secondo luogo, i principi evolutivi determinano quali percorsi restano aperti e definiscono i limiti dell'ottenibile, inclusi i limiti inferiori poiché i progressi che promettono di migliorare la vita o di accrescere la potenza militare saranno virtualmente inevitabili. Ciò consente una predicibilità limitata: se la corsa evolutiva, vecchia di eoni, non frenerà bruscamente fino ad un completo arresto, la pressione competitiva modellerà il nostro futuro tecnologico entro i confini dei limiti del possibile. Infine, entro i vasti confini del possibile e dell'ottenibile, possiamo tentare di conquistarci un futuro che ci sembri desiderabile. Le Trappole della Profezia Ma come potrebbe, una qualunque persona, riuscire a prevedere il futuro? Le tendenze politiche ed economiche sono notoriamente capricciose, ed i mutamenti si propagano in modo puramente casuale, come fossero rotolanti dadi da gioco lanciati sulle superfici dei continenti. Persino i, relativamente continui, progressi della tecnologia, spesso eludono la previsione. I pronosticatori spesso avanzano ipotesi sui tempi ed i costi richiesti per lo sfruttamento di nuove tecnologie. Quando si spingono oltre il confine delle possibilità delineate e tentano predizioni accurate, di solito falliscono. Per esempio, nonostante gli space shuttle fossero indubbiamente possibili, le predizioni sui loro costi e sulla data del loro primo lancio erano sbagliate in termini di diversi anni e di miliardi di dollari. Gli ingegneri non possono prevedere accuratamente quando sarà sviluppata una tecnologia, perché lo sviluppo coinvolge sempre delle incertezze. Ma dobbiamo provare a prevedere e a guidare lo sviluppo. Svilupperemo delle tecnologie mostruose prima o dopo di sviluppare quelle per ingabbiarle? Alcuni mostri, una volta sguinzagliati, non possono più essere ricacciati nelle gabbie. Per sopravvivere, dobbiamo mantenere il controllo accelerando certi sviluppi e rallentandone altri. Nonostante una tecnologia possa, talvolta, intercettare i pericoli comportati da un'altra tecnologia (difesa contro offesa, sorveglianza dell'inquinamento contro inquinamento stesso), le tecnologie in competizione fra loro spesso procedono nella stessa direzione. Il 29 Dicembre 1959, Richard Feynman (successivamente premiato con un Nobel) tenne una conferenza al raduno annuale della American Physical Society intitolata "There's Plenty of Room at the Bottom(2)" (C'è un mucchio di spazio giù in fondo). Descrisse un approccio di tipo non biochimico alla realizzazione di nanomacchine artificiali (lavorando a scalare verso il basso, un passo dopo l'altro ed utilizzando macchine più grandi per costruirne di più piccole) ed affermò che i principi della fisica non si esprimono contro la possibilità di manovrare le cose atomo per atomo: "Non è qualcosa che tenta di violare una qualche legge; è qualcosa che, in linea di principio, può essere fatta; ma in pratica non è stata fatta perché siamo troppo grandi [...] in definitiva, siamo capaci di fare della sintesi chimica [...] metti giù atomi, dove i chimici dicono che vanno messi, e fabbrichi la sostanza". Essenzialmente, Feynman tracciò un'altra strada, non biochimica, verso gli assemblatori. Affermò
anche che questo è "uno sviluppo che io penso non possa essere evitato". Come discuterò nei capitoli 4 e 5, assemblatori e macchine intelligenti semplificheranno molti problemi riguardanti il costo e i tempi dello sviluppo tecnologico. Ma le domande su tempi e costi annebbiano ancora la nostra visione del periodo fra il presente e questi passi avanti tecnologici. Nel 1959 Richard Feynman disse che le nanomacchine potrebbero dirigere la sintesi chimica, inclusa, probabilmente, la sintesi del DNA. Tuttavia non poté prevedere nulla ne riguardo i tempi, ne riguardo i costi per poter fare tutto questo. Di fatto, naturalmente, i biochimici hanno sviluppato tecniche per produrre DNA anche senza farsi aiutare da nanomacchine programmabili, sfruttando scorciatoie che si basano su specifici trucchi chimici. Le tecnologie vincenti spesso hanno successo a causa di trucchi e dettagli che non sono ovvi. A metà degli anni '50 i fisici riuscirono a vedere che i principi basilari dei semiconduttori rendevano fisicamente possibile i microcircuiti, ma prevedere come potessero essere realizzati, vedere in anticipo in tutta la loro complessità i dettagli delle tecniche di produzione dei mascherini e dei rivestimenti isolanti, ed i dettagli delle tecniche di accrescimento degli ossidi, dell'impiantazione ionica, dell'incisione, ecc…, sarebbe stato impossibile. Le sfumature dei dettagli e i vantaggi competitivi che selezionano le tecnologie vincenti rendono complessa la corsa tecnologica ed impredicibile il suo percorso. Ma tutto questo rende futile la previsione sul lungo termine? In una corsa verso i limiti imposti dalle leggi naturali, la linea di arrivo è prevedibile anche se il percorso e il passo dei corridori non lo sono. Non sono i capricci umani ma le immutabili leggi naturali a tracciare la linea fra ciò che è fisicamente possibile e quello che non lo è; nessun atto politico, nessun movimento sociale può cambiare la legge di gravità di un solo pizzico. Così, per quanto futuristiche possano sembrare, le fondate proiezioni delle possibilità tecnologiche sono pienamente distinte dalle previsioni. Esse si fondano sulle leggi senza tempo della natura piuttosto che sulle bizzarrie degli eventi. E' una sfortuna che visioni di una certa perspicacia rimangano rare. In mancanza di esse, incespichiamo inebetiti lungo il paesaggio del possibile, confondendo montagne per miraggi e non dando importanza ad entrambi. Guardiamo avanti con menti e culture radicate nelle idee di tempi più indolenti, quando sia la competizione scientifica che quella tecnologica mancavano della loro attuale velocità e robustezza. Solo di recente abbiamo cominciato a evolvere una tradizione di previsione tecnologica. Scienza e Legge Naturale Scienza e tecnologia sono intrecciate. Gli ingegneri utilizzano la conoscenza prodotta dagli scienziati; gli scienziati utilizzano gli strumenti prodotti dagli ingegneri. Scienziati e ingegneri lavorano entrambi con descrizioni matematiche delle leggi naturali e verificano le loro idee grazie ad esperimenti. Ma scienza e tecnologia differiscono radicalmente nelle loro basi, nei loro metodi e nei loro obiettivi. La comprensione di queste differenze è cruciale per una previsone credibile. Nonostante entrambi i campi siano costituiti da sistemi evolutivi di memi, tali memi evolvono, nei rispettivi campi, sotto pressioni selettive differenti. Consideriamo le radici della conoscenza scientifica. Lungo la maggior parte della storia, la gente ha avuto ben poca comprensione della evoluzione. Ciò lasciava pensare ai filosofi che l'evidenza sensoriale, mediata dalla ragione, doveva in qualche modo imprimere nella mente l'intera umana conoscenza, inclusa la conoscenza delle leggi di natura. Ma nel 1737, il filosofo scozzese David Hume presentò agli altri filosofi un malizioso rompicapo: egli mostrò che le osservazioni non possono dimostrare con la logica una regola generale, e che il fatto che il Sole abbia brillato fino ad ora, giorno dopo giorno, a rigor di logica non prova nulla riguardo l'ipotesi che splenderà domani. Ed infatti un qualche giorno il sole morirà smentendo
questa logica. Il problema di Hume apparve per distruggere l'idea di una conoscenza razionale, che fortemente influenzava i filosofi razionali (incluso lo stesso Hume). I filosofi si agitarono e sudarono per la sconfitta, e l'irrazionalismo guadagnò terreno. Nel 1945, il filosofo Bertrand Russell osservò che "la crescita dell'irrazionale attraverso il dicianovesimo secolo e quello che è trascorso del ventesimo è una naturale conseguenza della distruzione dell'empirismo ad opera di Hume(3)". Il meme-problema di Hume ha reciso di netto la stessa idea di conoscenza razionale, quantomeno di quella intesa nel modo in cui la gente l'aveva immaginata. Nelle decadi recenti, Karl Popper (forse il filosofo della scienza preferito degli scienzati), nonché Thomas Kuhn, ed altri, hanno riconosciuto che la scienza è un processo evolutivo. Essi hanno visto la scienza non più come un processo meccanico tramite cui delle osservazioni, in qualche modo, generano delle conclusioni, ma come una battaglia in cui le idee competono per l'approvazione. Tutte le idee, in quanto memi, competono per l'approvazione, ma il sistema memetico della scienza è speciale: esso ha una tradizione di deliberata mutazione delle idee nonché un sistema immunitario unico per controllare i mutanti. I risultati dell'evoluzione mutano a seconda della pressione selettiva applicata, si tratti di evoluzione di molecole di RNA in provetta o di insetti, idee, o macchine. L'hardware evoluto per la refrigerazione differisce dall' hardware evoluto per il trasporto, per cui i frigoriferi sono automobili molto scadenti. In generale, i replicatori evoluti per "A" differiscono da quelli evoluti per "B". I memi non fanno eccezione. Parlando in senso ampio, le idee possono evolvere per sembrare vere o possono evolvere per essere vere (intendendo, in questo secondo caso, idee evolute per sembrare vere a coloro che le hanno esaminate accuratamente) (4). Antropologi e storici hanno descritto cosa accade quando le idee evolvono per sembrare vere fra gente priva dei metodi della scienza; le teorie che ne risultano (la teoria delle malattie basata sugli spiriti maligni, la teoria delle stelle come luci infisse su una cupola, e così via) sono, quasi senza eccezioni, identiche in tutto il mondo. Gli psicologi che hanno indagato sulle ingenue concezioni erronee della gente riguardo il moto degli oggetti in caduta, hanno riscontrato molte credenze simili a quelle che nel Medio Evo, prima del lavoro di Galileo e Newton, hanno finito per evolversi in formali sistemi "scientifici". Galileo e Newton utilizzarono esperimenti ed osservazioni per mettere alla prova le idee riguardanti gli oggetti ed il loro moto, dando quindi inizio ad un'era di drastico progresso scientifico: Newton evolse una teoria che sopravvisse ad ogni verifica allora disponibile. I loro metodi di verifica deliberata uccisero le idee che si allontanavano troppo dalla verità, incluse idee che si erano evolute per fare appello alla ingenua mente umana. Questa tendenza è proseguita. Ulteriori variazioni e verifiche hanno indotto l'evoluzione ulteriore delle idee scientifiche, obbligandole a cedere strada anche ad alcune idee apparentemente bizzarre come la varianza del tempo e la curvatura dello spazio nella teoria della relatività, o la funzione d'onda di probabilità delle particelle in meccanica quantistica. Anche la biologia si è sbarazzata della speciale forza vitale la cui esistenza veniva presunta dai primi biologi, rivelando invece elaborati sistemi di piccole ed invisibili macchine molecolari. Le idee evolutesi per essere vere (o vicine alla verità) si sono trasformate più e più volte fino a sembrare false o incomprensibili. La verità e l'apparenza di verità si sono trasformate fino a diventare diverse come lo sono automobili e frigoriferi. Le idee nelle scienze fisiche si sono evolute sotto varie regole selettive di base. In primo luogo, gli scienziati non prestano attenzione alle idee che mancano di conseguenze verificabili; essi evitano così che le loro teste restino ingombrate da parassiti inutili. In secondo luogo, gli scienziati cercano dei sostituti per le idee che non hanno superato le verifiche sperimentali. E per finire, gli scienziati cercano idee in grado di produrre l'insieme più ampio possibile di predizioni esatte. La legge di
gravità, per esempio, descrive come cadono le pietre, come orbitano i pianeti, e come vorticano le galassie, producendo predizioni talmente esatte da lasciare ampio margine per la loro confutazione. La ampiezza e la precisione della legge di gravità, allo stesso modo, le conferiscono una utilizzabilità ampia, ed aiutano gli ingegneri tanto a progettare ponti quanto a pianificare voli spaziali. La comunità scientifica fornisce un ambiente dove tali memi possono diffondersi, spronati dalla competizione e sottoposti ad verifica sperimentale in grado di farli evolvere verso caratteristiche di potenza ed accuratezza. L'accordo sull'importanza della verifica sperimentale delle teorie, tiene unita la comunità scientifica durante le feroci controversie riguardanti le teorie stesse. Una prova inesatta e limitata non può mai dimostrare una teoria esatta e generale (come ha ben mostrato Hume), ma può confutare altre teorie generali, e così facendo può aiutare gli scienziati a scegliere fra queste. Come altri processi evolutivi, la scienza crea qualcosa di positivo (un crescente accumulo di teorie proficue) attraverso un doppio negativo (provare la falsità delle teorie incorrette). Il ruolo centrale della prova negativa tiene conto di alcune rivoluzioni mentali indotte dalla scienza: come meccanismo di confutazione, la scienza può sradicare credenze ben nutrite, lasciando vuoti psicologici che non ha affatto necessità di riempire nuovamente. In termini pratici, ovviamente, molta conoscenza scientifica è solida come un sasso cascatovi sull'alluce. Sappiamo che la Terra gira attorno al Sole (nonostante i nostri sensi ci suggeriscano altrimenti) poiché la teoria si adatta alle innumerevoli osservazioni e perché sappiamo che i nostri sensi vengono ingannati. Abbiamo ben più di una semplice teoria dell'esistenza degli atomi: li abbiamo legati assieme per formare molecole, sollecitato l'emissione di luce da essi, ed infine li abbiamo osservati al microscopio (seppur a malapena) e persino distrutti in pezzi. Abbiamo ben più di una semplice teoria dell'evoluzione: abbiamo osservato mutazioni, osservato la selezione, e osservato l'evoluzione in laboratorio. Abbiamo trovato le tracce dell'evoluzione passata nelle rocce del nostro pianeta, ed osservato l'evoluzione modellare i nostri strumenti, le nostre menti, e le idee nelle nostre menti, inclusa la stessa idea di evoluzione. Il processo della scienza ha elaborato una spiegazione unificata di molti fatti, incluso il modo in cui la scienza e la gente stessa siano arrivate ad esistere. Quando la scienza ha finito di confutare le teorie relative ad un certo fatto, quelle sopravvissute spesso si scoprono essere talmente addossate l'una vicina all'altra che le distanze fra loro non fanno alcuna differenza pratica(5). Dopo tutto, se ci fosse una differenza pratica fra due teorie sopravvissute, questa differenza potrebbe essere sperimentalmente messa alla prova ed usata per confutare una delle due teorie. Le differenze fra le moderne teorie della gravitazione, per esempio, sono di gran lunga troppo sottili per preoccupare gli ingegneri impegnati nel progetto di voli attraverso i campi gravitazionali dello spazio. Infatti, gli ingegneri pianificano i voli spaziali utilizzando ancora la ormai confutata teoria di Newton, perché è più semplice di quella di Einstein, e resta comunque abbastanza accurata per questo scopo. La teoria della gravitazione di Einstein è analogamente sopravvissuta a tutte le verifiche, per quanto non ci sia una prova assoluta per essa e mai ci sarà. La sua teoria produce predizioni esatte riguardo ogni cosa e dovunque (quanto meno riguardo alle questioni di gravitazione), ma gli scienziati possono eseguire solo approssimate misure riguardanti qualche cosa e qualche luogo. E, come Karl Popper fa notare, uno può sempre inventare una teoria così simile ad un'altra che le evidenze esistenti non possono permettere di scartarla(6). Nonostante certi dibattiti condotti sui media evidenzino l'esistenza di incertezze e disaccordi che ricadono su questioni ai confini della conoscenza, resta chiaro il potere della scienza di costruire accordo. In che altro ambito c'è una così grande crescita di concordia, così costante e così internazionale? Sicuramente non in politica, o nella religione, o nell'arte. Infatti, il principale rivale della scienza è un suo parente: l'ingegneria, che evolve anch'essa attraverso proposte e verifiche
rigorose. Scienza contro Tecnologia Nelle parole del direttore di ricerca IBM, Ralph E. Gomory, "L'evoluzione dello sviluppo tecnologico viene spesso confusa con la scienza nella mente del pubblico(7)". Questa confusione getta scompiglio sui nostri sforzi per la previsione. Nonostante gli ingegneri si avventurino spesso su terreni incerti, non sono così obbligati a farlo quanto invece lo sono gli scienziati. Essi possono sfuggire ai rischi implicati dalla proposta di teorie scientifiche universali e precise. Gli ingegneri necessitano soltanto di dimostrare che sotto certe particolari condizioni, certi particolari oggetti funzionano abbastanza bene. Un ingegnere non ha bisogno di conoscere l'esatta tensione a cui è sottoposto il cavo di sospensione di un ponte, e nemmeno l'esatta tensione che lo romperà; il cavo reggerà il ponte fino a che la prima delle due tensioni, qualunque sia il suo valore, rimarrà inferiore alla seconda. Nonostante delle misurazioni non possano provare una eguaglianza precisa, possono comunque provare delle diseguaglianze. I risultati degli ingegneri possono perciò possedere una solidità a cui le teorie scientifiche precise non possono aspirare. I risultati degli ingegneri possono anche sopravvivere alle successive confutazioni delle teorie scientifiche che li supportano, quando la nuova teoria fornisca risultati piuttosto simili. Il caso degli assemblatori, per esempio, sopravviverà ad ogni successivo raffinamento delle nostre teorie della meccanica quantistica e dei legami molecolari. A rigor di logica, prevedere il contenuto delle nuove conoscenze scientifiche è impossibile, perché non ha senso dichiarare di conoscere già i fatti che si impareranno solo in futuro. Prevedere i dettagli delle tecnologie future, d'altra parte, è semplicemente un compito difficile. La scienza mira a conoscere, ma l'ingegneria mira a fare, e ciò consente agli ingegneri di parlare delle conquiste future senza paradosso. Essi possono evolvere il loro hardware nel mondo della mente e della computazione, prima ancora di iniziare ad intagliare il metallo o persino prima di aver riempito il progetto di tutti i dettagli necessari. Gli scienziati comunemente riconoscono questa differenza fra previsione scientifica e previsione tecnologica: essi avanzano prontamente delle previsioni tecnologiche riguardo la scienza. Gli scienziati per esempio erano in grado di prevedere, come hanno effettivamente fatto, la qualità tecnica delle immagini degli anelli di Saturno prese dal Voyager, ma non il loro sorprendente contenuto. Infatti, essi previdero la qualità delle immagini mentre telecamere e fotocamere erano ancora delle semplici idee e bozze progettuali. I loro calcoli utilizzarono principi di ottica oramai ben dimostrati, senza coinvolgere nessuna nuova scienza. Poiché la scienza mira a comprendere come ogni cosa funzioni, l'addestramento scientifico può essere di grande aiuto nella comprensione di specifici pezzi di hardware. Tuttavia, ciò non crea automaticamente ingegneri esperti; progettare un aereo di linea richiede molto più che una conoscenza delle scienze della metallurgia e della aereodinamica. Gli scienziati sono stimolati dai loro colleghi ed indotti dal loro addestramento a focalizzare l'attenzione su idee che possono essere sottoposte a verifica per mezzo degli apparati disponibili. Ne risulta una attenzione su temi a breve termine, spesso idonei ad assolvere bene gli scopi della scienza: questa attenzione tiene alla larga gli scienziati dal vagare sterilmente in mondi nebulosi di fantasie non verificate ed accelera l'attuazione di verifiche sperimentali utili per costruire un efficiente sistema immunitario mentale. Sfortunatamente, tuttavia, questa preferenza culturale verso verifiche di breve termine può far si che gli scienziati siano meno interessati ai progressi tecnologici
di lungo termine. L'impossibilità di una previsione genuina riguardo la scienza conduce molti scienziati a considerare tutte le affermazioni riguardo gli sviluppi futuri come "speculative", un termine che ha perfettamente senso quando applicato al futuro della scienza, ma poco senso quando applicato alle proiezioni ben fondate sul terreno della tecnologia. Tuttavia la maggior parte degli ingegneri condivide una propensione analoga verso il breve termine. Essi sono troppo condizionati dal loro addestramento, nonché spronati dai loro colleghi e datori di lavoro, a focalizzarsi su un'unica tipologia di problema e cioè il progetto di un sistema che possa essere realizzato con la tecnologia presente o con tecnologie appena dietro l'angolo. Persino per progetti di ingegneria a lungo termine, come ad esempio lo space shuttle, sono costretti ad imporre una data tecnologicamente limitante, superata la quale nessun nuovo sviluppo tecnologico può divenire parte del progetto del sistema. In breve, gli scienziati si rifiutano di fare previsioni sulla conoscenza scientifica futura, e raramente discutono gli sviluppi futuri dell'ingegneria. Gli ingegneri fanno proiezioni degli sviluppi futuri, ma raramente discutono qualsiasi capacità non basata su quelle presenti. Tuttavia questo lascia un vuoto cruciale: che ne è che degli sviluppi ingegneristici futuri solidamente basati sulla scienza presente ma in attesa di abilità ingegneristiche future? Questo vuoto lascia scoperta una proficua area di studio. Immaginate una linea di sviluppo che coinvolga sia l'impiego di strumenti già esistenti per costruirne di nuovi, che l'impiego di questi nuovi strumenti per costruire hardware inedito (in cui sia eventualmente inclusa una ulteriore nuova generazione di strumenti). Ogni insieme di strumenti può basarsi su principi ben stabiliti e tuttavia l'intera sequenza di sviluppo può richiedere molti anni poiché ogni passo comporta un vasto insieme di problemi specifici da appianare. Gli scienziati che pianificano il loro prossimo esperimento e gli ingegneri che progettano il loro prossimo dispositivo, potrebbero ben ignorare tutto eccetto che il primo passo. E ciò nonostante, il risultato finale potrebbe ugualmente risultare prevedibile, se ricade entro l'area delimitata dai confini del possibile ampiamente dimostrati da quella parte di conoscenza scientifica già ben consolidata. La storia recente può illustrare questa situazione in modo esplicito. Ben pochi ingegneri presero in considerazione la costruzione di stazioni spaziali quando ancora nessun razzo era mai entrato in orbita, sebbene i principi su cui esse si basano erano già allora sufficientemente chiari, e tuttavia l'ingegneria dei sistemi spaziali è oggi un campo fiorente. Analogamente, pochi matematici ed ingegneri studiarono le possibilità della computazione automatica fino a che non furono costruiti i primi computer, ma molti lo fecero in seguito. Non è perciò così sorprendente che pochi scienziati ed ingegneri abbiano finora esaminato il futuro della nanotecnologia, per quanto importante essa possa diventare. La Lezione di Leonardo I tentativi di proiettare gli sviluppi ingegneristici hanno una lunga storia, e gli esempi del passato ne illustrano le possibilità presenti. Per esempio, come fece Leonardo da Vinci a riuscire in così gran misura nella previsione tecnologica e perché in qualche caso ha fallito? Leonardo visse cinque secoli fa, lungo un periodo di tempo che vide anche la scoperta del Nuovo Mondo. Produsse delle proiezioni in forma di disegni ed invenzioni; ogni suo progetto potrebbe essere inteso come una proiezione di qualcosa che con tutta probabilità si potrebbe rendere funzionante. Riuscì bene come ingegnere meccanico: progettò dispositivi funzionanti (alcuni dei quali non sarebbero stati costruiti che secoli dopo) per escavatrici, lavorazione di metalli, trasmissione di potenza meccanica ed altri scopi. Fallì come ingegnere aereo: oggi sappiamo che le sue macchine volanti non potrebbero mai funzionare se costruite secondo le sue descrizioni.
I suoi successi come progettista di macchine sono facilmente comprensibili. Se le parti costituenti possono realizzarsi con sufficiente accuratezza e con materiali sufficientemente forti e resistenti, il progetto di macchine dai movimenti lenti ed esclusivamente composte da leve, pulegge e cuscinetti rotanti, diviene un mero problema di geometria e teoria delle leve. Leonardo riuscì a comprendere questo piuttosto bene. Alcune delle sue "predizioni" erano di ampia portata, ma solo perché passarono molti anni prima che la gente imparasse a fabbricare parti sufficientemente precise, sufficientemente resistenti e sufficientemente forti da servire (per esempio) come buoni cuscinetti a sfera, il cui impiego infatti non giunse che circa trecento anni dopo che Leonardo li ebbe proposti. Analogamente, non fu possibile realizzare ingranaggi con dentature cicloidali di prim'ordine per quasi due secoli, dopo che Leonardo li ebbe disegnati, ed uno dei suoi progetti con "catene di guida" non venne costruito prima che passassero quasi tre secoli. I suoi fallimenti con i velivoli sono altrettanto facili da comprendere. Poiché a Leonardo mancava una scienza della aereodinamica non poté calcolare le forze agenti sulle ali e nemmeno poté conoscere i requisiti per la spinta e il controllo del velivolo. La gente del nostro tempo, può sperare di produrre delle proiezioni riguardanti le macchine molecolari altrettanto accurate di quelle sulle macchine di metallo prodotte all'epoca da Leonardo da Vinci? Possiamo evitare di incorrere in errori analoghi a quelli presenti nei suoi progetti per la costruzione di macchine volanti? L'esempio di Leonardo suggerisce che possiamo farlo. Potrebbe aiutarci ricordare che Leonardo stesso probabilmente non confidava nelle sue macchine aeree, e che i suoi errori, nonostante tutto, contenevano un germe di verità. Aveva ragione a credere che macchine volanti di qualche tipo fossero possibili, ed infatti ne poteva essere assolutamente certo poiché queste esistevano già. Uccelli, pipistrelli ed api dimostravano la possibilità del volo. Inoltre, nonostante non ci fossero esempi funzionanti dei suoi cuscinetti a sfera, o delle sue ruote dentate e delle sue catene di guida, poteva avere fiducia nei principi su cui si basavano. Menti abilissime avevano già costruito un esteso corpo di conoscenza a fondamento della geometria e delle leggi delle leve meccaniche. Sebbene alle parti di cui Leonardo necessitava dovessero richiedersi una forza ed una accuratezza tali che potrebbero aver suscitato in lui alcuni dubbi, non altrettanto si può dire delle loro interrelazioni riguardanti funzione e movimento(8). Leonardo fu in grado di proporre macchine che richiedevano parti migliori di quelle note a qualsiasi suo contemporaneo, e tuttavia poté nutrire un certo grado di fiducia nella validità del loro progetto. Le proposte di tecnologie molecolari, allo stesso modo, si poggiano su vaste fondamenta di conoscenza, non solo geometria e teoria delle leve ma anche conoscenze riguardanti i legami chimici, la meccanica statistica e la fisica in generale. Questa volta, tuttavia, i problemi delle proprietà materiali e della accuratezza di fabbricazione non emergono in maniera separata. Le proprietà degli atomi e dei legami chimici sono le proprietà materiali, e gli atomi si presentano prefabbricati e perfettamente standardizzati. Per cui, sembra proprio che siamo meglio preparati alla previsione di quanto lo fosse la gente al tempo di Leonardo: sappiamo molto più sulle molecole e sul controllo dei legami chimici di quanto essi conoscessero sull'acciaio e la fabbricazione di parti meccaniche di precisione. In aggiunta a ciò, possiamo osservare le nanomacchine che già esistono nelle cellule, esattamente come Leonardo poté osservare le macchine (uccelli) che già volavano in cielo. La produzione di proiezioni riguardanti il modo in cui si potrebbe costruire la seconda generazione di nanomacchine a partire dalle macchine proteiche è sicuramente più semplice di quanto fosse all'epoca produrre proiezioni sul modo in cui delle precise macchine d'acciaio potessero realizzarsi a partire dalle ben più rudimentali macchine del tempo di Leonardo. Imparare ad usare macchine rudimentali per costruirne di più precise richiedeva l'impiego di molto tempo, ed i metodi per farlo erano tutt'altro che ovvi. Le macchine molecolari, al contrario, saranno costruite a partire da parti
atomiche prefabbricate e fra loro identiche, che necessitano solo di essere assemblate assieme. La fabbricazione di macchine precise con ingranaggi curvi ed irregolari deve essere stata ben più difficile da immaginare di quanto sia ora immaginare l'assemblaggio molecolare. E d'altra parte, sappiamo che l'assemblaggio molecolare è qualcosa che si verifica continuamente in natura. Per confidare sulle nostre proiezioni, ancora una volta poggiamo su un terreno più solido di quello su cui si poggiava Leonardo. Ai tempi di Leonardo, la gente aveva scarse conoscenze di elettricità e magnetismo, e non conosceva nulla delle molecole e della meccanica quantistica. Di conseguenza, luci elettriche, radio e computer avrebbero sconcertato le persone di quei tempi. Oggi invece le leggi di base più importanti per l'ingegneria, ossia quelle che descrivono la normale materia, sembrano ben comprese. Come con le teorie gravitazionali sopravvissute, i meccanismi scientifici della confutazione hanno forzato la sopravvivenza delle sole teorie della materia su cui esiste uno stretto consenso generale. Tale conoscenza è recente. Prima di questo secolo la gente non capiva ancora perché i solidi fossero solidi o perché il Sole splendesse. Gli scienziati non comprendevano le leggi che governano la materia nell'ordinario mondo di molecole, persone, pianeti e stelle. Questo è il motivo per cui il nostro secolo ha generato tutte assieme cose come i transistor e le bombe ad idrogeno, ed al contempo il motivo per cui le tecnologie molecolari cominciano a delinearsi all'orizzonte. Questa conoscenza è accompagnata da nuove speranze e nuovi pericoli, ma almeno ci fornisce i mezzi per vedere entrambi in anticipo e per prepararci ad essi. Quando siano note le leggi alla base di una tecnologia, le possibilità future possono essere previste (sebbene con qualche lacuna, altrimenti Leonardo avrebbe previsto i computer meccanici). Persino quando le leggi di base siano scarsamente conosciute, come lo erano i principi della aereodinamica al tempo di Leonardo, la natura può comunque dimostrare delle possibilità. Infine, quando sia la scienza che la natura evidenzino una possibilità, dovremmo prendere a cuore tale possibilità e produrre piani in conseguenza. Il Passo Avanti degli Assemblatori I fondamenti della scienza possono evolvere e modificarsi, tuttavia continueranno a sostenere un edificio stabile e crescente di pragmatica conoscenza ingegneristica. Alla fine, gli assemblatori permetteranno agli ingegneri di fabbricare qualsiasi cosa possa essere progettata, scavalcando i tradizionali problemi riguardanti i materiali disponibili e i metodi di fabbricazione. Già adesso, approssimazioni e modelli computerizzati permettono agli ingegneri di evolvere progetti anche in assenza degli strumenti richiesti per implementarli (9). Tutto ciò contribuirà a rendere possibile la previsione, e non solo. Al progredire della nanotecnologia, giungeranno tempi in cui gli assemblatori cominceranno a delinearsi come una prospettiva imminente, sostenuta da seri e ben finanziati programmi di sviluppo. Le loro capacità, da ipotetiche quali sono, diverranno ben chiare. Per allora i sistemi di progettazione molecolare assistita dal computer, che già oggi iniziano a comparire, saranno diventati comuni e sofisticati grazie alla spinta impressa loro dai progressi nelle tecnologie dei computer e dalle crescenti necessità degli ingegneri molecolari(10). Utilizzando questi strumenti di progetto, gli ingegneri saranno in grado di progettare i nanosistemi di seconda generazione, inclusi gli assemblatori di seconda generazione che dovranno costruire tali nanosistemi. Inoltre, lasciando margini abbastanza ampi per tener conto di inaccuratezze (e preparando progetti alternativi), gli ingegneri saranno in grado di progettare molti sistemi che funzioneranno subito, ossia appena costruiti per la prima volta. Gli ingegneri avranno evoluto
progetti fondati in un mondo di molecole simulate. Consideriamo la forza di questa situazione: in fase di sviluppo ci saranno i più grandi utensili della storia, un autentico sistema di fabbricazione generale capace di costruire qualsiasi cosa si possa progettare - e per di più un sistema di progettazione che può stare in un'unica mano. C'è qualcuno che attenderebbe fino all'apparire degli assemblatori prima di iniziare a pianificare sui modi di utilizzarli? O le compagnie aziendali e le nazioni risponderanno alla pressione esercitata dalla presenza di nuove opportunità e nuove competizioni progettando in anticipo dei nanosistemi, al fine di accelerare lo sfruttamento degli assemblatori non appena questi arrivino? Pare certo che questo processo di progettazione anticipata (11) si verificherà; il solo interrogativo residuo è quando partirà e quanto andrà lontano. Anni di tranquillo progresso progettuale potrebbero erompere, all'alba del passo avanti tecnologico degli assemblatori, nell'apparizione di nuovo hardware con una repentinità senza precedenti. Quanto bene progetteremo in anticipo e che cosa progetteremo, potrebbero determinare se sapremo sopravvivere e prosperare, o se cancelleremo noi stessi. Poiché il passo avanti tecnologico degli assemblatori influenzerà quasi l'intero corpo della tecnologia, la sua previsione è un compito enorme. Dell'universo dei possibili dispositivi meccanici, Leonardo poté prevederne solo qualcuno. Analogamente, del ben più vasto universo delle tecnologie future, le menti moderne possono prevederne poche. Ma anche la visione anticipata di qualche progresso, sembra comunque essere di basilare importanza. Tecnologia medica, frontiera spaziale, computer avanzati, e nuove invenzioni sul piano sociale, promettono tutte di giocare ruoli interdipendenti. Ma il rivoluzionario passo avanti degli assemblatori influenzerà tutte queste cose, e molte altre.
Parte Seconda: I PROFILI DEL POSSIBILE Capitolo 4: Motori di abbondanza Capitolo 5: Macchine pensanti Capitolo 6: Il mondo oltre la Terra Capitolo 7: Motori di guarigione Capitolo 8: Longevità in un mondo aperto Capitolo 9:Una porta sul futuro Capitolo 10: I limiti dello sviluppo ---------Capitolo 4: Motori di abbondanza Replicatori Sferraglianti Replicatori Molecolari Molecole e Grattacieli Se ogni strumento, quando gli viene ordinato o di sua spontanea volontà, potesse fare il lavoro che gli si addice […], non ci sarebbe bisogno né di apprendisti che lavorino per gli artigiani, né di schiavi per i signori.(1) - ARISTOTELE Il 27 marzo 1981, il radiogiornale CBS citò uno scienziato NASA (2) come autore
dell'affermazione secondo la quale gli ingegneri sarebbero stati in grado di costruire robot autoreplicanti entro venti anni, per impiego terrestre e spaziale. Queste macchine avrebbero costruito copie di se stesse, e le copie sarebbero state programmate per fabbricare prodotti utilizzabili. Egli non aveva dubbi sulle loro possibilità, se solo e quando fossero stati costruiti. Aveva, in certa misura, ragione. Fin dal 1951, quando John von Neumann tracciò i principi delle macchine auto-replicanti, gli scienziati si sono trovati generalmente concordi sulle loro possibilità. Nel 1953 Watson e Crick descrissero la struttura del DNA, che mostrava come le cose viventi siano dotate delle istruzioni che guidano la loro stessa costruzione. I biologi, da allora, hanno imparato sempre maggiori dettagli sui modi in cui funziona il macchinario molecolare auto-replicante delle cellule. Hanno scoperto che esso segue gli stessi principi che von Neumann tracciò. Così come gli uccelli mostrano la possibilità del volo, così la vita in generale dimostra la possibilità di auto-replicazione, almeno per i sistemi di macchine molecolari. Lo scienziato della NASA, comunque, aveva in mente qualcos'altro. Replicatori Sferraglianti I replicatori biologici, come i virus, i batteri, le piante e le persone (3), utilizzano macchine molecolari. I replicatori artificiali, possono invece usare la tecnologia di mole. Poiché attualmente noi abbiamo solo la tecnologia di mole, gli ingegneri potrebbero usarla per costruire replicatori prima dell'avvento della tecnologia molecolare. L'antico mito di una magica forza vitale (associata con le erronee interpretazioni dell'entropia secondo cui il suo incremento significa che tutto nell'universo debba costantemente degenerare) ha diffuso un meme che afferma che i replicatori dovrebbero violare qualche legge naturale. Semplicemente non è così. I biochimici comprendono come si replicano le cellule e non trovano nulla di magico in esse. Infatti essi vi vedono macchine adeguatamente approvvigionate di tutto il materiale, l'energia e le istruzioni necessarie per svolgere il compito di replicazione. Le cellule si replicano; i robot potrebbero replicarsi. Progressi nell'automazione condurranno in modo naturale verso replicatori meccanici, siano o meno fabbricati per uno specifico fine. Al crescere della pressione competitiva, crescerà l'automazione, e si ridurrà la necessità di lavoro umano nelle fabbriche. La Fujitsu Fanuc (4) fa già funzionare un reparto meccanizzato, all'interno di un suo impianto di fabbricazione, per ventiquattro ore al giorno e con solo dicianove operai sul campo durante il giorno e nessuno durante la notte. Questa fabbrica produce 250 macchine al mese, delle quali 100 sono robot. Nel caso più estremo, i robot potrebbero svolgere tutto il lavoro di assemblaggio necessario per la costruzione di altri robot, nonché assemblare anche altro equipaggiamento, produrne le parti necessarie, occuparsi di far funzionare le miniere e i generatori che riforniscono le differenti fabbriche di materiali ed energia, e così via. Nonostante una tale rete di fabbriche disseminate su tutto il paesaggio non assomiglierebbe ad un robot "in cinta", essa dovrebbe costituire un sistema auto-sviluppato ed auto-replicante. Il passo avanti tecnologico degli assemblatori, di certo giungerà ben prima che si realizzi una completa automazione dell'industria, nonostante che la tendenza moderna si muova verso una sorta di gigantesco e sferragliante replicatore unico. Ma come può un sistema simile sostenersi e ripararsi senza intervento umano? Immaginiamo una fabbrica automatica capace sia di testare le parti componenti, sia di assemblarle in equipaggiamenti completi. Le parti difettose non superano i collaudi e vengono gettate o riciclate. Se la fabbrica può anche prendere temporaneamente da parte intere macchine, le riparazioni sono facili: semplicemente basta disassemblare le macchine difettose, collaudare tutte le loro parti,
sostituire ogni parte logora o rotta, e riassemblarle. Un sistema ancora più efficiente potrebbe persino diagnosticare i problemi senza dover collaudare tutte le singole parti, sebbene tale funzionalità non sia strettamente necessaria. Un sistema di fabbriche capace di auto-diffondersi, e gestito da robot, funzionerebbe ma sarebbe ingombrante. Utilizzando una progettazione più ingegnosa ed il numero minimo di differenti parti e materiali, gli ingegneri possono adattare un sistema replicante affinché stia in una singola scatola; ma la scatola potrebbe ancora essere immensa poiché deve contenere equipaggiamento capace di produrre e assemblare assieme molte differenti parti. Quante differenti parti? Tante quante ne contiene esso stesso. Quante differenti parti e materiali sarebbero necessarie per costruire una macchina in grado di lavorare ed assemblare così tanti differenti materiali e parti? Difficile da stimare, ma i sistemi basati sulla tecnologia odierna utilizzerebbero quanto meno dei chip elettronici. Costruirli da se richiede fin troppo equipaggiamento da mettere in pancia ad un piccolo replicatore. I conigli si replicano, ma essi richiedono parti prefabbricate come, per esempio, molecole di vitamine. Prendere queste parti dal cibo permette loro di sopravvivere con meno macchinario molecolare di quello che gli occorrerebbe se dovessero fabbricarsi da zero ogni cosa di cui necessitano. Analogamente, un replicatore meccanico che usi chip prefabbricati potrebbe essere realizzato, in qualche modo, più semplicemente di uno che costruisca da se tutto ciò che gli occorre. I suoi peculiari requisiti "dietetici" lo vincolerebbero anche ad una più vasta "ecologia" di macchine, aiutandoci così a tenerlo a freno. Gli ingegneri, in studi commissionati dalla NASA, hanno proposto di usare nello spazio questo tipo di semi-replicatori, consentendo all'industria spaziale di espandersi con solo un piccolo apporto di parti sofisticate costantemente rifornite dalla Terra. Tuttavia, poiché i replicatori realizzati in tecnologia di mole devono eseguire un assemblaggio delle loro parti, essi devono contenere sia parti per costruire i componenti di base, sia parti per il loro assemblaggio finale. Questo evidenzia un vantaggio dei replicatori molecolari: i loro componenti di base sono atomi e gli atomi si trovano già pronti. Replicatori Molecolari Le cellule si replicano. Le loro macchine copiano il loro DNA, il quale dirige il macchinario ribosomico verso la costruzione di altre macchine a partire da molecole più semplici. Queste macchine e molecole sono contenute in una sacca riempita di liquido. La sua membrana fornisce carburante alle molecole e parti per la costruzione di ulteriori nanomacchine, DNA, membrane, e così via. La membrana permette la fuoriuscita del carburante esaurito e dei frammenti residui dei componenti. Una cellula si replica copiando le parti interne alla sacca delimitata dalla membrana, disponendole in due raggruppamenti, e quindi strozzando la sacca in due parti. I replicatori artificiali potrebbero essere costruiti per lavorare in maniera simile, ma utilizzando assemblatori invece di ribosomi. In questo modo, potremmo costruire replicatori simili a quelli delle cellule, che non siano però limitati a macchinario molecolare realizzato con i delicati ed elusivi ripiegamenti spaziali delle molecole proteiche. Ma gli ingegneri sembrano più inclini a sviluppare altri approcci alla replicazione. L'evoluzione non ha nessuna facile maniera di alterare gli schemi fondamentali della cellula, e questi schemi non sono immuni da qualche inefficienza. Nelle sinapsi, per esempio, le cellule del cervello inviano segnalazioni alle loro vicine tramite lo svuotamento di vesciche piene di molecole chimiche. Le molecole si urtano l'una con l'altra, fuori dalla vescica, fino a legarsi a molecole-sensori delle cellule vicine, talvolta attivando su queste la generazione di un impulso neurale. Una sinapsi chimica costituisce un commutatore di segnale piuttosto lento, e gli impulsi neurali si propagano più
lentamente del suono. Con gli assemblatori, gli ingegneri molecolari costruiranno interi computer più piccoli di una sinapsi ed un milione di volte più veloci. Mutazione e selezione non potrebbero trasformare una sinapsi in un nanocomputer meccanico più di quanto un allevatore non possa trasformare un cavallo in una automobile. Nonostante questo, gli ingegneri hanno costruito le automobili ed impareranno anche a costruire computer più veloci dei cervelli, nonché replicatori più capaci delle cellule esistenti. Alcuni di questi replicatori non somiglieranno affatto a cellule, quanto piuttosto a fabbriche(5) miniaturizzate fino a dimensioni cellulari. Esse conterranno nanomacchine montate su impalcature molecolari e nastri trasportatori per convogliare le parti da macchina a macchina. Esternamente esse saranno dotate di un insieme di bracci assemblatori atti a costruire, una sezione o un atomo alla volta, repliche di se stessi. La velocità con cui questi replicatori potranno replicarsi dipenderà dalla loro velocità di assemblaggio ma anche dalla loro dimensione. Immaginiamo un assemblatore avanzato che contenga un milione di atomi: esso può avere anche dieci migliaia di parti mobili, ognuna contenente in media un centinaio di atomi costituenti, ossia un numero di parti sufficiente a comporre una macchina piuttosto complessa. Di fatto l'assemblatore stesso appare come una scatola che supporta un tozzo braccio robotico lungo un centinaio di atomi. La scatola e il braccio contengono dispositivi che muovono il braccio da posizione a posizione, ed altri dispositivi che cambiano l'utensile molecolare sulla sua punta. Dietro la scatola c'è un dispositivo che legge un nastro e fornisce segnali meccanici che attivano i movimenti del braccio e le sostituzioni dell'utensile. Di fronte al braccio c'è una struttura non terminata. I nastri trasportatori portano molecole al sistema assemblatore. Alcuni forniscono energia ai motori che muovono il braccio e il lettore del nastro, ed altri forniscono gruppi di atomi per l'assemblaggio. Atomo dopo atomo (o gruppo di atomi dopo gruppo di atomi), il braccio muove i pezzi verso il posto giusto, in base alle direttive del nastro; quando i pezzi vengono a contatto con la struttura, delle comuni reazioni chimiche legano assieme pezzo e struttura. Questi assemblatori lavoreranno velocemente. Un enzima rapido (6), come l'anidrasi carbonica o l'isomerasi chetosteroide, può processare quasi un milione di molecole per secondo, persino senza disporre di trasportatori e nemmeno di meccanismi, alimentati da energia, in grado di posizionare una nuova molecola al suo posto non appena una vecchia viene rilasciata. Potrebbe sembrare troppo aspettarsi da un assemblatore che afferri una molecola, la muova, e la incolli al suo posto in un semplice milionesimo di secondo. Ma appendici piccole possono muoversi avanti e indietro molto rapidamente. Un braccio umano può agitarsi su e giù diverse volte per secondo, le dita possono tamburellare anche più rapidamente, mentre una mosca può sventolare le sue ali abbastanza velocemente da ronzare, ed una zanzara può produrre un frignare esasperante. Gli insetti possono vibrare le proprie ali con frequenze di circa un migliaio di volte più grandi rispetto alle frequenze di un braccio umano oscillante, perché l'ala di un insetto è circa mille volte più corta. Il braccio di un assemblatore sarà circa cinquanta milioni di volte più corto di un braccio umano, per cui (estrapolando in proporzione) saprà muoversi avanti e indietro circa cinquanta milioni di volte più rapidamente (7). Per il braccio di un assemblatore muoversi solo un milione di volte per secondo sarebbe come per un braccio umano muoversi una volta per minuto: ossia sarebbe equivalente ad un movimento pigro. Quindi pare proprio che questa meta sia molto ragionevole. La velocità di replicazione dipenderà anche dalla dimensione totale del sistema da costruire. Gli assemblatori non si replicheranno da soli; avranno bisogno di materiali ed energia, ed istruzioni su come usare queste cose. Ordinarie sostanze chimiche possono fornire materiali ed energia, ma
devono essere disponibili nanomacchine per processare entrambi. Le irregolarità di polimeri molecolari sono adatte a fungere da memoria per l'immagazzinamento di informazioni, l'analogo di un nastro di carta perforata, ma deve essere anche disponibile un lettore per tradurre gli schemi di irregolarità del polimero in schemi di movimenti del braccio. Considerate tutte assieme, queste parti, formano l'essenza del replicatore: il nastro fornisce istruzioni per assembrare una copia dell'assemblatore, una copia del lettore, e copie di ulteriori nanomacchine e del nastro stesso (8). Un progetto ragionevole per questo tipo di replicatori probabilmente includerà svariati bracci assemblatori Nonché svariati bracci per spostare e mantenere in posizione i pezzi di lavoro. Ognuno di questi bracci aggiungerà un altro milione di atomi o giù di lì. Le altre parti (lettori di nastri, processori chimici, e così via) potrebbero anche avere lo stesso ordine di complessità dell'assemblatore. Infine, un sistema replicatore flessibile probabilmente includerà anche un semplice computer; se costruito seguendo l'approccio meccanico che ho menzionato nel capitolo 1, il nanocomputer aggiungerà a questo conteggio all'incirca 100 milioni di atomi. Tutte assieme, queste parti, totalizzeranno meno di 150 milioni di atomi. Assumiamo invece un totale di un miliardo, per lasciare un largo margine di errore. Ignorare le capacità aggiuntive dei bracci di assemblaggio addizionali ci lascia un margine ancora più grande. Lavorando ad un milione di atomi per secondo, il sistema riuscirà comunque a copiare se stesso in un migliaio di secondi, una frazione minuscola dei 15 minuti circa che, sotto buone condizioni, occorrono ad un batterio per replicarsi. Immaginate un tale replicatore che fluttua in una bottiglia piena di sostanze chimiche, producendo copie di se stesso. Esso costruisce una sua copia in mille secondi, e trentasei sue copie in dieci ore. In una settimana accumulerà abbastanza copie da riempire il volume di una cellula umana. In un secolo accumulerà abbastanza copie da produrre un rispettabile granello. Se questo fosse tutto quello che i replicatori possono fare, forse potremmo trascurarli in tutta certezza. Ogni copia, tuttavia, produrrà copie ulteriori. Così, se il primo assemblatore assembla una copia in mille secondi, questi due replicatori ne costruiscono altri due nei successivi mille secondi, questi quattro ne costruiscono altri quattro, ed i risultanti otto ne producono ancora altri otto. Alla fine delle prime dieci ore non ci sono trentasei nuovi replicatori, ma oltre 68 milioni. In meno di un giorno essi potrebbero pesare una tonnellata. In meno di due giorni supererebbero il peso della Terra. In altre quattro ore potrebbero eccedere la massa del Sole e di tutti i pianeti messi assieme, se non fosse che le sostanze chimiche della bottiglia si sono prosciugate già molto tempo prima. Raddoppio regolare significa crescita esponenziale. I replicatori, in assenza di restrizioni, si moltiplicano esponenzialmente fino a mancare di spazio o risorse. I batteri fanno proprio così, e quasi allo stesso ritmo dei replicatori appena descritti. La gente si replica molto più lentamente e tuttavia, con un sufficiente tempo a disposizione, potrebbe sovrastare ogni apporto finito di risorse. Le preoccupazioni riguardo la crescita demografica non perderanno mai la loro importanza. Le preoccupazioni riguardo il controllo della rapida crescita numerica di nuovi replicatori, diverranno presto realmente importanti. Molecole e Grattacieli Macchine in grado di afferrare e posizionare individualmente gli atomi, saranno capaci di costruire quasi qualunque cosa, legando chimicamente assieme gli atomi giusti negli schemi corretti, come ho descritto alla fine del capitolo 1. Di sicuro, la costruzione di grandi oggetti, un atomo alla volta, sarà lenta. Una mosca, dopo tutto, contiene circa un milione di atomi per ogni secondo trascorso da quando i dinosauri erano giovani. Ciò nonostante, le macchine molecolari possono costruire oggetti di dimensioni sostanziali, poiché esse, dopotutto, in natura costruiscono anche balene. Per produrre grandi oggetti rapidamente, un immenso numero di assemblatori deve cooperare, e i
replicatori possono produrre assemblatori a tonnellate. Infatti, con la corretta progettazione, la differenza fra un sistema assemblatore e un sistema replicatore starà interamente nella programmazione dell'assemblatore. Se un assemblatore-replicatore può copiare se stesso in mille secondi, allora può essere programmato per costruire altrettanto rapidamente qualcos'altro che abbia la sua stessa dimensione. Analogamente, una tonnellata di replicatori può rapidamente costruire una tonnellata di qualcos'altro, ed il prodotto avrà tutti i suoi miliardi di miliardi di miliardi di atomi collocati al giusto posto, con l'erroneo posizionamento soltanto di una loro minuscola frazione (9). Per comprendere le capacità e i limiti di un metodo per assemblare grossi oggetti, immaginiamo una lamina piatta ricoperta da piccoli bracci assemblatori, forse un esercito di replicatori riprogrammati per un lavoro di costruzione e schierati in file ordinate. Dietro di loro, trasportatori e canali di comunicazione li riforniscono di molecole reattive, di energia e di istruzioni per l'assemblaggio. Se ogni braccio occupa una area larga 100 diametri atomici, dietro ogni assemblatore ci sarà spazio per trasportatori e canali con un'area, in sezione, pari a 10.000 atomi. E ciò sembra essere uno spazio sufficiente. Uno spazio largo dieci o venti atomi può contenere un trasportatore (eventualmente basato su cinghie e carrucole molecolari). Un canale largo pochi atomi può contenere un'asta molecolare che, come quelle dei computer meccanici descritti nel capitolo 1, verrà spinta e tirata per trasmettere segnali. Tutti i bracci lavoreranno assieme per costruire una struttura estesa e solida, livello dopo livello. Ogni braccio sarà responsabile per la sua propria area, manipolando circa 10.000 atomi per livello. Una lamina di assemblatori che manipoli 1.000.000 di atomi per secondo e per braccio, completerebbe circa 100 livelli atomici per ogni secondo. Sebbene questo potrebbe apparire un sistema veloce, a questo ritmo impilare un sottile foglio di carta richiederebbe un'ora, e per mettere su una piastra spessa un metro ci vorrebbe un anno. Bracci più veloci potrebbero innalzare la velocità di assemblaggio fino a oltre un metro per giorno, ma produrrebbero più calore. Se tali bracci potessero costruire uno spessore di un metro al giorno, il calore sprigionato da un metro quadro potrebbe cuocere centinaia di bistecche contemporaneamente, e probabilmente friggerebbe le macchine. A certe dimensioni e velocità, i problemi di raffreddamento diventano un fattore limitante, ma ci sono altri modi per assemblare oggetti più velocemente senza surriscaldare le macchine. Immaginate di provare a costruire una casa incollando assieme singoli granelli di sabbia. Aggiungere un livello di granelli potrebbe impegnare le macchine incolla-granelli così a lungo che innalzare le pareti richiederebbe decadi. Ora immaginate che delle macchine in una fabbrica abbiano precedentemente incollato assieme i granelli per farne mattoni. La fabbrica può lavorare su molti mattoni alla volta. Con abbastanza macchine incolla-granelli, i mattoni verrebbero fuori rapidamente. Gli assemblatori di mura potrebbero quindi costruirle rapidamente, mettendo uno sull'altro i mattoni preassemblati. Analogamente, gli assemblatori molecolari lavorerebbero in squadra con assemblatori più grandi, per costruire rapidamente oggetti grandi. Le macchine possono essere di ogni dimensione, da molecolari a gigantesche. Con questo approccio la maggior parte del calore di assemblaggio sarebbe dissipato lontano dal sito di lavoro, nella produzione delle singole parti. La costruzione di un grattacielo e l'architettura della vita suggeriscono modi correlati per costruire grandi oggetti. Le grandi piante ed animali hanno dei sistemi vascolari, intricati canali che trasportano materiali alle macchine molecolari che lavorano lungo tutti i loro tessuti. Analogamente, dopo che impalcatori e rivettatori giungono a terminare lo scheletro di un grattacielo (il "sistema vascolare" dell'edificio), i suoi elevatori e corridoi, aiutati dalle gru, convogliano ovunque, agli operai nell'edificio, i necessari materiali da costruzione. Anche i sistemi di assemblaggio potrebbero adottare questa strategia, mettendo su per prima cosa una impalcatura e quindi lavorando in tutto il
suo volume, incorporando mano a mano i materiali che vengono convogliati dall'esterno tramite dei canali. Immaginiamo che questo approccio venga usato per "far crescere" un grosso motore di razzo, lavorando dentro una vasca di un impianto industriale. La vasca, fatta di acciaio scintillante e dotata di una finestra di vetro a beneficio dei visitatori, si erge ben oltre l'altezza di una persona, poiché deve contenere il motore una volta completato. Tubi e pompe la collegano ad altre attrezzature ed a scambiatori di calore con sistema di raffreddamento ad acqua. Questa disposizione permette all'operatore di far circolare all'interno della vasca una certa varietà di fluidi. Per iniziare il processo, l'operatore cala giù dalla cima della vasca, fino al fondo, la base piatta sulla quale il motore sarà costruito. La cima della vasca viene quindi sigillata. Alla pressione di un bottone, le pompe inondano la camera con un denso fluido latteo che sommerge la base ed oscura la finestra. Questo fluido proviene da un'altra vasca, nella quale si sono moltiplicati dei replicatoriassemblatori e che in seguito sono stati riprogrammati facendo loro copiare e diffondere un nuovo nastro di istruzioni (un po' come infettare dei batteri con un virus). Questi nuovi sistemi assemblatori, più piccoli di batteri, diffondono la luce e danno al fluido un aspetto latteo. La loro densa abbondanza rende invece viscoso il fluido. Al centro della base piatta, immersa nel turbinio del fluido carico di assemblatori, c'è un "seme". Esso contiene un nanocomputer con i piani del motore immagazzinati nella sua memoria, e la sua superficie è costellata di fessure nelle quali gli assemblatori si impigliano. Quando un assemblatore si impiglia in una di queste fessure, seme ed assemblatore si innestano assieme come se venissero connessi da uno spinotto elettrico posto nella apposita presa, ed il computer del seme trasferisce istruzioni al computer dell'assemblatore. Questa nuova programmazione spiega all'assemblatore dove egli si trovi in relazione al seme, e lo dirige perché estenda i suoi bracci manipolatori per catturare altri assemblatori. Anche questi altri si innesteranno all'insieme, e subiranno una analoga riprogrammazione. Obbedendo alle istruzioni provenienti dal seme (che si diffondono lungo tutta la rete in via di espansione degli intercomunicanti assemblatori) una sorta di reticolo cristallino di assemblatori cresce pian piano dal caos del liquido. Poiché ogni assemblatore conosce la sua posizione nel piano, egli cattura altri assemblatori dove questi siano necessari. Tutto ciò crea uno schema meno regolare e più complesso di quello di qualunque cristallo naturale. Nel corso di poche ore, l'impalcatura di assemblatori si sviluppa in accordo alla forma finale del motore per razzo progettato. A questo punto, le pompe della vasca ritornano in azione, rimpiazzando il fluido latteo di assemblatori residui, quelli cioè che non si sono agganciati all'insieme, con una miscela pulente di solventi organici e sostanze dissolte, inclusi composti d'alluminio, composti ricchi di ossigeno e composti che servono come carburante per gli assemblatori. Mano a mano che il fluido si schiarisce, la forma del motore per razzo diviene progressivamente visibile attraverso la finestra, apparendo come fosse un modello in scala reale scolpito in una bianca plastica traslucida. Successivamente, un messaggio diffuso dal seme dirige gli assemblatori designati perché rilascino i loro vicini e ripieghino i loro bracci. Gli assemblatori rilasciati vengono trascinati fuori dalla struttura in improvvisi rivoli biancastri, svelando un poroso reticolo di assemblatori attaccati sulla superficie esterna del razzo, che ora hanno spazio sufficiente per lavorare. La forma del motore nella vasca diventa progressivamente quasi trasparente, con un accenno di iridescenza. Ogni assemblatore rimasto, nonostante sia ancora legato ai suoi vicini, ora è circondato da minuscoli canali colmi di fluido. Bracci speciali sugli assemblatori funzionano come dei flagelli, sferzando il fluido per farlo circolare attraverso i canali. Questi movimenti, come tutti gli altri compiuti dagli assemblatori, sono generati da motori molecolari che usano le molecole nel fluido come carburante. Come dello zucchero disciolto alimenta il lievito, così questi composti chimici
disciolti alimentano gli assemblatori. Il fluido che scorre apporta nuovo carburante e nuovi materiali grezzi per la costruzione; scorrendo, porta via il calore prodotto. La rete di comunicazioni diffonde istruzioni ad ogni assemblatore. Gli assemblatori sono ora pronti per iniziare a costruire. Devono costruire un motore per razzo, che consiste principalmente di condotte e pompe. Questo significa costruire strutture forti e leggere in forme aggrovigliate, alcune capaci di sopportare calore intenso, alcune piene di tubi per trasportare il fluido di raffreddamento. Dove è necessaria una grande forza, gli assemblatori si mettono al lavoro per costruire bacchette di intricate fibre di carbonio nella sua forma diamantifera. Da queste, essi costruiscono un reticolo confezionato su misura per essere in grado di sopportare lo schema di sollecitazione atteso. Dove sia fondamentale una certa resistenza al calore ed alla corrosione (come su molte superfici), essi costruiscono strutture simili con ossido di alluminio, nella sua forma di zaffiro. Nelle zone in cui le sollecitazioni saranno lievi, gli assemblatori risparmiano massa lasciando nel reticolo spazi vuoti più ampi. Nelle zone in cui le sollecitazioni saranno intense, gli assemblatori rinforzano la struttura fino a che i passaggi rimanenti non diventano a malapena spaziosi quanto basta per consentire il passaggio degli assemblatori. In qualche punto, gli assemblatori depositano altri materiali per fabbricare sensori, computer, motori, solenoidi e qualsiasi altra cosa necessaria. Per terminare il loro lavoro, a questo punto, gli assemblatori costruiscono pareti per dividere gli spazi residui nei canali in celle quasi sigillate, quindi si ritirano verso le ultime aperture e pompano fuori il fluido interno. Sigillano le celle ora svuotate, e si ritirano completamente fluttuando via nel fluido circolante. Infine, la vasca viene prosciugata, uno spray risciacqua il motore, il coperchio viene sollevato e il motore finito viene issato fuori ad asciugarsi. La sua creazione ha richiesto meno di un giorno e quasi nessuna attenzione umana. A cosa assomiglia il razzo? Piuttosto che essere un massiccio blocco di metalli saldati e imbullonati, è una cosa priva di cuciture, al pari di una gemma. Le sue vuote celle interne, disposte in schiere distanziate di circa una lunghezza d'onda pari a quelle della luce visibile, provocano un effetto collaterale: come piccole buche su un disco laser, le celle diffrangono la luce, determinando una iridescenza mutevole simile a quella di un opale di fuoco. Questi spazi vuoti alleggeriscono ulteriormente una struttura che è già composta dai più leggeri e più forti materiali conosciuti. Confrontato con i moderni motori metallici, questo motore progredito ha oltre il 90 percento di massa in meno. Colpitelo con un dito ed esso risuonerà come un campanello dal tono sorprendentemente acuto, considerata la sua dimensione. Montato su un veicolo spaziale di analoga costruzione, esso volerà con disinvoltura dalla rampa di decollo allo spazio e viceversa. Sopporterà un utilizzo prolungato ed intenso, poiché i suoi robusti materiali costituenti hanno permesso ai progettisti di incorporare in esso margini di sicurezza più ampi. Poiché gli assemblatori hanno permesso ai progettisti di conformare la sua struttura perché possa cedere leggermente prima di rompersi (smorzando le sue incrinature in modo da arrestare la loro propagazione) il motore non sarà solo forte ma anche resistente. Nonostante tutta la sua eccellenza, questo motore è sostanzialmente piuttosto convenzionale. Ha semplicemente sostituito il denso metallo con strutture accuratamente confezionate di atomi leggeri e saldamente legati. Il prodotto finale non contiene alcuna nanomacchina. Progettazioni molto più avanzate sfrutteranno la nanotecnologia molto più a fondo. Tali progettazioni potrebbero lasciare un sistema vascolare residuo con lo scopo di approvvigionare sistemi assemblatori e disassemblatori. Tali sistemi possono essere programmati per riparare le parti usurate. Mano a mano che gli utilizzatori del motore lo approvvigioneranno di energia e materiali
grezzi, esso rinnoverà la propria struttura. Motori ancora più avanzati potrebbero essere, letteralmente, ancora più flessibili. I motori di razzo lavorano meglio se assumono forme diverse sotto condizioni operative diverse, ma gli ingegneri non possono rendere un blocco di metallo forte, leggero e pieghevole. E tuttavia, con la nanotecnologia, una struttura più forte dell'acciaio è più leggera del legno potrebbe cambiare forma come fosse un muscolo (funzionando realmente come un muscolo (10), ossia sul principio dello slittamento di fibre). Un motore potrebbe quindi espandersi, contrarsi e piegarsi allo scopo di fornire, sotto condizioni variabili, la spinta desiderata nella direzione desiderata. Se dotato di assemblatori e disassemblatori adeguatamente programmati, potrebbe persino rimodellare la sua struttura di base anche molto tempo dopo aver lasciato la vasca. In breve, gli assemblatori replicatori copieranno se stessi a tonnellate, quindi fabbricheranno altri prodotti come computer, motori per razzi, sedie e così via. Fabbricheranno anche disassemblatori capaci di smantellare la roccia per fornire i materiali grezzi. Fabbricheranno collettori solari per fornire energia. Nonostante saranno minuscoli, essi costruiranno in grande. In natura, squadre di nanomacchine costruiscono balene, seminano macchine di replicazione e organizzano atomi in immense strutture di cellulosa costruendo alberi di sequoia. Non c'è nulla di troppo sbalorditivo nel far crescere un motore per razzo in una vasca appositamente preparata. Di fatto, se dessimo a dei guardiaboschi gli opportuni "semi" assemblatori, essi potrebbero far crescere navi spaziali dal suolo, dall'aria e dalla luce del sole. Gli assemblatori saranno in grado di fabbricare potenzialmente qualunque cosa a partire da materiali comuni, e senza lavoro, rimpiazzando le attuali fabbriche fumanti con sistemi puliti quanto una foresta. Essi trasformeranno la tecnologia e l'economia alle loro radici, schiudendo un nuovo mondo di possibilità. Essi saranno, di fatto, dei motori di abbondanza. ---------Capitolo 5: Macchine pensanti L'Intelligenza delle Macchine L'Obiettivo di Turing Motori di Progettazione La Corsa IA Siamo Abbastanza Svegli? Accelerando la Corsa Tecnologica Il mondo è sulla soglia di una seconda era dei computer. La nuova tecnologia si sta attualmente spostando fuori dai laboratori, trasformando il computer da una macchina di calcolo fantasticamente veloce ad un dispositivo che imita i processi di pensiero umani, e dotando la macchina della capacità di ragionare, formulare giudizi e persino imparare. Questa "intelligenza artificiale" sta già oggi svolgendo dei compiti per i quali un tempo si pensava fosse indispensabile l'intelligenza umana…(1) -BUSINESS WEEK I computer sono usciti dai retrobottega e dai laboratori per aiutarci nella scrittura, nel calcolo e per permetterci di giocare in case ed uffici. Queste macchine svolgono compiti semplici e ripetitivi, ma le macchine che sono ancora dentro i laboratori sanno fare molto di più. I ricercatori che si occupano di Intelligenza Artificiale sono convinti che si possa rendere più intelligenti i computer, e sempre meno persone dissentono su questo. Per comprendere il nostro futuro dobbiamo capire se l'Intelligenza Artificiale è impossibile tanto quanto poter volare fino alla Luna. Le macchine pensanti non hanno bisogno di somigliare agli esseri umani nella forma esteriore,
negli scopi perseguiti o nelle capacità mentali. Infatti alcuni sistemi di Intelligenza Artificiale mostreranno ben pochi tratti di capacità intelligenti simili a quelle di un laureato in lettere, assolvendo invece il compito di potenti strumenti e "motori" di progettazione ingegneristica. Ciò nonostante, comprendere come le menti umane evolvano a partire da materia senza mente, ci può chiarire il modo in cui le macchine possano essere "fatte per pensare". La mente, come altre forme di "ordine", evolve attraverso meccanismi di variazione e selezione. Le menti agiscono. Non è necessario abbracciare il "comportamentismo Skinneriano" per vedere l'importanza del comportamento, incluso il comportamento interiore che chiamiamo pensiero. L'RNA che si replica in provetta mostra come l'idea di "scopo" si possa applicare (come una sorta di scorciatoia descrittiva) a molecole assolutamente prive di mente. Esse sono prive di nervi e muscoli, ma si sono evolute per "comportarsi" in modi che favoriscono la loro replicazione. Variazione e selezione hanno modellato i semplici comportamenti di ogni singola molecola, sicché questi comportamenti sono rimasti fissati per l'intera "vita" della molecola stessa. Le molecole individuali di RNA non si adattano, ma i batteri possono farlo. La competizione ha favorito quei batteri che si adattano ai cambiamenti, per esempio tramite aggiustamenti del loro mix di enzimi digestivi in conformità al cibo disponibile. Tuttavia, questi meccanismi di adattamento sono, in egual modo, fissati: le molecole di cibo fanno scattare degli interruttori genetici allo stesso modo in cui l'aria fredda fa scattare un termostato. Alcuni batteri usano anche una primitiva forma di guida per prove ed errori. I batteri di questo tipo tendono a nuotare lungo linee rette e sono altresì dotati di abbastanza "memoria" per poter ricordare se, mentre procedono, le condizioni stanno migliorando o peggiorando. Se avvertono che le condizioni stanno migliorando, continuano ad andare dritti. Se avvertono che le condizioni stanno diventando peggiori, si fermano, ruotano su se stessi, e si rimettono in moto lungo una direzione scelta a caso che generalmente sarà differente dalla precedente. Essi sperimentano direzioni diverse, favorendo quelle buone e scartando quelle cattive. E poiché questo comportamento li porta a vagare verso zone con maggiori concentrazioni di molecole di cibo, essi hanno potuto prosperare. Anche i vermi piatti sono privi di cervelli e tuttavia mostrano delle capacità di genuino apprendimento. In un semplice labirinto a "T", possono imparare a scegliere il percorso corretto. Provano a girare verso sinistra e provano a girare verso destra, e gradualmente selezionano il comportamento o acquisiscono l'abitudine che produce il migliore risultato. Questo è un meccanismo di selezione del comportamento basato sulle sue conseguenze, quello che gli psicologi comportamentisti chiamano "la Legge dell'Effetto". L'evoluzione dei geni delle specie di vermi ha prodotto vermi individuali con comportamento evolvente. Tuttavia i vermi che hanno imparato a percorrere labirinti (e persino i piccioni degli esperimenti di Skinner, i quali imparavano a beccare solo dopo che si fosse manifestato un lampo di luce verde), non mostrano alcun segno della riflessiva intenzionalità che noi associamo alla mente. Gli organismi che si adattano grazie al solo apprendimento per semplice Legge dell'Effetto, imparano soltanto per tentativi ed errori, variando e selezionando il comportamento corrente; essi non pensano né decidono a priori. Tuttavia la selezione naturale ha spesso favorito organismi che potrebbero pensare, e pensare non rappresenta qualcosa di magico. Come fa notare Daniel Dennett (2) della Tufts University, l'evoluzione dei geni può equipaggiare i cervelli animali con modelli interni di come funziona il mondo (qualcosa di simile ai modelli nei sistemi per la progettazione ingegneristica assistita dal computer). Gli animali possono quindi immaginare diverse azioni e conseguenze, evitando azioni che "sembrano" dannose ed eseguendo quelle che "sembrano" sicure e proficue. Confrontando delle idee d'azione con questi modelli interni, essi possono risparmiare lo sforzo e il rischio di sperimentare realmente le azioni nel mondo
esterno. Dennett sottolinea inoltre che la Legge dell'Effetto può rimodellare i modelli stessi. Come i geni possono essere predisposti per un comportamento evolvente, così possono essere predisposti per modelli mentali evolventi. Organismi flessibili possono variare i loro modelli e prestare maggiore attenzione alle versioni dei modelli che si dimostrano essere migliori come guide d'azione. Noi tutti conosciamo per esperienza diretta cosa significhi provare a fare delle cose ed imparare così quali siano quelle che funzionano. I modelli non necessitano di essere istintivi; possono evolvere nel corso di una singola vita. Privi di parola come sono, comunque, gli animali raramente trasferiscono agli altri le loro intuizioni apprese. Esse svaniscono assieme al cervello che le ha prodotte per la prima volta, perché i modelli mentali appresi non sono impressi nei geni. Tuttavia, anche animali privi di parola possono imitare qualsiasi altro individuo, dando luogo a memi e culture. Una scimmia femmina in Giappone inventò un modo di usare l'acqua per separare i chicchi di cereali dalla sabbia; altri hanno rapidamente imparato a fare lo stesso. Nelle culture umane, con i loro linguaggi e le loro immagini, i nuovi modelli sul funzionamento del mondo, dotati di valore, possono sopravvivere ai loro creatori e diffondersi in tutto il mondo. Su un livello ancora più alto, una mente (e qui "mente" è usato in un senso più appropriato) può contenere dei principi evolventi per giudicare se le parti di un modello, ossia le idee di una data visione del mondo, sembrino sufficientemente affidabili per guidare l'azione. La mente seleziona così i suoi propri contenuti, ed in questa selezione è inclusa la selezione delle regole per la selezione dei contenuti stessi. Le regole di giudizio che filtrano il contenuto della scienza si evolvono in questo modo. Così come evolvono i comportamenti, i modelli ed i principi per la conoscenza, così possono farlo gli scopi. Quello che porta beneficio, secondo un giudizio dettato da certi principi di base, comincia infine a sembrare buono; diventa di per se stesso uno scopo. L'onestà paga e diventa un valido principio per l'azione. Mano a mano che il pensiero e i modelli mentali guidano l'azione nonché una ulteriore riflessione, adottiamo pensieri chiari e modelli accurati come scopi da perseguire di per se stessi. La curiosità cresce, e con essa un amore per la conoscenza fine a se stessa. In tal modo, l'evoluzione degli scopi porta avanti sia la scienza che le etiche. Come scrisse Charles Darwin, "il più alto stadio possibile nella cultura morale si raggiunge quando riconosciamo che dovremmo controllare i nostri pensieri". Anche questo lo otteniamo per selezione e variazione, concentrandoci su pensieri validi e lasciando che altri scivolino via dalla nostra attenzione. Marvin Minsky, del MIT Artificial Intelligence Laboratory, vede la mente (3) come una sorta di società, un sistema evolvente di agenzie di comunicazione, cooperazione e competizione, ognuna a sua volta composta di agenti più semplici. Egli descrive il pensiero e l'azione in termini di attività di queste agenzie. Alcune agenzie possono fare poco più che guidare una mano affinché afferri una tazza, altre (enormemente più elaborate) guidano il sistema di linguaggio affinché scelga parole adatte alla situazione. Non siamo consapevoli di dirigere le nostre dita a circondare una tazza proprio così. Deleghiamo tali compiti ad agenti competenti e notiamo di rado il loro operato, a meno che non sbaglino qualcosa. Tutti noi avvertiamo impulsi contraddittori e pronunciamo parole senza intenzione; questi sono sintomi di discordia fra gli agenti della mente. La nostra consapevolezza è la parte di questo processo auto-regolato tramite il quale le nostre agenzie di livello più generale gestiscono le restanti. I memi potrebbero essere considerati come agenti della mente che vengono conformati per mezzo di insegnamento ed imitazione. Per avvertire che due idee sono in conflitto, dovete incorporale entrambe nella vostra mente sotto forma di agenti, nonostante una delle due potrebbe essere una idea vecchia, forte e supportata da altri agenti alleati e l'altra invece una fresca idea-agente che
potrebbe anche non sopravvivere alla sua prima battaglia. A causa della nostra superficiale autoconsapevolezza, spesso ci domandiamo con meraviglia da dove sia provenuta una idea che è nella nostra testa. Alcune persone immaginano che questi pensieri e queste sensazioni provengano direttamente da agenzie esterne alle proprie menti; e ciò li fa essere propensi a riporre fiducia nei "cacciatori di teste". Nell'antica Roma la gente credeva nei "genii", spiriti benigni e maligni che seguivano una persona dalla culla alla tomba, portandole buona o cattiva sorte. Attribuivano i successi eccezionali ad un particolare "genio". Ed anche ora, coloro che non riescono a vedere come i processi naturali creino delle novità, interpretano il "genio" alla stessa stregua di una forma di magia. Ma di fatto l'evoluzione genetica ha costruito menti capaci di espandere la propria conoscenza tramite modifica degli schemi di idee ed operando una selezione fra tali schemi. Con variazioni rapide e selezioni efficaci, guidate dalla conoscenza presa a prestito dagli altri, perché mai tali menti non dovrebbero mostrare ciò che chiamiamo genio? Guardare all'intelligenza come ad un processo naturale rende meno sorprendente l'idea di macchine intelligenti. E ci suggerisce anche come dovremmo lavorare. L'Intelligenza delle Macchine Una definizione da dizionario per macchina è: "Qualsiasi sistema o dispositivo (4), per esempio un calcolatore elettronico, che esegua, o sia d'aiuto nell'esecuzione di un compito umano". Ma, esattamente, quanti compiti umani saranno in grado di eseguire le macchine? Un tempo il calcolo era una capacità mentale oltre la portata delle macchine, giurisdizione esclusiva dell'intelligenza e dell'educazione. Oggi, nessuno pensa di chiamare "Intelligenza Artificiale" una calcolatrice tascabile; il calcolo appare ora come una "mera" procedura meccanica. Eppure, l'idea di costruire ordinari computer un tempo era scioccante. Nella metà del 1800, tuttavia, Charles Babbage costruì (5) calcolatrici meccaniche e parti di un computer meccanico programmabile; Incorse comunque in difficoltà di finanziamento e di costruzione. Un certo Dr. Young non lo aiutò affatto: obiettò che sarebbe stato più economico investire il denaro ed usare gli interessi che ne sarebbero derivati per pagare delle calcolatrici umane. E non lo aiutò neanche l'astronomo inglese Sir George Airy della British Royal Astronomy ; una annotazione sul suo diario riporta: "Il 15 settembre, Mr. Goulburn [...] ha chiesto la mia opinione sull'utilità della macchina calcolatrice di Babbage […] Ho risposto entrando approfonditamente nei dettagli riguardanti l'argomento, ed esprimendo la mia opinione che essa sia di nessun valore". La macchina di Babbage era troppo avanti rispetto ai suoi tempi, nel senso che per costruirla, i meccanici avrebbero dovuto necessariamente progredire nell'arte di costruire parti di precisione. E, di fatto, essa non avrebbe superato di molto la velocità di calcolo di un umano ben allenato, ma rispetto a questo sarebbe stata più affidabile e più agevolmente migliorabile. La storia dei computer e dell'Intelligenza Artificiale (comunemente denominata IA), assomiglia a quella del volo aereo e spaziale. Fino a tempi recenti alcune persone hanno liquidato entrambe le idee come impossibili, di solito intendendo con questo termine che esse non potevano proprio vedere come fosse possibile realizzarle, o che anche potendo sarebbero rimasti turbati dalla possibilità. E fin ora, l'IA non ha goduto di nessuna dimostrazione semplice e conclusiva, niente di equivalente ad un aereoplano funzionante o ad un atterraggio sulla Luna. Ci vorrà molto, ma la gente finirà per cambiare le sue definizioni di intelligenza. A parte i resoconti della stampa su "cervelli elettronici giganti", poche persone attribuirono intelligenza al primo computer. Infatti, lo stesso nome "computer" (computatore) suggerisce una macchina meramente aritmetica. Tuttavia nel 1956, a Dartmouth, durante la prima conferenza mondiale sulla Intelligenza Artificiale, i ricercatori Alan Newell e Herbert Simon presentarono
ufficialmente Logic Theorist, un programma che usava la logica simbolica per dimostrare teoremi. Negli anni successivi i programmi per computer giocarono a scacchi ed aiutarono i chimici a determinare le strutture di molecole. Due programmi medici, CASNET e MYCIN (il primo riguardante la medicina interna, l'altro riguardante la diagnosi e il trattamento delle infezioni), hanno svolto compiti con prestazioni di impressionante livello. Esperimenti di valutazione, condotti in accordo a quanto espresso nell'Handbook of Artificial Intelligence (6) (Manuale di Intelligenza Artificiale), hanno stimato la loro prestazione, nel rispettivo dominio di competenza, di livello equivalente a quella di un umano "esperto" nello stesso dominio. Un programma chiamato PROSPECTOR ha localizzato un giacimento di molibdeno nello stato di Washington, del valore di milioni di dollari. Questi cosiddetti "sistemi esperti" hanno riscosso successo solo all'interno di una area di competenza strettamente limitata, ma avrebbero potuto sbalordire i programmatori di computer dei primi anni '50. Oggi, comunque, poche persone li considerano come espressione di una reale intelligenza artificiale: la IA ha spostato in avanti il suo obiettivo. Il passo tratto da Business Week, in testa al capitolo, mostra solo che ora i computer possono venir programmati con sufficiente "conoscenza" annessa, ed eseguire trucchi sufficientemente fantasiosi da far si che la gente trovi comodo chiamarli "intelligenti". Anni di visioni di telefilm popolati da robot e computer parlanti hanno almeno reso più familiare l'idea della IA. La principale ragione per dichiarare impossibile la IA è sempre stata la nozione che le macchine siano intrinsecamente stupide, una idea che adesso comincia a sbiadire. La macchine del passato erano infatti cose grossolane ed ingombranti che svolgevano un lavoro di semplice forza bruta. Ma i computer manipolano informazione, seguono complesse istruzioni e possono essere istruite perché modifichino le proprie istruzioni. Possono sperimentare ed imparare. Non contengono ingranaggi o lubrificanti ma intrecci di cablaggi ed evanescenti schemi di energia elettrica. Come esorta Douglas Hofstadter (7) (per mezzo di un suo personaggio in un dialogo riguardante la IA): "Perché non lasciare che la parola 'macchina' evochi immagini di schemi di luci danzanti piuttosto che di gigantesche pale mosse dal vapore?". I critici da cocktail-party, messi a confronto con l'idea dell'intelligenza artificiale, spesso additano la stupidità dei computer attuali come se questo provasse qualcosa riguardo a quelli futuri (una macchina futura potrebbe domandarsi se questi critici manifestino pensiero genuino). Le loro obiezioni sono irrilevanti; le locomotive a vapore non volavano, e tuttavia dimostravano i principi meccanici successivamente utilizzati nei motori aerei. Analogamente, i vermi striscianti di un eone fa non mostravano nessuna evidente intelligenza, e nondimeno i nostri cervelli utilizzano neuroni molto simili ai loro. I critici improvvisati evitano anche di riflettere seriamente sull'IA, dichiarando che non può essere possibile costruire macchine più intelligenti di noi stessi. Essi dimenticano ciò che mostra la storia. I nostri distanti antenati privi di parola, attraverso l'evoluzione genetica riuscirono ad originare entità di intelligenza più grande della loro, senza neanche pensarci su. Ma noi ci stiamo realmente pensando su, ed i memi riguardanti la tecnologia evolvono ben più rapidamente dei geni in biologia. Possiamo sicuramente realizzare macchine dotate di capacità di apprendere e di organizzare conoscenza più simili a quelle umane (8). Quindi sembra esserci solo una idea che possa essere argomento di sostegno all'impossibilità di creare danzanti schemi di pensiero in nuove forme materiali. Questa idea è quella del materialismo mentale, ossia il concetto che la mente sia una sostanza speciale, una magica "roba-pensante", che è oltre ogni possibilità di imitazione, duplicazione o impiego tecnologico. Gli psicobiologi non vedono alcun indizio dell'esistenza di una tale sostanza, e non trovano affatto
necessario il materialismo mentale per spiegare la mente. Poiché la piena padronanza della complessità del cervello è oltre la capacità di comprensione umana, il cervello appare complesso quanto basta per incarnare una mente. In realtà, se una singola persona potesse pienamente comprendere un cervello, ciò richiederebbe a quel cervello una complessità mentale inferiore a quella della mente della persona che riesce a comprenderlo. Se tutti i miliardi di persone della Terra potessero collaborare alla semplice osservazione dell'attività di un singolo cervello umano, ogni persona avrebbe da monitorare simultaneamente decine di migliaia di sinapsi attive, il che è chiaramente un compito impossibile. Per una singola persona provare a comprendere globalmente i guizzanti schemi del cervello sarebbe una pretesa cinque miliardi di volte più assurda. Poiché la nostra meccanica cerebrale sovrasta in modo così massiccio la nostra capacità mentale di comprenderla a fondo, questa meccanica sembra complessa a sufficienza per incarnare la mente stessa. L'Obiettivo di Turing In un saggio scientifico del 1950 sull'intelligenza delle macchine, il matematico inglese Alan Turing scrisse: "Io credo che entro la fine del secolo l'uso delle parole e l'opinione comune della gente colta saranno mutate a tal punto che si potrà parlare di macchine pensanti senza temere di venir contraddetti (9)". Questo, però, dipenderà da quello che noi intenderemo parlando di pensiero. Alcuni dicono che solo le persone possono pensare, e che i computer non possono essere persone; dopo averlo detto, costoro tornano a sedersi con evidente aria compiaciuta. Ma nel suo articolo, Turing si domandava come giudichiamo l'intelligenza umana, e suggeriva che di solito giudichiamo la gente dalla qualità della loro conversazione. Propose quindi quello che chiamò "gioco di imitazione", e che oggi tutti chiamano "Test di Turing". Immaginate di essere in una stanza, e che siate in grado comunicare tramite un terminale con una persona e con un computer che si trovano in altre due stanze. Digitate un messaggio sul terminale; sia la persona che il computer possono rispondervi. Ognuno prova ad agire secondo una apparenza umana ed intelligente. Dopo una prolungata "conversazione" tramite tastiera che eventualmente tocchi temi letterari ed artistici, ma riguardante anche cose come il tempo metereologico del momento o il sapore che ha la bocca al mattino, potrebbe accadere di non poter ancora indicare quale sia la persona e quale la macchina. Turing suggerisce che se una macchina potesse conversare così bene e su base regolare, dovremmo considerarla genuinamente intelligente. Inoltre dovremmo ammettere che essa conosce molte cose riguardo gli esseri umani. Per la maggior parte degli scopi pratici non abbiamo bisogno di chiederci: "Una macchina possiede auto-consapevolezza? Ossia, ha coscienza?". Infatti, i critici che dichiarano che una macchina non può essere cosciente non sembrano mai capaci di spiegare del tutto cosa intendano col termine "coscienza". L'auto-consapevolezza si è evoluta per guidare pensiero ed azione, non come puro ornamento della nostra umanità. Dobbiamo essere consapevoli delle altre persone e delle loro capacità ed inclinazioni, per essere in grado di concepire dei piani che le coinvolgano. Analogamente dobbiamo essere consapevoli di noi stessi e delle nostre capacità ed inclinazioni, per concepire dei piani che ci riguardino. Non c'è alcun mistero speciale nella auto-consapevolezza. Ciò che chiamiamo il "se" reagisce a impressioni provenienti dal resto della nostra mente, orchestrando alcune delle sue attività. Questo ne fa non più (e non meno) che una parte speciale degli schemi di pensiero in reciproca interazione. L'idea che il "se" sia uno schema in una sostanza mentale extra (distinta dalla sostanza mentale del cervello) non spiegherebbe nulla riguardo alla consapevolezza. Una macchina che cerchi di passare il Test di Turing dovrebbe, ovviamente, dichiarare di possedere auto-consapevolezza. Gli estremisti del bio-sciovinismo direbbero semplicemente che sta mentendo oppure che è confusa. A condizione che si rifiutino di spiegare cosa intendano con "coscienza" non si può mai provare che sbaglino. Tuttavia, possano o meno essere considerate
intelligenti, le macchine intelligenti agiranno intelligentemente, e sono solo le loro azioni che ci interessano. Un giorno, forse, esse obbligheranno i biosciovinisti ad un vergognoso silenzio per mezzo di appassionate discussioni, e con l'ausilio di una brillante campagna di pubbliche relazioni. Nessuna macchina può attualmente superare il Test di Turing, ed è tutt'altro che probabile che qualcuna possa riuscirci presto. Sembra saggio domandarsi persino se ci sia una buona ragione per provarci: è possibile guadagnare molto di più da altre ricerche sulla IA, ricerche che sono guidate da altri obiettivi. Permettiamoci di fare distinzione fra due specie di intelligenza artificiale, sebbene un sistema dovrebbe mostrare entrambi i tipi (10). Il primo tipo è la IA tecnica, adatta a trattare con il mondo fisico. Gli sforzi in questo campo conducono verso l'ingegneria automatizzata e l'ausilio computerizzato all'investigazione scientifica. La seconda è la IA sociale (11), idonea a trattare con le menti umane. Gli sforzi in questo campo conducono verso macchine capaci di superare il Test di Turing. I ricercatori che lavorano su sistemi IA di tipo "sociale", strada facendo impareranno molto sulla mente umana, ed i loro sistemi saranno indubbiamente di grande valore pratico poiché tutti possiamo trarre profitto da aiuti e consigli intelligenti. Ma l'ingegneria automatizzata basata sulla IA "tecnica" avrà un impatto ben più grande sulla corsa tecnologica, inclusa la corsa verso la tecnologia molecolare. Ed un sistema avanzato di ingegneria automatizzata potrebbe essere di più facile sviluppo rispetto ad un sistema che superi il Test di Turing, il quale dovrebbe infatti non solo possedere conoscenza ed intelligenza ma anche essere in grado di mimare una umana conoscenza ed una umana intelligenza: una sfida supplementare e più difficile. Come Turing si domandò: "Le macchine non potrebbero attuare qualcosa che dovrebbe essere descritta come pensiero ma che è molto dissimile da ciò che fa un umano?(12)". Nonostante alcuni scrittori e politici possano rifiutarsi di riconoscere la possibilità di una macchina intelligente fino a quando non si trovino a confrontarsi con una macchina da conversazione in grado di superare il Test di Turing, molti ingegneri riconoscono l'esistenza di intelligenza anche in altre forme. Motori di Progettazione Ci siamo incamminati sulla strada che porta verso l'ingegneria automatizzata. Ingegneri competenti hanno commercializzato sistemi esperti che aiutano la gente a trattare problemi pratici. I programmatori hanno creato sistemi di progettazione assistita dal computer che incorporano le conoscenze riguardanti forme e moti, pressioni e sforzi, circuiti elettrici, flussi di calore, e modi in cui gli utensili modellano i metalli. I progettisti impiegano questi sistemi per arricchire i loro modelli mentali, accelerando l'evoluzione dei progetti di oggetti ancora non costruiti. Assieme, progettisti e computer, formano un unico, semiartificiale, sistema intelligente. Gli ingegneri possono usare una grande varietà di sistemi computerizzati come ausilio al loro lavoro. Ad un estremo dello spettro, essi usano i monitor dei computer semplicemente come tavoletta da disegno. Più oltre in questo spettro, utilizzano sistemi in grado di descrivere in tre dimensioni le parti componenti il progetto, e capaci di calcolare le loro risposte al calore, alla trazione, alla corrente elettrica, e così via. Alcuni sistemi, conosciuti anche come computercontrolled manufactuting equipment (apparecchiature per la fabbricazione controllata da computer), permettono agli ingegneri di effettuare dei test simulati delle istruzioni che sono destinate a guidare macchine controllate da computer per fabbricare componenti reali. Ma il vero limite estremo dello spettro di questi sistemi coinvolge l'utilizzo dei computer non solo come strumenti per memorizzare e collaudare i progetti, ma persino per generarli. I programmatori hanno sviluppato i loro strumenti più impressionanti per utilizzi interni allo stesso
mercato dei computer. Il software per la progettazione di chip ne è un esempio. Gli attuali chip dei circuiti integrati contengono molte migliaia di transistor e cablaggi. Un tempo i progettisti dovevano lavorare molti mesi per progettare un circuito che svolgesse un determinato compito, e per decidere la disposizione sulla superficie di un chip delle sue molte parti costituenti. Oggi, spesso, possono delegare questo compito ad un cosiddetto "compilatore del silicio". Stabilite le specifiche funzionali di un chip, questo sistema software può creare, con poco o nessun aiuto umano, un progetto dettagliato e pronto per la fabbricazione. Tutti questi sistemi si affidano interamente alla conoscenza umana, laboriosamente collezionata e codificata. Il più flessibile degli odierni sistemi di progettazione automatica può gingillarsi con un determinato progetto alla ricerca di miglioramenti, ma non impara nulla che sia applicabile all'esame del progetto successivo. Ma EURISKO è diverso. Sviluppato dal Professor Douglas Lenat ed altri presso la Stanford University(13), EURISKO è progettato per esplorare nuove aree di conoscenza. È guidato dalle euristiche, frammenti di conoscenza che suggeriscono azioni plausibili da seguire o azioni implausibili da evitare. Di fatto, le euristiche sono una sorta di insieme di "regole del pollice". EURISKO utilizza delle euristiche per suggerire temi sui quali lavorare, ed euristiche ulteriori per suggerire quale approccio tentare e come giudicare i risultati. Altre euristiche cercano la presenza di schemi nei risultati ottenuti, propongono nuove euristiche, e stimano dei valori da associare sia alle nuove che alle vecchie euristiche. In questo modo, EURISKO evolve comportamenti migliori, migliori modelli interni e migliori regole per la selezione fra i modelli interni. Lenat stesso descrive il processo di variazione e selezione di euristiche e concetti in termini di "mutazione" e "selezione", e suggerisce una metafora sociale e culturale per comprendere la loro interazione. Poiché in EURISKO le euristiche evolvono e competono, è lecito attendersi l'insorgere di parassiti, che infatti compaiono in quantità. Una euristica generata dalla macchina, per esempio, ha raggiunto la più alta stima di valore consentita ad una euristica dichiarando di essere stata co-scopritrice di ogni nuova congettura dimostratasi valida. Ma il professor Lenat ha lavorato attentamente su EURISKO, bonificando il suo sistema immunitario mentale grazie all'introduzione di euristiche atte a sfrondare i parassiti ed evitare linee di ragionamento stupide. EURISKO è stato impiegato per esplorare la matematica elementare, la programmazione, l'evoluzione biologica, le strategie dei giochi, la progettazione di circuiti integrati tridimensionali, i metodi per bonificare una dispersione di petrolio, problemi riguardanti condotte idrauliche e (naturalmente) per esplorare le euristiche stesse. In alcuni campi ha sbalordito i suoi progettisti con idee inedite, inclusi nuovi dispositivi elettronici per le emergenti tecnologie dei circuiti integrati tridimensionali. I risultati raggiunti in un torneo illustrano la potenza di una squadra mista uomo/IA. Traveller TCS (14) è un gioco di guerra navale futuristica basato su duecento pagine di regole che specificano i vincoli di costo, progetto e prestazioni per le flotte del gioco (TCS sta per Trillion Credit Squadron - Lo Squadrone da Mille Miliardi di Crediti). Il professor Lenat ha fornito EURISKO di queste regole, nonché di un insieme di euristiche iniziali e di un programma per simulare una battaglia fra due flotte. Lenat ha scritto in una relazione che "il programma ha progettato una flotta dopo l'altra, usando il simulatore come meccanismo di 'selezione naturale' per evolvere progetti di flotta sempre migliori". Il programma elaborò per tutta la notte, progettando flotte, mettendole alla prova e traendo insegnamenti dai risultati. Al mattino Lenat fece una selezione dei progetti e aiutò il programma a proseguire. Egli stima il merito dei risultati come suo al 60 per cento e di EURISKO al 40 per cento. Lenat e EURISKO si iscrissero al torneo nazionale di Traveller TCS del 1981 con una flotta dall'aspetto insolito. Gli altri concorrenti risero di questa flotta e quindi persero contro di essa. La
flotta della coppia Lenat/EURISKO vinse ogni girone, emergendo come campione nazionale. Come riportato da Lenat, "Questa vittoria è resa più significativa dal fatto che nessuna delle persone associate alla realizzazione del programma avesse mai giocato a questo gioco prima del torneo, e neanche veduto qualcuno giocarvi, ne c'era stata qualche partita di allenamento". Nel 1982 i promotori della competizione modificarono le regole. Lenat ed EURISKO si iscrissero con una flotta molto differente. Altri concorrenti, ancora una volta, risero di essa e quindi persero. Lenat ed EURISKO vinsero nuovamente il campionato nazionale. Nel 1983 i promotori della competizione dissero a Lenat che se si fosse iscritto, vincendo ancora, la competizione sarebbe stata cancellata. Lenat si rassegnò a rinunciare. EURISKO ed altri programmi di IA dimostrano che i computer, non devono necessariamente essere limitati a lavori noiosi e ripetitivi, se sono provvisti del giusto tipo di programmazione. Essi possono esplorare possibilità e sfoderare idee inedite che sorprendono i loro stessi creatori. EURISKO ha delle pecche (15), tuttavia evidenzia il modo in cui un certo stile di alleanza fra un sistema IA e un esperto umano possa apportare conoscenza e creatività ad un processo di progettazione. Nei prossimi anni sistemi come questi trasformeranno l'ingegneria. I progettisti lavoreranno in una alleanza creativa con le loro macchine, utilizzando il software derivato dagli attuali sistemi CAD (sistemi di progettazione assistita dal computer) per eseguire simulazioni, ed utilizzando sistemi evolventi in stile "EURISKO" per suggerire le soluzioni progettuali da simulare. I progettisti si metteranno a sedere di fronte ad uno schermo per digitare gli obiettivi del processo di progettazione e per disegnare bozze di proposte progettuali. Il sistema risponderà raffinando i progetti, collaudandoli, e visualizzando proposte alternative, il tutto corredato da spiegazioni, grafici e diagrammi. Gli ingegneri proporranno quindi ulteriori suggerimenti e modifiche, o sottoporranno alla macchina un nuovo compito, fino a che un intero sistema di hardware sia stato progettato e simulato. Mano a mano che miglioreranno, questi sistemi di ingegneria automatizzata svolgeranno sempre più lavoro, e sempre più rapidamente. Sempre più spesso, gli ingegneri si limiteranno semplicemente a proporre gli obiettivi del progetto e a mettere ordine fra le buone soluzioni proposte dalla macchina. Sempre meno spesso, gli ingegneri dovranno occuparsi di selezionare componenti, materiali e configurazioni progettuali. Gradualmente, gli ingegneri saranno capaci di proporre obiettivi progettuali più generali e attendere che delle buone soluzioni appaiano automaticamente. Proprio come il programma EURISKO col suo simulatore di gioco per Traveller TCS elaborò l'evoluzione di flotte, un giorno i sistemi di ingegneria automatizzata lavoreranno costantemente ad evolvere aerei-jet di linea caratterizzati da massima sicurezza e massima economicità, oppure ad evolvere jet militari capaci di avere un controllo dei cieli migliore di quello attuale. Proprio come EURISKO ha inventato nuovi dispositivi elettronici, i futuri sistemi di ingegneria automatizzata inventeranno macchine e dispositivi elettronici molecolari, aiutati da software per la simulazione molecolare. Questi progressi dell'ingegneria automatizzata esalteranno il fenomeno di progettazione anticipata descritto precedentemente. Sicché, l'ingegneria automatizzata non solo accelererà l'arrivo del passo avanti tecnologico degli assemblatori ma accrescerà anche l'entità del balzo in avanti che ne conseguirà. Alla fine i sistemi software saranno capaci di creare nuovi e audaci progetti senza alcun aiuto umano. La maggioranza della gente potrà allora attribuire intelligenza a questi sistemi? Non è affatto questo il punto.
La Corsa IA In tutto il mondo, aziende e governi supportano l'IA perché promette vantaggi militari e commerciali. Gli Stati Uniti hanno molti laboratori universitari dedicati all'intelligenza artificiale nonché una schiera di nuove compagnie commerciali con nomi come Machine Intelligence Corporation, Thinking Machines Corporation, Teknowledge, e Cognitive Systems Incorporated. Nell'ottobre 1981 (16), il ministro Giapponese per il Commercio e l'Industria annunciò un programma quinquennale, finanziato con 850 milioni di dollari, per lo sviluppo di hardware e software di IA. Con tale programma, i ricercatori giapponesi prevedono di sviluppare sistemi capaci di eseguire un miliardo di operazioni di "inferenza logica" al secondo. Nel 1984 (16) la Moscow Academy of Science annunciò un analogo sforzo quinquennale da 100 milioni di dollari. Nell'ottobre del 1983 lo U.S. Department of Defense annunciò un programma quinquennale da 600 milioni di dollari denominato Strategic Computing Program; quest'ultimo mira alla ricerca di macchine in grado di vedere, ragionare, comprendere il linguaggio parlato, e fornire aiuto per il comando di battaglie. Come riportato da Paul Wallich nella rivista IEEE Spectrum(17), "L'intelligenza artificiale è considerata dai più come la pietra angolare della prossima generazione di tecnologia dei computer; tutti gli sforzi compiuti in questo ambito tecnologico, in paesi diversi, concordano nel dare all'intelligenza artificiale una posizione prioritaria nella loro lista di obiettivi". L'intelligenza artificiale avanzata emergerà passo dopo passo, ed ogni passo frutterà un utile di conoscenze e abilità acquisite. Come con la tecnologia molecolare (e con molte altre tecnologie), i tentativi di arrestarne i progressi in una città, una contea o nazione, potranno al massimo ottenere che altri ne assumano la guida. Un miracoloso successo nell'ostacolare dovunque i lavori visibili sull'IA, nella migliore delle ipotesi riuscirebbe solo a rallentarla e, man mano che i computer diverranno sempre più economici, la lascerebbero a maturare in condizioni di segretezza, oltre la portata del pubblico scrutinio. Solo uno stato mondiale di potere immenso e di immensa stabilità potrebbe realmente fermare ogni ricerca IA dovunque e per sempre: una "soluzione" di raccapricciante pericolosità, alla luce dei passati abusi del puro potere di una nazione. L'IA avanzata sembra inevitabile. Se vogliamo sperare di formarci una realistica visione del futuro, non possiamo ignorarla. In un certo senso, l'intelligenza artificiale sarà lo strumento definitivo perché ci aiuterà a costruire tutti gli altri possibili strumenti. I sistemi avanzati di IA potrebbero costringere la gente a sparire dall'esistenza, o potrebbero aiutarci a costruire un mondo nuovo e migliore. Gli aggressori potrebbero usarli per conquistare, mentre previdenti difensori potrebbero usarli come stabilizzatori di pace. I sistemi IA avanzati potrebbero persino aiutarci a tenere sotto controllo la stessa IA. La mano che dondola la culla IA potrebbe ben governare il mondo. Come con gli assemblatori, abbiamo bisogno di previdenti ed accurate strategie per l'utilizzo sicuro e benigno di queste nuove tecnologie. Le questioni sono complesse ed intrecciate con ogni altra cosa fra quelle che ricadono in un ambito che va dai dettagli della tecnologia molecolare, all'occupazione lavorativa e l'economia, per arrivare fino alle basi filosofiche che riguardano i diritti umani. Le questioni più basilari, tuttavia, riguardano quello che l'intelligenza Artificiale può fare. Siamo Abbastanza Svegli? A dispetto dell'esempio dato dall'evoluzione degli esseri umani, i critici potrebbero sostenere che la nostra intelligenza limitata potrebbe in qualche modo impedirci di programmare macchine genuinamente intelligenti. Questo argomento appare debole, equivalente a poco più dell'affermare che, dato che i critici sono incapaci di vedere come si possa riuscire a fare una cosa del genere, nessun altro riuscirebbe a far meglio di loro. Inoltre, qualcun altro potrebbe invece obiettare che programmare computer dalle capacità che eguaglino quelle umane, richiederebbe una percezione
radicalmente nuova della psicologia umana (18). Nonostante sembri che la strada della programmazione di intelligenza artificiale sia stata già proficuamente intrapresa, la nostra conoscenza non giustifica quella sorta di solida confidenza che ingegneri ponderati nutrivano (decadi prima dello Sputnik) nella capacità di raggiungere la Luna con razzi, o che hanno oggi nella capacità di realizzare la costruzione di assemblatori per mezzo della progettazione di proteine. Nonostante sia una forma di ingegneria, la programmazione di una intelligenza artificiale genuina, richiede una nuova scienza. Questo la colloca oltre la capacità di delineare una decisa proiezione. Abbiamo tuttavia bisogno di una previsione accurata. La gente che aderisce a confortanti dubbi sulla realizzabilità dell'IA sembra probabilmente soffrire di raffigurazioni del futuro radicalmente sbagliate. Fortunatamente l'ingegneria automatizzata si sottrae ad alcuni dei più pesanti fra i fardelli dovuti a pregiudizi sciovinisti. La maggior parte della gente è meno turbata dall'idea di macchine che progettino altre macchine di quanto lo sia dall'idea di un autentico sistema IA a scopo generale. D'altra parte, l'ingegneria automatizzata ha dimostrato di funzionare, e resta da compiere solo lo sforzo per un suo ampliamento. Se è quindi probabile che emergano sistemi di scopo più generale, sarebbe stupido ometterli dai nostri calcoli. C'è un modo per scavalcare la questione della nostra capacità di progettare programmi intelligenti? Negli anni '50, molti ricercatori IA si dedicarono a simulare funzioni cerebrali per mezzo della simulazione di neuroni. Ma i ricercatori che lavoravano invece a programmi basati su parole e simboli riuscirono a collezionare progressi con una rapidità maggiore, ed il punto focale dell'attenzione dedicata ai lavori di IA si spostò di conseguenza. Ciò nonostante, l'idea base della simulazione neurale rimane plausibile, e la tecnologia molecolare la renderà più pratica da perseguire. In più, questo approccio sembra garantire di poter funzionare, in quanto non richiede alcuna nuova percezione di base sulla natura del pensiero. Alla fine, i neurobiologi utilizzeranno macchine molecolari delle dimensioni di virus (19) per studiare, dove necessario, sia la struttura che le funzioni del cervello, cellula dopo cellula e molecola dopo molecola. Nonostante i ricercatori IA possano accumulare utili percezioni riguardanti l'organizzazione del pensiero grazie ai progressi ottenuti dalle scienze del cervello, la simulazione neurale può comunque raggiungere il successo pur facendo a meno di queste percezioni. I compilatori traducono programmi per computer da un linguaggio ad un altro senza capirne il loro funzionamento. Le fotocopiatrici trasferiscono schemi di parole senza leggerle. Analogamente, i ricercatori saranno capaci di copiare gli schemi neurali del cervello su un altro mezzo, senza comprendere la loro organizzazione di più alto livello. Dopo aver appreso il funzionamento dei neuroni, gli ingegneri saranno in grado di progettare e costruire dispositivi loro analoghi (20) e basati su nanoelettronica e nanomacchine avanzate. Questi dispositivi interagiranno fra loro come fanno i neuroni, ma lavorando ben più velocemente. I neuroni, sebbene complessi, funzionano in modo abbastanza semplice da poter essere compresi da una mente ed imitati da un ingegnere. Infatti, i neurobiologi hanno imparato molto sulla struttura e funzione dei neuroni, persino senza alcuna macchina di scala molecolare per sondare il loro il funzionamento. Con questa conoscenza, gli ingegneri saranno in grado di costruire sistemi IA veloci e capaci, anche senza comprendere il cervello ed in assenza di una programmazione "intelligente". Quello di cui hanno bisogno gli ingegneri è soltanto studiare la struttura neurale del cervello e connettere neuroni artificiali per formare gli stessi schemi funzionali. Se realizzeranno tutte le parti in modo corretto, incluso lo schema secondo cui queste parti sono disposte in un reticolo per formarne il totale, allora anche il "totale" sarà corretto. L'attività "neurale" scorrerà secondo gli schemi che noi chiamiamo pensiero, ma lo farà più velocemente, perché tutte le parti lavoreranno più velocemente. Accelerando la Corsa Tecnologica
I sistemi avanzati di IA sembrano possibili ed inevitabili, ma quali saranno i loro effetti? Nessuno può rispondere appieno a questa domanda, ma almeno uno degli effetti dell'ingegneria automatizzata è chiaro: accelererà i nostri progressi verso i limiti del possibile. Per comprendere le nostre prospettive, abbiamo bisogno di farci qualche idea su quanto velocemente i sistemi avanzati di IA potranno pensare. I computer attuali possiedono solo una minuscola frazione della complessità di un cervello, eppure possono già eseguire programmi in grado di imitare aspetti significativi del comportamento umano. Tuttavia, essi differiscono totalmente dal cervello per quel che riguarda il loro stile operativo di base, ed è quindi inutile fare una comparazione fisica così diretta. Il cervello fa un numero immenso di cose in simultanea, sebbene faccia ogni cosa con una certa lentezza; la maggior parte degli attuali computer fa solo una cosa per volta ma con abbagliante velocità. Tuttavia, si potrebbe immaginare dell'hardware IA costruito per imitare un cervello non solo nelle funzionalità ma anche nella struttura. Tale struttura potrebbe scaturire da un approccio di simulazione neurale, o dall'evoluzione di programmi IA realizzati in modo da essere eseguiti su un hardware con uno stile di organizzazione simile a quello del cervello. Ad ogni modo, possiamo usare delle analogie con il cervello umano per stimare una velocità minima per i sistemi avanzati IA costruiti da assemblatori. Le sinapsi neurali rispondono ai segnali in tempi di millesimi di secondo, mentre alcuni prototipi sperimentali di commutatori elettronici (21) rispondono ai segnali un centinaio di milioni di volte più velocemente (e commutatori realizzati in nanoelettronica sarebbero ancora più veloci). I segnali neurali viaggiano con velocità inferiori a cento metri per secondo. I segnali elettronici viaggiano un milione di volte più velocemente. Questa brutale comparazione delle velocità suggerisce che dispositivi elettronici "simili" al cervello lavorerebbero circa un milione di volte più velocemente rispetto a cervelli composti da neuroni (a ritmi limitati solo dalla velocità dei segnali elettronici). Questa stima è rozza, naturalmente. Una sinapsi neurale è molto più complessa di un commutatore elettronico; essa può modificare la sua risposta ai segnali per mezzo della modifica della sua struttura. Nel tempo, le sinapsi possono sia formarsi che sparire. Le trasformazioni che avvengono nelle fibre e nelle connessioni del cervello sono proprio associate ai cambiamenti sul lungo termine che chiamiamo "apprendimento". Queste trasformazioni hanno spinto il professor Robert Jastrow (21) di Dartmouth a descrivere il cervello come un tappeto magico, che tesse e ritesse i suoi schemi neurali durante tutta la sua vita. Per immaginare un dispositivo simile al cervello e con una flessibilità dello stesso grado, immaginiamo che i suoi circuiti elettronici siano circondati da nanocomputer meccanici ed assemblatori, quindi un sistema con un nanocomputer associato ad ognuno dei commutatori elettronici che, nel circuito, rappresentano gli equivalenti delle sinapsi. Proprio come il macchinario molecolare di una sinapsi risponde a schemi di attività neurale tramite la modifica della struttura della sinapsi, così il nanocomputer risponderà agli schemi di attività guidando il nanomacchinario affinché trasformi la struttura del commutatore. Con la corretta programmazione, e con la possibilità di uno scambio di comunicazioni fra i nanocomputer che simuli un sistema di segnalazioni chimiche, un tale dispositivo dovrebbe comportarsi quasi esattamente come un cervello. A dispetto della sua complessità, il dispositivo sarebbe compatto. I nanocomputer saranno più piccoli delle sinapsi e i cablaggi costruiti dagli assemblatori saranno più sottili degli assoni e dei dendriti del cervello. Cavi sottili e piccoli commutatori realizzeranno circuiti compatti, e la compattezza dei circuiti aumenterà la velocità del flusso di schemi elettronici a causa della brevità delle distanze che i segnali dovranno percorrere. Sembrerebbe quindi che una struttura simile al
cervello potrebbe occupare meno di un centimetro cubo di volume (come discusso nelle note) (23). La maggiore brevità dei percorsi che i segnali devono percorrere contribuirà, assieme alle già rapide velocità di trasmissione, alla realizzazione di un dispositivo di oltre dieci milioni di volte più veloce rispetto ad un cervello umano. Soltanto i problemi di raffreddamento potrebbero limitare macchine di questo tipo a lavorare su velocità medie più lente. Immaginate allora una macchina dal progetto più tradizionale, ma un milione di volte più veloce di un cervello e che dissipi un milione di volte più calore (24). Il sistema consiste di un blocco di zaffiro, costruito da assemblatori e con una dimensione pari a quella di un tazzone da caffè, zeppo di circuiti di canali preposti al raffreddamento. Alla sua sommità è disposta una condotta di acqua ad alta pressione e la condotta ha diametro pari a quello dei canali (25). La sommità è sigillata in modo da obbligare l'acqua di raffreddamento a defluire dalla condotta di scarico disposta sul fondo. Dai lati del blocco fuoriescono spessi cavi d'alimentazione e fasci in fibra ottica per canali-dati. I cavi d'alimentazione forniscono quindici megawatt di potenza elettrica. La condotta di scarico trasporta via il calore sviluppato attraverso un flusso di acqua bollente da tre tonnellate per minuto. I fasci in fibra ottica trasportano altrettanti dati di un milione di canali televisivi. Essi permettono la comunicazione con altri sistemi IA, con simulatori per la progettazione ingegneristica, e con sistemi assemblatori che costruiscono fisicamente i prototipi per la sperimentazione definitiva dei progetti. Ogni dieci secondi, il sistema inghiotte un'energia elettrica di quasi due kilowatt-giorno (che attualmente costa circa un dollaro). Ogni dieci secondi, il sistema completa altrettanto lavoro progettuale di quanto ne porti avanti un ingegnere al lavoro otto ore al giorno per un anno intero (che attualmente costa decine di migliaia di dollari). In un'ora viene completato il lavoro di secoli. Nonostante la sua attività, il sistema lavora in un silenzio rotto soltanto fluire dell'acqua di raffreddamento. Queste considerazioni ci forniscono qualche risposta intuitiva alla questione della semplice velocità del pensiero, ma che dire della sua complessità? Appare improbabile che gli sviluppi della IA si limitino alla complessità di una singola mente umana. Come fa notare John McCarthy (26) dell'AI Lab presso Stanford, se possiamo mettere l'equivalente di una mente umana in un teschio di metallo, possiamo anche mettere in un edificio l'equivalente di dieci migliaia di menti cooperanti (ed un moderno grande impianto energetico può fornire abbastanza potenza ad ognuna di esse da farla pensare almeno dieci volte più rapidamente di una persona). All'idea di intelligenze ingegnerizzate e rapide, si può aggiungere l'idea di intere squadre di intelligenze ingegnerizzate rapide. La necessità di effettuare esperimenti rallenterà il lavoro dei sistemi IA per l'ingegneria, ma non poi così tanto quanto ci si aspetterebbe. Gli ingegneri odierni devono eseguire numerosissimi esperimenti perché la tecnologia di mole è indisciplinata. Chi può dire in anticipo come si comporterà esattamente una nuova lega dopo essere stata forgiata e poi contorta per dieci milioni di volte? Le minuscole crepe indeboliscono il metallo, ma solo i precisi dettagli del suo processo di fabbricazione determinano con certezza quale sarà la natura e l'effetto delle sue crepe. Poiché gli assemblatori fabbricheranno oggetti di precisa specificazione atomica, si eviteranno le impredicibilità della tecnologia di mole. I progettisti (siano essi uomini o intelligenze artificiali) eseguiranno esperimenti solo in quei casi in cui sperimentare sarà più facile o più economico che non calcolare, oppure (più raramente) quando la sia carente la conoscenza di base. Sistemi di IA dotati della possibilità di controllo su nanomacchine, potranno rapidamente eseguire moltissimi esperimenti. Essi progetteranno apparati di collaudo in tempi di secondi, e questi apparati verranno costruiti da assemblatori-replicatori senza l'aggravio temporale degli
innumerevoli ritardi (ordinare parti speciali, trasportarle, e così via) che affliggono i progetti attuali. Gli apparati di collaudo della stessa scala dimensionale di assemblatori, nanocomputer o cellule viventi, richiederanno soltanto pochi minuti di realizzazione, ed i nanomanipolatori eseguiranno un milione di movimenti al secondo. Sarà perciò facile eseguire contemporaneamente un milione di esperimenti ordinari. Così, nonostante i ritardi addizionali causati dalle sperimentazioni, i sistemi di ingegneria automatizzata muoveranno in avanti la tecnologia con velocità incredibili. Dal passato al futuro, quindi, il possibile schema del progresso delle nostre abilità pare ormai delinearsi come qualcosa di simile al seguente: lungo eoni di tempo, la vita ha seguito un progresso lungo e lento, al passo dettato dall'evoluzione genetica. Le menti dotate di linguaggio hanno affrettato il passo grazie alla flessibilità dei memi. L'invenzione dei metodi della scienza e della tecnologia ha ulteriormente accelerato i progressi perché ha forzato i memi ad evolvere più velocemente. L'accrescimento del benessere, dell'istruzione e della popolazione, nonché la disponibilità di migliori strumenti fisici ed intellettuali, ha continuato questa tendenza all'accelerazione lungo il nostro secolo. L'automazione dell'ingegneria accelererà ulteriormente il passo. I sistemi di progettazione assistita dal computer miglioreranno, e aiuteranno gli ingegneri umani a generare e a sperimentare le idee sempre più rapidamente. I successori di EURISKO accorceranno i tempi di progetto suggerendo proposte progettuali e completando di dettagli le innovazioni umane. Ad un certo punto, sistemi di ingegneria automatizzata completamente svezzati inizieranno a procedere autonomamente. In parallelo, la tecnologia molecolare si svilupperà e maturerà, aiutata dai progressi della ingegneria automatizzata. Quindi, sistemi IA costruiti da assemblatori condurranno ad una ingegneria automatizzata ancora più rapida, evolvendo idee tecnologiche al passo imposto da sistemi un milione di volte più veloci di un cervello umano. Il ritmo di crescita del progresso tecnologico ne verrà accelerato in un grande balzo ascendente: in tempi brevi, molte aree della tecnologia progrediranno fino ai limiti imposti dalle leggi naturali. Ed in quei campi tecnologici, i progressi si assesteranno infine su una vetta elevatissima di conquista definitiva. Questa trasformazione è una prospettiva da vertigine. Dopo una tale trasformazione, se sopravviveremo, vedremo un mondo di assemblatori-replicatori capaci di fabbricare qualsiasi cosa gli venga detto di fabbricare, senza necessità di lavoro umano. Al di la di una tale trasformazione, se sopravviveremo, c'è un mondo di sistemi di ingegneria automatizzata capaci di dirigere gli assemblatori per fabbricare dispositivi vicini ai limiti del possibile, prossimi ai limiti ultimi della perfezione tecnica. Infine, alcuni sistemi di IA saranno dotati sia di grandi capacità tecniche, che delle capacità sociali necessarie per comprendere il linguaggio ed i desideri umani. Approvvigionato di energia, materiali ed assemblatori, un tale sistema potrebbe propriamente denominarsi "macchina-genio". Qualsiasi cosa le si chieda, lei la produce. Ma la leggenda araba e il senso comune universale suggeriscono in realtà che dovremmo prendere i pericoli di tali motori di creazione molto sul serio. I passi avanti tecnologici nel campo della IA, sia in quella di tipo tecnica che in quella di tipo sociale, richiederanno anni per realizzarsi. Come ha detto Marvin Minsky (27), "Le macchine modestamente intelligenti del vicino futuro promettono solo di portarci la ricchezza e la comodità che derivano da servitori instancabili, obbedienti ed economici". La maggioranza dei sistemi che al giorno d'oggi sono denominati "IA" non pensano ne imparano; essi sono solo rozzi distillati delle abilità di esperti, messe in conserva, impacchettate e distribuite per la consultazione. Ma l'IA genuina arriverà. Perché resti estranea alle nostre attese dovremmo vivere in un mondo di fantasia. Attendersi l'IA, in se stesso, non è né ottimistico né pessimistico: come sempre,
l'ottimismo dei ricercatori è il pessimismo dei tecnofobi. Se non ci prepariamo per il loro arrivo, i sistemi di IA sociale potrebbero costituire una minaccia mortale: basti pensare al danno che, già di per se, può essere inferto dalla intelligenza semplicemente umana di terroristi e demagoghi. Analogamente, i sistemi di IA tecnica potrebbero destabilizzare il bilancio militare mondiale, comportando un improvvisa superiorità unilaterale. Con l'appropriata preparazione, comunque, l'intelligenza artificiale potrebbe aiutarci a costruire un futuro che funzioni: un futuro che sia funzionale sia per la gente, che per la Terra e per il progresso dell'intelligenza nell'universo. Il capitolo 12 suggerirà un approccio al problema, come discussione parziale della più generale questione di come gestire la trasformazione che assemblatori e IA comporteranno. Perché discutere oggi dei pericoli? Perché non è mai troppo presto per cominciare a formare delle istituzioni capaci di trattare tali questioni. La IA "tecnica" è oggi in fase emergente, ed ogni suo progresso farà accelerare la corsa tecnologica. L'intelligenza artificiale non è che una di molte potenti tecnologie che dobbiamo imparare a gestire, ognuna associata ad una complessa miscela di minacce ed opportunità. ---------Capitolo 6: Il mondo oltre la Terra Il Nuovo Programma Spaziale Spazio e Tecnologia Avanzata Abbondanza La Società a Somma Positiva Quella coppa rivoltata che noi chiamiamo 'Il Cielo'; sotto la quale, striscianti prigionieri, nasciamo e moriamo. - THE RUBÁIYÁT di OMAR KHAYYAM La Terra non è che una piccola parte dell'esistente, e quel che resta di esso sarà importante per il nostro futuro. In termini di energia, materiali e disponibilità di posto per crescere, lo spazio è di fondamentale importanza. Nel passato, i successi nello spazio hanno regolarmente pervaso le proiezioni ingegneristiche. Nel futuro, una frontiera spaziale aperta allargherà il mondo umano. I progressi nell'Intelligenza Artificiale e nella nanotecnologia giocheranno un ruolo cruciale. La gente ha impiegato intere epoche per riconoscere nello spazio una frontiera. I nostri antenati un tempo consideravano il cielo notturno come una cupola nera costellata da minuscole scintille; luci mostrate dagli dei. Non potevano immaginare il viaggio spaziale, perché non sapevano neanche che lo spazio esterno esistesse. Ora sappiamo che lo spazio esiste, ma ancora poca gente comprende il suo valore. Questo non è per nulla sorprendente. Le nostre menti e culture si sono evolute su questo pianeta, e abbiamo appena iniziato a digerire l'idea di una frontiera al di là del cielo. È stato soltanto in questo secolo che alcuni progettisti visionari come Hermann Oberth e Robert Goddard hanno dimostrato che i razzi possono raggiungere lo spazio. Confidavano in ciò perché conoscevano abbastanza su carburanti, motori, serbatoi e strutture, da riuscire a calcolare che tipo di razzo multistadio dovesse essere realizzato. E tuttavia, nel 1921, un editorialista del New York Times rimproverava Goddard per la sua idea della possibilità che i razzi volassero attraverso lo spazio senza disporre di aria contro cui spingersi, e persino nel ben più tardo 1956, l'Astronomo Reale di Gran Bretagna brontolava: "il Viaggio Spaziale è una assoluta sciocchezza". Questo dimostrava soltanto che l'editorialista e l'astronomo erano gli esperti sbagliati a cui chiedere pareri
sull'hardware spaziale. Nel 1957, lo Sputnik orbitò attorno alla Terra, e nel 1961 fu seguito da Yuri Gagarin. Nel 1969, il mondo vide delle orme sulla Luna. Tuttavia, pagammo un prezzo per questa ignoranza. Poiché ai pionieri della tecnologia spaziale mancava un modo qualunque per dimostrare al pubblico la validità delle loro idee, furono costretti a discutere degli assunti basilari più e più volte ("Si, i razzi funzioneranno nel vuoto... Si, potranno davvero raggiungere l'orbita...). Impegnati a difendere le basi del volo spaziale, ebbero poco tempo per discuterne le conseguenze. Così, quando lo Sputnik fece trasalire il mondo e imbarazzò gli Stati Uniti, la gente era impreparata: non c'era stato nessun dibattito diffuso che avesse delineato una strategia per lo spazio. Alcuni dei pionieri avevano intuito cosa c'era da fare: costruire una stazione spaziale ed una navetta riutilizzabile, quindi raggiungere la Luna o gli asteroidi per prelevarne le risorse. Ma il brusio di politici agitati soffocò prontamente i loro suggerimenti, ed i politici U.S.A. si pronunciarono a gran voce per un obiettivo grandioso e di facile comprensione. Nacque così il Progetto Apollo, la corsa per l'atterraggio di un cittadino U.S.A. sul posto più vicino su cui piantare una bandiera. Il progetto Apollo scavalcò la costruzione di una stazione spaziale e quella dello Space Shuttle, sostituendo entrambe con la costruzione di un gigantesco missile capace di raggiungere la Luna in un unico grande balzo. Il progetto si conquistò la gloria, diede agli scienziati qualche informazione, e portò grandi rendimenti in termini di avanzamenti tecnologici; ma, all'essenza, fu una vuota bravata. I contribuenti se ne resero conto, altrettanto fecero i membri del congresso, ed il programma spaziale appassì. Durante il programma Apollo, i vecchi sogni resistettero strenuamente nella mente comune, e tali sogni consistevano di semplici e romantici visioni di colonizzazione di altri pianeti. Le sonde robot fecero svanire il sogno di un Venere ammantato di giungle, lasciando al suo posto la realtà di una fornace di dimensioni planetarie pervasa da veleni ad alta pressione. Le sonde cancellarono anche quelle linee che astronomi privi di fantasia avevano disegnato su Marte, e con esse svanirono anche i canali ed i Marziani. Al loro posto c'era un Marte di crateri e canyon, e di polvere arida e soffiante. Oltre Venere, verso il Sole, giaceva la roccia cocente di Mercurio; oltre Marte, c'era solo pietrisco e ghiaccio. I pianeti si classificavano in "morti" o in "assassini", ed il sogno di nuove Terre dovette proiettarsi verso stelle lontane. Lo Spazio sembrava proprio un vicolo cieco. Il Nuovo Programma Spaziale Un nuovo programma spaziale risorse dalle rovine del vecchio. Una nuova generazione di sostenitori dello spazio e di ingegneri ed imprenditori spaziali, puntavano ora a fare dello spazio la frontiera che sarebbe dovuta essere fin dall'inizio: un posto per lo sviluppo e lo sfruttamento e non per vane gesta politiche. Confidavano nel successo perché lo sviluppo spaziale non richiede alcun progresso rilevante nella scienza o nella tecnologia. Infatti, la razza umana potrebbe conquistare lo spazio applicando le stesse tecnologie di vent'anni fa, ed evitando voli esibizionistici si potrebbe persino trarre profitto dalla conquista spaziale. Le attività spaziali non hanno bisogno d'essere dispendiose. Consideriamo l'alto costo odierno per il raggiungimento dell'orbita: migliaia di dollari per ogni chilogrammo inviato. A cosa è dovuto questo costo? Per lo spettatore del lancio di uno shuttle, scosso dal fragore ed intimorito dalle fiamme, la risposta sembra ovvia: il carburante deve costare una fortuna. Anche le compagnie aeree pagano grosso modo metà dei loro costi operativi diretti per il solo carburante. Un razzo assomiglia ad un aereo di linea perché è fatto di alluminio ed è pieno zeppo di motori, controlli ed elettronica, ma il carburante costituisce pur sempre quasi tutta la sua massa quando il razzo è fermo al blocco di partenza. Per cui è naturale attendersi di dover attribuire al carburante ben oltre la metà del costo operativo di un razzo. Eppure, questa aspettativa è falsa. Nei lanci lunari il costo del carburante necessario per raggiungere l'orbita ammontava a meno di un
milione di dollari, pochi dollari per ogni chilogrammo spedito in orbita, meno dell'uno per cento del costo totale. Anche oggi, il carburante resta una parte trascurabile del costo di un volo spaziale. Perché il volo spaziale costa così tanto in più rispetto ad un volo aereo? In parte, a causa del fatto che le navi spaziali non vengono costruite in quantità; questo obbliga i costruttori a recuperare i loro costi di progetto dalla vendita di solo poche unità, e a costruire manualmente tali unità e con grandi costi. Inoltre, la maggior parte delle navi spaziali diventano inutilizzabili dopo un solo utilizzo, ed anche gli shuttle vengono messi in volo poche volte lungo un anno; il loro costo non può essere distribuito su molti voli, uno per ogni giorno dell'anno, come si può invece fare per il costo degli aeri di linea. Infine, anche i costi degli spazioporti possono essere ammortizzati solo su pochi voli al mese, contro le migliaia di voli su cui possono ammortizzarli i grandi aereoporti. Tutto ciò cospira per rendere ogni volo nello spazio di una dispendiosità scoraggiante. Ma in alcuni studi della Boeing Aerospace Company, la compagnia aerea che già riuscì ad abbassare notevolmente i costi dei trasporti su jet per quasi tutto il mondo, mostrano che una flotta di navette pienamente riutilizzabili, che volino e che siano manutenzionate come fossero aerei di linea, abbasserebbero il costo del raggiungimento dell'orbita di un fattore di cinquanta o più. La chiave non sta in nuova tecnologia, ma in una economia di scala e nella trasformazione dello stile di management. Lo spazio offre immense opportunità industriali. I vantaggi per la messa in orbita dei satelliti di osservazione e di comunicazione sono ben noti. I futuri satelliti di comunicazione saranno sufficientemente potenti da comunicare con stazioni al suolo gestite manualmente, determinando così il progresso ultimo nei servizi di telefonia mobile. Le compagnie si stanno già muovendo per trarre vantaggio dalla gravità "zero" con l'intento di eseguire in assenza di gravità alcuni delicati processi di separazione che producano farmaci migliorati; altre compagnie progettano di far crescere in assenza di gravità dei migliori cristalli per l'elettronica. Negli anni che precederanno il momento in cui gli assemblatori si faranno carico della produzione dei materiali, gli ingegneri sfrutteranno lo spazio per estendere le capacità della tecnologia di mole. L'industria spaziale offrirà un mercato crescente di servizi di lancio, abbassando i costi dei lanci stessi. Il crollo dei costi di lancio, a sua volta, stimolerà la crescita dell'industria spaziale. Il trasporto su razzi verso l'orbita Terrestre diverrà infine a buon mercato. Pianificatori ed imprenditori spaziali stanno già puntando lo sguardo al di là dell'orbita Terrestre, verso le risorse del sistema solare. Nello spazio profondo, comunque, i razzi diventano ben presto troppo dispendiosi per il trasporto merci, dato che inghiottono avidamente carburante che a sua volta deve essere trasportato nello spazio da razzi. I razzi che bruciano carburante sono obsoleti quanto i fuochi artificiali cinesi, i quali sono ben più vecchi della bandiera "stelle e strisce". I razzi si sono evoluti per ragioni naturali: sono compatti, potenti, di utilità militare, possono penetrare l'aria e lottare vigorosamente contro la gravità. Eppure, gli ingegneri spaziali conoscono alcune alternative (1). I veicoli non hanno bisogno di grandi esplosioni di potenza per muoversi attraverso il vuoto privo di attrito dello spazio. Piccole forze possono, lentamente e costantemente, spingere un veicolo fino a velocità enormi. Poiché l'energia ha massa, il riflettersi della luce solare su uno specchio sottile, ossia su una "vela solare", fornisce una forza di spinta di questo tipo. La trazione della gravità solare ne fornisce un'altra. Insieme, pressione luminosa e gravità possono portare una nave spaziale in qualsiasi posto del sistema solare, e farla tornare di nuovo indietro. Solo le calde vicinanze del Sole e l'attrito delle atmosfere planetarie limiterebbero il viaggio, costringendo la vela a tenersi alla larga da entrambe. La NASA ha condotto degli studi su vele solari progettate in modo da essere trasportate nello spazio all'interno di razzi, ma purtroppo le vele devono essere sufficientemente forti e robuste per
sopravvivere allo stress del lancio e del loro successivo spiegamento. Per cui, gli ingegneri fabbricheranno le vele direttamente nello spazio, utilizzando una tenso-struttura di piccola massa per supportare specchi composti di una sottile pellicola metallica. Il risultato sarebbe la "vela di luce" (2), una categoria di vele solari di alte prestazioni. Dopo una accelerazione applicata costantemente per un anno intero, una vela di luce può raggiungere una velocità di cento chilometri al secondo, lasciando mordere la sua polvere ai più veloci fra gli odierni razzi. Se immaginate una rete di fili in fibra di grafite, come una tela di ragno tessuta su una estensione di chilometri, e con spazi vuoti fra i fili della dimensione di un campo da calcio, siete sulla buona strada per immaginare la struttura di una vela solare. Se immaginate gli spazi vuoti colmati da pannelli riflettenti costituiti da fogli di alluminio più sottili di una bolla di sapone, avrete una idea un po' più corretta di come dovrebbe apparire una vela di luce: tanti pannelli riflettenti strettamente legati assieme per formare un immenso ed ondulato mosaico di specchi. Immaginate ora il carico di un cargo che penda dalla ragnatela come un paracadutista dal suo paracadute, mentre la forza centrifuga tiene la ragnatela costellata di pannelli-specchi, tesa e piana nel vuoto, e avrete quasi afferrato l'immagine giusta. Per costruire le vele di luce con la tecnologia di mole, dovremmo imparare a realizzarle nello spazio; i loro immensi riflettori sarebbero troppo delicati per sopravvivere al lancio e allo spiegamento. Occorre costruire strutture di impalcatura, fabbricare sottili pellicole riflettenti, ed usare nello spazio dei bracci robotici controllati da remoto. Ma d'altra parte, per altre costruzioni, i pianificatori spaziali stanno già puntando all'acquisizione della piena padronanza nelle abilità di costruzione e fabbricazione, nonché alla acquisizione della piena padronanza tecnica sulla robotica. Se, nel corso dello sviluppo spaziale, realizzeremo le vele di luce piuttosto precocemente, lo sforzo varrà come una esercitazione sul campo per l'acquisizione di queste abilità, un esercizio che non richiede il lancio di tanto materiale. Nonostante le vele di luce debbano essere molto estese, le impalcature (assieme al materiale di molte vele) dovrebbero risultare abbastanza leggere da potersi trasportare in orbita solo con uno o due voli di shuttle. Una qualche facilitazione tecnologica, quindi, consentirà la produzione economica delle vele. Una volta costruite, esse saranno altrettanto economiche da usare: avranno ben poche parti mobili critiche, una piccola massa, e nessun consumo di carburante. Saranno completamente differenti dai razzi per forma, funzionamento e costo operativo. Infatti, i calcoli suggeriscono che il costo delle vele sarà differente da quello dei razzi di un fattore all'incirca pari ad un migliaio, ovviamente in favore delle vele di luce. Nella visione della maggior parte della gente, il resto del sistema solare è tanto vasto quanto inaccessibile. Esso è vasto; come già fu per la Terra, il sistema solare richiederà mesi per essere circumnavigato a vela. Tuttavia, la sua apparente inaccessibilità ha a che fare con la distanza meno di quanto abbia a che fare con il costo del trasporto tramite razzi. Le vele di luce possono definitivamente infrangere la barriera dei costi, aprendoci la porta sul sistema solare. Le vele di luce renderebbero gli altri pianeti più facili da raggiungere ma non più utili: essi resterebbero dei deserti morti. La gravità dei pianeti impedirebbe alle vele di portarsi sulle loro superfici, e sarà di ostacolo anche per lo svolgimento di ogni attività sulla superficie di un pianeta. Stazioni spaziali rotanti su se stesse possono simulare la gravità, se necessario, ma stazioni confinate in prossimità dei pianeti non possono sfuggire da questi. Ancora peggio, le atmosfere planetarie bloccano l'energia solare, spargono polveri, corrodono i metalli, riscaldano i refrigeratori, raffreddano i caloriferi, e trascinano giù le cose. Persino la Luna, pur priva di atmosfera, con la sua rotazione blocca la luce solare per metà del tempo, e possedendo inoltre una sufficiente gravità può far atterrare le vele di luce oltre ogni speranza di fuga. Le vele di luce sono veloci e instancabili ma non robuste.
Il grande e duraturo valore dello spazio sta nelle sue risorse in termini di materia, energia e "spazio". I pianeti occupano spazio e detengono energia. Le risorse materiali che essi offrono sono distribuite in modo sconveniente. Gli asteroidi, al contrario, sono montagne volanti di risorse (3) che tracciano orbite attraversanti l'intero sistema solare. Alcuni incrociano persino l'orbita della Terra; alcuni hanno anche colpito la Terra, generando dei crateri a seguito dall'esplosione d'impatto. L'attività mineraria sugli asteroidi sembra perseguibile. Potrebbero servirci razzi rombanti per portare le cose su nello spazio, ma i meteoriti dimostrano che rocce ordinarie possono cadere dallo spazio e, come lo space shuttle, farlo senza necessariamente bruciare mentre cadono giù. La consegna di materiali da un asteroide verso un bersaglio di destinazione al suolo, collocato per esempio in una pianura salata, costerà ben poco. Anche gli asteroidi piccoli, sono pur sempre grandi se valutati in termini umani; essi contengono miliardi di tonnellate di risorse. Alcuni asteroidi contengono acqua, nonché una sostanza che sembra un olio di rocce scistose. Alcuni contengono rocce piuttosto ordinarie. Altri contengono metalli a loro volta contenenti elementi scarsamente presenti nella crosta terrestre, elementi che alcune ere fa, all'epoca della formazione dell'attuale nucleo terrestre, sprofondarono verso il basso oltre ogni possibilità di recupero: questo acciaio meteoritico è una forte e tenace lega composta da ferro, nichel e cobalto, con tracce di preziose quantità di metalli del gruppo del platino ed oro. Un pezzo largo un chilometro di questo materiale (e ce ne sono moltissimi) contiene metalli preziosi per un valore di diverse migliaia di miliardi di dollari, nonché nichel e cobalto in quantità sufficienti a rifornire l'intera industria della Terra per molti anni. Il sole inonda lo spazio con energia facile da intercettare ed immagazzinare. Una struttura di un chilometro quadrato e composta da riflettori metallici, costituirebbe un collettore di luce solare in grado di intercettare potenze di circa un miliardo di watt, e che funzionerebbe senza essere interrotto dalle presenza delle nuvole o dai periodi notturni. Nella calma dello spazio, priva di tempo atmosferico, il collettore più insignificante sarà come una diga idroelettrica permanente (4). Poiché il Sole emette molta più energia in un microsecondo di quanta ne usi l'intera razza umana in un anno, nei tempi a venire l'energia non scarseggerà mai. Infine, lo spazio stesso offre posto per vivere. La gente un tempo guardava allo spazio in termini di pianeti. Immaginava città sotto cupole, costruite su pianeti morti ma lentamente convertiti in pianeti simili alla Terra, e pianeti simili alla Terra raggiunti dopo anni di volo fra le stelle. Ma i pianeti sono un cattivo affare, generalmente offrono gravità, atmosfera, lunghezza del giorno e posizione sbagliate. Per gli insediamenti umani, lo spazio libero costituisce un sito di costruzione migliore. Il professor Gerard O'Neill (5) della Princeton University, portò questa idea all'attenzione pubblica, contribuendo così a ravvivare l'interesse nello spazio durante la crisi post-Apollo. Egli mostrò che materiali di costruzione ordinari, quali acciaio e vetro, possono essere sfruttati per costruire nello spazio dei cilindri abitabili e con dimensioni chilometriche in lunghezza e circonferenza. In base al suo progetto, nei cilindri sarebbe previsto uno strato di terra, posto sotto i piedi dei suoi abitanti, che dovrebbe proteggere questi ultimi dalla radiazione naturale dello spazio proprio come gli abitanti della Terra sono schermati dall'atmosfera sopra di loro. La rotazione produrrebbe una accelerazione uguale alla gravità Terrestre, ed ampi specchi e pannelli-finestra inonderebbero di luce solare l'interno dei cilindri. Aggiungendo suolo, fiumi, vegetazione ed immaginazione, le terre interne al cilindro potrebbero competere con le migliori valli della Terra come luoghi di insediamento. Con le sole risorse degli asteroidi, saremo in grado di costruire l'equivalente pratico di un migliaio di nuove Terre. Adattando la tecnologia presente potremmo già aprire la frontiera spaziale. La prospettiva è
incoraggiante. Ci mostra una via ovvia per scavalcare i limiti terrestri allo sviluppo, allentando una delle paure che hanno offuscato la nostra visione del futuro. La promessa della frontiera spaziale, quindi, può ravvivare la speranza umana, una risorsa di cui avremo bisogno in abbondanza se saremo impegnati anche in altri problemi. Spazio e Tecnologia Avanzata Adattando la tecnologia presente, potremmo davvero aprire la frontiera spaziale, ma non vogliamo farlo. Percorrendo la strada delineata dall'attuale movimento pro-spazio, la civiltà umana impiegherebbe decadi prima di consolidare la sua presenza nello spazio. Prima di allora, altri passi avanti tecnologici potrebbero aver aperto nuove strade. Attualmente, diverse squadre di ingegneri impiegano tipicamente dai cinque ai dieci anni per progettare un nuovo sistema spaziale, spendendo decine di migliaia di milioni di dollari lungo la strada. Questi ritardi e costi ingegneristici rendono penosamente lento il progresso. Negli anni a venire, tuttavia, i sistemi di progettazione assistita dal computer evolveranno verso i sistemi di ingegneria automatizzata. Quando questo accadrà, i ritardi ed i costi ingegneristici si ridurranno enormemente finendo poi per crollare; i sistemi di fabbricazione controllata da computer decurteranno ulteriormente i costi complessivi. Verrà un giorno in cui, assieme, progettazione e produzione automatica saranno in grado di sviluppare sistemi spaziali in tempi e con costi oltre dieci volte inferiori rispetto agli attuali. E il nostro progresso spaziale "salirà alla stelle". E a quel punto, i coloni spaziali potrebbero mai guardare indietro interpretando il nostro attuale programma spaziale come la chiave dello sviluppo spaziale? Probabilmente no. Essi avranno assistito a molti più progressi tecnologici realizzati in una manciata di anni di quelli che gli ingegneri spaziali sono riusciti a gestire nelle precedente manciata di decadi. Essi potrebbero ben concludere che IA e Robotica hanno fatto molto più per lo sviluppo dello spazio di quanto abbia fatto un intero esercito di ingegneri della NASA. Il passo avanti tecnologico degli assemblatori e l'ingegneria automatizzata si coalizzeranno per condurci verso progressi rispetto ai quali i nostri sforzi spaziali attuali sembreranno piuttosto pittoreschi. Nel capitolo 4, ho descritto come gli assemblatori-replicatori saranno in grado, utilizzando ben poco intervento umano, di costruire un leggero e robusto motore per razzo. Utilizzando processi analoghi, costruiremo interi veicoli spaziali dalle prestazioni eccezionali e dal costo ridottissimo. A parità di peso, i materiali di questi velivoli, essendo dotati di una struttura basata su quella del diamante, avranno approssimativamente una resistenza pari a cinquanta volte quella dell'alluminio usato negli attuali shuttle (nonché quaranta volte la resistenza alle deformazioni elastiche); veicoli costruiti con questi materiali possono essere prodotti in modo da risultare oltre il novanta per cento più leggeri rispetto agli analoghi veicoli odierni. Una volta nello spazio, tali veicoli dispiegheranno i loro collettori solari per rifornirsi di energia in abbondanza. Usando questa energia per alimentare assemblatori (6) e disassemblatori, i veicoli ricostruiranno se stessi durante il volo, adattandosi così alle condizioni mutevoli cui sono sottoposti o semplicemente al capriccio dei loro passeggeri. Oggi, il viaggio spaziale è una sfida. Domani, sarà facile e conveniente. Poiché la nanotecnologia di per se stessa si presta a produrre oggetti piccoli, consideriamo la navetta spaziale per trasporto passeggeri più piccola possibile: lo spacesuit (l'abito spaziale). Essendo obbligati all'utilizzo di materiali deboli, pesanti e passivi, gli ingegneri attuali costruiscono tute spaziali goffe e voluminose. Un'occhiata ad una potenziale spacesuit avanzata illustrerà alcune delle possibilità della nanotecnologia. Immaginate di essere a bordo di una stazione spaziale che ruoti su se stessa per simulare la normale gravità terrestre. Dopo l'addestramento vi viene consegnata una suit da provare: eccola li appesa alla
parete, una cosa grigia dall'aspetto gommoso e corredata da un elmetto trasparente. La afferrate, sollevate il suo non trascurabile peso, vi spogliate e vi infilate attraverso la cucitura dell'apertura frontale. Avvertite che la suit è più soffice della più soffice gomma, ma ha una superficie interna untuosa. Scivola addosso facilmente e la cucitura d'entrata si sigilla al solo tocco. Essa è un rivestimento aderente attorno alle vostre dita come lo sarebbe un sottile guanto di cuoio, e si inspessisce progressivamente più su, verso il vostro braccio, fino a diventare spessa quanto una mano nella zona attorno al vostro torace. Alle vostre spalle, a malapena evidente, c'è un piccolo zaino. Attorno alla vostra testa, quasi invisibile, c'è l'elmetto. Dietro il vostro collo, la superficie interna si adatta perfettamente alla vostra pelle, in un abbraccio dal tocco leggero e uniforme che presto diventa quasi impercettibile. Vi alzate e camminate attorno, sperimentando la suit. Battete i piedi e non avvertite alcun peso extra dovuto ad essa. Vi piegate e vi stendete, e non sentite nessun impedimento, nessuna grinza, nessun punto di pressione. Quando strofinate fra loro le vostre dita, le sentite sensibili come se fossero nude, ma in qualche modo leggermente più spesse. Quando respirate, l'aria ha un gusto pulito e fresco. Infatti sentite che potreste dimenticarvi del tutto che state indossando una suit. E come se non bastasse, vi sentite altrettanto a vostro agio quando vi incamminate fuori, nel vuoto dello spazio. La suit è capace di tutto questo, ed altro ancora, grazie ad una complessa attività interna e ad una struttura la cui tessitura è quasi altrettanto intricata di quella dei tessuti viventi. Un dito di guanto spesso un millimetro ha spazio per un migliaio di livelli, spessi un micrometro ognuno, e composti da nanomacchinari e nanoelettronica attiva. Una toppa della dimensione di un polpastrello ha spazio per un miliardo di nanocomputer meccanici, e il 99, 9 percento del suo volume resta libero per altri componenti. Per cui, resta spazio libero in abbondanza per una struttura attiva. Il livello intermedio del materiale della suit (7) è composto da un intreccio tridimensionale di fibre la cui struttura è basata su quella del diamante, e tali fibre agiscono in modo molto simile a muscoli artificiali ma, in più, sono in grado di spingere altrettanto bene di quanto siano in grado di tirare (come discusso nelle note). Queste fibre occupano la maggior parte del volume e rendono il materiale della suit forte come l'acciaio. Mosse da microscopici motori elettrici e controllate da nanocomputer, esse donano al materiale della suit la sua notevole flessibilità, consentendole di allungarsi, contrarsi e piegarsi a seconda delle necessità. Quando, precedentemente, la suit era sembrata soffice al tatto, questa sensazione era dovuta al fatto che la suit era stata programmata ad agire in maniera "soffice". La suit non ha difficoltà a mantenere la sua forma nel vuoto; ed è forte abbastanza da non esplodere nel vuoto come farebbe invece un pallone. Allo stesso modo, non ha difficoltà a sostenere il suo proprio peso o a muoversi per adattarsi ai vostri movimenti rapidamente, dolcemente e senza resistenza. Questa è uno dei motivi per cui sembra quasi che non ci sia affatto. Inoltre, avvertite le vostre dita quasi come fossero nude perché sentite la tessitura di quello che toccate. Questo accade perché la superficie della suit è rivestita di sensori di pressione, e la fodera interna della suit è rivestita da strutture attive: il guanto vi fa avvertire la forma di qualsiasi cosa tocchiate, compresi i dettagliati schemi della pressione che l'oggetto esercita, e trasmette lo stesso schema di pressione alla vostra pelle. Può anche invertire il processo, ossia trasmettere all'esterno lo schema dettagliato delle forze esercitate dalla vostra pelle sull'interno del guanto. In questo modo il guanto finge di non esserci, ed alla vostra pelle pare d'essere nuda. La suit ha la forza dell'acciaio e la flessibilità del vostro stesso corpo. Se modificate le impostazioni dei controlli della suit, essa continua ad adattarsi ai vostri movimenti, ma con una differenza
sostanziale. Invece di trasmettere semplicemente le forze che voi esercitate, potrebbe amplificarle di dieci volte. Allo stesso modo, quando qualcosa si strofina contro di voi, la suit trasmette all'interno solo un decimo della forza (8). Ora siete pronti ad un combattimento di wrestling contro un gorilla. L'aria fresca che respirate non dovrebbe sorprendervi; lo zaino include una fornitura di aria e di altri generi di consumo. Tuttavia, dopo pochi giorni all'esterno ed esposti alla luce solare, la vostra aria non si esaurisce: come una pianta, la suit assorbe la luce del sole e l'anidride carbonica che esalate, per produrne ossigeno fresco. Sempre come una pianta (o come un intero ecosistema), essa decompone in molecole semplici le altre scorie che si generano e le riassembla in schemi molecolari di cibo sano e fresco. Di fatto, la suit vi mantiene in condizioni di comfort (9), ben nutriti ed in grado di respirare, e può farlo quasi in qualsiasi posto del sistema solare interno. Inoltre, la suit è durevole. Può tollerare il guasto di numerose nanomacchine poiché ne ha molte altre pronte a farsi carico del lavoro. Lo spazio fra le fibre attive lascia spazio ai movimenti di assemblatori e disassemblatori incaricati di riparare i dispositivi danneggiati. La suit ripara se stessa con la stessa velocità con cui si logora. Entro i confini del possibile, la suit potrebbe esser corredata di molte altre caratteristiche. Un granello di materiale più piccolo di una capocchia di spillo, potrebbe contenere il testo di ogni libro finora pubblicato, per consentire la sua visualizzazione su uno schermo pieghevole. Un'altro granello potrebbe essere un "seme" contenente i piani progettuali per un insieme di dispositivi più grande dell'insieme di tutti quelli che la razza umana abbia costruito fino ad oggi (10), e contenere inoltre assemblatori-replicatori capaci di fabbricare quantomeno alcuni di questi dispositivi, se non addirittura tutti. Inoltre, veloci sistemi di IA tecnica come quelli descritti nel capitolo precedente potrebbero progettare la suit in una sola mattinata (11), e terminare la sua costruzione il pomeriggio stesso. Tutto quello che realizziamo nello spazio con la moderna tecnologia di mole verrà rapidamente e drammaticamente sorpassato poco dopo l'avvento della tecnologia molecolare e dell'ingegneria automatizzata. In particolare, costruiremo assemblatori molecolari che possano funzionare nello spazio (12). Questi replicatori utilizzeranno energia solare, così come fanno le piante, e con tale energia convertiranno i detriti asteroidali in copie di se stessi e prodotti utilizzabili dagli uomini. Con tali replicatori, riusciremo ad afferrare saldamente le risorse del sistema solare. Finora, molti lettori avranno notato che questa discussione, come pure altre in precedenza, suona proprio come fosse fantascienza. Alcuni potrebbero esserne compiaciuti, altri invece potrebbero accogliere con timore temere l'eventualità che le possibilità future presentino davvero questa caratteristica. Altri ancora, tuttavia, potrebbero essere dell'opinione che "somigliare alla fantascienza" sia in qualche modo un presupposto per poter liquidare il discorso. Questa sensazione è comune e merita di essere analizzata. Tecnologia e fantascienza hanno a lungo condiviso una curiosa relazione. Nell'immaginare le tecnologie future, gli scrittori di fantascienza sono stati guidati in parte dalla scienza, in parte dai desideri umani, ed in parte dalla domanda di mercato per storie bizzarre. Alcune delle loro invenzioni in seguito si realizzarono davvero, perché le idee che sembravano plausibili ed interessanti nella finzione narrativa talvolta si dimostravano attraenti e possibili nella realtà. Inoltre, quando gli scienziati o gli ingegneri intravedono una sensazionale possibilità futura, come per esempio il volo spaziale tramite razzi, gli scrittori di fantascienza di solito si appropriano dell'idea e la rendono popolare. In seguito, quando i progressi ingegneristici spostano queste possibilità più vicino alla effettiva
realizzabilità, altri scrittori esaminano i fatti e ne descrivono le prospettive. Queste descrizioni, a meno che non siano davvero astratte, "suonano" come fantascienza. Le possibilità future spesso assomigliano alla fantascienza di oggi, proprio come gli odierni robot, astronavi e computer assomigliano alla fantascienza di ieri. E come potrebbe essere altrimenti? Le tecnologie drasticamente nuove suonano come fantascienza perché gli autori di fantascienza, a dispetto delle loro frequenti fantasticherie, non sono ciechi, ed in più nutrono un genuino interesse professionale per la tecnologia. Spesso, gli autori di fantascienza piegano agli scopi della narrazione (ossia "falsificano") il contenuto scientifico delle loro storie, di modo da "giustificare" delle tecnologie sensazionali. Alcuni pensatori un po' confusi, prendono queste descrizioni di progressi tecnici sensazionali, e ne estrapolano un quadro coerente utilizzando questa scienza contraffatta, ignorando però il contesto in cui essa compariva. E questo è molto spiacevole. Quando gli ingegneri estrapolano delle proiezioni riguardanti delle abilità future, verificano sperimentalmente le loro idee e le evolvono per adattarle alla migliore comprensione delle leggi della natura fra quelle di cui disponiamo al momento. E' indispensabile distinguere i concetti che ne risultano dalle idee evolutesi per adattarsi a soddisfare la domanda sul mercato di narrativa. Le nostre vite dipendono da questo. Molte cose resteranno comunque impossibili, persino per la tecnologia molecolare. Nessuna suit spaziale, per quanto meravigliosa, sarà mai in grado di comportarsi come un razzo capace di spingervi avanti ed indietro, interminabilmente ed a grandissime velocità, così come nessuna suit vi permetterà di sopravvivere a grandi esplosioni, o attraversare i muri, o semplicemente di restare indefinitamente freschi in una stanza calda ed isolata. Dobbiamo spingerci molto lontano prima di raggiungere i limiti del possibile, tuttavia questi limiti esistono. Ma si tratta di un argomento che verrà ripreso più tardi. Abbondanza Risorse dello spazio, assieme ad assemblatori ed ingegneria automatizzata, gettano le basi per un futuro di grande abbondanza materiale. Cosa si intenda esattamente con questa affermazione può comprendersi meglio esaminando i costi. I costi riflettono i limiti delle nostre risorse e delle nostre capacità; costi alti indicano risorse scarse ed obiettivi difficili da raggiungere. I profeti della scarsità hanno in effetti predetto la crescita vertiginosa dei costi, e con essa un certo tipo di futuro. Il costo delle risorse, comunque, dipende sempre dalla tecnologia. Sfortunatamente, gli ingegneri che hanno tentato di prevedere il costo delle future tecnologie si sono di solito imbattuti in un groviglio di dettagli e di incertezze che si è dimostrato impossibile da districare. Questo problema ha occultato la nostra comprensione del futuro. La prospettiva dei replicatori assemblatori, dell'ingegneria automatizzata e delle risorse spaziali taglia questo nodo Gordiano della previsione dei costi. Oggi, il costo dei prodotti include i costi distinti di lavoro, capitale, materiali grezzi, energia, siti di produzione, eliminazione dell'inquinamento, organizzazione, distribuzione, tassazione, e progetto. Per comprendere come cambierà il costo totale, consideriamo questi elementi uno per uno. Lavoro: Per costruire assemblatori-replicatori, dopo che questi siano stati realizzati per la prima volta, non ci sarà bisogno di alcun lavoro umano. Di quale utilità potrebbero essere le mani umane nel far funzionare un assemblatore? Inoltre, disponendo anche di dispositivi robotici di varie dimensioni per assemblare in sistemi più grandi le singole parti costruite dagli assemblatori-replicatori, l'intero
processo di fabbricazione dall'assemblaggio delle molecole all'assemblaggio dei grattacieli potrebbe affrancarsi del tutto dal costo del lavoro. Capitale: I sistemi basati sugli assemblatori, se propriamente programmati, costituiranno di per se stessi un capitale produttivo. Assieme con macchine robotiche più grandi, saranno in grado di costruire virtualmente ogni cosa, incluse copie di se stessi. Poiché questo capitale auto-replicante saprà raddoppiarsi molte volte in un giorno, solo la domanda e le risorse disponibili potranno limitarlo. Un capitale che si possiede in quantità dipendente dalla necessità, non costa virtualmente nulla. Materiali grezzi: Poiché le macchine molecolari disporranno gli atomi nel modo più vantaggioso, poco materiale può bastare per fare molto. Gli elementi più comuni, come idrogeno, carbonio, azoto, ossigeno, alluminio e silicio, sembrano essere i migliori per la costruzione della maggior parte della massa contenuta nella maggior parte delle strutture, dei veicoli, dei computer, degli abiti e così via: questi elementi sono leggeri e formano legami chimici molto forti. Poiché polvere ed aria contengono questi elementi in abbondanza, i materiali grezzi possono essere economici come la polvere. Energia: Gli assemblatori saranno in grado di funzionare alimentati da energia chimica o elettrica. Sistemi costruiti dagli stessi assemblatori convertiranno l'energia solare in energia chimica, come fanno le piante o le fotocelle solari. Le celle solari esistenti sono già più efficienti delle piante. Poiché i collettori solari saranno costruiti a loro volta da assemblatori-replicatori, carburante e potenza elettrica costeranno ben poco. Siti di produzione: Il sistema di produzione basato sugli assemblatori occuperà poco spazio. La maggior parte dei sistemi potrebbero stare in un armadio (o in un ditale, o nella cruna di un ago). I sistemi più grandi, se qualcuno volesse realizzare qualcosa che richiede una insolita estensione spaziale, potrebbero essere piazzati sottoterra o nello spazio. A questo scopo, la produzione basata sugli assemblatori potrà economicamente fabbricare sia macchine scavatrici che navi spaziali. Eliminazione dell'inquinamento: I sistemi assemblatori saranno capaci di mantenere il controllo degli atomi che utilizzano, rendendo la produzione altrettanto pulita del processo di crescita di un albero di mele, o persino più pulita. Se poi il "frutteto" rimanesse troppo sporco o troppo brutto, saremo in grado di rimuoverlo interamente, facendolo scomparire dalla faccia della Terra (13). Organizzazione: Attualmente, gli impianti industriali per la produzione richiedono una organizzazione per coordinare orde di lavoratori e dirigenti. Le macchine per la produzione basata sugli assemblatori non conterranno nessuna persona. Più semplicemente, si insedieranno in un posto e produrranno le cose che gli sono state richieste. La loro programmazione iniziale fornirà tutta l'organizzazione e l'informazione di cui esse hanno bisogno per fabbricare una gran varietà di prodotti. Distribuzione:
Con veicoli automatici che scorrono in tunnel fabbricati da economiche macchine scavatrici, la distribuzione non ha bisogno né di usare lavoro umano, né di deturpare il paesaggio. Poiché ci sarebbero assemblatori ovunque, sia in casa che in ambienti pubblici, ci sarà meno bisogno della distribuzione stessa. Tassazione: La maggior parte delle tasse preleva una percentuale fissa dal prezzo di un dato prodotto, e quindi incide sul costo del prodotto in quella fissata percentuale. Se il costo è trascurabile, la tassa sarà trascurabile. Inoltre, gli stessi governi avranno i propri replicatori e i propri materiali grezzi, per cui avranno meno motivo di tassare la gente. Progetto: Ai punti già esaminati qui sopra, va aggiunta un'altra giustificazione dei bassi costi di produzione. I sistemi di IA tecnica, evitando il costo del lavoro ingegneristico, elimineranno virtualmente il costo di progettazione. Questi sistemi IA risulteranno economici a loro volta, sia da un punto di vista produttivo che da un punto di vista operativo, poiché saranno stati fabbricati da assemblatori e non avranno alcuna inclinazione a fare null'altro che progettare. In breve, al termine di un lungo periodo di proficui sviluppi delle tecnologie molecolari e dei computer, i costi di progettazione e fabbricazione caleranno drammaticamente. Poco più sopra ho parlato di materie prime "economiche come la polvere" e, di fatto, gli assemblatori saranno in grado di fabbricare quasi qualunque cosa a partire da polvere e luce solare. Le risorse spaziali, comunque, cambieranno il già economico valore della "economica polvere" deprezzandolo ulteriormente: il terriccio agricolo ha pur sempre un suo valore nell'ecosistema della Terra, ma i detriti degli asteroidi provengono da un deserto morto e desolato per cui la loro terra varrà ancor meno. Per lo stesso motivo, gli assemblatori nello spazio funzioneranno con la luce proveniente direttamente dal Sole. Le risorse spaziali sono immense. Un asteroide potrebbe seppellire un continente della Terra sotto uno strato di materie prime profondo un chilometro. Lo spazio inghiotte il 99,999999955 per cento di tutta la luce del Sole che non colpisce la Terra, e la maggior parte di questa radiazione luminosa si perde nel vuoto interstellare. Lo spazio ha materia, energia e "spazio" a sufficienza per progetti di vaste dimensioni, incluse enormi colonie spaziali. I sistemi basati sui replicatori saranno capaci di costruire mondi con scale comparabili a quelle di continenti e somiglianti ai cilindri del Dr. O'Neill's ma fatti di materiali robusti a base di carbonio. Con questi materiali e con l'acqua prelevata dalle lune ghiacciate del sistema solare esterno, saremo in grado di creare non soltanto dei terreni nello spazio, ma anche mari interi più vasti e più profondi del Mediterraneo. Questi nuovi e vasti suoli e mari costruiti con energia e materiali prelevati dallo spazio, in termini di risorse non costeranno quasi nulla alla Terra. Il principale requisito sarà programmare il primo replicatore, ma in questo compito ci verranno in aiuto i sistemi IA. Il problema più grande sarà unicamente decidere quello che desideriamo fare. Come Konstantin Tsiolkovsky (14) ha scritto sul finire del dicianovesimo secolo, "L'uomo non resterà per sempre sulla terra; la ricerca di luce e spazio lo porterà a diffondersi oltre i confini dell'atmosfera, dapprima timidamente, ma infine per conquistare l'intero sistema solare". Nello spazio morto porteremo vita.
E i replicatori ci doneranno le risorse per afferrare le stelle. Una vela di luce in viaggio verso una stella e spinta dalla sola luce solare, si troverebbe presto a navigare libera nell'oscurità, più veloce di qualsiasi razzo moderno ma pur sempre così lentamente che impiegherebbe millenni per attraversare l'abisso interstellare. Possiamo tuttavia costruire una formidabile schiera di proiettori laser orbitanti attorno al Sole, e con una tale schiera dirigere un raggio fino a molto oltre il nostro sistema solare (15) affinché spinga una vela quasi fino alla velocità della luce. La traversata, in tal caso, richiederebbe soltanto degli anni. Arrestare la vela rappresenta un problema. Freeman Dyson della Princeton suggerisce di frenarla con i campi magnetici associati alla lieve ionizzazione dei gas interstellari (16). Robert Forward degli Hughes Research Laboratories suggerisce (17) di ritirare il raggio, e attivare un nuovo raggio che parta dalla stessa vela e che sia diretto in verso opposto al moto della vela, in modo da decelerarne un'altra più piccola che viaggia in coda alla prima. In un modo o nell'altro (e ce ne sono molti altri), le stelle si trovano entro la nostra portata. Per un lungo tempo a venire, tuttavia, il solo sistema solare può fornirci opportunità a sufficienza. Lo spazio in prossimità della Terra è sufficiente per creare paesaggi con un'area complessiva milioni di volte quella della Terra (18). Nulla ci obbligherà ad fermare l'emigrazione verso questi spazi e non sarà indispensabile far ritorno di tanto ogni tanto a visitare la vecchia patria. Non avremo neanche problemi a rifornire di energia il sistema di trasporto, poiché la luce solare inonda la Terra in soli dieci minuti con una energia (19) sufficiente a portare in orbita l'intera popolazione attuale. Viaggio spaziale e insediamenti spaziali saranno entrambi buon mercato. Se faremo un uso saggio della tecnologia molecolare, i nostri discendenti si domanderanno con meraviglia cosa abbia potuto tenerci imbottigliati sulla Terra così a lungo, ed in una così grande povertà. La Società a Somma Positiva Potrebbe sembrare che il costo di ogni cosa, persino del terreno (a meno che non ci si metta a scavare migliaia di chilometri di roccia sotto il suolo), dovrà crollare a zero. In un certo senso questo è quasi vero, ma in un altro senso è anche, in una certa misura, falso. La gente attribuirà sempre un valore a materia, energia, informazione ed a autentici servizi umani, perciò ogni cosa avrà ancora il suo costo. E sul lungo periodo, ci troveremo faccia a faccia con i veri limiti allo sviluppo, per cui il costo delle risorse non potrà mai essere accantonato del tutto. Ciò nonostante, se sopravviveremo, replicatori e risorse spaziali ci condurranno in una lunga era durante la quale gli autentici limiti delle risorse non riusciranno ancora a metterci alle strette; un'era in cui, secondo i nostri attuali standard, persino una immensa ricchezza sembrerà virtualmente gratuita. Questo potrebbe sembrare troppo bello per essere vero, ma la natura (come al solito) non impone i suoi limiti in base alle sensazioni umane. I nostri antenati un tempo pensavano che parlare a qualcun'altro al di là del mare (distante molti mesi di viaggio di navigazione a vela) sarebbe stato troppo bello per essere vero, e tuttavia i cavi sottomarini ed i satelliti sopra il mare funzionano davvero. Ma c'è anche un'altra risposta, meno piacevole per quelli che pensano che gli assemblatori siano troppo belli per essere veri: gli assemblatori minacciano anche di portarci dei rischi, nonché armi più pericolose di quelle mai viste da chiunque finora. Se la nanotecnologia potesse essere evitata e non potesse essere controllata, la gente equilibrata la eviterebbe. Pare certo, nondimeno, che la corsa tecnologica produrrà gli assemblatori partendo dalle biotecnologie così come era certo che essa avrebbe prodotto le navette spaziali partendo dai missili. I vantaggi militari offerti, da soli, saranno sufficienti a rendere quasi inevitabili i progressi. Gli assemblatori sono inevitabili, ma forse controllabili. La nostra sfida è evitare i pericoli ma questo richiederà collaborazione, e noi siamo più propensi a
collaborare se comprendiamo quanto abbiamo da guadagnarne. La prospettiva dello spazio e degli assemblatori-replicatori potrebbe aiutarci a spazzare via alcuni memi antichi e dannosi. La vita umana era un tempo come un gioco a somma zero. L'umanità viveva vicina al suo limite ecologico e le tribù lottavano contro altre tribù per contendersi lo spazio vitale. Dove c'erano pascoli o terreni agricoli e di caccia, se un gruppo ne aveva di più c'era di sicuro un altro gruppo che doveva averne di meno. Poiché ogni guadagno doveva grosso modo essere compensato da una perdita da qualche altra parte, i benefici complessivi si assommavano a zero. Eppure la gente, che su altri aspetti cooperava comunque, riuscì a prosperare. E così i nostri antenati non impararono solo ad arraffare, ma anche a cooperare e costruire. Dove erano coinvolte tasse, o trasferimenti di denaro e conflitti di corte, più per qualcuno significava ancora una volta meno per qualche altro. Con lentezza, aggiungiamo pian piano qualcosa al benessere totale, ma la redistribuzione è rapida. Se consideriamo un qualsiasi specifico giorno, le risorse sembrano fissate, il che fa nascere l'illusione che la vita sia un gioco a "somma zero". Questa illusione suggerisce che una collaborazione estesa sia inutile, perché il nostro guadagno dovrà derivare dalla perdita di qualche avversario. La storia dei progressi umani dimostra invece che il gioco del mondo può essere a somma positiva. L'accelerazione della crescita economica durante i secoli recenti mostra che il ricco può diventare ancora più ricco mentre il povero diventa più ricco. A dispetto della crescita della popolazione (e dell'idea di dover dividere una torta fissa) il benessere medio pro-capite considerato sull'intera estensione mondiale, incluso quello del Terzo Mondo, è cresciuto costantemente. Fluttuazioni economiche, capovolgimenti locali, e la tendenza naturale dei media a focalizzarsi sulle cattive notizie, si combinano per oscurare i fatti riguardanti lo sviluppo economico, ma le registrazioni pubbliche lo evidenziano abbastanza chiaramente. Le risorse spaziali e gli assemblatori-replicatori accelereranno questa tendenza storica ben oltre i sogni degli economisti, catapultando la razza umana in un nuovo mondo. ---------Capitolo 7: Motori di guarigione Vita, Mente e Macchine Dai Farmaci alle Macchine Ripara-Cellule Macchine di Riparazione Cellulare Esempi di Cure Anestesia Potenziata Dalla Funzione alla Struttura Dal Trattamento della Malattia al Mantenimento della Salute Una Malattia Chiamata "Invecchiamento" Una delle cose che ci distingue dalle nostre precedenti generazioni è che abbiamo visto i nostri stessi atomi. - KARL K. DARROW, The Renaissance of Physics Useremo la tecnologia molecolare anche per aver cura della nostra salute, poiché il corpo umano è fatto di molecole. Malattia, vecchiaia e ferite, sono tutti danni causati da schemi erronei nella disposizione degli atomi, sia che queste disposizioni erronee siano causate da virus invasori, che dal trascorrere del tempo o da incidenti automobilistici. Se dei dispositivi sono in grado di modificare a piacimento le disposizioni di atomi, saranno anche capaci di modificarle secondo uno schema corretto. In medicina la nanotecnologia costituirà un passo avanti di importanza fondamentale.
Per trattare una malattia, i medici attuali devono sostanzialmente fare affidamento su chirurgia e farmaci. I chirurghi hanno compiuto progressi significativi, per esempio passando dal suturare le ferite ed amputare membra, al riparare cuori e riconnettere membra recise. Utilizzando microscopi e fini strumenti, riescono a riconnettere canali sanguinei e nervi delicatissimi. Tuttavia, persino la migliore microchirurgia non può essere in grado né di tagliare né di suturare le strutture di tessuto più fini. I bisturi e gli attrezzi da sutura attuali sono semplicemente troppo rozzi per poter riparare capillari, cellule e molecole. Consideriamo la chirurgia "delicata" dalla prospettiva di una cellula: una immensa lama penetra rapidamente, e strada facendo attraversa una moltitudine di cellule, triturandone a migliaia e macellando ciecamente il loro macchinario molecolare. Successivamente, un grande obelisco si immerge nella ressa di cellule oramai separata in due distinti lembi di carne, e si trascina dietro un cavo lungo come un treno merci per legare assieme i due lembi. Dalla prospettiva di una cellula anche la chirurgia più delicata, eseguita con bisturi raffinati ed grande abilità, rimane ancora un lavoro da macellaio. Solo la capacità delle cellule di abbandonare i loro morti, raggrupparsi nuovamente e moltiplicarsi, rende possibile la guarigione. Tuttavia, come sanno fin troppo bene molte vittime paralizzate a causa di incidenti, non tutti i tessuti guariscono. La terapia farmacologica, a differenza della chirurgia, tratta con le strutture più fini interne alle cellule. Le molecole di un farmaco sono dei semplici dispositivi molecolari. Molti di essi, agiscono nelle cellule su molecole specifiche. Le molecole di morfina, per esempio, nelle cellule del cervello si legano a certi recettori molecolari e influenzano la recettività di tali cellule nei confronti degli impulsi neurali che segnalano il dolore. Insuline, beta-bloccanti ed altri farmaci, si adattano ad altri recettori. Ma le molecole farmaceutiche lavorano senza una precisa direzione. Una volta trasferite nel corpo esse vagano nella soluzione acquosa in cui si trovano, roteando su se stesse e rimbalzando del tutto a caso, fino a che riescono eventualmente a colpire una molecola bersaglio ed a farlo nella giusta orientazione per adattarsi ad essa, aderirvi, ed influire infine sul suo funzionamento. I chirurghi possono esaminare i problemi e pianificare azioni, ma usano ancora strumenti troppo rozzi; le molecole dei farmaci agiscono sui tessuti a livello molecolare, ma sono ancora troppo semplici per poter "sentire", "pianificare" ed "agire". Le macchine molecolari dirette da nanocomputer offriranno ai medici una possibilità di scelta alternativa. Esse combineranno sensori, programmi e strumenti molecolari in sistemi in grado di esaminare e riparare i componenti ultimi delle singole cellule. Ci doteranno del controllo chirurgico sul dominio molecolare. Ci vorranno anni perché questi dispositivi molecolari avanzati arrivino, ma alcuni ricercatori spronati da particolari necessità mediche sono già impegnati nello studio dell'ingegneria e delle macchine molecolari. I migliori farmaci sono quelli che influenzano macchine molecolari specifiche in modi specifici. La penicillina, per esempio, uccide certi batteri inceppando il funzionamento del nanomacchinario che essi usano per costruire le loro pareti cellulari, con scarso effetto collaterale sulle cellule umane. I biochimici studiano le macchine molecolari sia per imparare come costruirle che per imparare a demolirle. In giro per il mondo (e soprattutto per il terzo mondo) una disgustosa varietà di virus, batteri, protozoi funghi e vermi, parassitizzano la carne umana. Come per la penicillina, farmaci sicuri ed efficaci per questi malesseri dovrebbero bloccare il macchinario molecolare parassita, e nel contempo lasciare intatto quello umano. Il Dottor Seymour Cohen (1), professore di scienza della farmacologia al SUNY (Stony Brook, New York) afferma che i biochimici dovrebbero studiare in maniera sistematica il macchinario molecolare di questi parassiti. Una volta che i biochimici abbiano determinato la forma e la funzione di una macchina proteica già esistente nel regno della vita, spesso potrebbero anche scoprirsi capaci di progettare una molecola appositamente conformata per bloccarla e distruggerla. Tali farmaci potrebbero liberare l'umanità da orrori antichi come la
schistosomiasi, e da quelli nuovi come l'AIDS. Le compagnie farmaceutiche stanno già riprogettando alcune molecole, basandosi sulla conoscenza delle loro modalità di funzionamento. I ricercatori della Upjohn Company(2) hanno progettato e realizzato molecole modificate di vasopressina, un ormone costituito da una breve catena di aminoacidi. La vasopressina incrementa il ritmo di lavoro del cuore e riduce il tasso con il quale i reni producono urina; tutto ciò aumenta la pressione sanguinea. I ricercatori hanno progettato molecole di vasopressina modificata che influenzano i recettori molecolari nei reni più di quanto facciano con quelli del cuore, dotando così la vasopressina di effetti medicali più specifici e controllabili. In tempi più recenti hanno progettato una molecola modificata di vasopressina che si lega ai recettori renali senza un reale effetto diretto, e tuttavia bloccando ed inibendo l'azione della vasopressina naturale. Le necessità della medicina sproneranno ulteriormente questi studi, incoraggiando i ricercatori a muovere passi ulteriori verso la progettazione di proteine e verso l'ingegneria molecolare. Pressioni mediche, militari ed economiche, spingeranno tutte assieme nella stessa direzione. La tecnologia molecolare realizzerà progressi impressionanti persino prima del passo avanti tecnologico degli assemblatori; le attuali tendenze nella biotecnologia ce lo confermano. Tuttavia, questi progressi saranno di solito graduali e difficili da prevedere, in quanto ognuno di essi sfrutterà qualche dettaglio specifico della biochimica. In seguito, quando applicheremo alla medicina gli assemblatori ed i sistemi di IA tecnica, raggiungeremo abilità più estese e ben più facili da prevedere. Per comprendere queste abilità, prendiamo in considerazione le cellule ed i loro meccanismi di auto-riparazione. Radioattività naturale e composti chimici nocivi scindono le molecole delle cellule del vostro corpo, producendo frammenti molecolari reattivi. Questi possono andarsi a legare in modo erroneo ad altre molecole, in un processo denominato cross-linking, [NdT- un processo che crea legami chimici fra due catene molecolari separate, come ribadito nel glossario]. Un po' come fossero pallottole e grumi di colla, radioattività e frammenti chimici reattivi danneggiano le cellule, sia perché spezzano i legami chimici delle loro macchine molecolari, sia perché incollano arbitrariamente assieme queste macchine. Se le vostre cellule riparassero se stesse, il danno le ucciderebbe rapidamente oppure accelererebbe all'impazzata il loro funzionamento fino a danneggiare i loro sistemi di controllo. Ma l'evoluzione ha favorito organismi con macchinario capace di porre qualche rimedio a questo problema. Il sistema industriale auto-replicante descritto nel capitolo 4 sa riparare se stesso sostituendo le parti danneggiate; le cellule fanno la stessa cosa. Finché il DNA di una cellula resta intatto, esso può produrre "nastri" di istruzioni scevri da errori ed utilizzarli per dirigere i ribosomi nell'assemblaggio di nuove macchine proteiche. Sfortunatamente per noi, il DNA stesso subisce dei danni, ed il risultato di tali danni sono le mutazioni. Gli enzimi di riparazione, in qualche misura, compensano il problema individuando e riparando certi tipi di danni del DNA. Queste riparazioni aiutano le cellule a sopravvivere, ma i meccanismi di riparazione esistenti sono troppo semplici per correggere tutti i problemi, nel DNA come altrove. Gli errori si accumulano contribuendo, col tempo, all'invecchiamento e alla morte delle cellule, e della persone stesse. Vita, Mente e Macchine Ha senso descrivere le cellule come "macchinario", siano esse autoriparanti o meno? Potrebbe sembrare, poiché siamo fatti di cellule, che questa terminologia riduca gli esseri umani a "semplici macchine", in conflitto con una comprensione olistica della vita.
Ma una definizione da dizionario di olismo(3) è: "la teoria che la realtà sia fatta di interi organici o unificati, più grandi della semplice somma delle loro parti.". Ciò è senza dubbio applicabile alle persone: una semplice somma delle nostre parti potrebbe somigliare ad un hamburger, essendo infatti priva sia di mente che di vita. Il corpo umano contiene alcune decine di migliaia di miliardi di miliardi di parti proteiche, e nessuna macchina complessa fino a questo punto può meritarsi di essere etichettata come "semplice" macchina. Qualunque sintetica descrizione di un sistema tanto complesso non può evitare di risultare grossolanamente incompleta, e tuttavia a livello molecolare una descrizione in termini di macchinario ha perfettamente senso. Le molecole possiedono delle semplici parti mobili, e molte di tali parti mobili agiscono come tipologie di macchine piuttosto familiari. Considerate nel complesso le cellule possono senz'altro apparire meno meccaniche di quel che sono, e tuttavia i biologi trovano molto utile descriverle in termini di macchinario molecolare. I biochimici hanno svelato quelli che una volta erano i misteri centrali della vita, ed hanno cominciato a corredare di dettagli le spiegazioni di questi misteri. Hanno indagato su come le macchine molecolari demoliscano le molecole di cibo nei loro blocchi di costruzione costituenti, e come poi riassemblino queste parti per costruire un tessuto rinnovato. Molti dettagli della struttura di una cellula umana restano ancora sconosciuti (in una singola cellula si possono trovare anche miliardi di grandi molecole e in migliaia di tipi differenti), ma per alcuni virus i biochimici hanno già completato la redazione di una mappa di ogni loro parte costituente. I laboratori biochimici espongono spesso un grande diagramma a muro che mostra come si svolgano i principali flussi dei blocchi di costruzione molecolari all'interno di un qualche batterio. I biochimici comprendono in dettaglio molti dei processi della vita, e quello che ancora non comprendono sembra comunque funzionare in base agli stessi principi. Il mistero dell'ereditarietà è diventato l'industria dell'ingegneria genetica. Persino lo sviluppo embrionale e la memoria sono stati spiegati in termini di trasformazioni biochimiche e strutturali della cellula. Nelle ultime decadi, la reale essenza della nostra ignoranza residua è cambiata totalmente. Un tempo i biologi guardavano al processo della vita e si domandavano: "Come può accadere?". Ma oggi comprendono i principi generali della vita stessa, e studiando uno specifico processo vivente di solito si domandano: "Fra i molti modi in cui questo può accadere, qual'è quello che la natura ha scelto?". In molte occasioni i loro studi hanno ristretto le spiegazioni possibili ad una sola. Certi processi biologici, come per esempio la coordinazione delle cellule appartenenti ad embrioni in via di sviluppo, oppure i processi di un cervello capace di apprendimento, o quelli dei sistemi di reazione immunologica, rappresentano tuttora una vera sfida all'immaginazione. E tuttavia questo non accade perché ci sia qualche profondo mistero ancora da svelare riguardo il modo in cui funzionano le parti coinvolte in questi processi, ma solo a causa della immensa complessità delle interazioni fra le parti che contribuiscono al processo globale. Le cellule obbediscono alle stesse leggi naturali che descrivono il resto del mondo. Le macchine proteiche, se poste in appropriati ambienti molecolari, funzioneranno allo stesso modo sia quando si trovino in una cellula funzionante che quando il resto della cellula sia stato distrutto e sciacquato via giorni prima. Le macchine molecolari non conoscono nulla sulla "vita" o sulla "morte". I biologi, quando proprio se ne preoccupano, talvolta definiscono la "vita" come la capacità di crescere, replicarsi e rispondere agli stimoli. Ma sulla base di questi standard un sistema di fabbriche di replicazione privo di mente potrebbe egualmente definirsi vivo, mentre non potrebbe definirsi tale una intelligenza artificiale cosciente e modellata sulla mente umana. I virus sono vivi oppure sono "semplicemente" delle ingegnose macchine molecolari? Nessun esperimento può dirlo perché la natura non ha tracciato linee di demarcazione precise fra il vivente ed il non vivente. I biologi che lavorano con i virus, piuttosto, si domandano molto più pragmaticamente: "Un virus con
questa specifica funzionalità virale, ha qualche possibilità?". In medicina, le etichette di "vita" e "morte" dipendono dalle capacità mediche: i medici si chiedono "Considerata questa specifica funzione del paziente, abbiamo fatto il nostro meglio?". I medici, quando passano essi stessi al ruolo di pazienti, muoiono esattamente come questi, se il cuore si ferma. I medici attuali decretano la morte del paziente quando disperano di ripristinare una attività cerebrale. I progressi della medicina cardiaca modificheranno questa definizione; i progressi della medicina cerebrale la modificheranno ancora una volta. Proprio come alcune persone non si sentono a proprio agio con l'idea di macchine pensanti, così ci saranno persone a disagio con l'idea di macchine che giacciono alle fondamenta del nostro stesso processo di pensiero. Ancora una volta è la parola "macchina" che sembra congiurare per proporre l'immagine sbagliata, una sorta di visione di metallo ottuso e sferragliante, piuttosto che di guizzanti segnali lungo un intreccio di fibre neurali connesse in un arazzo vivente più intricato di quanto la stessa mente che esso incorpora possa pienamente comprendere. Le uniche macchine cerebrali autenticamente simili a "macchine", sono di dimensioni molecolari, più piccole delle fibre più fini. Un intero non somiglia necessariamente alle sue parti. Una protuberanza solida difficilmente assomiglia ad una fontana danzante, e tuttavia un insieme di aggregati molecolari solidi formano l'acqua fluida. Analogamente, miliardi di macchine molecolari formano fibre neurali e sinapsi, migliaia di fibre e sinapsi formano una cellula neurale, e miliardi di cellule neurali formano il cervello che incorpora la fluidità del pensiero. Dire che la mente è "soltanto un insieme di macchine molecolari" è come dire che Mona Lisa è "soltanto un insieme di spennellate di vernice". Affermazioni di questo tipo confondono le parti con l'intero, e confondono la materia con gli schemi che essa incorpora. Non siamo meno umani per il solo fatto d'essere costituiti da molecole. Dai Farmaci alle Macchine Ripara-Cellule Essendo fatti di molecole ed essendo al tempo stesso umanamente preoccupati della nostra salute, applicheremo le macchine molecolari alla tecnologia biomedica. I biologi già utilizzano antibiotici per marcare le proteine, enzimi per separare e congiungere frammenti di DNA, e siringhe virali (come il batteriofago T4) per iniettare in batteri del DNA modificato. In futuro essi utilizzeranno le nanomacchine costruite dagli assemblatori per esaminare e modificare le cellule. Con strumenti come i disassemblatori, i biologi saranno in grado di studiare le strutture cellulari fino agli ultimi dettagli molecolari. Essi potranno catalogare le centinaia di migliaia di tipi diversi di molecole nel corpo e redigere una mappa della struttura delle centinaia di tipi diversi di cellule. I biologi potranno descrivere le parti e le strutture di un tessuto in modo non dissimile rispetto a ingegneri che compilino una lista di parti costituenti e disegnino i progetti di una automobile. E per allora, potranno anche farsi aiutare da sofisticati sistemi di IA tecnica(4). Lo scopo dei medici è la salute dei tessuti, ma con i farmaci e la chirurgia possono soltanto incoraggiare i tessuti affinché si riparino da soli. Le macchine molecolari permetteranno una riparazione più diretta, portandoci in una nuova era della medicina. Per riparare un'automobile, un meccanico anzitutto raggiunge il complesso di parti che non funziona, poi identifica i singoli pezzi guasti, ed infine ricostruisce o sostituisce questi ultimi. La riparazione cellulare coinvolge gli stessi compiti di base e, come già dimostrano i sistemi viventi, si tratta di compiti che è realmente possibile eseguire. Accesso:
I globuli bianchi del sangue abbandonano il flusso sanguineo e si muovono attraverso i tessuti. I virus entrano nelle cellule. Anche i biologi riescono a penetrare le cellule senza ucciderle. Questi esempi mostrano che le macchine molecolari possono raggiungere le cellule e riuscire a penetrarle. Riconoscimento: Gli anticorpi e le fibre di coda del batteriofago T4 dimostrano che, come d'altronde accade in tutte le specifiche interazioni biochimiche, il sistema molecolare può riconoscere altre molecole grazie al tocco. Disassemblaggio: Gli enzimi digestivi (ed altri agenti chimici, ben più feroci) dimostrano che il sistema molecolare può disassemblare le molecole danneggiate. Ricostruzione: Replicandosi, le cellule dimostrano che il sistema molecolare può costruire o ricostruire ogni tipo di molecola contenuta nelle cellule. Reassemblaggio: La natura dimostra anche che molecole separate possono essere nuovamente ricongiunte(5). Ad esempio, il macchinario del batteriofago T4 si autoassembla(6) dalla soluzione liquida con l'aiuto, a quanto pare, di un solo enzima. La replicazione delle cellule dimostra che i sistemi molecolari possono assemblare ogni sistema contenuto nelle cellule. Quindi, la natura mostra di fare uso di tutte le operazioni di base che sono necessarie per effettuare riparazioni cellulari di livello molecolare. Inoltre, come ho descritto nel capitolo 1, i sistemi basati sulle nanomacchine saranno generalmente più compatti e più capaci di quelli che si trovano in natura. I sistemi naturali ci mostrano soltanto i limiti inferiori al possibile, nella riparazione di cellule come in qualunque altra cosa. Macchine di Riparazione Cellulare Riassumendo, con la tecnologia molecolare e con l'IA tecnica compileremo una completa descrizione a livello molecolare dei tessuti sani, e costruiremo macchine capaci di entrare nelle cellule e percepire e modificare le loro strutture. Le macchine ripara-cellule saranno di dimensioni comparabili a quelle di batteri e virus, ma la maggiore compattezza delle loro parti permetterà a queste macchine di essere più complesse. Viaggeranno attraverso i tessuti come fanno i globuli bianchi del sangue, ed entreranno nelle cellule come fanno i virus, potendo persino aprire e chiudere le membrane cellulari con l'attenzione di un chirurgo. All'interno di una cellula, una macchina riparatrice per prima cosa valuterà la situazione esaminando contenuto e attività della cellula, quindi intraprenderà azioni adeguate. Le prime macchine ripara-cellule saranno altamente specializzate, in grado di riconoscere e correggere solo un singolo tipo di disordine molecolare, ad esempio la deficienza di un enzima o una qualche specifica forma di danno sul DNA. Le macchine successive (non molto più tardive, grazie al lavoro di progettazione compiuto da avanzati sistemi di IA tecnica) saranno invece programmate per possedere abilità più generali.
Complesse macchine riparatrici avranno bisogno di essere guidate da nanocomputer. Un computer meccanico di un micrometro cubo come quello che ho descritto nel capitolo 1, occuperà un millesimo del volume di una tipica cellula, pur contenendo più informazioni di quante ne contenga il DNA delle cellule. In un sistema riparatore tali computer dirigeranno altri computer più piccoli e più semplici, che a loro volta dirigeranno la macchine perché esaminino, scartino e ricostruiscano, strutture molecolari danneggiate. Lavorando molecola dopo molecola, struttura dopo struttura, le macchine riparatrici saranno capaci di riparare intere cellule. Lavorando cellula dopo cellula, e tessuto dopo tessuto (aiutate, dove sia necessario, da dispositivi più grandi) esse saranno in grado di riparare interi organi. Lavorando in lungo ed in largo su una persona, organo dopo organo, ripristineranno interamente la sua salute. Poiché le macchine molecolari saranno capaci di costruire da zero molecole e cellule, saranno anche in grado di riparare ogni danno di una cellula che sia causa di una sua completa inattività. Per cui, le macchine ripara-cellule determineranno un passo avanti tecnologico fondamentale: esse libereranno la medicina dal dover affidarsi alla auto-riparazione in quanto unica strada percorribile verso la guarigione. Per riuscire a raffigurarci una avanzata macchina ripara-cellule, immaginiamola, assieme con tutta la cellula, ingrandita fino a che i suoi atomi abbiano le dimensioni di piccole biglie. Su questa scala, gli strumenti più piccoli della macchina riparatrice montano sulle loro estremità dei puntali grandi all'incirca quanto le dita della vostra mano; una proteina di dimensioni medie, come l'emoglobina, avrebbe la dimensione di una macchina da scrivere, ed un ribosoma sarebbe grande quanto una lavatrice. Un singolo dispositivo di riparazione conterrebbe un semplice computer dalla dimensione di un piccolo camion, ricoperto da molti sensori delle stesse dimensioni della proteina, con svariati manipolatori delle stesse dimensioni di un ribosoma. Il dispositivo di riparazione è inoltre dotato di memoria nonché di dispositivi per fornire energia motoria. Un volume totale di dieci metri di lato, ossia la dimensione di un edificio grosso come un piccolo albergo, contiene tutte queste parti e molte altre. Poiché tutto questo volume è riempito da parti della dimensione di biglie, la macchina riparatrice può essere capace di fare cose molto complesse. Ma questo dispositivo riparatore non lavora da solo. Esso, come i suoi innumerevoli fratelli, è connesso a computer più grandi tramite collegamenti meccanici per trasmissione dati aventi diametro pari a quello del vostro braccio. Su questa scala, un computer di un micrometro cubo, dotato di una grande memoria, riempie un volume di tre piani in altezza e trenta volte campi di calcio in area. Il dispositivo riparatore passa informazioni al computer, e da esso riceve in risposta istruzioni generali. Oggetti così grandi e complessi sono pur sempre ancora sufficientemente piccoli: su questa scala, la cellula stessa si estende per un chilometro, e basterebbe perciò per contenere mille volte il volume di un computer di un micrometro cubo, o un milione di volte il volume di un singolo dispositivo riparatore. Le cellule sono spaziose. Queste macchine saranno in grado di fare tutto ciò che deve essere fatto per riuscire a riparare le cellule? L'esistenza delle macchine molecolari dimostra la possibilità di viaggiare lungo i tessuti, entrare nelle cellule, riconoscere le strutture molecolari, e così via. Ma anche altri requisiti sono importanti. Le macchine riparatrici lavoreranno abbastanza velocemente? E se saranno in grado di farlo, non potrebbero forse dissipare talmente tanta energia da arrostire il paziente? Le riparazioni più intensive non possono richiedere moli di lavoro immensamente maggiori di quelle necessarie per costruire una cellula da zero. Eppure, le macchine molecolari che lavorano all'interno del limitato volume di una cellula fanno, di routine, proprio questo, riuscendo infatti a costruire una nuova cellula in soli dieci minuti (nei batteri) o al più poche ore (nei mammiferi). Ciò implica che delle macchine riparatrici occupino solo poche unità percentuali del volume di una cellula, saranno in grado di completare anche riparazioni molto estese in tempi ragionevoli di giorni o al massimo settimane. Le cellule possono ben tollerare questa occupazione abusiva del loro
volume. Persino le cellule cerebrali continuano ancora a funzionare quando un inoperoso rifiuto denominato lipofucsina (7) (il prodotto di qualche forma di danneggiamento molecolare, a quanto pare) arriva a riempire oltre il dieci per cento del loro volume. Rifornire energia ai dispositivi di riparazione sarà facile: le cellule contengono, per loro stessa natura, dei carburanti chimici per le nanomacchine. La natura dimostra anche che è possibile raffreddare le macchine riparatrici: le cellule nel vostro corpo si rinnovano incessantemente, e gli animali più giovani crescono rapidamente senza arrostirsi. La gestione del calore prodotto da un simile livello di attività delle macchine riparatrici non provocherà neanche il sudore o per lo meno non farà poi sudare granché, visto e considerato che una lieve sudorazione è il prezzo da pagare per mantenersi in salute. Tutti questi paralleli fra macchine di riparazione artificiali e meccanismi biologici esistenti in natura sollevano la questione riguardo la fondatezza dell'idea che le macchine riparatrici possano davvero riuscire a migliorare la natura. A questo proposito, la riparazione del DNA costituisce un nitido esempio chiarificatore. Proprio come una illetterata "macchina ripara-libri" potrebbe riconoscere e riparare una pagina strappata, così un enzima di riparazione del DNA può riconoscere in esso, nonché riparare, sia i suoi legami spezzati che gli erronei legami del DNA con catene e frammenti molecolari estranei (cross-links). Tuttavia, la correzione degli errori ortografici (o mutazioni), richiederebbe la capacità di leggere. La natura manca di macchine di riparazione di questo tipo, che pure sarebbero di facile costruzione. Immaginiamo tre molecole di DNA identiche, ognuna con la stessa sequenza di nucleotidi. Ora immaginiamo che ogni filamento sia mutato, a seguito del cambiamento di soltanto pochi sparuti nucleotidi. Ogni filamento, preso di per se, sembra ancora normale. Ciò nonostante, una macchina riparatrice potrebbe confrontare ogni filamento con agli altri, un segmento alla volta, riuscendo così ad individuare un nucleotide che non corrisponda ai suoi omologhi negli altri filamenti. Modificando i nucleotidi sospetti in modo che corrispondano a quelli degli altri due filamenti di DNA, il danno sarà quindi riparato. Questo metodo però, non può che fallire se due filamenti mutano nella stessa posizione. Immaginiamo che, dopo migliaia di mutazioni, il DNA di ognuna di tre distinte cellule umane, sia stato seriamente danneggiato; ogni cellula ha un nucleotide modificato su un milione. La procedura per individuare le correzioni da apportare ai nostri tre filamenti fallirà, secondo un criterio statistico, grosso modo per una specifica posizione su ogni milione di milioni di posizioni esaminate. Ma se confrontiamo cinque filamenti per volta, i nucleotidi dubbi diventano circa uno su un milione di milioni di milioni (8), e così via. Un dispositivo che confronti molti filamenti avrà, di fatto, una probabilità praticamente nulla di non riuscire a correggere un qualsiasi errore presente. In pratica, le macchine riparatrici confronteranno molecole di DNA di cellule diverse, ne produrranno copie corrette(9) e utilizzeranno le copie come riferimento per correggere e riparare il DNA lungo l'intera estensione di un tessuto. Confrontando filamenti diversi, le macchine riparatrici miglioreranno drasticamente le loro prestazioni rispetto ai nostri enzimi di riparazione. Altre riparazioni richiederanno altri tipi di informazioni sulle caratteristiche distintive delle cellule sane e su come una particolare cellula danneggiata differisca dalla norma. Gli anticorpi sanno identificare le proteine tramite il tocco, e anticorpi scelti in modo appropriato sanno, di solito, distinguere fra due qualsiasi proteine tramite la rilevazione delle loro differenze nella forma e nelle proprietà di superficie. Le macchine riparatrici identificheranno le molecole in modo analogo(10). Con un computer adatto, ed un apposito database, saranno in grado di svolgere l'identificazione delle proteine tramite la lettura delle loro sequenze di aminoacidi. Consideriamo un sistema di riparazione complesso e molto capace(11). Un volume di due
micrometri cubici, circa due millesimi del volume di una tipica cellula, sarà sufficiente a contenere un centralizzato sistema di base dati in grado di: 1. Identificare rapidamente, dall'esame di una breve sequenza di aminoacidi, una qualunque fra centinaia di migliaia di proteine umane. 2. Identificare tutte le altre molecole complesse che normalmente si trovano in una cellula. 3. Registrare tipo e posizione di ogni grossa molecola riscontrata nella cellula. Ognuno dei più piccoli fra dispositivi di riparazione (o forse anche qualche migliaio fra quelli presenti in una cellula) includerà un computer di minori capacità. Ognuno di questi computer sarà in grado di effettuare oltre mille passi computazionali nello stesso tempo impiegato da un tipico enzima per modificare un singolo legame molecolare, sicché la velocità di elaborazione potenziale sarà più che adeguata. Poiché ogni computer sarà in comunicazione con un computer più grande(12), nonché con la base di dati centrale, sembra che la memoria disponibile sarà anch'essa adeguata. Le macchine ripara-cellule avranno perciò sia gli strumenti molecolari di cui necessitano, che sufficiente "cervello" per decidere come utilizzarli. Una tale sofisticazione potrebbe super-uccidere (super-curare?) molti problemi di salute. Dei dispositivi che siano capaci semplicemente di riconoscere e distruggere tipi specifici di cellule, per esempio, saranno sufficienti per curare il cancro. Disporre una rete di computer in ogni cellula sarebbe come tagliare il burro con una sega elettrica, sebbene avere a disposizione una sega elettrica ci assicura di poter tagliare anche il burro più duro. Pare che sia meglio mostrare troppo, piuttosto che troppo poco, se lo scopo è quello di descrivere i limiti del possibile in medicina. Esempi di Cure Le più semplici applicazioni mediche delle nanomacchine riguarderanno non la riparazione ma la distruzione selettiva. Il cancro ne costituisce un esempio; le malattie infettive ne forniscono un'altro. Lo scopo è semplice: l'unica cosa che è necessaria è riconoscere e distruggere i replicatori dannosi, siano essi batteri, cellule cancerogene, virus, o vermi. Analogamente, crescite anormali delle arterie e depositi su pareti arteriose sono la causa della maggior parte delle malattie cardiache; macchine che riconoscano, distruggano e rimaneggino queste anomalie, puliranno le arterie per ottenere un flusso sanguineo più normale. La distruzione selettiva curerà anche malattie come l'herpes, dovuta ad un virus che inietta i suoi geni nel DNA di una cellula ospite. Un dispositivo di riparazione entrerà nella cellula, leggerà il suo DNA, e da esso rimuoverà il codice aggiunto che sta per "herpes." Riparare molecole danneggiate dai cross-links sarà piuttosto diretto. Una macchina ripara-cellule, di fronte ad una proteina alla quale si sono legati frammenti proteici estranei, anzitutto identificherà i danni grazie l'esame di brevi sequenze di aminoacidi, e poi leggerà lo schema corretto della proteina in un database. Sicché, la macchina confronterà la proteina con lo schema letto nel database, un amminoacido per volta. Come un correttore di bozze alla ricerca di significati sbagliati e caratteri anomali (per esempio: "char#tteri"), essa individuerà ogni aminoacido alterato, o impropriamente legato alla proteina. Una volta che abbia corretto questi difetti, la macchina si lascerà alle spalle una proteina normalizzata, pronta a compiere il suo lavoro per la cellula. Le macchine riparatrici possono anche aiutare la guarigione. Dopo un attacco di cuore, al posto dei muscoli morti ci saranno dei tessuti cicatrizzati. Le macchine riparatrici, andando a reimpostare i meccanismi di controllo cellulare, stimoleranno il cuore a sviluppare muscoli freschi. Rimuovendo i tessuti cicatrizzati e pilotando la crescita di muscoli freschi, esse guideranno il cuore verso la
guarigione. Questa lista potrebbe continuare scorrendo un problema dopo l'altro (avvelenamento da metalli pesanti? Trovare e rimuovere tutti gli atomi di metallo) ma la conclusione è facile da riassumere. I disordini fisici sono dovuti ad atomi in disposizioni erronee; le macchine riparatrici saranno in grado di riportare tali disposizioni atomiche in un ordine funzionante, ripristinando la salute del corpo. Piuttosto che compilare una lista senza fine di malattie curabili (artrite, borsite, cancro, febbri innumerevoli che vanno da quella causata dal virus dengue fino alla febbre gialla, malaria, e così via), ha più senso proseguire il discorso rivolgendo lo sguardo verso i limiti di ciò che possono fare le macchine ripara-cellule. Limiti che, comunque, esistono. Consideriamo l'ictus, come esempio di uno dei problemi che apporta un danno cerebrale. La prevenzione è concettualmente abbastanza semplice: Un vaso sanguineo nel cervello si è indebolito, gonfiato, ed è predisposto all'esplosione? Lo si può stendere fino a fargli prendere la sua forma, guidando nel contempo la crescita di fibre di rinforzo. Coaguli anomali minacciano di bloccare la circolazione? Dissolvere i coaguli e normalizzare il sangue ed i rivestimenti interni dei vasi sanguinei per prevenire il ripresentarsi del problema. Anche i danni neurali moderati derivati da ictus saranno riparabili: se una ridotta circolazione ha pregiudicato la funzione ma ha lasciato le strutture cellulari intatte, si può ripristinare la circolazione e riparare le cellule, utilizzando la loro struttura come guida per il recupero del tessuto al suo stato precedente. Questo non solo ripristina ogni funzionalità cellulare, ma preserva inoltre la memoria e le abilità mentali che sono incorporate nello schema neurale di quella parte del cervello. Le macchine riparatrici saranno capaci di rigenerare tessuto cerebrale fresco persino quando il suo danneggiamento ha cancellato questi schemi. Ma il paziente perderebbe, in tal caso, quella parte delle precedenti memorie e abilità che in origine aveva sede in quella porzione di cervello. Se uno schema neurale unico è stato davvero cancellato, le macchine ripara-cellule non potrebbero fare nulla di più di quello che potrebbe fare un restauratore d'arte per ripristinare un arazzo a partire da un mucchietto di cenere. La perdita di informazione causata dalla cancellazione della struttura impone il più importante limite fondamentale alla riparazione dei tessuti. Altri compiti sono oltre la portata delle macchine ripara-cellule, per svariate ragioni: un esempio di tali compiti è quello del mantenimento della salute mentale. Le macchine ripara-cellule sapranno ovviamente correggere alcuni problemi. La pazzia talvolta ha cause biochimiche, come se il cervello si drogasse o avvelenasse da se, mentre altri problemi mentali derivano invece da danneggiamenti dei tessuti. Ma molti problemi hanno poco a che fare con la salute delle cellule nervose e con qualsiasi altra cosa si possa fare per favorire la salute mentale. Una mente ed il tessuto del suo cervello sono come un romanzo e la carta del suo libro. Macchie di inchiostro o inondazioni possono danneggiare il libro, rendendo difficile leggere il romanzo. Delle macchine ripara-libri potrebbero nonostante tutto ripristinare la salute "fisica" del libro, rimuovendo l'inchiostro estraneo o essiccando e riparando la fibre cartacee danneggiate. Tali trattamenti non potrebbero comunque far nulla per il contenuto del libro, poiché quest'ultimo non è "fisico" in senso stretto. Se il libro è un romanzetto economico, con una trama stereotipa e personaggi superficiali, sarebbe necessaria una riparazione del romanzo, non dell'inchiostro e della carta. Questa riparazione richiederebbe un intervento "non fisico", ma più lavoro da parte dell'autore, eventualmente aiutato da qualche buon consiglio. Analogamente, la rimozione di veleni dal cervello e la riparazione delle sue fibre nervose può attenuare qualche offuscamento mentale, ma non può revisionare il contenuto della mente. Quest'ultimo può essere modificato soltanto dal paziente, e con grande sforzo. Tutti noi siamo gli autori della nostra mente. Ma poiché le menti modificano se stesse per mezzo della modifica dei
relativi cervelli, avere una mente in salute aiuterà a pensare lucidamente ben più di quanto la qualità della carta di un foglio aiuti a scriverci sopra in modo leggibile. I lettori che hanno famigliarità con i computer potrebbero preferire di pensare in termini di hardware e software. Una macchina potrebbe riparare un hardware di computer pur senza modificare ne comprendere nulla del suo software. Tali macchine potrebbero arrestare l'attività del computer ma lasciare gli schemi di memoria intatti e pronti a funzionare ancora. Nei computer con il giusto tipo di memoria (denominata "non volatile"), gli utenti fanno proprio questo, semplicemente premendo l'interruttore del computer che disconnette la sua alimentazione elettrica. Questo compito, nel caso del cervello, sembra essere di più complessa attuazione, e tuttavia avere la possibilità di indurre un simile stato costituirebbe un vantaggio dal punto di vista medico. Anestesia Potenziata I medici possono già arrestare e riavviare la coscienza andando ad interferire con la attività chimica che è alla base della mente. Per tutta la loro vita attiva, le macchine molecolari nel cervello elaborano e trasformano molecole. Alcuni disassemblano zuccheri, li combinano con ossigeno ed immagazzinano l'energia che essi rilasciano. Alcuni pompano ioni salini attraverso le membrane cellulari; altri costruiscono piccole molecole e le rilasciano perché svolgano la funzione di segnali per altre cellule. Questi processi costituiscono il metabolismo del cervello, la somma totale della sua attività chimica. Assieme ad i suoi effetti elettrici, questa attività metabolica è alla base dei mutevoli schemi del pensiero. I chirurghi tagliano i pazienti con i bisturi. Nella metà dell'800, impararono ad utilizzare delle sostanze chimiche capaci di interfacciarsi con il metabolismo cerebrale bloccando il pensiero cosciente ed impedendo al paziente di obiettare troppo energicamente mentre lo si incideva. Tali sostanze chimiche erano gli anestetici. Le loro molecole entrano ed escono dal cervello liberamente, permettendo agli anestesisti di arrestare e riavviare la coscienza umana. La gente aveva a lungo sognato di scoprire un farmaco che interferisse col metabolismo dell'intero corpo, capace di interrompere il metabolismo per ore, giorni, o anni. Il risultato sarebbe stato una condizione di biostasi (da bio, vita, e da stasis, un arresto o uno stato stabile). Un metodo per produrre una biostasi reversibile potrebbe aiutare gli astronauti nei lunghi viaggi spaziali al fine di risparmiare cibo ed evitare la noia, o potrebbe servire come una sorta di viaggio nel tempo unidirezionale. In medicina, la biostasi rappresenterebbe una anestesia profonda in grado di dare ai medici più tempo per lavorare. Quando situazioni di emergenza capitino molto lontane dal posto in cui c'è la disponibilità di un aiuto medico, una buona procedura di biostasi costituirebbe una sorta di trattamento medico universale di pronto soccorso: essa infatti stabilizzerebbe la condizione del paziente ed impedirebbe alle macchine molecolari di persistere nel loro frenetico malfunzionamento fino a danneggiare i tessuti. Ma nessuno ha trovato un farmaco capace di arrestare l'intero metabolismo nel modo in cui gli anestetici bloccano la coscienza, ossia in modo che la stasi possa essere invertita semplicemente "sciacquando" via il farmaco dai tessuti del paziente. E tuttavia, una biostasi reversibile sarà possibile quando le macchine riparatrici diverranno disponibili. Per comprendere come dovrebbe funzionare un tale approccio, immaginiamo che il flusso sanguineo apporti ai tessuti alcuni semplici dispositivi molecolari, e che questi entrino nelle singole cellule dei tessuti. Qui, essi bloccano il macchinario molecolare naturale del metabolismo - nel cervello come altrove - e lo "impacchettano", ossia lo fissano legando assieme le strutture con dei
cross-links stabilizzanti. Subito dopo, vengono introdotti altri dispositivi che prendono il posto dell'acqua e si fissano solidamente anch'essi attorno alle molecole della cellula. Questi passi arrestano il metabolismo e preservano le strutture delle cellule. Poiché per invertire questo processo verranno impiegate delle macchine di riparazione-cellulare, la loro azione potrebbe tranquillamente provocare qualche danno molecolare di entità moderata pur non comportando alcun danno duraturo. Col metabolismo bloccato e con le strutture delle cellule tenute saldamente al loro posto, il paziente resterà silenzioso, senza sognare ed immutabile, finché altre macchine riparatrici non interverranno a ripristinare la sua attività vitale. Se un paziente in queste condizioni fosse condotto da un medico dei giorni nostri, ignaro delle capacità delle macchine di riparazione cellulare, le conseguenze sarebbero sinistre. Non rilevando alcun segno di vita, il medico concluderebbe che il paziente è morto, e potrebbe tragicamente trasformare questo giudizio in una realtà "prescrivendo" una autopsia, che sarebbe seguita da sepoltura o cremazione. Ma il nostro paziente ipotetico vive in un'era in cui la biostasi è conosciuta esclusivamente come una "interruzione della vita", e non come "fine" di essa. Quando il contratto del paziente dice "svegliatemi!" (o le riparazioni sono state completate, o il volo verso le stelle ha raggiunto la sua destinazione), i medici incaricati iniziano la rianimazione. Le macchine riparatrici entrano nei tessuti del paziente, rimuovono gli imballi attorno alle molecole del paziente e li sostituiscono con acqua. Rimuovono i cross-links, riparano ogni molecola e struttura danneggiata, e ripristinano le normali concentrazioni di sali, zucchero sanguineo, ATP, e così via. Infine, le macchine riparatrici liberano il macchinario metabolico naturale del paziente. Il processo metabolico interrotto riprende, il paziente sbadiglia, si stiracchia, si tira su a sedere, ringrazia il dottore, controlla la data, e si incammina oltre la porta. Dalla Funzione alla Struttura La reversibilità della biostasi e la irreversibilità di danni gravi come quelli provocati da un ictus, ci aiutano ad illustrare come le macchine di riparazione cellulare trasformeranno la medicina. Al momento i medici possono soltanto aiutare i tessuti a guarire spontaneamente. Di conseguenza, devono tentare di preservare la funzionalità del tessuto. Se il tessuto non è in grado di funzionare, non può guarire. E quel che è peggio, se i tessuti non funzionanti non vengono preservati, ne segue una ulteriore degenerazione che finisce per distruggere completamente la struttura del tessuto. Un tessuto è come un utensile meccanico capace di funzionare solo su un particolare apparato. Le macchine ripara-cellule modificano l'obiettivo chiave della medicina dalla preservazione della funzionalità alla preservazione della struttura. Come ho sottolineato nella discussione riguardante l'ictus, le macchine riparatrici saranno in grado di ripristinare le funzioni del cervello mentre lasciano inalterate memoria ed abilità, ma potranno farlo solo se la struttura del tessuto neurale è rimasta intatta, in quanto essa è distintiva e specifica. La biostasi implica la preservazione della struttura neurale, mentre il suo funzionamento viene deliberatamente bloccato. Tutto ciò costituisce una conseguenza diretta della natura molecolare della riparazione. I medici, utilizzando bisturi e farmaci, non possono fare più di quanto possa fare qualcuno che utilizzi un piccone e una intera tanica di lubrificante per riparare un fine orologio. Per contrasto, disporre di macchine riparatrici e della possibilità di utilizzare per esse delle sostanze nutritive ordinarie, sarebbe come avere un appropriato utensile da orologiaio e una fornitura illimitata di parti di ricambio sfuse. Le macchine ripara-cellule trasformeranno la medicina alle sue basi. Dal Trattamento della Malattia al Mantenimento della Salute
Attualmente, nello studiare le malattie, i ricercatori medici spesso puntano alla ricerca di modi per prevenirle o invertirle, ostacolando o bloccando un passo chiave nel processo della malattia. La conoscenza che ne è risultata ha aiutato enormemente i medici: oggi essi prescrivono insulina per compensare il diabete, anti-ipertensivi per prevenire gli ictus, penicillina per curare infezioni e così via, secondo i dettami di una lista impressionante. Le macchine molecolari aiuteranno la ricerca e lo studio delle malattie, e tuttavia renderanno molto meno importante la comprensione profonda delle malattie stesse. Le macchine riparatrici renderanno molto più importante comprendere la salute. Il corpo può essere malato in molti più modi di quelli in cui può essere in salute. I tessuti muscolari sani, per esempio, possono variare in modi relativamente poco numerosi: essi possono essere più forti o più deboli, più veloci o più lenti, possedere un dato antigene oppure possederne un dato altro, e così via. I muscoli danneggiati possono variare in tutte e tre queste maniere, e tuttavia possono anche soffrire di ogni possibile combinazione di problemi di base come lacerazioni, infezioni virali, vermi parassiti, contusioni, punture o forature, avvelenamenti, sarcomi, deperimenti ed anomalie congenite. Analogamente, nonostante i neuroni si presentino in schemi di intrecci altrettanto numerosi di quanto lo sono i cervelli umani, le singole sinapsi e i singoli dendriti, quando sono sani, si presentano solo in una varietà di forme numericamente modesta. Una volta che i biologi abbiano descritto molecole, cellule e tessuti nella loro condizione di normalità, macchine riparatrici propriamente programmate saranno in grado di curare ogni malattia sconosciuta. Una volta che i ricercatori abbiano descritto la varietà di strutture che (per esempio) un vivente in salute potrebbe possedere, le macchine riparatrici esploreranno un corpo vivente malfunzionante necessitando solo di cercare le differenze e correggerle. Macchine ignare di un nuovo veleno e dei suoi effetti saprebbero comunque riconoscerlo come estraneo e rimuoverlo. Invece di lottare contro un milione di malattie occulte, le macchine riparatrici avanzate perseguiranno il ripristino di una condizione di salute. Sviluppare e programmare macchine di riparazione cellulare richiederà grandi sforzi, grandi conoscenze e grandi abilità. Le macchine riparatrici con capacità estese sembrano più facili da costruire che non da programmare. I loro programmi devono contenere la conoscenza dettagliata delle centinaia di tipi di cellule e delle centinaia di migliaia di tipi di molecole del corpo umano. Tali programmi devono essere in grado di redigere una mappa delle strutture cellulari danneggiate e decidere come correggerle(13). Quanto tempo ci vorrà perché tali macchine ed i relativi programmi siano sviluppati? Su due piedi, lo stato della biochimica ed il suo attuale tasso di progresso potrebbero far pensare che occorrerebbero secoli per raccogliere la sola conoscenza di base necessaria. Ma dobbiamo essere attenti a non cadere nell'illusione che i progressi giungeranno in maniera isolata. Le macchine riparatrici ci travolgeranno in congiunzione con una grande ondata di altre tecnologie. Gli assemblatori che costruiscono le macchine riparatrici saranno, in un primo momento, impiegati per costruire degli strumenti di analisi delle strutture cellulari. Persino un pessimista dovrebbe concordare che biologi umani ed ingegneri equipaggiati con strumenti di questo tipo potrebbero costruire e programmare macchine ripara-cellule avanzate in un centinaio di anni di costante lavoro. Un convinto ma lungimirante pessimista potrebbe propendere addirittura per un migliaio di anni. Un autentico fervente "bastian contrario" potrebbe dichiarare che per il compito occorrerebbero un milione di anni. Bene: allora dei veloci sistemi di IA tecnica, che siano un milione di volte più rapidi degli scienziati, potranno sviluppare macchine ripara-cellule avanzate nell'arco di un singolo anno solare(14). Una Malattia Chiamata "Invecchiamento" L'invecchiamento è naturale, ma altrettanto lo è il vaiolo ed i nostri sforzi per prevenirlo. Abbiamo
vinto il vaiolo, e sembra che vinceremo l'invecchiamento. La longevità è cresciuta durante l'ultimo secolo, ma soprattutto perché il miglioramento degli impianti sanitari e dei farmaci ha ridotto le malattie batteriche. L'intervallo base della vita umana è cresciuto ben poco. Tuttavia, i ricercatori hanno compiuto dei progressi verso la comprensione e il rallentamento del processo di invecchiamento. Hanno identificato alcune delle sue cause, come per esempio un incontrollata proliferazione di cross-links. Hanno escogitato dei trattamenti parziali, come l'utilizzo di antiossidanti e di inibitori dei radicali liberi. Hanno ipotizzato e studiato altre possibili meccanismi di invecchiamento, come quello dei "clocks" cellulari, una sorta di cronometri nella cellula, o quello dei cambiamenti dell'equilibrio ormonale nel corpo. In esperimenti di laboratorio, farmaci e diete speciali hanno esteso la durata della vita di alcuni topi dal 25 al 45 percento(15). Questa ricerca proseguirà; l'invecchiamento della generazione del baby boom rende probabile attendersi una esplosione delle ricerche sull'invecchiamento. Una compagnia biotecnologica, la Senetek in Danimarca, si sta specializzando in ricerche sull'invecchiamento. Nell'Aprile del 1985, Eastman Kodak e ICN Pharmaceuticals hanno annunciato di aver costituito una società a capitale misto(16) da 45 milioni di dollari per produrre isoprinosina ed altri farmaci con capacità potenziali di estensione della durata di vita attesa. I risultati di alcune ricerche convenzionali antiinvecchiamento, potrebbero allungare in modo sostanziale l'intervallo di vita umana e migliorare la salute dei più anziani già durante i prossimi dieci o vent'anni. Ma fino a che punto farmaci, chirurgia, esercizio e dieta, possono riuscire ad estendere l'intervallo di vita? Per ora la stima deve rimanere ipotetica. Solo delle nuove conoscenze scientifiche possono fornire maggiori certezze su queste previsioni e recuperarle dal regno delle speculazioni, poiché si tratta di previsioni che si basano su nuova conoscenza scientifica(17) e non su una nuova conoscenza ingegneristica. Con le macchine riparatrici cellulari, comunque, il potenziale per l'estensione della vita diventa ben chiaro. Tali macchine potranno riparare le cellule illimitatamente, almeno fintanto che le loro strutture distintive restano intatte, e saranno altresì capaci di sostituire le cellule che sono state distrutte. Ed in più, potranno anche ripristinare una condizione di salute ottimale. L'invecchiamento non è fondamentalmente differente da qualunque altro disordine fisico - non esiste un qualche effetto magico con cui la data di calendario può influire su una misteriosa forza-vitale. Ossa fragili, pelle rugosa, bassa attività enzimatica, lenta guarigione delle ferite, memoria labile e tutto il resto, derivano da danneggiamenti del macchinario molecolare, da squilibri chimici e da anomalie nelle disposizioni delle strutture. Riportando tutte le cellule e tutti i tessuti del corpo ad una giovanile condizione strutturale, le macchine riparatrici ripristineranno una giovanile condizione di salute. Le persone che sopravviveranno integre fino all'epoca delle macchine di riparazione cellulare, avranno l'opportunità di riguadagnare la salute di gioventù, e di conservarla quasi per tutto il tempo che vorranno. Niente può riuscire ad ottenere che una persona (o qualsiasi altra cosa) duri per sempre ma, fatta eccezione per il verificarsi di incidenti gravi, quelli che lo vorranno potranno vivere per lungo, lungo, tempo. Mano a mano che una tecnologia si sviluppa, arriva un momento in cui i suoi principi diventano chiari, e con essi molte delle sue conseguenze. I principi dei viaggi con i razzi erano chiari negli anni '30, così come erano chiare le conseguenze del volo spaziale. Completare questi principi con i necessari dettagli richiese, all'epoca, la progettazione e la sperimentazione di serbatoi, motori, strumentazione e così via. Nei primi anni '50 molti dettagli erano noti. L'antico sogno di volare sulla Luna divenne un obiettivo per il quale era possibile elaborare dei piani. I principi delle macchine molecolari sono già chiari, e con essi anche le conseguenze delle
macchine ripara-cellule. Completare questi principi con i necessari dettagli richiederà la progettazione di strumenti molecolari, assemblatori, computer, e così via, ma molti dei dettagli delle già esistenti macchine molecolari naturali sono noti già oggi. Il sogno antico di conquistare salute e longevità è diventato un obiettivo per il quale si possono fare dei piani. Le ricerche mediche ci stanno guidando, passo dopo passo, lungo una strada che giungerà infine alle macchine molecolari. La competizione globale per produrre migliori materiali, migliore elettronica e migliori strumenti biochimici, ci sta spingendo nella stessa direzione. Le macchine ripara-cellule richiederanno anni di sviluppo, ma è certo che esse sono dritte davanti a noi. Esse ci doteranno, nel bene e nel male, di moltissime nuove capacità. Fermarsi a riflettere per un solo attimo su eventuali replicatori d'impiego militare con capacità come quelle delle macchine ripara-cellule, è sufficiente per restare sconvolti dalle più nauseanti fra le possibilità che si schiuderebbero. Più avanti, descriverò come potremmo evitare tali orrori, ma prima sembra saggio considerare gli eventuali benefici delle macchine di riparazione cellulare. La loro apparente bontà è genuina? In che modo la longevità potrebbe influenzare il mondo? Capitolo 8: Longevità in un mondo aperto Perché Non Dovrebbero Esistere Macchine di Riparazione Cellulare? Guarire e Proteggere la Terra Longevità e Pressione Demografica Gli Effetti dell'Anticipazione Progressi nell'Estensione della Vita La lunga abitudine alla vita ci indispone a morire. - Sir THOMAS BROWNE Le macchine di riparazione cellulare sollevano interrogativi sul valore da attribuire al prolungamento della vita umana. Non si tratta di questioni esclusive dell'etica medica odierna, la quale di solito si interessa ai dilemmi posti da trattamenti rari, costosi e solo parzialmente efficaci. Si tratta invece di questioni che riguardano il valore di una vita lunga ed in salute, ottenuta attraverso mezzi tutt'altro che costosi. Per le persone che attribuiscono un valore alla vita umana e che amano vivere, tali questioni potrebbero non aver bisogno di risposta. Ma dopo una decade segnata da preoccupazioni per la crescita demografica, per l'inquinamento e per l'impoverimento delle risorse, molte persone potrebbero interrogarsi sulla desiderabilità di una estensione della vita; preoccupazioni di questo tipo hanno incoraggiato la diffusione di memi pro-morte. Tali memi vanno esaminati nuovamente, poiché molti di essi hanno radici in una visione del mondo ormai obsoleta. La nanotecnologia modificherà ben più che la semplice aspettativa di durata della vita umana. Conquisteremo i mezzi per curare non solo noi stessi, ma per curare la Terra stessa dalle ferite che le abbiamo inflitto. Poiché salvare delle vite accrescerà il numero dei vivi, l'estensione della vita solleverà questioni riguardo le conseguenze derivanti da una maggiore presenza di persone. La nostra capacità di curare la Terra sarà invece una minore causa di controversie. Inoltre, è certo che le stesse macchine di riparazione cellulare fomenteranno controversie. Esse perturbano le assunzioni tradizionali riguardanti i nostri corpi e i nostri futuri: il nostro scetticismo, in conseguenza, si attenua. Le macchine di riparazione cellulare richiederanno svariati importanti passi avanti tecnologici: il nostro scetticismo, in conseguenza, si rafforza. Poiché la possibilità o l'impossibilità di macchine ripara-cellule genera importanti interrogativi, ha senso considerare quali
obiezioni potrebbero sollevarsi. Perché Non Dovrebbero Esistere Macchine di Riparazione Cellulare? Quale tipo di argomento potrebbe suggerire che le macchine ripara-cellule sono impossibili? Un argomento di successo deve far fronte ad alcune strane tortuosità. Esso deve in qualche modo sostenere che le macchine molecolari non possono costruire e riparare cellule, e contemporaneamente acconsentire che le macchine molecolari nei nostri corpi riescano a costruire e riparare cellule ogni giorno. Un arduo problema, per gli scettici incalliti! Vero è che le macchine artificiali dovrebbero fare quello che la natura non riesce a compiere, ma questo non vuol dire che abbiano bisogno di qualcosa di qualitativamente nuovo. Sia i dispositivi di riparazione naturali che quelli artificiali devono raggiungere, identificare e ricostruire delle strutture molecolari. Potremmo migliorare gli enzimi riparatori del DNA semplicemente comparando filamenti distinti di DNA, uno alla volta, per cui risulta ovvio che la natura non ha scovato tutti i possibili trucchi. Poiché questo esempio demolisce ogni generica argomentazione riguardante l'ipotesi che le macchine riparatrici non possano migliorare la natura, una buona causa contro le macchine ripara-cellule pare difficile da impostare. Inoltre, due questioni di carattere generale meritano delle risposte dirette. Anzitutto, nelle decadi a venire dovremmo attenderci di conquistare la longevità anche se molte persone ci hanno provato per millenni ed hanno fallito? Ed ancora, se davvero dobbiamo utilizzare macchine ripara-cellule per estendere le nostre vite, perché la natura (che ha prodotto macchine riparatrici per miliardi di anni) non si è già perfezionata fino a quel punto? La gente ci ha provato ed ha fallito. Per secoli, gli umani hanno desiderato di trovare una scappatoia alla brevità del loro arco vitale. Fin troppo spesso, un Ponce de Leon o un dottore ciarlatano hanno promesso una miracolosa pozione, ma tutte le pozioni proposte non hanno mai funzionato. Queste statistiche di fallimento hanno persuaso qualcuno che, poiché tutti i tentativi sono finora falliti, tutti i tentativi saranno sempre destinati al fallimento. Queste persone affermano che "invecchiare è naturale" e ciò sembra loro abbastanza ragionevole. I progressi medici hanno scosso i loro modi di vedere, ma fino ad ora i progressi hanno per lo più semplicemente ridotto le morti premature, e non davvero esteso la massima durata di vita. Ma adesso, i biochimici hanno cominciato a lavorare sull'analisi delle macchine che costruiscono e controllano le cellule. Hanno imparato ad assemblare virus e a riprogrammare batteri. Per la prima volta nella storia, gli umani stanno esaminando le loro proprie molecole, svelando così i segreti della vita. Sembra che gli ingegneri molecolari combineranno infine la loro conoscenza biochimica migliorata, assieme a macchine molecolari migliori di quelle naturali perché in grado di imparare a riparare le strutture di tessuto danneggiate e di ringiovanirle. Ciò non costituisce nulla di strano; sarebbe strano, piuttosto, se conoscenza ed abilità tanto potenziate non conducessero a risultati eclatanti. La massiccia statistica dei fallimenti passati è semplicemente irrilevante, perché mai prima d'ora abbiamo tentato di costruire delle macchine ripara-cellule. La natura ha provato ed ha fallito. La natura ha costruito macchine di riparazione cellulare. L'evoluzione ha rappezzato gli animali multicellulari per centinaia di milioni di anni, eppure tutti gli animali progrediti invecchiano e muoiono, poiché le nanomacchine naturali riparano le cellule in modo imperfetto. Quindi, perché mai sarebbe possibile ottenere dei miglioramenti?
I ratti diventano adulti in pochi mesi, per poi invecchiare e morire nell'arco di circa due anni - e tuttavia gli umani si sono evoluti per vivere oltre trenta volte più a lungo. Se una longevità ancor più grande fosse lo scopo principale dell'evoluzione, anche i ratti vivrebbero più a lungo. La durevolezza ha i suoi costi(1): riparare le cellule richiede un investimento in termini di energia, materiali e macchine riparatrici. I geni di ratto comandano i corpi dei ratti ad investire più sulla rapidità dei tempi di accrescimento e compimento della riproduzione, che non su una meticolosa auto-riparabilità. Un topo quotidianamente impegnato nel crescere in dimensioni correrebbe il rischio molto più grande di diventare, anzitutto, lo spuntino per un gatto. I geni di ratto hanno prosperato trattando i corpi di ratto come fossero degli economici vuoti a perdere. I geni umani si disfano in modo analogo dei corpi umani, sebbene lo facciano dopo una vita di qualche dozzina di volte più lunga di quella di un ratto. Ma la superficialità delle riparazioni naturali non è l'unica causa dell'invecchiamento. I geni trasformano le cellule delle uova in individui adulti, lungo uno schema di sviluppo che procede a velocità relativamente costante. Questo schema è piuttosto consistente perché l'evoluzione raramente modifica un progetto di base. Proprio come lo schema di base del sistema DNA-RNAproteine è rimasto congelato alla logica di diversi miliardi di anni fa, così lo schema di base dei segnali chimici e delle reazioni dei tessuti che guidano lo sviluppo dei mammiferi ha preso forma vari milioni di anni fa. Sembrerebbe che questo processo abbia un cronometro associato, impostato per avanzare secondo differenti velocità in differenti specie, e che questo cronometro sia abbinato ad un programma in esecuzione. Quali che siano le cause dell'invecchiamento, l'evoluzione ha ben pochi motivi per eliminarle. Se i geni costruissero individui capaci di resistere per millenni, trarrebbero ben poco vantaggio dal loro sforzo di "replicarsi". La maggioranza degli individui morirebbe comunque in relativa giovinezza, per inedia, incidenti o malattie. Come Sir Peter Medawar ha fatto notare(2), un gene che aiuta i giovani (che sono tanti) ma danneggia i vecchi (che sono pochi) riesce comunque a replicarsi bene, e quindi si diffonde lungo tutta la popolazione. Se geni di questo tipo finiscono per accumularsi in quantità sufficiente, gli animali diventano programmati per morire. Alcuni esperimenti condotti dal Dr. Leonard Hayflick(3) suggeriscono che le cellule contengono "dei cronometri cellulari" (clocks) che contano il numero di divisioni cellulari ed arrestano il processo quando il conteggio totale diventa troppo alto. Un meccanismo di questo tipo(4) può essere di aiuto per gli animali più giovani: se alterazioni simili a quelle indotte dal cancro cominciano a provocare una divisione della cellula eccessivamente rapida ma nel contempo non riescono a distruggere il cronometro interno alla cellula, l'accrescimento del tumore resta contenuto su una estensione limitata. In questo modo, il cronometro cellulare preverrebbe la crescita illimitata di un cancro autentico. Tuttavia, cronometri di questo tipo danneggerebbero gli animali più vecchi perché arresterebbero la divisione delle cellule(5) e quindi metterebbero fine al rinnovamento dei tessuti. Gli animali, quindi, beneficerebbero di una ridotta incidenza di cancri durante la loro giovinezza, per quanto abbiano buoni motivi per lamentarsi di questo meccanismo se riescono a sopravvivere fino alla vecchiaia. Ma i loro geni non stanno ad ascoltare le loro lagnanze perché hanno già da tempo abbandonato la nave sotto forma di copie di se stessi passate alla generazione successiva. Con le macchine ripara-cellule saremo in grado di riazzerare i cronometri cellulari. Nulla suggerisce che l'evoluzione abbia perfezionato i nostri corpi al di là dei requisiti minimi di funzionalità in termini di sola sopravvivenza e riproduzione. Gli ingegneri non cablano i computer con fibre lente nel propagare i segnali come lo sono le nostre fibre nervose, e se non lo fanno hanno delle ottime ragioni. L'evoluzione genetica (a differenza di quella memetica) non è stata in grado di compiere il balzo di qualità verso nuovi materiali e nuovi sistemi, ed ha invece continuato a raffinare ed estendere quelli vecchi. Le macchine di riparazione cellulare cadono ben lontane dai limiti del possibile; infatti non hanno
dei computer a dirigerle. La mancanza di nanocomputer nelle cellule, ovviamente, dimostra soltanto che i computer non possono evolversi gradualmente da altre macchine molecolari (o più semplicemente che ciò non è accaduto). La natura ha fallito nella costruzione delle migliori possibili fra le macchine ripara-cellule, ma l'ha fatto per abbondanti motivi. Guarire e Proteggere la Terra Il fallimento del sistema biologico della Terra nell'adattarsi alla rivoluzione industriale è altrettanto facile da comprendere. Dalla deforestazione alla diossina, abbiamo causato danni a ritmi più rapidi di quelli con cui l'evoluzione può rispondere. Mano a mano che è cresciuta la nostra richiesta di cibo, beni e servizi, il nostro uso della tecnologia di mole ci ha costretti a continuare ad infliggere questi danni. Con la tecnologia futura, tuttavia, sapremo fare molto di più per il nostro beneficio e tuttavia arrecando meno danno alla Terra. E in più, saremo in grado di costruire macchine per riaccomodare il pianeta, capaci di correggere i danni già inflitti. Le cellule non sono le sole cose che desideriamo riparare. Consideriamo il problema dei rifiuti tossici. Siano essi nell'aria, nel suolo o nell'acqua, i rifiuti ci preoccupano perché possono danneggiare i sistemi viventi. Ma qualsiasi materiale che interagisca con le macchine molecolari della vita è al tempo stesso influenzabile da altre forme di macchine molecolari. Ciò significa che sapremo progettare delle macchine spazzine che rimuovano questi veleni (6) da qualsiasi luogo possano arrecare danno alla vita. Alcuni rifiuti, come la diossina, consistono di molecole dannose ma composte da atomi che sono invece innocui se considerati singolarmente. Le macchine spazzine renderanno innocui i rifiuti di questo tipo, modificando la disposizione dei loro atomi. Altri rifiuti, come il piombo e gli isotopi radioattivi, contengono atomi dannosi in ogni caso. Le macchine spazzine li raccoglieranno per redisporli in uno qualsiasi degli innumerevoli modi possibili. Il piombo proviene dalle rocce della Terra e gli assemblatori potrebbero quindi accorparlo tutto insieme, costruendo rocce di piombo nelle stesse miniere da cui esso proviene. Anche gli isotopi radioattivi potrebbero venire isolati dalle cose viventi, sia costruendo con essi delle rocce stabili, che grazie ad altri metodi drastici. Utilizzando sistemi di trasporto spaziale economici ed affidabili potremmo seppellire gli isotopi radioattivi nelle aride rocce prive di vita della Luna. Utilizzando delle nanomacchine, potremmo seppellirli in contenitori auto-riparanti e auto-sotterranti delle dimensioni di colline e alimentate dalla luce solare. Questi contenitori sarebbero più sicuri di qualsiasi tanica o roccia passive. Con gli assemblatori-replicatori saremo anche capaci di rimuovere i miliardi di tonnellate di diossido di carbonio che la nostra civiltà brucia-carburanti ha scaricato nell'atmosfera. I climatologi ritengono che l'accumulazione di strati di diossido di carbonio, intrappolando l'energia solare, scioglierà almeno in parte le calotte polari e provocherà, attorno alla metà del ventunesimo secolo, l'innalzamento del livello dei mari e l'inondazione delle coste. Gli assemblatori-replicatori, tuttavia, renderebbero sufficientemente economica l'energia solare da eliminare la necessità di carburanti fossili (7). Nanomacchine alimentate dal sole saranno in grado, come fanno già gli alberi, di estrarre diossido di carbonio dall'aria (8) e spezzare le sue molecole per liberarne l'ossigeno. A differenza degli alberi, le nanomacchine saranno capaci di sviluppare delle profonde radici in cui immagazzinare il carbonio, per depositarlo infine di nuovo nelle vene minerarie di carbone e nei giacimenti di petrolio da cui esso proviene. Le future macchine di guarigione della Terra potranno anche aiutarci a recuperare paesaggi devastati e ripristinare ecosistemi danneggiati. Gli scavi minerari hanno raschiato e butterato la Terra; l'incuranza l'ha immondata. La lotta ai fuochi forestali ha lasciato prosperare il sottobosco, sostituendo l'ariosità da cattedrale delle foreste, con una fitta boscaglia che alimenta fuochi ancora più pericolosi. Utilizzeremo robot sofisticati ed economici per invertire questi effetti ed altri. Poiché
tali robot saranno capaci di smuovere rocce e suolo, essi disegneranno nuovamente l'aspetto dei paesaggi dilaniati. Capaci di diserbare e di smaltire, nelle foreste naturali essi si sostituiranno all'efficacia estirpatrice dei fuochi senza doverle danneggiare o devastare. Capaci di sollevare e smuovere gli alberi, essi alleggeriranno i suoli troppo densi, consentendo la reforestazione di nude colline. Fabbricheremo dispositivi della dimensione di scoiattoli con una predilezione per la vecchia immondizia. Fabbricheremmo dispositivi simili ad alberi con radici profondamente diffuse, e ripuliremo il suolo dai pesticidi e dagli acidi in eccesso. Fabbricheremo netturbini delle dimensioni di insetti per far pulizia dei licheni e per divorare la vernice spray. Fabbricheremo qualsiasi altro dispositivo sia necessario a ripulire il disastro lasciato dalla civiltà del ventesimo secolo. Dopo aver fatto pulizia, ricicleremo la maggior parte di queste macchine, lasciando in circolazione solo quelle che ancora sono necessarie per proteggere l'ambiente da una civiltà in ogni caso più pulita poiché basata sulla tecnologia molecolare. Questi dispositivi, più duraturi dei primi, integreranno gli ecosistemi naturali dove potrebbe ancora risultare necessario, per bilanciare e curare gli effetti dell'umanità. Renderli efficaci, non dannosi e nascosti, sarà un'arte che richiederà non solo l'aiuto dell'ingegneria automatizzata, ma anche la conoscenza della natura e un certo senso artistico. Con le tecnologie di riparazione cellulare saremo persino in grado di resuscitare alcune specie dalla loro apparente estinzione. Il quagga africano, un'animale simile alla zebra, si è estinto circa un secolo fa, ma una pelle di quagga è tuttora conservata sotto sale in un museo Tedesco. Alan Wilson della University of California a Berkeley, ed i suoi collaboratori (9), hanno utilizzato degli enzimi per estrarre frammenti di DNA dai tessuti muscolari connessi a questa pelle. Hanno clonato i frammenti in un batterio, li hanno confrontati con quelli di una zebra ed hanno riscontrato (come ci si attendeva) che i geni delle due specie mostravano uno stretto rapporto evolutivo. Sono anche riusciti ad estrarre e replicare del DNA da una pelle di bisonte vecchia un secolo, nonché da alcuni mammuth vecchi di millenni che si sono conservati integralmente nel perfamafrost artico. Questi successi sono ben lontani dalla clonazione di una intera cellula o di un intero organismo; la clonazione di un singolo gene ne lascia grosso modo altri 100.000 non clonati, e la clonazione di ogni singolo gene in una cellula non equivale alla riparazione della cellula, sebbene dimostri che il materiale ereditario di queste specie è riuscito a sopravvivere fino ad oggi. Come ho descritto nel capitolo precedente, macchine che confrontino diverse copie danneggiate di molecole di DNA saranno anche in grado di ricostruire il suo originale privo di danni, ed i miliardi di cellule in una pelle essiccata contengono miliardi di copie del DNA. Da tali copie saremo in grado di ricostruire DNA non danneggiato, ed attorno ad esso sapremo costruire cellule non danneggiate di qualsiasi tipo desideriamo. Alcune specie di insetti passano l'inverno in forma di cellule uovo, per poi essere riportate alla vita dal calore della primavera. Analogamente, le specie "estinte" passeranno attraverso il ventesimo secolo come cellule muscolari e pelle, per essere convertiti in uova fertili ed essere infine essere riportate alla vita da macchine ripara-cellule. La Dottoressa Barbara Durrant, psicologa della riproduzione presso lo Zoo di San Diego, sta conservando in un congelatore crionico alcuni campioni di tessuti prelevati da specie in via d'estinzione. Ne potrebbe derivare qualcosa di più prezioso di quello che la maggior parte della gente odierna potrebbe attendersi. Preservare semplicemente dei campioni di tessuto non preserva la vita di un animale o di un ecosistema, ma potrebbe preservare l'ereditarietà genetica delle specie campionate. Saremmo degli incoscienti se non stipulassimo questa polizza assicurativa contro la perdita permanente delle specie. Sicché, la prospettiva di macchine ripara-cellule incide sulle nostre scelte odierne. L'estinzione non è un problema nuovo. Circa 65 milioni di anni fa scomparve la maggior parte delle specie allora esistenti, incluse tutte le specie di dinosauri. Nel libro di pietra della Terra, la
storia dei dinosauri termina su una pagina consistente in un sottile strato di argilla. L'argilla è ricca di iridio, un elemento piuttosto comune in asteroidi e comete. La migliore teoria corrente afferma che dal cielo cadde qualcosa che colpì violentemente la biosfera terrestre. L'impatto sprigionò una energia equivalente all'esplosione di cento milioni di milioni di tonnellate di TNT, provocando la diffusione di polveri ed instaurando un "inverno asteroidale" di estensione planetaria. Negli eoni trascorsi da quando le cellule viventi si sono per la prima volta raggruppate assieme a formare i vermi, la Terra ha sofferto cinque grandi estinzioni. Appena 34 milioni di anni fa, ossia quasi 30 milioni di anni dopo la morte dei dinosauri, uno strato di gocce vitree si depositò sul fondo del mare. Al di sopra di quello strato, i fossili di molte specie non compaiono più. Quelle gocce si erano formate per solidificazione degli spruzzi fusi causati da un impatto. Il "Cratere Meteoritico" in Arizona è la testimonianza di un impatto esplosivo più piccolo e più recente, equivalente a quello di una bomba da quattro milioni di tonnellate di TNT. Ancor più di recente, il 30 Giugno 1908, una palla di fuoco squarciò il cielo Siberiano e spazzò al suolo gli alberi di una foresta su un'area del diametro di un centinaio di chilometri. Come la gente comune ha a lungo sospettato, i dinosauri morirono perché erano stupidi. Non che fossero troppo stupidi per nutrirsi, camminare o badare alle proprie uova, dato che comunque sopravvissero per 140 milioni di anni; essi erano semplicemente troppo stupidi per costruire telescopi capaci di individuare gli asteroidi, e per costruire navette spaziali in grado di deviarli dalla rotta di collisione con la Terra. Lo spazio ha ancora molte rocce da lanciarci addosso, ma ormai stiamo mostrando segni di una intelligenza adeguata ad affrontarle. Quando nanotecnologia e ingegneria automatizzata ci doteranno di una tecnologia spaziale più capace, ci risulterà molto facile sorvegliare e deflettere gli asteroidi; di fatto potremmo farlo persino con la tecnologia disponibile oggi. Potremo non solo guarire la Terra, ma anche proteggerla. Longevità e Pressione Demografica Di solito siamo tutti alla ricerca di una vita lunga e in salute, e tuttavia la prospettiva di un successo drastico ci disorienta. Una longevità maggiore potrebbe danneggiare la qualità della vita? Cosa comporterebbe per i nostri problemi immediati la prospettiva di una vita lunga? Nonostante la maggior parte di questi effetti non possa prevedersi, per altri la previsione è possibile. Per esempio, le macchine ripara-cellule estenderanno la durata della vita ma al contempo incrementeranno anche la popolazione. Se tutto il resto restasse invariato, gente in più significherebbe maggiore affollamento, maggiore inquinamento e maggiore scarsità. Ma tutto il resto non rimarrà affatto uguale: l'essenza di quello stesso progresso fatto di ingegneria automatizzata e nanotecnologia che produrrà infine le macchine ripara-cellule, ci verrà in aiuto per guarire la terra, proteggerla e vivere su di essa più spensieratamente. Saremo in grado di produrre ciò che ci è necessario, nonché il nostro lussuoso superfluo, senza per questo inquinare la nostra aria o acqua. Sapremo appropriarci di risorse e fabbricare cose senza per questo devastare il paesaggio con le miniere o ingombrarlo densamente di industrie. Con assemblatori efficienti che fabbrichino prodotti duraturi, potremo produrre cose di più gran valore ma generando meno rifiuti. Se in qualche modo riusciremo a sfruttare le nostre nuove capacità per fini buoni, molta più gente potrà essere in grado di vivere sulla Terra, e nel contempo infliggendo meno danno sia alla Terra stessa che a chiunque altro viva su di essa. Se si guardasse al cielo notturno interpretandolo soltanto come un muro nero e ci si attendesse che da un momento all'altro la corsa tecnologica debba frenare bruscamente su un rispettoso punto di arresto, verrebbe naturale temere che le persone longeve sarebbero un opprimente fardello per la "povera ed affollata terra dei nostri figli". Questa paura deriva dall'illusione che la vita sia un gioco
a somma zero, e che essere di più significhi necessariamente dover spartire in fette più piccole una torta piuttosto esigua. Ma nel momento in cui diventeremo capaci di riparare le cellule, saremo anche capaci di costruire eccellenti assemblatori-replicatori ed eccellenti navette spaziali. I nostri "poveri" discendenti si divideranno un mondo della dimensione dell'intero sistema solare, dotato di materia, energia e potenziale spazio di vita in quantità tali che quelle del nostro intero pianeta avranno al confronto le dimensioni di uno gnomo. Tutto questo creerà spazio sufficiente per un'era di crescita e prosperità di gran lunga superiore ad ogni altra precedente. Tuttavia, lo stesso sistema solare è pur sempre finito, e le stelle sono distanti. Sulla Terra persino le industrie più pulite, basate sugli assemblatori, genereranno inquinamento calorico. Le preoccupazioni incentrate su demografia e risorse manterranno la loro importanza, perché la crescita esponenziale dei replicatori (come quella delle persone) potrà infine sovrastare l'offerta di qualsiasi disponibilità finita di risorse. Ma questo significa che dovremmo sacrificare vite umane per ritardare il momento cruciale? Qualche persona potrebbe anche sacrificarsi volontariamente, ma se ne otterrebbe ben poco beneficio. In verità, l'estensione della vita avrà poco effetto sui problemi di base: l'esponenzialità della crescita demografica rimarrà tale, sia che la gente muoia giovane sia che resti indefinitamente in vita. Un martire volontario che morisse in gioventù potrebbe ritardare la crisi solo di una frazione di secondo, ma persino una persona mediocre e tuttavia coscienziosa potrebbe essere di ben più grande aiuto se fondasse un movimento attivista di persone longeve intenzionate a risolvere questo problema di lungo termine. Dopotutto, molte persone fino ad ora sono vissute ignare dell'esistenza di limiti alla crescita demografica sulla Terra. Chi altri, se non i longevi, avranno interesse a prepararsi adeguatamente per il raggiungimento dei definitivi, ma molto distanti, limiti ultimi alla crescita nei mondi al di là della Terra? Quelli preoccupati dei limiti di lungo termine serviranno meglio l'umanità mantenendosi vivi piuttosto che mantenendo vive le loro preoccupazioni. La longevità crea anche la minaccia della stagnazione culturale. Se si trattasse di un problema inestricabilmente associato alla longevità, non vedremmo proprio cosa potremmo fare a riguardo sparare ai più vecchi quando si arroccano su punti di vista troppo ostinati, forse? Per fortuna ci sono due fattori che contribuiranno in qualche modo ad attenuare il problema. In primo luogo, in un mondo con una frontiera aperta i giovani saranno in grado di varcarla per costruire nuovi mondi, sperimentare nuove idee, ed infine persuadere i più vecchi a cambiare oppure lasciarseli semplicemente alle spalle. In secondo luogo, le persone avanti negli anni saranno comunque giovani nel corpo e nella mente. L'invecchiamento rallenta sia il pensiero che l'apprendimento, così come rallenta altri processi fisici; il ringiovanimento li accelererà nuovamente. Poiché muscoli e tendini giovani rendono più flessibile il corpo, forse la giovinezza dei tessuti cerebrali manterrà analogamente più flessibili le menti, persino dopo che avranno sperimentato lunghi anni di saggezza. Gli Effetti dell'Anticipazione La longevità non sarà il più grande dei problemi futuri. Essa potrebbe persino aiutarci a risolvere gli altri. Consideriamo i suoi effetti sulla volontà della gente di cominciare le guerre. Invecchiamento e morte rendono più accettabile il massacro in combattimento: come fa dire Omero a Sarpedone, l'eroe di Troia nell'Iliade: "O amico mio, se noi, abbandonando questa guerra, potessimo sfuggire alla vecchiaia e alla morte, io non sarei qui a lottare invano; ma ora, poiché sono molti i modi di morire che incombono su noi e a cui nessun uomo può sperare di sfuggire, lanciamoci nella battaglia dando gloria ad altri uomini, o a vincerla per la nostra" (10). Se davvero fosse la speranza di sfuggire all'età ed alla morte a muovere la gente in battaglia, non
sarebbe una buona cosa? L'assenza di queste motivazioni potrebbe scoraggiare piccole guerre che potrebbero infine crescere fino ad un olocausto nucleare. Ma allo stesso tempo potrebbe indebolire la nostra risoluzione ad auto-difenderci da una tirannia estesa lungo una vita intera, per non parlare di quanta vita ancora abbiamo da difendere. La riluttanza di certe persone a morire per il potere dei loro governanti aumenterebbe questo rischio. Le azioni sono sempre modellate dalle aspettative. Le nostre istituzioni ed i nostri progetti personali riflettono entrambi la nostra aspettativa che tutti gli adulti attualmente viventi moriranno entro poche decadi. Riflettiamo su come questa assunzione alimenti furiosamente l'urgenza di acquisire, ignorando il futuro per inseguire un fugace piacere. Consideriamo come essa accechi la nostra visione del futuro, ed oscuri i benefici a lungo termine della cooperazione. Erich Fromm scrive: "Se l'individuo vivesse cinquecento o mille anni, questo contrasto (fra i suoi interessi e quelli della società) potrebbe essere inesistente o quantomeno venirne considerevolmente ridotto. Egli potrebbe vivere, e raccogliere con gioia ciò che ha seminato con dolore; la sofferenza di un periodo storico che porti frutto in quello successivo, potrebbe fruttare anche per lui". Il fatto che la maggior parte delle persone di oggi vivano ancora esclusivamente per il presente, non è il punto principale della questione; piuttosto, esso è: ci potrebbe essere un significativo cambiamento per il meglio? L'aspettativa di vivere una lunga vita in un futuro migliore potrebbe ben rendere alcuni mali politici meno mortali. I conflitti umani sono di gran lunga troppo profondi e forti per essere sradicati da un qualunque semplice cambiamento, tuttavia la prospettiva di un domani di immenso benessere potrebbe quantomeno attenuare l'impulso a lottare per le briciole odierne. Il problema della conflittualità è grande, e per fronteggiarlo abbiamo bisogno di tutto l'aiuto che possiamo ottenere. La prospettiva del deterioramento personale e della morte, ha sempre reso i pensieri sul futuro meno piacevoli. In tempi più recenti, visioni di inquinamento, di povertà, e di annichilazione nucleare, hanno reso i pensieri sul futuro quasi troppo orribili da sopportare. Tuttavia, con almeno una speranza di un futuro migliore e di un tempo per goderselo, si potrebbe guardare avanti più di buon grado. E guardando avanti, saremo capaci di vedere più lontano. Avendo un interesse personale nel futuro, ce ne cureremmo di più. E speranza e preveggenza accresciute, porteranno beneficio sia alle persone di oggi che ai posteri; esse miglioreranno le nostre possibilità di sopravvivenza. Vivere vite più lunghe significa avere più gente, ma senza peggiorare gravemente i problemi demografici di domani. L'aspettativa di vite più lunghe in un mondo migliore, porterà benefici reali, incoraggiando la gente a riflettere di più sul futuro. Dopotutto, la longevità e l'annuncio del suo arrivo sembrano una buona cosa per la società, proprio come la certezza di vite accorciate a soli trent'anni sarebbero una cosa cattiva. Molte persone desiderano per se stessi vite lunghe e in salute. Quali sono le prospettive per le generazioni presenti? Progressi nell'Estensione della Vita Ascoltiamo le parole di Gilgamesh, Re di Uruk: "Ho guardato oltre la barriera ed ho visto i corpi fluttuare sul fiume, e so che è quella anche la mia sorte. Perché io so che, chiunque sia il più alto degli uomini non può raggiungere i cieli, ed il più grande non può abbracciare tutta la Terra" (11). Quattro millenni sono trascorsi da quando gli scribi Sumeri incisero delle tavolette d'argilla per scrivervi "L'Epica di Gilgamesh", ed i tempi sono cambiati. Uomini non più alti della media hanno ora raggiunto i cieli e circumnavigato la Terra. Siamo nell'era spaziale, nell'era della biotecnologia, nell'era dei passi avanti tecnologici più rivoluzionari; è necessario disperarsi ancora di fronte alla
barriera degli anni? O dovremmo imparare l'arte di estendere la vita, in tempo utile per salvare noi stessi e quelli che amiamo dalla dissoluzione? Il ritmo del progresso biomedico contiene promesse allettanti. Le principali malattie dell'età (malattie cardiache, ictus e cancro), hanno cominciato ad arrendersi a trattamenti opportuni. Studi sui meccanismi dell'invecchiamento hanno cominciato a dar frutto, e i ricercatori hanno raccolto alcuni successi in esperimenti mirati ad estendere l'arco di vita attesa per alcuni animali. Mano a mano che altra conoscenza si costruirà sulla conoscenza precedente, e che gli strumenti già esistenti condurranno a nuovi strumenti, sembra certo che il ritmo di accumulazione dei progressi accelererà. Persino senza disporre al momento di macchine ripara-cellule, abbiamo ragione di attenderci progressi importanti verso il rallentamento e la parziale inversione del processo di invecchiamento. Nonostante gente di tutte le età beneficerà di questi progressi, i giovani ne beneficeranno in misura maggiore. Quelli che vivranno abbastanza a lungo, raggiungeranno un'epoca in cui l'invecchiamento sarà divenuto pienamente reversibile: tale epoca sarà, al più tardi, quella delle avanzate macchine ripara-cellule. Sarà allora, se non addirittura prima, che le persone guadagneranno sempre più salute mano a mano che invecchiano, migliorando col tempo come il vino piuttosto che guastarsi come il latte. Esse, se lo desiderano, potranno riguadagnare una salute eccellente e vivere per un lungo, lungo, tempo. In quell'epoca di replicatori e di volo spaziale economico, la gente possederà sia la longevità che spazio e risorse a sufficienza per godersela. Una domanda che potrebbe amaramente rotolar fuori dalla lingua è: "Quando? Quale sarà l'ultima generazione a invecchiare e morire, e quale la prima a oltrepassare il limite?". Molte sono oggi le persone che condividono l'inespressa aspettativa che l'invecchiamento verrà un qualche giorno sconfitto. Ma quelli che vivono ora sono condannati a morte dalla sfortuna della loro nascita prematura? La risposta si dimostra essere sia chiara che sbalorditiva. L'ovvio percorso verso la longevità comprende la necessità di vivere abbastanza a lungo da farsi ringiovanire dalle future macchine di riparazione cellulare. I progressi della biochimica e della tecnologia molecolare estenderanno la vita, e nel tempo che guadagneranno potranno estendere la vita ancora di più. Per estendere la vita e mantenere una condizione di buona salute, in un primo momento useremo dei farmaci appropriati, una appropriata dieta e l'esercizio fisico. Entro qualche decade, i progressi nella nanotecnologia probabilmente realizzeranno le prime macchine di riparazione cellulare, e con l'aiuto dell'ingegneria automatica queste prime macchine saranno prontamente seguite da macchine più avanzate. Le date devono rimanere una mera ipotesi, ma una ipotesi che è pur sempre utile più di quanto lo sia un semplice punto interrogativo. Immaginiamo qualcuno che adesso ha trent'anni. In altri trent'anni, la biotecnologia sarà progredita enormemente, e tuttavia un trentenne di oggi sarà diventato un sessantenne. I dati statistici, senza prendere in considerazione nessun progresso nella medicina, dicono che un cittadino statunitense trentenne può al momento aspettarsi di vivere per quasi altri cinquant'anni, il che significa fino agli anni '30 del ventunesimo secolo (NdT- Il presente libro è stato scritto nel 1986). I normali progressi di routine (del tipo di quelli dimostrati sugli animali) che si verificheranno da qui fino al 2030, pare aggiungeranno altri probabili anni alla vita, forse persino decadi. La semplice fase primordiale della tecnologia di riparazione cellulare potrebbe estendere la vita di diversi decadi. Per riassumere, quindi, sembra probabile che la medicina del 2010, 2020, e 2030 estenderà la vita del nostro trentenne fino al 2040-2050. In quell'epoca, se non addirittura prima, i progressi medici potrebbero permettere il suo ringiovanimento fino alla sua condizione attuale di trentenne. Sicché, quelli che sono oggi sotto i trenta (e forse anche quelli apprezzabilmente più vecchi) possono guardare avanti, quanto meno a titolo di tentativo, con qualche ragionevole speranza di vederci una medicina futura in grado di sorpassare il loro processo di invecchiamento e di consegnarli salvi ad un era di
riparazioni cellulari caratterizzata, di salute vigorosa e di estensione di vita indefinita. Se questa fosse l'intera storia, la distinzione fra gli ultimi umani avviati sulla strada di una morte precoce e i primi sulla strada di una lunga vita potrebbe forse rappresentare l'ultimo dei divari generazionali. Inoltre, la bruciante incertezza riguardo il proprio destino potrebbe motivare la tentazione di relegare l'intero argomento nelle segrete del subconscio in cui rinchiudiamo le speculazioni fastidiose. Ma è davvero questa la nostra situazione? Sembra esserci un'altra strada per salvare delle vite, una basata sulle macchine ripara-cellule nonostante queste non siano ancora disponibili oggi. Come descritto nel capitolo precedente, le macchine riparatrici sapranno guarire i tessuti fintanto che si è preservata la loro struttura essenziale. La capacità di un tessuto di metabolizzare e riparare se stesso perde la sua importanza; la discussione sulla biostasi illustra proprio questo. La biostasi, come descritto, utilizzerà dei dispositivi molecolari per arrestare le funzioni delle cellule e preservare la loro struttura tramite il cross-linking, cioè legando l'una all'altra le macchine molecolari delle cellule. Le nanomacchine invertiranno la biostasi grazie alla riparazione dei danni molecolari, ossia rimuovendo i legami incrociati fra le macchine molecolari ed aiutando le cellule (e quindi i tessuti, gli organi, e l'intero corpo) a ritornare al funzionamento normale. Riuscire a raggiungere un'era di avanzate macchine ripara-cellule sembra la chiave per una vita lunga ed in salute, poiché quasi tutti i problemi medici saranno allora curabili. Uno potrebbe impegnarsi nello sforzo di restare vivo ed attivo lungo tutti gli anni che intercorrono fra oggi e quel momento, in modo da riuscire a giungervi entro l'arco della sua vita residua; ma questa è semplicemente la via più ovvia, la via che richiede un minimo di preveggenza. I pazienti odierni spesso soffrono di collasso delle funzioni cardiache mentre le strutture del cervello che incorporano memoria e personalità restano invece intatte. In tali casi, non potrebbe esserci qualche tecnologia medica odierna che sia in grado di arrestare il processo biologico in un modo che le tecnologie mediche di domani saprebbero invertire? Se così fosse, la maggior parte delle morti odierne sarebbero in realtà diagnosi premature e non necessarie. ---------Capitolo 9: Una porta sul futuro I Requisiti per la Biostasi Metodi di Biostasi Inversione della Biostasi Mente, Corpo ed Anima Reazioni e Discussioni Tempo, Costo ed Azione Umana Londra, Aprile 1773. A Jacques Dubourg (1) Le sue osservazioni sulle cause della morte, e gli esperimenti con i quali si propone di richiamare alla vita coloro che sembra siano stati uccisi da un fulmine, dimostrano in egual misura la sua sagacia e la sua umanità. Pare che la dottrina della vita e della morte, in generale sia però tutt'altro che ben compresa[…] Vorrei che fosse possibile[…] inventare un metodo per imbalsamare le persone che sono annegate, di modo che possano essere richiamate alla vita in un qualsiasi momento comunque distante nel tempo; Avendo un desiderio davvero ardente di poter vedere gli stati d'America fra un centinaio d'anni da oggi, io preferirei una morte ordinaria causata dall'immersione, fino ad allora e in compagnia di qualche amico, in un barile di Madera, per poi essere richiamato alla vita dal tepore
del sole del mio caro paese! Ma […] in tutta probabilità, noi viviamo in un secolo ancora troppo poco avanzato, e troppo vicino all'infanzia della scienza perché si possa vedere nel nostro tempo una tale arte maturare fino alla perfezione. - B. FRANKLIN Benjamin Franklin cercava una procedura per arrestare e riavviare il metabolismo, ma all'epoca nessuno ne conosceva una. Viviamo in un secolo di gran lunga più avanzato del suo da far si che la biostasi sia ormai disponibile - per schiudere un futuro di salute a pazienti altrimenti privi di ogni possibilità che non sia la dissoluzione conseguente alla loro morte? Possiamo arrestare il metabolismo in molti modi, ma la biostasi, per essere utilizzabile, deve anche essere reversibile. E da ciò scaturisce una curiosa situazione. Se si possa o meno mettere dei pazienti in uno stato di biostasi con l'impiego delle tecniche presenti dipende esclusivamente dalla eventuale disponibilità futura di tecniche capaci di invertire il processo. La procedura è perciò composta da due parti, delle quali al momento ne padroneggiamo solo una. Se la biostasi può mantenere inalterato un paziente per anni, allora le tecniche future dovranno includere anche dei sofisticati sistemi di riparazione cellulare. Dobbiamo perciò giudicare il successo delle attuali procedure di biostasi alla luce delle abilità ultime della futura medicina. Prima che macchine ripara-cellule si profilino chiaramente all'orizzonte, tali abilità, ed i conseguenti requisiti precisi per una biostasi di successo, restano grossolanamente incerti. Attualmente, i requisiti di base sembrano piuttosto ovvi. I Requisiti per la Biostasi Le Macchine molecolari possono costruire cellule partendo da zero, come dimostrato dalla divisione cellulare naturale. Possono anche costruire da zero interi organismi, come dimostrato dallo sviluppo degli embrioni. I medici saranno in grado di utilizzare le tecnologie di riparazione cellulare per dirigere lo sviluppo di nuovi organi, partendo da cellule appartenenti al paziente stesso. Ciò dota i medici moderni di grandi margini di libertà nella attuazione delle procedure di biostasi: anche se queste procedure danneggiassero o distruggessero la maggior parte degli organi di un paziente, non gli procurerebbero comunque alcun danno irreversibile. I loro colleghi del futuro, dotati di strumenti migliori, saranno in grado di riparare o rimpiazzare gli organi danneggiati. La maggior parte delle persone dovrebbe essere ben contenta di avere un cuore nuovo, o dei reni rinnovati, o una pelle più giovane (2). Ma il cervello è un problema ben diverso. Un medico che permetta la distruzione del cervello di un paziente, permette la distruzione del paziente stesso in quanto persona distinta, qualunque cosa possa accadere al resto del corpo. Il cervello conserva gli schemi della memoria, della personalità, del "sé". I pazienti colpiti da un colpo apoplettico perdono solo una parte del loro cervello e tuttavia soffrono, in conseguenza di tali danni, di problemi che vanno dalla cecità parziale, alla paralisi, alla perdita del linguaggio, alla riduzione dell'intelligenza, fino ad alterazioni della personalità o peggio ancora. Gli effetti precisi dipendono dalla precisa locazione del danno. Ciò suggerisce che la distruzione completa del cervello provocherebbe, tutte insieme, la cecità totale, la paralisi, l'incapacità totale di parola, e la completa assenza di attività mentale, e ciò sia che il corpo continui a respirare, sia che smetta di farlo. Come scrisse Voltaire, "Per risorgere, per essere la stessa persona che eri, devi avere la tua memoria perfettamente intatta e presente; è la memoria che fa la tua identità. Se la tua memoria si perdesse, saresti ancora lo stesso uomo?". L'Anestesia interrompe la coscienza senza distruggere la struttura del cervello, e le procedure di biostasi devono fare la stessa cosa, per un tempo ben più lungo. Ciò solleva interrogativi sulla natura fisica delle strutture soggiacenti alla memoria e alla
personalità. La neurobiologia, e un ben informato senso comune, concordano sulla natura di base della memoria. Mano a mano che formiamo i nostri ricordi e ci sviluppiamo come individui, il nostro cervello cambia. Questi cambiamenti influenzano il funzionamento del cervello, modificando i suoi schemi di attività: Quando ricordiamo, il nostro cervello fa qualcosa; quando agiamo, pensiamo, o avvertiamo delle sensazioni, il nostro cervello fa qualcosa. Il cervello lavora per mezzo di macchinario molecolare. Dei cambiamenti duraturi nel funzionamento del cervello implicano corrispondenti cambiamenti duraturi in questo macchinario molecolare - a differenza della memoria di un computer, il cervello non è progettato perché possa essere svuotato e nuovamente riempito col preavviso di un solo attimo. La personalità e la memoria a lungo termine sono durature. Lungo l'intero corpo, cambiamenti duraturi delle funzionalità implicano cambiamenti duraturi del macchinario molecolare soggiacente a quelle funzioni. Quando i muscoli diventano più forti o più rapidi, le loro proteine cambiano in numero e distribuzione. Quando un vivente si adatta a far fronte all'assunzione di alcool, anche il contenuto delle sue proteine cambia. Quando il sistema immunitario impara a riconoscere un nuovo tipo di virus influenzale, il contenuto delle proteine, ancora una volta, cambia. Poiché le macchine basate sulle proteine svolgono compiti come il movimento dei muscoli, la frammentazione di tossine e il riconoscimento dei virus, l'esistenza di questa relazione non è inaspettata. Nel cervello, le proteine modellano le cellule nervose avvolgendo le loro superfici, legando una cellula alla successiva, controllando le correnti ioniche di ogni impulso neurale, producendo le molecole utilizzate dalle cellule nervose per comunicare fra le sinapsi, e molto, molto altro. Quando le stampanti stampano parole, mettono giù schemi di inchiostro; quando le cellule nervose cambiano il loro comportamento, esse modificano i loro schemi di proteine. La stampa, inoltre, incide la carta, e le cellule nervose vengono anche loro modificate ben più che semplicemente nelle loro proteine, nonostante l'inchiostro sulla carta e le proteine nel cervello possano da sole bastare per determinare questi schemi in modo non equivoco. Le trasformazioni coinvolte sono tutt'altro che impercettibili(3). I ricercatori hanno riscontrato che i cambiamenti a lungo termine nel comportamento delle cellule nervose sono associati a "impressionanti cambiamenti morfologici"(4) nelle sinapsi: queste, infatti, cambiano visibilmente in forma e struttura. Sembra perciò che la memoria a lungo termine non sia poi quello schema terribilmente delicato che comunemente si pensa, pronto ad evaporare via dal cervello ad ogni scusa. Memoria e personalità sono infatti fermamente incorporati nel modo in cui le cellule del cervello si sono sviluppate ed accresciute assieme, in schemi formati attraverso anni di esperienza. Memoria e personalità non sono più materiali dei personaggi di un romanzo; eppure, proprio come loro, esse sono incorporate in strutture di materia. Memoria e personalità non fuggono via nel momento in cui un paziente esala l'ultimo respiro. Infatti, molti pazienti sono stati recuperati dalla cosiddetta "morte clinica", anche senza l'aiuto di macchine ripara-cellule. Gli schemi della mente vengono distrutti soltanto "quando" e "se" i medici che assistono il paziente consentono al suo cervello di procedere verso la dissoluzione. Questa caratteristica, ancora una volta, permette ai medici una considerevole libertà di azione nella attuazione delle procedure di biostasi: tipicamente, essi hanno bisogno di non arrestare il metabolismo finché non sono cessate le funzioni vitali(5). Pare quindi che preservare le strutture cellulari e gli schemi proteici del cervello, preservi anche la struttura della mente, e del "sé" associato ad essa. I biologi sanno già come preservare così bene i tessuti. La tecnologia della resurrezione deve attendere l'arrivo delle macchine di riparazione cellulare, ma la tecnologia della biostasi pare essere già saldamente in nostra mano. Metodi di Biostasi
L'idea che possediamo già i metodi di biostasi può sembrare sorprendente, poiché potenti nuove abilità raramente spuntano fuori in una notte. Infatti, le tecniche sono vecchie, solo la comprensione della loro reversibilità è nuova. I biologi svilupparono i due principali approcci alla biostasi per altre ragioni. Per decadi, i biologi hanno usato i microscopi elettronici per studiare la struttura di cellule e tessuti. Per preparare i campioni, sfruttano un processo chimico chiamato fissazione allo scopo di mantenere al loro posto le strutture molecolari. Un metodo molto popolare usa molecole di glutaraldeide, catene flessibili di cinque atomi di carbonio con un gruppo reattivo di atomi di idrogeno e ossigeno ad ogni termine di catena. I biologi fissano i tessuti pompando una soluzione di glutaraldeide lungo i canali sanguinei, consentendo alle molecole di glutaraldeide di diffondersi nelle cellule. Una molecola vaga all'interno della cellula, rotolando casualmente in giro, fino a che uno dei suoi capi terminali entra in contatto con una proteina (o altre molecole reattive della cellula) e si lega ad essa. L'altro termine della catena fluttua libero fino a che, a sua volta, entra in contatto con qualche altra molecola reattiva della cellula. E tutto ciò, di solito risulta nella concatenazione, tramite il glutaraldeide, di due molecole che nella cellula erano soltanto "vicine". Questo processo di cross-linking [Ndt- Vedi Glossario], concatena tutte le strutture molecolari e le macchine molecolari in modo che risultino infine saldamente connesse in un blocco unico; altri reagenti chimici possono quindi essere aggiunti per completare il lavoro o rafforzare la compattezza del tutto. I microscopi elettronici mostrano che tali procedure di fissazione preservano le cellule e le strutture interne ad esse(6), incluse le cellule e strutture del cervello. Il primo passo dell'ipotetica procedura di biostasi che ho descritto nel capitolo 7, coinvolge dei semplici dispositivi molecolari in grado di entrare nelle cellule, bloccare il loro macchinario molecolare e legare insieme le strutture, concatenandole perché stiano al loro posto. Le molecole di glutaraldeide si adattano a questa descrizione piuttosto bene. Il passo successivo in questa procedura coinvolge altri dispositivi molecolari in grado di rimuovere l'acqua, per impacchettarla solidamente attorno alle molecole di una cellula. Anche questo corrisponde ad un processo già noto. Alcuni agenti chimici come glicolpropilene, glicoletilene, e dimetilsolfossido possono diffondersi nelle cellule e sostituirsi alla maggior parte della loro acqua, pur provocando pochi danni. Essi sono noti come "crioprotettori" poiché possono proteggere le cellule dai danni provocati dalle basse temperature. Se rimpiazzano una sufficiente quantità dell'acqua contenuta in una cellula, il raffreddamento non causerà il congelamento ma farà semplicemente diventare sempre più vischiosa la soluzione protettiva, che si trasformerà così mano a mano in un liquido dalla consistenza dapprima simile a quella di un leggero sciroppo, poi a quella del catrame caldo, poi quella del catrame freddo, per divenire infine qualcosa di simile ad un resistente vetro. Infatti, in accordo alla definizione scientifica del termine, la soluzione protettiva ha capacità di contenimento analoghe a quelle del vetro; il processo di solidificazione senza congelamento(7) è detto "vetrificazione". Embrioni di topo(8) dapprima vetrificati e quindi conservati in azoto liquido, sono successivamente in grado di svilupparsi in topolini sani. Il processo di vetrificazione impacchetta saldamente il vitreo proteggente attorno alle molecole di ogni cellula; la vetrificazione quindi, si adatta alla descrizione che ho dato del secondo stadio della biostasi. Fissazione e vetrificazione, utilizzate assieme, sembrano procedure adeguate ad assicurare una biostasi sul lungo termine. Per invertire questa forma di biostasi, delle macchine di riparazione cellulare verranno programmate per rimuovere il proteggente vetroso e le concatenazioni fra le molecole della cellula e il glutaraldeide, per poi passare a riparare e rimpiazzare le molecole, ripristinando così cellule, tessuti ed organi, proprio in questo ordine.
La fissazione in congiunzione con la vetrificazione, non è la prima procedura che è stata proposta per la biostasi. Nel 1962 Robert Ettinger, un professore di fisica all'Highland Park College in Michigan, pubblicò un libro(9) suggerendo che i futuri progressi nella criobiologia potrebbero condurre a tecniche per una procedura di congelamento di facile reversibilità e applicabile a pazienti umani. Inoltre suggeriva che i medici, utilizzando tecnologie future, potrebbero essere in grado di riparare e riportare alla vita pazienti che fossero stati congelati con le tecniche odierne, purché il congelamento fosse stato eseguito entro brevissimo tempo dopo l'avvenuta cessazione di segnali vitali. Egli fece notare che le temperature da azoto liquido possono preservare i pazienti per secoli, se necessario, alterandoli ben poco. Egli suggeriva, inoltre, che forse la scienza medica disporrà un giorno di macchine favolose, capaci di ripristinare i tessuti congelati lavorando su una molecola alla volta. Il suo libro diede il via al movimento crionico. I crionici si sono concentrati sul congelamento perché molte cellule umane spontaneamente(10) si riattivano dopo che siano state sottoposte ad un accorto processo di congelamento e disgelo. E' un mito comune quello secondo cui il congelamento farebbe esplodere le cellule; infatti, il danno da congelamento è ben più sottile di questo, anzi talmente sottile che spesso non lascia segni duraturi. Lo sperma congelato produce regolarmente bambini in salute. Alcuni umani attualmente in vita sono sopravvissuti ad un processo di congelamento spinto fino alle temperature da azoto liquido, da loro subìto quando erano ancora in precoce stato embrionale. I criobiologi stanno attivamente ricercando modi di congelare e scongelare organi vitali(11), per permettere ai chirurghi di conservarli in previsione di un trapianto da effettuare in un tempo differito. La prospettiva delle future tecnologie di riparazione cellulare ha rappresentato un tema importante fra i crionici (12). Tuttavia essi hanno finora mostrato la tendenza a concentrarsi maggiormente sulle procedure che preservano il funzionamento delle cellule, e lo hanno fatto per ovvie ragioni. I criobiologi hanno mantenuto vitali delle cellule umane congelate per anni. I ricercatori hanno migliorato i loro risultati sperimentando vari miscugli di composti chimici crioprotettivi e controllando attentamente le velocità di raffreddamento e riscaldamento. La complessità della criobiologia offre abbondanti possibilità per ulteriori sperimentazioni. Questa combinazione di tangibile e sorprendente successo, e di promettenti obiettivi per ulteriori studi, ha reso la ricerca di un processo di congelamento facilmente reversibile, uno scopo vivido e attraente per i crionici. Un successo nel congelare e riportare alla vita un mammifero adulto sarebbe infatti indiscutibilmente evidente e persuasivo. Inoltre, anche una conservazione parziale della funzione dei tessuti lascia intendere che c'è stata una eccellente preservazione della struttura dei tessuti stessi. Le cellule che possono rivivere (o quasi rivivere) anche senza un particolare aiuto, avranno bisogno di scarsa riparazione. Essendo la comunità dei crionici piuttosto cauta, l'enfasi tradizionalista che hanno posto sulla importanza della preservazione delle funzioni dei tessuti, ha incoraggiato comunque la pubblica confusione. Gli sperimentatori hanno congelato interi mammiferi adulti e successivamente li hanno scongelati senza attendere il momento in cui potranno farsi aiutare dalle macchine ripara-cellule. I risultati sono stati, ad un livello superficiale, scoraggianti: gli animali non sono riusciti a tornare in vita (13). Il pubblico e la comunità medica, entrambi ignari della prospettiva delle macchine di riparazione cellulare, hanno perciò interpretato la biostasi come qualcosa di apparentemente inconcludente. E, dopo la proposta di Ettinger, pochi criobiologi hanno scelto di sbilanciarsi sul futuro della tecnologia medica con dichiarazioni non supportate. Come Robert Prehoda affermò nel 1967 (14) in un suo libro: "Quasi tutti gli esperti degli stati di metabolismo ridotto, credono che il danno cellulare causato dalle attuali tecniche di congelamento non possa essere rimediato". Naturalmente
questi sono gli esperti sbagliati a cui domandare. La questione richiede l'intervento di esperti di tecnologia molecolare e di macchine di riparazione cellulare. Questi criobiologi avrebbero dovuto dire semplicemente che la correzione del danno da congelamento dovrebbe apparentemente richiedere riparazioni a livello molecolare, e che essi non avevano personalmente studiato una tale materia. Invece, hanno involontariamente indotto in equivoco il pubblico su una materia medica di importanza vitale. Le loro affermazioni hanno scoraggiato l'uso di tecniche di biostasi potenzialmente funzionanti (15). Le cellule sono composte per la maggior parte da acqua. A temperature sufficientemente basse, le molecole d'acqua si uniscono per formare un fine ma solido reticolo di cross-links. Poiché ciò preserva le strutture neurali (16) e quindi gli schemi della mente e della memoria, Robert Ettinger ha apparentemente individuato un approccio potenzialmente funzionante per la biostasi. Mano a mano che progredirà la tecnologia molecolare e che la gente svilupperà una maggiore confidenza con le sue conseguenze, la reversibilità della biostasi (basata sul congelamento, o sulla fissazione, o sulla vetrificazione o su altri metodi) diverrà ancora più ovvia a sempre più gente. Inversione della Biostasi Immaginiamo che un paziente sia spirato a causa di un attacco cardiaco. I medici tentano di resuscitarlo, ma senza successo, ed infine rinunciano al tentativo di ripristinare le sue funzioni vitali. A questo punto, tuttavia, corpo e cervello del paziente sono non più funzionanti solo in apparenza, poiché la maggior parte delle cellule e dei tessuti sono infatti ancora vivi, e presentano ancora attività metabolica. Avendo il paziente preventivamente dettato opportune disposizioni, esso viene prontamente messo in biostasi, per prevenire la sua dissoluzione irreversibile e nell'attesa di tempi migliori. Gli anni passano. Il paziente cambia ben poco, ma la tecnologia progredisce enormemente. I biochimici imparano a progettare le proteine. Gli ingegneri usano le macchine proteiche per costruire assemblatori, e quindi usano gli assemblatori per realizzare compiutamente una nanotecnologia dalle capacità estese e generali. Con la disponibilità di strumenti del tutto nuovi, la conoscenza biologica esplode. Gli ingegneri biomedici, utilizzando la conoscenza di nuova acquisizione, l'ingegneria automatizzata e gli assemblatori, sviluppano delle macchine di riparazione cellulare di crescente sofisticazione. Per cui, imparano ad arrestare ed invertire l'invecchiamento. I medici, a questo punto, sfruttano l'utilizzo delle tecnologie di riparazione cellulare per resuscitare i pazienti posti in biostasi, cominciando da quelli per i quali si sono usate le tecniche di biostasi più avanzate, e continuando con quelli che sono stati messi in biostasi con l'uso di tecniche meno recenti e più rudimentali. Infine, dopo aver resuscitato con successo anche gli animali che furono messi in biostasi con l'impiego delle vecchie tecniche degli anni '80, i medici tornano ad occuparsi del nostro paziente colpito da attacco cardiaco. Nella prima fase dei preparativi, il paziente giace in una tanica di azoto liquido circondata da adeguate apparecchiature. Il proteggente vetroso blocca ancora in una salda stretta il macchinario molecolare di ogni cellula del paziente. Questo proteggente deve essere rimosso, ma un semplice riscaldamento potrebbe permettere ad alcune strutture cellulari di liberarsi prematuramente. Dei dispositivi chirurgici appositamente progettati per l'impiego a basse temperature, raggiungono, attraverso l'azoto liquido, il torace del paziente. Qui essi rimuovono il materiale solido che sigilla i tessuti per aprirsi un accesso verso le principali arterie e vene (17). Un esercito di nanomacchine equipaggiate per rimuovere il proteggente si introduce attraverso queste aperture, ripulendo prima i principali vasi sanguinei e in seguito i capillari. Ciò libera diversi percorsi, che diventano perciò disponibili per la normale attività dei tessuti (18) lungo tutto il corpo del paziente. Altre macchine chirurgiche più grandi, collegano dei tubi al torace del paziente e pompano dei fluidi nel suo
sistema circolatorio. Il fluido sciacqua via le macchine iniziali, quelle addette alla rimozione del materiale proteggente (ed in seguito apporterà alle macchine di riparazione i materiali primari necessari per svolgere le riparazioni, e farà defluire via il calore prodotto). Ora, le macchine pompano nel sistema circolatorio un fluido dall'aspetto latteo contenente migliaia di miliardi di dispositivi che entrano nelle cellule e rimuovono il proteggente vetroso (19), molecola dopo molecola. Essi lo sostituiscono con una sorta di impalcatura molecolare temporanea (20) che lascia ampio spazio per consentire alle macchine di riparazione di lavorare agevolmente. Mano a mano che queste macchine di rimozione del proteggente riportano a nudo le biomolecole, inclusi i componenti strutturali e meccanici della cellula, esse le legano alla impalcatura con dei cross-links temporanei. (Se il paziente ha subito un processo di fissazione tramite impiego di cross-links, anche questi cross-links dovrebbero ora essere rimossi e temporaneamente sostituiti da altri). Quando sia indispensabile scostare le molecole dalla loro posizione, le macchine le assegnano una etichetta numerica (21), che memorizzano per poter successivamente ripristinare il corretto posizionamento della molecola. Come anche altre macchine di riparazione cellulare avanzate, anche questi dispositivi lavorano sotto la direzione di un nanocomputer presente localmente su ogni sito di lavoro. Quando hanno terminato, queste macchine specializzate per funzionare alle basse temperature, si ritirano. Tramite una sequenza di cambiamenti graduali nella composizione e nella temperatura, una opportuna soluzione acquosa sostituisce il precedente fluido crionico, ed il paziente viene riscaldato al di sopra delle temperature di congelamento. Nuove macchine ripara-cellule vengono pompate nei vasi sanguinei e penetrano nelle cellule. Iniziano le riparazioni. Piccoli dispositivi esaminano le molecole e riferiscono la loro struttura e posizione a più grandi computer interni alla cellula (22). Il computer identifica le molecole, comanda ogni necessaria riparazione molecolare, e identifica le strutture cellulari in base ai loro schemi molecolari. Dove un qualche danno abbia alterato le disposizioni delle strutture nella cellula, il computer dirige i dispositivi di riparazione per ripristinare la disposizione appropriata, utilizzando dei cross-links temporanei dove necessario. Nel frattempo, le arterie del paziente vengono ripulite e il muscolo cardiaco, danneggiato anni prima, viene riparato. Alla fine, il macchinario molecolare delle cellule sarà tornato al suo stato originario di ordine funzionante, mentre altre riparazioni più elementari hanno corretto gli schemi danneggiati degli insiemi di cellule, ripristinando così una condizione di salute in tessuti ed organi. L'impalcatura viene rimossa dalle cellule, assieme alla maggior parte dei cross-links temporanei e delle macchine di riparazione. La maggior parte delle molecole attive di ognuna delle cellule resta però bloccata, per prevenire l'insorgere di una attività che sarebbe prematura in quanto non correttamente equilibrata. All'esterno del corpo, il sistema di riparazione ha prodotto del sangue fresco, sviluppandolo a partire dalle stesse cellule del paziente. Questo sangue viene ora trasfuso nel paziente per riempire nuovamente il suo sistema circolatorio, ed agisce con l'ausilio di una pompa esterna nel ruolo di temporaneo cuore artificiale. I dispositivi rimasti in ogni cellula correggono ora le concentrazioni dei sali, degli zuccheri, dell'ATP e di altre piccole molecole, in gran parte grazie allo sbloccaggio selettivo del nanomacchinario nativo di ogni singola cellula. Mano a mano che procede la liberazione del macchinario naturale, il metabolismo riprende, passo dopo passo; il muscolo cardiaco viene finalmente sbloccato e condotto fin sul margine di incipiente contrazione. Il battito cardiaco riprende, ed il paziente ritorna a vivere sebbene ancora in uno stato di anestesia. Mentre i medici controllano che tutto stia procedendo bene, il sistema di riparazione chiude l'apertura nel torace, congiungendo i tessuti ai tessuti, uno dopo l'altro e senza lasciare cuciture o cicatrici. I dispositivi che sono rimasti nelle cellule si disassemblano l'uno con l'altro, dissolvendosi in
molecole nutritive. Mano a mano che il paziente si sposta dallo stato di anestesia verso uno di sonno ordinario, alcuni visitatori entrano nella stanza, come da lungo tempo pianificato. Per finire, il sognatore si sveglierà riposato, alla luce di un nuovo giorno, e alla vista dei suoi vecchi amici. Mente, Corpo ed Anima Prima di prendere in considerazione la resurrezione, comunque, qualcuno potrebbe chiedersi che cosa accada all'anima di una persona in biostasi. Alcune persone potrebbero rispondere che l'anima e la mente sono aspetti della stessa cosa, aspetti di uno schema incorporato nella sostanza del cervello, la quale è attiva durante la vita attiva mentre è invece quiescente durante la biostasi. Assumiamo comunque, per un momento, che lo schema della mente, della memoria e della personalità, abbandoni il corpo alla morte, trasportata via da qualche elusiva sostanza. Le eventualità sembrano abbastanza chiare. La morte in questo caso significa ben altro che un irreversibile danno del cervello, dovendo invece definirsi come una irreversibile dipartita dell'anima. Questo renderebbe la biostasi una procedura priva di scopo ma in ogni caso innocua: dopo tutto, i capi religiosi non hanno espresso alcuna preoccupazione che la semplice preservazione del corpo possa in qualche modo imprigionare un'anima. Secondo questa visione delle cose, perché la resurrezione possa risultare in un successo, essa dovrebbe presumibilmente necessitare anche della cooperazione dell'anima. E' infatti già accaduto che la posa in biostasi di un paziente, sia stata accompagnata sia da cerimonie Cattoliche che Giudaiche. Con o senza la biostasi, la riparazione cellulare non può portare l'immortalità. La morte fisica, per quanto grandemente posticipata, resterà radicata nella natura dell'universo. La biostasi e la successiva riparazione cellulare non sembrano quindi alimentare nessuna fondamentale teologia. La biostasi somiglia più ad una anestesia totale, seguita poi da una operazione chirurgica salva-vita: entrambe le procedure, biostasi ed anestesia, interrompono la continuità della coscienza per prolungare la vita. Parlare di "immortalità" quando la prospettiva è solo la longevità equivarrebbe ad ignorare i fatti o utilizzare impropriamente le parole. Reazioni e Discussioni La prospettiva della biostasi sembra tagliata su misura per provocare reazioni di "shock da futuro". La maggior parte della gente ritiene che l'odierna accelerazione dei cambiamenti sia sufficientemente scioccante quando giunge un poco alla volta. Ma la validità dell'opzione della biostasi è una implicazione odierna di una intera serie di passi avanti tecnologici futuri. Ovviamente, questa prospettiva stravolge i difficili aggiustamenti psicologici con cui la gente affronta il declino fisico. Stando così le cose, ho costruito gli argomenti a favore della possibilità di macchine di riparazione cellulare e biostasi partendo da fatti comunemente noti della biologia e della chimica. Ma cosa ne pensano i biologi professionisti riguardo ai problemi di base? In particolare, credono (1) che le macchine di riparazione saranno in grado di correggere il tipo di danno da cross-linking prodotto dalla fissazione, e (2) che la memoria sia effettivamente incorporata da una forma fisica preservabile? Dopo una discussione sulle macchine molecolari e sulle loro capacità - una discussione che non ha toccato nessuna implicazione di carattere medico - il Dottor Gene Brown, professore di biochimica e presidente del dipartimento di biologia del MIT, ha acconsentito ad essere citato come autore dell'affermazione seguente: "Dati tempo e sforzi sufficienti per sviluppare macchine molecolari artificiali e per condurre studi dettagliati sulla biologia molecolare della cellula, dovrebbero
emergere capacità generali molto estese. Fra queste, potrebbe esserci la capacità di separare le proteine (o altre biomolecole) da strutture a cui sono vincolate da cross-links, e di identificare, riparare e rimpiazzare tali proteine". Questa affermazione individua una parte significativa del problema di riparazione delle cellule. Essa è stata consistentemente approvata, in seguito a discussioni analoghe nei due casi, sia da un campione di biochimici e di biologi molecolari selezionati presso il MIT, che da un altro campione di biochimici selezionato presso Harvard. Dopo una discussione sul cervello e sulla natura fisica della memoria e della personalità - ancora una volta una discussione che non ha toccato alcuna implicazione medica - il Dottor Walle Nauta (docente di neuro-anatomia al MIT) ha acconsentito ad essere citato come autore della seguente affermazione: "Sulla base della nostra attuale conoscenza della biologia molecolare dei neuroni, penso che i più concorderanno che le modificazioni prodotte durante il consolidamento della memoria a lungo termine siano rispecchiate da corrispondenti trasformazioni nel numero e nella distribuzione di particolari molecole proteiche presenti nei neuroni del cervello". Analogamente all'affermazione del Dottor Brown, anche questa individua un punto chiave riguardo la corretta funzionalità della biostasi. Anche questa è stata consistentemente approvata da altri esperti, dopo essere stata discussa in un contesto idoneo ad isolare gli esperti da qualunque pregiudizio emozionale che sarebbe potuto risultare dalle implicazioni mediche dell'affermazione. Inoltre, poiché questi punti sono strettamente e direttamente correlati ai campi di specializzazione rispettivi del Dottor Brown e del Dottor Nauta, i due dottori sono esperti appropriati a cui porre domande su tali questioni. A quanto pare, quindi, l'impulso umano verso la sopravvivenza dovrebbe spingere molti milioni di persone verso l'impiego della biostasi (almeno come ultima risorsa), una volta che queste persone si siano convinte della sua possibilità di funzionare. Mano a mano che la tecnologia molecolare progredirà, la comprensione delle macchine ripara-cellule si diffonderà e si radicherà nella cultura popolare. Le opinioni degli esperti supporteranno l'idea in misura via via crescente. La biostasi diverrà sempre meno insolita, ed il suo costo crollerà. Pare probabile che molte persone potrebbero infine considerare la biostasi come la norma, come un trattamento salva-vita standard per pazienti ormai spirati. Ma fino a che le macchine di riparazione cellulare non saranno dimostrate, la fin troppo umana tendenza ad ignorare ciò che non abbiamo potuto verificare con i nostri occhi rallenterà l'accettazione della biostasi. Milioni di persone non saranno sfiorati da nessun dubbio nel passare dall'espirazione alla dissoluzione, per abitudine o per tradizione e giustificandosi con deboli argomentazioni. L'importanza di una chiara preveggenza in questa materia rende importante considerare le argomentazioni possibili prima di chiudere la discussione sull'estensione della vita e passare a trattare altre questioni. Quindi, perché la biostasi non dovrebbe apparirci come una idea naturale ed ovvia? Perché la macchine di riparazione cellulare non esistono ancora Potrebbe sembrare strano salvare una persona dalla dissoluzione nell'attesa di acquisire la capacità di ripristinare la sua salute, visto che la tecnologia di riparazione non esiste ancora. Ma non è molto più strano risparmiare denaro per mandare in futuro un figlio all'università? Dopotutto, anche lo studente in età da universitario non esiste ancora. Risparmiare denaro ha senso perché il figlio crescerà fino alla maturità; risparmiare una persona dalla dissoluzione ha senso perché la tecnologia molecolare maturerà. Ci aspettiamo che un figlio cresca fino alla maturità perché abbiamo visto molti altri bambini crescere fino alla maturità; possiamo attenderci che questa tecnologia maturerà perché abbiamo visto molte altre tecnologie maturare. Vero è che alcuni bambini soffrono di deficienze congenite,
come pure ne soffrono alcune tecnologie, ma spesso gli esperti possono stimare il potenziale di un bambino o di una tecnologia mentre l'uno e l'altra sono ancora giovani. La tecnologia microelettronica è partita da pochi granellini e filamenti disposti su una fettina di silicio, ma è cresciuta fino ai computer basati sui chip. I fisici come Richard Feynman(24) videro, in parte, quanto lontano questa tecnologia sarebbe andata. La tecnologia nucleare è partita dalla scissione in laboratorio di pochi atomi sottoposti ad un bombardamento di neutroni, ma è cresciuta fino ai reattori nucleari da miliardi di watt e alle bombe nucleari. Leo Szilard vide, in parte, quanto lontano questa tecnologia sarebbe andata. La tecnologia dei razzi a combustibile liquido è partita da rudimentali razzi lanciati da un campo nel Massachusetts, ma è cresciuta fino alle navi lunari e gli space shuttle. Robert Goddard vide, in parte, quanto lontano questa tecnologia sarebbe andata. L'ingegneria molecolare è partita dalla chimica ordinaria e dall'impiego di macchine molecolari prese a prestito dalle cellule viventi, ma essa, come già altre tecnologie, crescerà immensamente. Ed anch'essa porta con sé conseguenze del tutto peculiari. Perché delle macchine così minuscole mancano di sensazionalità Abbiamo la tendenza ad attenderci risultati sensazionali solo da fatti sensazionali, ma il mondo spesso non sembra cooperare con questo nostro atteggiamento. La natura consegna i suoi trionfi e i suoi disastri entrambi avvolti in banale carta marrone da imballaggi. FATTO BANALE: Certi interruttori elettrici possono stare in uno solo di due stati: acceso o spento. Questi interruttori possono essere prodotti molto piccoli in dimensioni, e poco dispendiosi in termini di consumo d'energia elettrica. LA SUA SENSAZIONALE CONSEGUENZA: Se adeguatamente connessi, questi interruttori formano computer, i motori della rivoluzione dell'informazione. FATTO BANALE: L'etere non è eccessivamente velenoso, e tuttavia riesce ad interferire temporaneamente con l'attività del cervello. LA SUA SENSAZIONALE CONSEGUENZA: La fine dell'agonia inflitta dalla chirurgia su pazienti coscienti, apre una nuova era nella medicina. FATTO BANALE: Muffe e batteri competono per il cibo, sicché alcune muffe hanno sviluppato la capacità di secernere veleni per uccidere i batteri. LA SUA SENSAZIONALE CONSEGUENZA: La penicillina, la sconfitta di molte malattie batteriche e il salvataggio di milioni di vite umane. FATTO BANALE: Le macchine molecolari possono essere utilizzate per maneggiare molecole e per costruire interruttori meccanici di dimensione molecolare. LA SUA SENSAZIONALE CONSEGUENZA: Macchine ripara-cellule dirette da nanocomputer, rendono possibile curare potenzialmente qualunque malattia. FATTO BANALE: Memoria e personalità sono incorporate in strutture cerebrali che è possibile preservare.
LA SUA SENSAZIONALE CONSEGUENZA: Le tecniche attuali possono prevenire la dissoluzione, permettendo alla generazione presente di avvantaggiarsi delle macchine di riparazioni cellulare di domani. Di fatto, le macchine molecolari non sono poi così banali. Poiché i tessuti sono fatti di atomi, ci si dovrebbe ben aspettare che macchine capaci di maneggiare atomi e modificare le loro disposizioni debbano avere conseguenze mediche drammatiche. Perché tutto ciò sembra troppo incredibile Ma noi viviamo nel secolo dell'incredibile. In un articolo intitolato "L'idea del progresso" in Astronautics and Aeronautics, l'ingegnere aereospaziale Robert T. Jones(25) ha scritto: "Nel 1910, l'anno in cui sono nato, mio padre era un pubblico ministero. Egli ha percorso tutte le polverose strade della contea di Maconn in un calesse trainato da un singolo cavallo. Lo scorso anno io ho volato ininterrottamente da Londra a San Francisco passando sulle regioni polari, trascinato attraverso l'aria da motori con potenza di 50.000 cavalli vapore". Ai giorni di suo padre, l'idea di aereoplani di questo tipo sconfinava nella fantascienza, essendo semplicemente troppo incredibile per essere presa in considerazione. In un articolo intitolato "Basic Medical Research: A Long-Term Investment" nel Technology Review, la rivista redatta presso il MIT, il Dottor Lewis Thomas(26) ha scritto: "Quarant'anni fa, proprio prima di subire una trasformazione da arte a scienza e tecnologia, si riteneva scontato che la medicina che insegnavamo fosse esattamente la medicina che avremmo avuto per tutta la durata delle nostre vite. Se qualcuno avesse tentato di raccontarci che il potere di controllo delle infezioni batteriche era appena dietro l'angolo, che la chirurgia a cuore aperto o i trapianti di reni sarebbero divenuti possibili entro un paio di decadi, che certi tipi di cancro sarebbero divenuti curabili con la chemioterapia, e che presto avremmo conquistato una esauriente comprensione biochimica della genetica, e delle malattie con cause genetiche, avremmo reagito con una disinteressata incredulità. Non abbiamo alcuna ragione di credere che la medicina non cambierà ancora. Ciò che suggerisce questo ricordo è che dovremmo mantenere le nostre menti molto ben aperte nel futuro". Perché tutto questo sembra troppo bello per essere vero. Di fatto, tutte le più recenti novità sui modi per evitare esiti fatali della maggior parte delle malattie, potrebbero sembrare troppo belle per essere vere - come è giusto che sia poiché tali novità non sono che una piccola parte di una storia più vasta ed equilibrata. Ed in effetti, i pericoli della tecnologia molecolare riequilibrano aspramente le sue promesse. Nella parte terza mi occuperò di delineare le ragioni per le quali la nanotecnologia deve considerarsi più pericolosa delle armi nucleari. Fondamentalmente, tuttavia, la natura non si cura affatto del nostro senso del bene e del male come pure non si cura della nostra tendenza ad immaginare un equilibrio fra le due cose. In particolare, la natura non odia gli esseri umani abbastanza da alzare una barricata contro di noi. In passato sono già svaniti altri antichi orrori. Anni fa, i chirurghi si sforzavano di amputare le gambe con rapidità. Robert Liston di Edimburgo, in Scozia, una volta segò da lato a lato la coscia di un paziente in un tempo record di 33 secondi e rimuovendo durante l'operazione tre dita appartenenti ai suoi assistenti. I chirurghi lavoravano rapidamente per accorciare l'agonia dei loro pazienti, poiché questi rimanevano coscienti. Se le malattie terminali in assenza di biostasi sono un incubo oggi, consideriamo la chirurgia nei
giorni dei nostri antenati: il bisturi che fende le carni, il sangue che sgorga, la sega che stride contro le ossa di un paziente cosciente. Già nell'ottobre del 1846, W. T. G. Morton e J. C. Warren rimossero un tumore da un paziente anestetizzato da etere; Arthur Slater ha testimoniato che il loro successo "fu giustamente salutato come la grande scoperta dell'epoca". Con tecniche semplici e basate su un agente chimico conosciuto, il risveglio dall'incubo del bisturi e della sega, durato fin troppo, era finalmente giunto. Con la fine dell'agonia, la chirurgia divenne più diffusa, e con essa anche le infezioni chirurgiche e quindi l'orrore delle morti di routine causate dalla cancrena delle carni interne al corpo. Tuttavia, nel 1867 Joseph Lister pubblicò(27) i risultati dei suoi esperimenti con il fenolo, stabilendo i principi della chirurgia antisettica. Con tecniche semplici basate su un noto agente chimico, l'incubo di essere decomposti in vita venne drammaticamente allontanato. E poi giunsero i farmaci sulfamidici e la penicillina, che posero fine a molte malattie mortali in un colpo solo. E la lista continua. Altri drammatici passi avanti tecnologici si sono già verificati in passato, alcuni grazie a nuovi utilizzi di reagenti chimici già noti, come nel caso dell'anestesia e della chirurgia antisettica. Sebbene questi progressi potessero sembrare troppo belli per essere veri, si dimostrarono realmente possibili. La salvezza di vite umane grazie all'impiego di reagenti chimici già noti o delle procedure di biostasi può, nella stessa misura, dimostrarsi una realtà. Perché i medici attualmente non utilizzano la biostasi. Robert Ettinger propose una tecnica di biostasi nel 1962. Egli affermò che il Professor Jean Rostand aveva proposto lo stesso approccio già qualche anno prima, pronosticandone il suo eventuale impiego in medicina. Perché la biostasi per congelamento non riesce a divenire popolare? In parte a causa della sua spesa iniziale, in parte a causa della inerzia umana ed in parte perché resta oscuro ai più cosa s'intenda per macchine di riparazione cellulare. Tuttavia, anche il radicato conservatorismo tipicamente associato alla professione medica ha giocato un suo ruolo. Consideriamo ancora una volta la storia della anestesia. Nel 1846, Morton e Warren sorpresero il mondo con la "scoperta dell'epoca", l'anestesia da etere. Appena due anni più tardi, Horace Wells utilizzò l'anestesia con protossido di azoto, e due anni dopo ancora Crawford W. Long effettuò una operazione utilizzando etere. Nel 1824, Henry Hickman anestetizzò con successo degli animali impiegando dell'ordinario diossido di carbonio; in seguito spese anni tentando di convincere i chirurghi Inglesi e Francesi a sperimentare il protossido di azoto come anestetico. Nel 1799, ben quarantasette anni prima della grande "scoperta" ed anni prima che gli assistenti di Liston perdessero le loro dita, Sir Humphry Davy scrisse(28): "Poiché il protossido di azoto sembra capace di disinnescare il dolore fisico, potrebbe eventualmente essere impiegato durante le operazioni chirurgiche". Tuttavia, in un epoca ancora più tarda come quella del 1839, la conquista del dolore sembrava ancora, a molti medici, un sogno impossibile da realizzare. Il Dottor Alfred Velpeau dichiarò: "L'abolizione del dolore in chirurgia è una chimera. E' assurdo che oggi si vada alla sua ricerca. 'Bisturi' e 'dolore' sono due parole della chirurgia che, nella coscienza del paziente, dovranno sempre accompagnarsi. A questa compulsiva combinazione non resta che adattarsi". Molti temevano il dolore della chirurgia più della morte stessa. Forse è giunto il momento di risvegliarsi dall'ultimo dei nostri incubi medici. Perché non è stato dimostrato che possa funzionare. E' vero che nessun esperimento può attualmente dimostrare che un paziente può resuscitare da una condizione di biostasi. Ma l'esistenza di una domanda generalizzata per una tale dimostrazione
conterrebbe implicitamente un assunto nascosto, ossia che la medicina si è avvicinata talmente ai limiti finali del possibile che non dovrà mai più preoccuparsi della eventualità di nuovi progressi futuri. Una tale domanda potrebbe sembrare cauta e ragionevole, ma di fatto puzza di tracotante arroganza. Sfortunatamente, una dimostrazione è esattamente quello che i medici hanno tentato di realizzare, e per buone ragioni: essi desiderano evitare procedure inutilizzabili che potrebbero portar danno. Forse basterà la noncuranza nei confronti della biostasi per produrre il più ovvio ed irreversibile dei danni. Tempo, Costo ed Azione Umana La scelta, per la gente, di utilizzare o meno, la biostasi, dipenderà dalla circostanza che essa pensi o meno che valga la pena tentare un tale azzardo. La valutazione di questo azzardo chiama in causa il valore che si da alla vita (che è una questione personale), il costo della biostasi (che pare ragionevole in base agli standard della medicina moderna), la probabilità che la tecnologia potrà funzionare (che pare eccellente), e la probabilità che l'umanità sopravvivrà, svilupperà la tecnologia e riporterà in vita le persone poste in biostasi. Questo ultimo punto concentra su di sé la maggior parte della incertezza complessiva. Assumiamo che gli esseri umani e la società libera sopravviva (nessuno può calcolare la probabilità che si realizzi una tale ipotesi, ma dare per scontato un fallimento scoraggerebbe gli sforzi concreti per promuovere il successo). Se ciò avverrà, la tecnologia continuerà a progredire. Lo sviluppo degli assemblatori richiederà anni. Studiare le cellule ed apprendere come riparare i tessuti dei pazienti in biostasi, richiederà ancor più tempo. Come stima ipotetica, lo sviluppo di sistemi di riparazione e il loro adattamento per una applicazione alla resurrezione richiederà dalle tre alle dieci decadi, sebbene progressi nella ingegneria automatizzata potrebbero accelerare il processo. Il tempo richiesto sembra comunque senza importanza. Per la maggior parte dei pazienti sarà molto più importante quale sarà la condizione di vita il giorno del loro risveglio, e se saranno presenti amici e parenti, piuttosto che quale sarà la data di calendario. Grazie all'abbondanza di risorse, la condizione fisica della vita potrebbe essere in effetti molto buona. La presenza di amici e parenti è tutt'altra questione. In un sondaggio di recente pubblicazione, oltre la metà degli interpellati ha dichiarato che, se fosse data loro una possibilità di scegliere liberamente, vorrebbero vivere al massimo per cinquecento anni. I sondaggi informali mostrano perciò che la maggior parte della gente preferisce la biostasi alla dissoluzione, se la biostasi può far riconquistare loro una buona salute e la opportunità di esplorare un nuovo futuro in compagnia dei loro vecchi amici e parenti. Una minoranza di persone ha detto che "vorrebbero andar via quando verrà il momento" ma essi generalmente concordano che, finché gli si offre la possibilità di vivere ulteriormente, il loro momento non sarà ancora arrivato. Sembra che molta gente odierna condivida il desiderio di Benjamin Franklin, ma lo fa in un secolo che è capace di soddisfarlo. Se la biostasi facesse sufficienti proseliti (o se altre tecnologie di estensione della vita facessero dei progressi sufficientemente rapidi), allora un paziente resuscitato non si risveglierebbe in un mondo di estranei, ma vedendo i sorrisi di volti familiari. Ma la gente in biostasi verrà davvero resuscitata? Le tecniche per mettere in biostasi dei pazienti sono già note, ed il costo di tali tecniche potrebbe anche diventare basso, quanto meno al confronto di quello di grossi interventi chirurgici o cure e degenze ospedaliere prolungate. Le tecnologie della resurrezione, tuttavia, saranno complesse e dispendiose da sviluppare. La gente del futuro si impegnerà nel loro sviluppo?
Sembra probabile che gli uomini del futuro lo faranno. Essi potrebbero anche sviluppare la nanotecnologia senza pensare in modo prioritario alle applicazioni mediche, ma in tal caso riusciranno di sicuro a divenire capaci di sviluppare computer migliori. Potrebbero sviluppare delle macchine ripara-cellule senza pensare in modo prioritario alla resurrezione, ma poi la realizzeranno di certo per poter curare se stessi. Potrebbero non sentirsi spinti a compiere un gesto di carità impersonale come quello di programmare le macchine per la resurrezione, ma d'altronde essi avranno abbondanza di tempo, di benessere materiale e di sistemi di ingegneria automatizzata, e per alcuni di loro, quelli che attendono in biostasi, sarebbero sentimentalmente importati. Sembra perciò certo che le tecniche saranno effettivamente sviluppate. Verrà un tempo in cui, grazie ai replicatori e alle risorse spaziali, la gente avrà benessere e spazio per vivere oltre mille volte più grande di quello che abbiamo oggi. La resurrezione stessa richiederà perciò meno energia e materiali, persino rispetto a quelli che sono gli standard odierni. Quindi, la gente del futuro che dovrà occuparsi delle resurrezioni, riterrà che esista ben poco conflitto fra i propri interessi personali e le loro preoccupazioni umanitarie. Le normali motivazioni umane sembrano sufficienti ad assicurare che la popolazione attiva del futuro sveglierà quelli che si trovano in biostasi. La prima generazione che riconquisterà la sua giovinezza senza essere costretta a ricorrere alla biostasi, potrebbe anche già essere fra noi oggi. La prospettiva della biostasi semplicemente fornisce, a più gente, motivo maggiore di attendersi la longevità. Essa offre una opportunità per i vecchi e una forma di assicurazione per i giovani. Mano a mano che i progressi nella biotecnologia condurranno verso la progettazione di proteine, gli assemblatori e la riparazione cellulare, e mano a mano che le implicazioni verranno recepite, l'aspettativa per una vita lunga si diffonderà. La biostasi, allargando la strada d'accesso verso la longevità, incoraggerà un interesse più intenso per il futuro. E ciò incoraggerà gli sforzi per prepararci ai pericoli che abbiamo davanti. ---------Capitolo 10: I limiti dello sviluppo La Struttura del Vuoto La Fisica Verrà Stravolta Ancora? I Limiti dell'Hardware Entropia: Un Limite all'Uso di Energia I Limiti delle Risorse Malthus Qualcuno Potrebbe Fermarci? Sviluppo nell'Ambito dei Limiti Uno Sguardo ai Limiti La scacchiera è il mondo, i pezzi sono i fenomeni dell'universo, le regole di gioco sono quelle che noi chiamiamo leggi della natura - T. H. HUXLEY Nell'ultimo secolo abbiamo sviluppato aereoplani, navette spaziali, energia nucleare e computer. Nel prossimo svilupperemo assemblatori, replicatori, ingegneria automatizzata, volo spaziale economico, macchine di riparazione cellulare e molto altro. Questa serie di passi avanti tecnologici potrebbe suggerire che la corsa tecnologica progredirà senza limiti. Secondo questo modo di vedere, infrangeremo tutte le barriere immaginabili, lanciandoci a capofitto in un infinito inconoscibile; ma sembra proprio che questa visione sia falsa.
Le leggi della natura e le condizioni del mondo limiteranno quello che faremo. Senza limiti, il futuro sarebbe completamente sconosciuto, una cosa informe che si fa beffe dei nostri sforzi di previsione e pianificazione. Se invece ha dei limiti, il futuro resta pur sempre una turbolenta incertezza ma è comunque obbligato a scorrere entro certi confini. Dai limiti naturali impariamo qualcosa riguardo ai problemi e alle opportunità che fronteggiamo. I limiti definiscono i confini del possibile, indicandoci quali risorse possiamo utilizzare, quanto velocemente la nostra nave spaziale potrà volare, e le cose che le nostre nanomacchine potranno o non potranno fare. Discutere i limiti è rischioso: possiamo essere più sicuri che qualcosa sia possibile piuttosto che qualcos'altro non lo sia. Gli ingegneri possono discuterne utilizzando approssimazioni e casi speciali. E dotati di strumenti, materiali e tempo adeguati, possono anche dimostrare le possibilità in modo diretto. Anche quando elaborano dei disegni di progetto esplorativi, possono restare ben all'interno del reame del possibile se stanno attenti a mantenersi ben lontano dai limiti. Gli scienziati, al contrario, non possono dimostrare una teoria di carattere generale, ed ogni loro dichiarazione generale di impossibilità è di per se stessa una sorta di teoria generale. Nessun esperimento specifico (poiché si riferisce necessariamente ad un qualche specifico luogo ed un qualche specifico istante) può dimostrare l'impossibilità assoluta di qualcosa (impossibilità ovunque e sempre). E nemmeno è possibile effettuare un numero indefinitamente grande di esperimenti. Tuttavia, le leggi scientifiche generali forniscono delle descrizioni dei limiti del possibile. Nonostante gli scienziati non possano provare una legge generale, hanno comunque evoluto la nostra migliore immagine disponibile di come funzioni l'universo. Ed anche se esperimenti esotici ed eleganti trattazioni matematiche trasformeranno ancora il nostro concetto di legge fisica, ben pochi limiti ingegneristici ne risulteranno spostati. La relatività non ha influenzato il progetto di automobili. La mera esistenza di limiti definitivi non significa che essi stiano sul punto di soffocarci, e tuttavia molte persone ne hanno derivato l'idea che i limiti metteranno presto fine alla crescita. Questo concetto semplifica la loro immagine di un futuro perché lascia fuori dal quadro gli strani nuovi sviluppi a cui la crescita condurrà. Altra gente preferisce la nozione ancora più sfocata di crescita limitata, un concetto che offusca la loro immagine del futuro suggerendo che esso sarà del tutto incomprensibile. Le persone che confondono la scienza con la tecnologia, tendono a fare confusione riguardo ai limiti. Come fa notare il progettista software Mark S. Millert, esse immaginano che nuova conoscenza significhi sempre nuovo know-how; alcuni immaginano anche che conoscere tutto ci permetterebbe di poter fare tutto. I progressi nella tecnologia, in effetti, apportano nuovo knowhow, aprendo così nuove possibilità. Ma i progressi nelle scienze basilari, più modestamente, si limitano a redisegnare la nostra mappa dei limiti definitivi; e questo, spesso rivela delle nuove impossibilità. Le scoperte di Einstein, per esempio, mostrarono che nulla poteva pareggiare in velocità la corsa di un raggio luminoso. La Struttura del Vuoto La velocità della luce è un vero limite? Fra la gente, qualcuno un tempo parlava di "barriera del suono" credendo che fosse qualcosa che dovesse impedire ad un aereoplano di superare la velocità del suono. Finché, alla Base Edwards dell'Air Force, nel 1947, Chuck Yeager squarciò il cielo di ottobre con un rimbombo sonico. Oggi, certe persone parlano della "barriera della luce" chiedendosi se anche questa, potrà cadere.
Sfortunatamente per gli scrittori di fantascienza, questo parallelo è superficiale. Nessuno potrebbe mai sostenere che la barriera del suono fosse stata un reale limite fisico. Meteoriti e pallottole la infrangono quotidianamente, e persino le sferzate di una frusta lo fanno. Ma nessuno ha osservato qualcosa muoversi più veloce della luce. Alcuni puntini distanti osservati grazie ai radiotelescopi, a volte sembrano muoversi più veloci della luce, ma alcuni semplici trucchi di prospettiva ottica possono facilmente spiegare come ciò possa accadere. Alcune particelle ipotetiche denominate "tachioni " dovrebbero muoversi più veloci della luce, se esistessero. Ma nessuno le ha ancora trovate, e le teorie correnti non prevedono la loro esistenza. Gli sperimentatori sono riusciti a spingere i protoni fino a velocità pari a più del 99,9995 percento della velocità della luce, con risultati perfettamente in accordo con le previsioni di Einstein. Se la particella viene accelerata ulteriormente, la sua velocità cresce verso valori più vicini alla velocità della luce in molto più impercettibile, ma nel contempo la sua energia (la sua massa) cresce quasi senza limite. Sulla Terra, una persona può camminare o navigare solo fino a certe distanze, ma in ogni caso nessun orlo o barriera misteriosa blocca improvvisamente il suo cammino. Semplicemente, la Terra è tonda. Il limite di velocità nello spazio non implica una "barriera della luce" più di quanto i limiti di distanza sulla Terra implichino un muro. Lo spazio stesso, il vuoto che detiene tutta l'energia e la materia, ha delle proprietà. Una di queste è la sua geometria, la quale può essere descritta guardando al tempo come una speciale "dimensione". Questa geometria fa sì che la velocità della luce receda mano a mano che una nave spaziale accelera, come l'orizzonte recede innanzi ad una nave in movimento sul mare: la velocità della luce, come l'orizzonte, è sempre ugualmente remota in ogni direzione. Ma l'analogia finisce qui. Questa somiglianza non ha nulla a che fare con la curvatura dello spazio. È sufficiente ricordare che la velocità limitante non è nulla di così grossolano o frangibile come sarebbe una ipotetica "barriera della luce" (1). Gli oggetti possono sempre andare più veloci di quanto stiano andando, soltanto non possono andare più veloci della luce. La gente ha a lungo sognato di conquistare il controllo gravitazionale. Nell'edizione del 1962 di Profiles of the Future, Arthur C. Clarke scrisse (2): "Di tutte le forze, la gravità è la più misteriosa e la più implacabile", e proseguì suggerendo che un qualche giorno svilupperemo dei dispositivi adatti a controllare la gravità. Tuttavia, la gravità è davvero così misteriosa? Nella teoria della relatività generale, Einstein descrive la gravità come curvatura nella struttura spazio-temporale del vuoto. La matematica che esprime tale descrizione è elegante e precisa nonché tale da poterne ricavare predizioni che hanno superato ogni verifica sperimentale finora escogitata. La gravità non è ne più ne meno implacabile di altre forze. Nessuno può sottrarre ad un masso la sua gravità, ma neanche può sottrarre ad un elettrone la sua carica elettrica o ad una corrente il suo campo magnetico. Sappiamo controllare i campi elettrici ed i campi magnetici tramite lo spostamento delle particelle che li generano; possiamo in modo analogo controllare i campi gravitazionali spostando delle comunissime masse. Sembra quindi che non possiamo imparare il segreto del controllo di gravità, perché lo conosciamo già. Un bambino con una piccola calamita può sollevare un chiodo, usando un campo magnetico per sovrastare la trazione gravitazionale. Ma, per sfortuna degli aspiranti ingegneri gravitazionali, usare la gravità per sollevare un chiodo richiederebbe una massa spaventosa. Se il pianeta Venere fosse appeso proprio sopra la vostra testa, si riuscirebbe a farlo a malapena, quantomeno finché il pianeta non vi cade addosso. Gli ingegneri generano onde elettromagnetiche facendo oscillare cariche elettriche avanti ed indietro in una antenna; si potrebbero generare onde gravitazionali agitando una roccia nell'aria. Ma, ancora una volta, l'effetto gravitazionale è debole. Nonostante una stazione radio con potenza di un kilowatt non sia nulla di straordinario, l'agitarsi e il ruotare di tutte le masse dell'intero sistema
solare non riesce ad irradiare un altrettanto kilowatt di potenza in onde gravitazionali. Comprendiamo sufficientemente bene la gravità; semplicemente essa non è di molta utilità nella costruzione di macchine che siano più leggere della Luna. Ma alcuni dispositivi che utilizzano masse più grandi riescono a funzionare. Una diga idroelettrica fa parte di una macchina gravitazionale (l'altra parte è la Terra) che estrae energia dalla caduta di masse. Macchine che usino "buchi neri", sulla base della formula E=mc2 saprebbero estrarre energia dalla caduta di masse, con una efficienza superiore al cinquanta percento. Calando giù in un buco nero un singolo secchio pieno d'acqua, se ne ricaverebbe altrettanta energia di quella che si otterrebbe scaricando diverse migliaia di miliardi di secchi d'acqua attraverso i generatori di una diga alta un chilometro. Poiché le leggi della gravità descrivono come si curva il vuoto, esse si applicano anche a speculazioni come quelle delle "space warps" (deformazioni spaziali) di stile fantascientifico. Pare che dei tunnel da un punto all'altro dello spazio sarebbero instabili, persino ammesso che si possa anzitutto crearli. Ciò impedirebbe alle navi spaziali del futuro di raggiungere punti molto distanti grazie ad un viaggio a velocità superiori a quelle della luce che venga ottenuto passando attraverso una sorta di scorciatoia che aggiri lo spazio intercorrente. E questo pone anche un limite alla possibilità di viaggio, che a sua volta impone un limite alla espansione e allo sviluppo. Le leggi di Einstein sembrano dare una descrizione accurata della geometria complessiva del vuoto. Se è così, i limiti che ne risultano sembrano inevitabili: ci si può sbarazzare di quasi qualunque cosa, ma non del vuoto stesso. Sembra altrettanto impossibile sfuggire ad altre leggi e limiti, e per ragioni analoghe. Infatti, i fisici hanno iniziato, in misura sempre maggiore, a guardare a tutte le leggi della natura in termini di struttura del vuoto. Le onde gravitazionali sono un certo tipo di increspature ondulatorie del vuoto; i buchi neri sono un certo tipo di distorsioni del vuoto. Analogamente, le onde radio sono un altro tipo di ondulazioni del vuoto, le particelle elementari sono un altro tipo molto differente di increspature (che in alcune teorie assomigliano a minuscole corde vibranti). In quest'ottica, esiste quindi una sola sostanza nell'universo: il vuoto. Ma si tratta comunque di una sostanza che si presenta in una notevole varietà di forme, inclusi quegli schemi di particelle che noi chiamiamo "materia solida". Questa visione suggerisce l'inevitabile qualità delle leggi naturali. Se una singola sostanza riempie l'universo, essa è l'universo, per cui le sue proprietà limitano tutto quello che possiamo fare (3). La stranezza della fisica moderna, però, induce molta gente a non credere in essa. Le rivoluzioni che hanno condotto fino alla meccanica quantistica ed alla relatività, hanno fatto nascere espressioni come "il principio di indeterminazione", "la natura ondulatoria della materia", "la materia è energia" e "la curvatura dello spazio-tempo". Un'aria di paradosso circonda queste idee e quindi la fisica stessa. È comprensibile che le nuove tecnologie ci sembrino strane, ma perché anche le antiche ed immutabili leggi della natura dovrebbero trasformarsi in qualcosa di bizzarro e scioccante? I nostri cervelli e linguaggi si sono evoluti per trattare con cose enormemente più grandi degli atomi e che si muovono ad una minuscola frazione della velocità della luce. Cervelli e linguaggi svolgono un lavoro passabile, nonostante abbiano impiegato secoli per imparare a descrivere il moto di un sasso in caduta. Ma abbiamo oramai spinto la nostra conoscenza molto al di là dell'antico mondo dei sensi. Abbiamo scoperto cose (onde di materia, curvatura dello spazio) che sembrano bizzarre, nonché altre che sono semplicemente al di là della nostra capacità di visualizzazione. Ma "bizzarro" non vuol dire misterioso e impredicibile. La matematica e gli esperimenti funzionano ancora, e consentono agli scienziati di variare e selezionare le teorie, evolvendole per adattarle ad una realtà peculiare. Le menti umane si sono dimostrate notevolmente flessibili, ma non costituisce una così grande sorpresa scoprire che non sempre possiamo
visualizzare l'invisibile. Parte del motivo per cui la fisica sembra così strana è che la gente desidera ardentemente le stranezze, e tende a diffondere memi che descrivono le cose come strane. Alcune persone preferiscono quelle idee che stratificano il mondo in livelli, e riempiono questi livelli di misteri di grado-B. Naturalmente, queste persone preferiscono e diffondono quei memi grazie ai quali la materia pare essere immateriale e la meccanica quantistica pare più simile ad una branca della psicologia. La relatività, come direbbero queste persone, rivela che la materia (quella chiara vecchia roba che la gente pensa di comprendere) è davvero energia (quella subdola, misteriosa roba che fa succedere le cose). Questo suscita un sorriso incerto riguardo ai misteri dell'universo. Potrebbe essere più chiaro se si dicesse che la relatività rivela che l'energia è, in tutte le sue forme, una forma di materia, ossia che l'energia ha massa. Infatti le vele solari funzionano basandosi su questo principio, ossia grazie all'impatto di una massa su una superficie. La luce stessa si manifesta "impacchettata" in forma di particelle. Consideriamo anche il principio di indeterminazione di Heisenberg, ed il fatto ad esso correlato che "l'osservatore esercita sempre una influenza sull'osservato". Il principio di indeterminazione è intrinseco alla matematica usata per descrivere la materia ordinaria (dando agli atomi la loro propria dimensione), ma "l'effetto dell'osservatore" che vi è associato è stato presentato in alcuni libri popolari come una magica influenza della coscienza sul mondo. Invece, l'idea di fondo è più prosaica. Immaginiamo di osservare il moto della polvere sotto un raggio luminoso: quando osservate le luci riflesse di certo le influenzate, perché ne assorbite una parte. Analogamente la luce (con la sua massa) influenza il moto della polvere: si scontra con la polvere esercitando su essa una forza. Il risultato non è un effetto della vostra mente sulla polvere, ma della luce sulla polvere. Nonostante le misurazioni quantistiche presentino certe peculiarità di una sottigliezza che va molto oltre quella di questo esempio (4), non esiste nulla in che implichi che la mente riesca a modificare la realtà. Infine, consideriamo il "paradosso dei gemelli". La Relatività prevede che, se uno dei due individui di una coppia di gemelli volasse a velocità prossime a quelle della luce fino ad un'altra stella per poi tornare indietro, al suo ritorno il gemello viaggiatore sarebbe più giovane di quello rimasto a casa. Infatti, le misurazioni condotte con orologi accuratissimi hanno dimostrato che un moto molto rapido è associato ad un effetto di rallentamento del tempo. Ma questo non è un "paradosso"; è semplicemente un fatto della natura. La Fisica Verrà Stravolta Ancora? Nel 1894 l'eminente fisico Albert A. Michelson affermò: "Le più importanti e fondamentali leggi e fatti delle scienze fisiche sono stati tutti scoperti, ed essi sono oramai così fermamente stabiliti che la possibilità di sostituirli, in conseguenza di nuove scoperte, è estremamente remota […] Le nostre future scoperte saranno necessariamente limitate alla sesta posizione decimale delle misure". Ma nel 1895, Roentgen scoprì i raggi X. Nel 1896, Becquerel scoprì la radioattività. Nel 1897, Thomson scoprì l'elettrone. Nel 1905, Einstein formulò la teoria della Relatività Ristretta (spiegando così le osservazioni sperimentali condotte da Michelson nel 1887 e riguardanti la velocità della luce). Nel 1905, Einstein presentò anche la teoria fotonica della luce. Nel 1911, Rutherford scoprì i nuclei atomici. Nel 1915, Einstein formulò la teoria della Relatività Generale. Dal 1924 al 1930, de Broglie, Heisenberg, Bohr, Pauli, e Dirac svilupparono i fondamenti della meccanica quantistica. Nel 1929, Hubble mostrò l'evidenza dell'espansione dell'universo. Nel 1931, Michelson morì.
Michelson ha commesso un errore memorabile. La gente ancora cita la sua affermazione ed elenca quello che ne è seguito a sostegno del punto di vista che non dovremmo (mai?) dichiarare nessuna comprensione consolidata delle leggi naturali, o dei limiti del possibile. Dopo tutto, se Michelson era così sicuro e tuttavia così in errore, non dovremmo temere di ripetere il suo sbaglio? La grande rivoluzione della fisica ha indotto alcune persone a concludere che la scienza non smetterà mai di condurci a nuove importanti sorprese - persino sorprese importanti per gli ingegneri. Ma abbiamo davvero probabilità di imbatterci ancora in uno sconvolgimento così importante? Forse no. Il contenuto della meccanica quantistica era una sorpresa, e tuttavia prima che questa apparisse era evidente che la fisica era grossolanamente incompleta. Prima della meccanica quantistica avreste potuto avvicinarvi ad un qualsiasi scienziato, rivolgergli uno smagliante sorriso malizioso, dare dei colpetti sulla sua scrivania e chiedergli: "Che cosa tiene assieme le cose? Perché questa scrivania è marrone e solida, mentre l'aria è trasparente e gassosa?". La vostra vittima avrebbe potuto dire qualcosa di piuttosto vago riguardo agli atomi e alle loro disposizioni (5), ma alle vostre pressioni per una spiegazione migliore ne avreste ricavato al massimo una risposta del tipo: "Chi lo sa? I fisici non possono ancora spiegare la materia!". Col senno di poi è fin troppo facile fare queste considerazioni, e tuttavia, in un mondo fatto di materia ed abitato da gente che utilizza utensili materiali, questa ignoranza sulla natura della materia era una lacuna nella conoscenza umana che Michelson probabilmente doveva aver notato. Era una lacuna non nella "sesta cifra decimale" ma nella prima. Vale anche la pena osservare il contesto nel quale Michelson aveva ragione. Le leggi di cui parlava includevano la legge di gravitazione di Newton e le leggi dell'elettromagnetismo di Maxwell. Ed infatti, sotto certe condizioni, che in ingegneria sono piuttosto comuni, queste leggi sono state modificate solo "nella sesta cifra decimale". Le leggi di Einstein su gravità e moto sono in stretto accordo con quelle di Newton fatta eccezione per le situazioni in cui esistono condizioni estreme di attrazione gravitazionale e velocità; le leggi dell'elettrodinamica quantistica di Feynman, Schwinger e Tomonaga, sono in stretto accordo con quelle di Maxwell, fatta eccezione per le situazioni in cui esistono condizioni estreme di dimensioni ed energia. Ulteriori rivoluzioni sono senza dubbio in agguato nei pressi dei confini di queste teorie. Ma pare che questi siano lontani dal mondo delle cose viventi e delle macchine che costruiamo. La rivoluzione della relatività e della meccanica quantistica ha cambiato la nostra conoscenza della materia e della energia, ma materia ed energia stesse sono rimaste invariate - esse sono reali e non si interessano delle nostre teorie. I fisici utilizzano ora un insieme unico di leggi per descrivere come interagiscano i nuclei atomici e gli elettroni negli atomi, nelle molecole, nelle macchine molecolari, nelle cose viventi, nei pianeti e nelle stelle. Queste leggi non sono ancora completamente generali; la ricerca per una teoria unificata di tutta la fisica continua. Ma come afferma il fisico Stephen W. Hawking(6), "Al momento abbiamo un certo numero di leggi parziali che governano il comportamento dell'universo sotto tutte le condizioni eccetto le più estreme". E per gli standard ingegneristici, queste condizioni estreme, sono straordinariamente estreme. I fisici annunciano con regolarità l'osservazione di nuove particelle fra i detriti prodotti da collisioni fra particelle accelerate ad energie estreme, ma non potreste mai crearvi una scorta di queste nuove particelle accumulandole in una scatola. E questo è un fatto molto importante da riconoscere, perché se una particella non può essere conservata, non può servire come componente di una macchina stabile. Le scatole e il loro contenuto sono fatte di elettroni e nuclei. A loro volta i nuclei sono composti da protoni e neutroni. Gli atomi di idrogeno hanno un singolo protone nel loro nucleo; gli atomi di piombo hanno ottantadue protoni e oltre un centinaio di neutroni. Un neutrone isolato si disintegra in pochi minuti. Sono note solo poche altre particelle stabili(7): i fotoni, ossia le particelle della luce, sono utilizzabili e possono essere intrappolate per un certo tempo; i neutrini sono quasi
non rilevabili e non possono essere intrappolati. Queste particelle (fotoni esclusi) hanno le loro corrispondenti antiparticelle. Tutte le altre particelle note si disintegrano in pochi milionesimi di secondo o anche meno. Quindi, i soli blocchi di costruzione conosciuti per qualsiasi hardware sono elettroni e nuclei (o, per speciali applicazioni molto sporadiche, le loro antiparticelle); questi blocchi di costruzione si combinano in modo ordinario per formare atomi e molecole. Tuttavia, a dispetto della potenza della fisica moderna, la nostra conoscenza presenta ancora ovvie lacune. Il labile stato in cui si trova la teoria delle particelle elementari lascia incerti alcuni limiti. Potremmo trovare nuove particelle stabili e "inscatolabili" come per esempio monopòli magnetici o quark liberi; se ciò avverrà, queste particelle saranno senz'altro suscettibili di una utilizzazione. Ma non potremmo mai scoprire un nuovo tipo di campo di forza con effetti su lunga distanza, o nuove forme di radiazione, poiché ciò appare improbabile in modo via via crescente. Infine, alcuni nuovi modi di far scontrare fra loro delle particelle, potrebbero migliorare la nostra capacità di convertire particelle note in altre particelle note. Ma in generale, dell'hardware complesso richiede schemi di particelle stabili e complessi. Al di fuori di quello che è l'ambiente di una stella collassata, ciò significa schemi di atomi che sono ben descritti dalla meccanica quantistica relativistica. Le frontiere della fisica si sono mosse in avanti. Su un livello teorico, i fisici cercano una descrizione unificata delle interazioni di tutte le possibili particelle, anche delle particelle dalla vita più breve. Su un livello sperimentale, essi studiano gli schemi di detriti subatomici creati da collisioni di alta energia negli acceleratori di particelle. Finché da una tale collisione non scaturisce nessuna nuova particella stabile ed utilizzabile, e finché una tale particella non viene neanche scoperta fra i residui di qualche tumulto cosmico del passato, gli atomi rimarranno gli unici blocchi di costruzione disponibili per dell'hardware stabile. E l'ingegneria resterà un gioco giocato con pezzi già conosciuti in accordo a regole di gioco già conosciute. Nuove particelle potrebbero al più aggiungere nuovi pezzi, non eliminare regole già esistenti. I Limiti dell'Hardware Il macchinario molecolare rappresenta davvero il capolinea del sentiero verso la miniaturizzazione? L'idea che il macchinario molecolare potrebbe essere un passo verso un più piccolo "macchinario nucleare" appare abbastanza naturale. Un giovane (uno studente del corso di laurea di economia alla Columbia University), avendo sentito parlare della tecnologia molecolare e della sua capacità di manipolare atomi, concluse immediatamente che la tecnologia molecolare potrebbe fare quasi qualsiasi cosa, anche agire a distanza su delle bombe nucleari già lanciate in caduta libera, per trasformarle in innocui mattoni di piombo. La tecnologia molecolare non può fare cose come questa. Trasformare plutonio in piombo (agendo a distanza o meno) è qualcosa che è ben oltre portata della tecnologia molecolare, e per la stessa ragione per cui trasformare il piombo in oro era ben oltre la portata della chimica nota ad un alchimista. Le forze molecolari hanno poco effetto sui nuclei atomici. Il nucleo contiene oltre il 99,9 percento della massa di un atomo ed occupa una parte su un milionesimo di miliardesimo del suo volume. A confronto del nucleo, il resto di un atomo (una nuvola elettronica) è meno di una insignificante lanugine. Provare a modificare un nucleo punzecchiandolo con una molecola(8) è persino più futile che provare a deformare ed appiattire un cuscinetto a sfera d'acciaio rotolandovi contro una palla di zucchero filato. La tecnologia molecolare può cambiare l'ordine e la disposizione degli atomi, ma non può raggiungere l'interno di un nucleo per cambiare il tipo di atomo. Le nanomacchine non possono essere di alcun aiuto per la costruzione di macchine di scala nucleare, e tuttavia tali macchine potrebbero anche esistere. Per quel che appare non è affatto così, almeno sotto qualsiasi condizione fra quelle che possiamo creare in un laboratorio. Le macchine
devono avere un certo numero di parti in stretto contatto, ma i nuclei, quando strettamente impacchettati assieme, si respingono l'uno con l'altro con ferocia. Quando la scissione nucleare devastò Hiroshima, la maggior parte dell'energia venne rilasciata dalla violenta repulsione elettrostatica fra i nuclei dei due frammenti appena separati della bomba. La ben nota difficoltà di ottenere la fusione nucleare deriva dallo stesso problema di repulsione nucleare. Oltre alla scissione ed alla fusione, i nuclei possono essere in grado di emettere o assorbire vari tipi di radiazione. In una tecnica comunemente impiegata, essi vengono fatti roteare in modi che sono portatori di informazione utile, permettendo ai medici di prelevare immagini mediche basate sulla risonanza magnetica nucleare. Ma tutti questi fenomeni si affidano solo alle proprietà di nuclei ben separati (9). I nuclei isolati sono troppo semplici per funzionare come macchine o come circuiti elettronici. I nuclei possono essere obbligati ad avvicinarsi l'uno all'altro, ma solo se sottoposti alle pressioni immense che si trovano in una stella collassata. Fare dell'ingegneria in un tale ambiente presenterebbe delle difficoltà sostanziali (10), persino se avessimo a disposizione nelle vicinanze una stella collassata. Questo ci riporta alla questione di base. Che cosa potremmo compiere tramite una appropriata disposizione di atomi? Alcuni limiti sembrano già chiari. I più forti materiali possibili avranno dieci volte la forza del più forte fra i cavi di acciaio odierni (il materiale più forte per fabbricare un cavo sembra essere la carbina, una forma di carbonio con atomi disposti in catene ordinate). Sembra inoltre che, in condizioni ordinarie di pressione, le vibrazioni del calore possano distruggere la maggior parte dei solidi refrattari solo sotto temperature che si aggirano attorno a quattromila gradi centigradi (circa cinquecento gradi in più della temperatura che esiste sulla superficie solare). Queste brute proprietà della materia - forza e resistenza al calore - non possono essere notevolmente migliorate per mezzo di una complessa e più ordinata disposizione di atomi. La migliore disposizione, probabilmente, sembra essere piuttosto semplice e regolare. Altri obiettivi piuttosto semplici includono le capacità di trasmissione del calore, isolamento dal calore (11), trasmissione elettrica, trasmissione della luce, riflessione della luce ed assorbimento della luce. Per alcuni di questi obiettivi, i propositi di perfezione condurranno verso schemi di progettazione molto semplici; per altri, condurranno verso problemi progettuali di complessità al di là di ogni speranza di soluzione. La progettazione del miglior commutatore elettrico che sia possibile, per un suo utilizzo come componente base di un computer, sarà enormemente più complessa. Infatti ciò che consideriamo "il miglior commutatore possibile" dipende da molti fattori, inclusi i costi della materia, dell'energia, del tempo di realizzazione, e del tipo di elaborazioni a cui è destinato il computer. In un progetto ingegneristico, ciò che noi chiamiamo "il meglio" dipende da un numero elevatissimo di fattori, a loro volta dipendenti da molti desideri umani mal definiti e mutevoli. Inoltre, anche dove "il meglio" sia ben definito, potrebbe non valer la pena, a confronto dell'entità di miglioramento effettivamente ottenibile, affrontare il costo per la ricerca dell'incremento di miglioramento ultimo possibile, ossia quello che distingue "il meglio" dal "semplicemente eccellente". Tuttavia, possiamo ignorare tutti questi problemi riguardanti complessità e costi di progettazione, quando ciò che ci interessa è solo considerare quali siano i limiti realmente esistenti. Per definire un limite, si dovrebbe scegliere una direzione o una scala di qualità. Definendo come "la migliore possibile" una certa direzione, esisterà di sicuro un "meglio" definitivo ed ultimo. Le disposizioni di atomi determinano le proprietà dell'hardware, ed in accordo con la meccanica quantistica il numero delle disposizioni possibili è finito - di certo persino più grande di un numero astronomicamente grande, e tuttavia pur sempre non infinito. Ne segue matematicamente che, stabilito un chiaro obiettivo, alcune di queste disposizioni potrebbero essere le migliori possibili o prossime alle migliori. Come accade negli scacchi, il numero limitato di pezzi e di spazi limita il numero di disposizioni e quindi il numero delle possibilità. Ma sia negli scacchi che nell'ingegneria,
la varietà possibile all'interno di questi limiti è comunque potenzialmente inesauribile. La semplice conoscenza delle leggi della materia non è sufficiente a dirci dove siano esattamente i limiti. Possiamo tuttavia affrontare la complessità di progettazione. La nostra conoscenza di dove risiedano certi limiti resta incerta: "Noi sappiamo solo che i limiti sono fra qui (qualche passo indietro) e lì (quel punto vicino all'orizzonte)". Gli assemblatori ci apriranno la strada verso i limiti, dovunque essi siano, e i sistemi di ingegneria automatizzata accelereranno i progressi lungo la strada. Il meglio assoluto spesso si dimostrerà essere elusivo, ma il secondo in classifica spesso sarà quasi altrettanto buono (12). Mano a mano che ci avvicineremo ai limiti autentici, le nostre capacità smetteranno di crescere, via via in sempre più aree della tecnologia. I progressi in questi campi non si arresteranno semplicemente per una decade o un secolo, ma in maniera permanente. Alcuni potrebbero esitare alla parola "permanente" pensando "Nessun miglioramento in mille anni? In un milione di anni? Ma questa è una esagerazione!". E tuttavia, quando raggiungeremo i veri limiti fisici, non andremo avanti ulteriormente. Le regole del gioco sono intrinseche alla struttura del vuoto, sono implicite nella struttura dell'universo. Nessuna redisposizione di atomi, nessun cozzare di particelle, nessuna legislazione o lamentela o sommossa sposterà i limiti naturali di un pizzico. Oggi potremmo anche non valutare correttamente dove si trovino i limiti reali, ma è certo che essi resteranno dove sono. Questo sguardo sulle leggi della natura mostra i limiti alla qualità delle cose. Ma noi incontriamo anche limiti di quantità, limiti che sono imposti non solo dalle leggi della natura ma anche dal modo in cui materia ed energia sono disposte nell'universo affinché siano più o meno a nostra disposizione. Gli autori de The Limits to Growth, come hanno fatto anche molti altri, hanno tentato di descrivere questi limiti senza prima esaminare i limiti imposti alla tecnologia. E ciò ha prodotto risultati equivoci. Entropia: Un Limite all'Uso di Energia Di recente, alcuni autori hanno descritto l'accumulazione del calore disperso ed il disordine come limiti ultimi all'attività umana. In The Lean Years - Politics in the Age of Scarcity, Richard Barnet scrive (13): "È ironico che la riscoperta dei limiti coincida con due delle più audaci conquiste tecnologiche della storia dell'umanità. Una è l'ingegneria genetica, la visione fugace di un potere in grado di modellare l'autentica roba della vita. L'altra è la colonizzazione dello spazio. Questi progressi alimentano fantasie di potere, ma non lacerano la camicia di forza ecologica nota come 'Seconda Legge della Termodinamica': Un sempre più grande consumo di energia produce una sempre più grande quantità di calore, che pur non scomparendo mai può essere conteggiata come un costo permanente dell'energia. Poiché l'accumulazione di calore può causare catastrofi ecologiche, questi costi limitano l'avventura umana nello spazio, come limitano con altrettanta certezza quella sulla Terra". Jeremy Rifkin (con Ted Howard) ha scritto un intero libro (14) sui limiti termodinamici e sul futuro dell'umanità, intitolato Entropy: A New World View. L'entropia è una misura scientifica standard del calore disperso e del grado di disordine. Dovunque una attività consumi energia utilizzabile, essa produce entropia; l'entropia del mondo perciò cresce costantemente ed irreversibilmente. Alla fine, la dissipazione di energia utilizzabile distruggerà le basi della vita. Come dice Rifkin, questa idea potrebbe sembrare troppo deprimente per pensarci, ma egli afferma che dovremmo affrontare le implicazioni terribili dell'entropia, e le conseguenze sull'umanità e la Terra. Ma queste implicazioni sono davvero così terribili? Barnet scrive che l'accumulo di calore è un costo energetico permanente che limita l'attività umana. Rifkin afferma che "l'inquinamento è la somma totale di tutta l'energia disponibile nel mondo che è
stata trasformata in energia non disponibile". Questa energia non disponibile è principalmente in forma di calore disperso e di bassa temperatura; quel tipo di calore che fa scaldare un apparecchio televisivo in funzione. Ma questo calore si accumula realmente come teme Barnet? Se fosse così, la Terra dovrebbe crescere costantemente in temperatura, divenendo più calda minuto dopo minuto ed anno dopo anno. In questo momento dovremmo stare arrostendo, a meno che i nostri antenati non avessero l'aspetto di solidi congelati. In qualche modo, tuttavia, i continenti si comportano in modo da diventare freddi durante la notte, ed ancora più freddi durante l'inverno. Durante le epoche glaciali, persino l'intera Terra si è raffreddata. Rifkin affonda un'altra stilettata. Afferma che "l'erosione costante di materia terrestre fa sì che la crosta terrestre vada costantemente assottigliandosi. Le montagne vengono livellate ed i suoli spazzati via ogni secondo che passa". Dicendo "spazzati via" Rifkin non intende scagliati via nello spazio o spazzati via dall'esistenza; egli intende semplicemente che gli atomi delle montagne e dei suoli vengono a disporsi alla rinfusa con tutti gli altri atomi della Terra. Ciò nonostante, sempre stando alle sue affermazioni, questo processo conduce verso la nostra rovina. Il rimescolamento degli atomi trasforma questi in "materia non disponibile" in conseguenza della "quarta legge della termodinamica" avanzata dal'economista Nicholas Georgescu-Roegen: "In un sistema chiuso, l'entropia materiale deve infine raggiungere un massimo", o (equivalentemente) "La materia non disponibile non può essere riciclata". Rifkin afferma che la Terra è un sistema chiuso, che scambia energia ma non materia con il suo ambiente spaziale circostante, per cui "qui sulla terra l'entropia materiale è costantemente in incremento e dovrà infine raggiungere un massimo", mettendo in difficoltà la vita terrestre e portandola alla morte. Una situazione davvero sinistra: la Terra si è degenerata per miliardi di anni. Sicuramente la fine deve essere vicina! Ma tutto questo può realmente esser vero? Lo sviluppo della vita ha portato maggior ordine sulla Terra, non meno; la formazione dei depositi di minerali grezzi ha fatto la stessa cosa. L'idea che la Terra sia andata degenerando sembra, come minimo, peculiare (ma in proposito, Rifkin pensa all'evoluzione come ad una nicchia temporanea). D'altro canto, poiché materia ed energia sono essenzialmente la stessa cosa, come può in primo luogo questa unica cosa essere soggetta ad una legge valida che sappia distinguere la sola cosiddetta "entropia materiale"? Rifkin presenta il caso di una bottiglia, che diffonda profumo nell'aria di una stanza circostante, come un esempio di "dissipazione di materia", ossia di entropia materiale in crescita - di materia che diventa "indisponibile". La diffusione di sale in acqua all'interno di una bottiglia è un altro esempio rappresentativo. Prendiamo in considerazione, allora, una verifica sperimentale della "quarta legge della termodinamica" condotta in un esperimento che potremmo chiamare "l'Esperimento della Bottiglia Acqua-Sale". Immaginiamo una bottiglia avente sul fondo una parete di partizione, che divide il fondo in due bacini. In uno c'è del sale, e nell'altro c'è dell'acqua. Un tappo di sughero sigilla il collo della bottiglia: ciò chiude il sistema, rendendo applicabile ad esso la cosiddetta quarta legge della termodinamica. Il contenuto della bottiglia è in uno stato organizzato: quindi la sua entropia materiale non è al massimo - ancora. Ora prendiamo la bottiglia ed incliniamola. Se l'acqua, dal suo bacino, passa anche all'altro bacino, e se si agita la bottiglia facendola ruotare, si ottiene che l'acqua dissolve il sale e l'entropia cresce furiosamente! In un tale sistema chiuso, la " quarta legge della termodinamica" afferma che questo incremento della entropia materiale dovrebbe essere permanente. Tutti gli allarmi di Rifkin riguardo la stagnazione e l'inevitabile incremento dell'entropia della Terra si basano su questo principio.
Per vedere se c'è qualche base di fondatezza per la nuova visione del modo di Rifkin, incliniamo la bottiglia per far fluire tutta l'acqua salata in uno solo dei due bacini. Questo non dovrebbe fare nessuna differenza perché il sistema resta comunque un sistema chiuso. Mettiamo ora dritta la bottiglia, esponendo alla luce del sole il lato con l'acqua salata, e all'ombra il lato vuoto. La luce splende e il calore trapela dentro, ma il sistema resta chiuso come la stessa Terra. Ma, osservate, la luce solare fa evaporare l'acqua, ed essa si condensa nel bacino vuoto! Acqua pura che, lentamente, riempie il bacino vuoto, lasciandosi dietro il sale. Rifkin stesso afferma che "nella scienza, una sola intransigente eccezione è sufficiente ad invalidare una legge". E questo esperimento mentale, che imita il modo in cui i depositi naturali di sale si sono formati sulla Terra, invalida la legge sulla quale egli basa il suo intero libro. Le piante si comportano analogamente. La luce solare ci porta energia dallo spazio; il calore che viene nuovamente irradiato indietro, verso lo spazio, porta via entropia (della quale ne esiste un solo tipo). Perciò, l'entropia può decrescere in un sistema chiuso ed i fiori possono sbocciare sulla Terra epoca dopo epoca. Rifkin parla correttamente quando dice che "è possibile invertire il processo dell'entropia in un luogo e su un periodo di tempo circoscritti, ma solo consumando energia e quindi incrementando l'entropia complessiva dell'ambiente". Ma sia Rifkin che Barnet incorrono nello stesso equivoco: quando dicono "ambiente", essi intendono la "Terra" - ma la legge si applica all'ambiente nella sua totalità, e questa totalità è l'universo. In effetti Rifkin e Barnet non considerano sia la luce del Sole che il freddo buio del cielo notturno. Secondo lo stesso Rifkin, la sua idea distrugge la nozione della storia intesa come un progresso, trascendendo il comune punto di vista moderno sul mondo. Egli richiama al sacrificio, affermando che "nessuna nazione del Terzo Mondo potrà nutrire speranze di conquistare l'abbondanza materiale che esiste in America". Egli teme panico e spargimenti di sangue. Rifkin conclude informandoci che "la Legge dell'Entropia risponde alla questione centrale che ogni cultura lungo l'intera storia si è posta: Come dovrebbero comportarsi gli esseri umani nel mondo?". La sua risposta? "L'imperativo morale ultimo, quindi, è di sprecare quanta meno energia sia possibile"(15). Ciò sembrerebbe significare che dovremmo risparmiare quanta più energia è possibile, cercando di eliminare gli sprechi. Ma qual'è il più grande spreco di energia che ci sia nelle nostre vicinanze? Il Sole, ovviamente: esso spreca energia milioni di miliardi di volte più velocemente di quanto fanno gli uomini. Se fosse preso sul serio, l'imperativo morale ultimo di Rifkin suonerebbe come l'ordine urgente: "Spegnete il Sole!". Questa sciocca conseguenza avrebbe dovuto stroncare il credito che è stato prestato a Rifkin. Egli, come molti altri, hanno visioni del mondo che hanno il sapore di arroganza pre-Copernicana.: essi presumono che la Terra sia l'intero mondo e che quello che la gente fa sia automaticamente di importanza cosmica. Esiste realmente una autentica legge dell'entropia, ovviamente: la seconda legge della termodinamica. A differenza della contraffatta "quarta legge", essa è descritta in tutti i libri di testo ed utilizzata dagli ingegneri nel loro lavoro di progettazione. Essa effettivamente limita quello che possiamo fare. L'attività umana genera calore, e la limitata capacità della Terra di irradiare calore impone un limite fermo alla quantità di attività industriale che è possibile svolgere sulla Terra. Allo stesso modo, abbiamo anche bisogno di pannelli simili ad ali per irradiare via il calore di risulta, generato dalle attività delle nostre navi spaziali. Alla fine, la legge dell'entropia - al termine di un periodo di tempo immensamente esteso - condurrà al degrado irreversibile dell'universo come lo conosciamo oggi, e ciò pone dei limiti alla massima estensione temporale della vita, ed alla vita stessa. Ma perché flagellare la carcassa del libro Entropy di Rifkin? Semplicemente perché il sistema di informazione odierno presenta spesso persino delle idee nate morte come fossero vive.
Incoraggiando false speranze o false paure e guidando l'azione in direzioni sbagliate, queste idee possono inficiare gli sforzi della gente attivamente preoccupata dei problemi mondiali di ampio respiro. Fra le persone i cui elogi sono apparsi sulla quarta di copertina del libro di Rifkin ("un lavoro ispirato" "brillante lavoro" "di importanza fondamentale" "dovrebbe essere preso a cuore ") ci sono anche un professore di Princeton, un ospite di talk-show televisivi, e due senatori degli Stati Uniti. Un seminario al MIT ("The Finite Earth: World Views for a Sustainable Future - La terra Limitata: Scenari Mondiali per un Futuro Sostenibile") glorificava il libro di Rifkin. Tutti i promotori del seminario provenivano da dipartimenti non tecnici. Nella nostra società tecnologica, la maggior parte dei senatori mancano di formazione tecnologica, così pure come la maggior parte dei professori e degli ospiti di talk-show. Georgescu-Roegen stesso, l'inventore della "quarta legge della termodinamica", possiede ampie credenziali - ma solo come sociologo. La minaccia dell'entropia è un esempio di lampante non-senso, e tuttavia i suoi inventori e sostenitori non vengono derisi sulla pubblica scena. Immaginate un migliaio, un milione di distorsioni analoghe, alcune sottili, alcune sfacciate, ma tutte che deformano la comprensione pubblica del mondo. Immaginate ora un gruppo di nazioni democratiche che soffra di una infestazione di memi di questo tipo mentre tenta di adeguarsi ad un'epoca di rivoluzione tecnologica dal ritmo in accelerazione. Abbiamo quindi un problema reale. Per rendere più probabile la nostra sopravvivenza, abbiamo bisogno di modi migliori di estirpare i nostri memi, di fare spazio perché si sviluppi una comprensione sensata. Nei capitolo 13 e 14 riporterò due proposte di come si potrebbe fare proprio questo. I Limiti delle Risorse Una legge di Natura limita la qualità della tecnologia, ma nell'ambito di questi limiti useremo gli assemblatori-replicatori per produrre navi spaziali di prim'ordine. Con queste, apriremo l'accesso allo spazio in ampiezza e profondità. La Terra odierna ha cominciato a sembrare piccola, ridestando preoccupazioni legate al timore che potremmo esaurire le sue risorse. Tuttavia, l'energia totale che usiamo è meno di una parte su diecimila rispetto a quella con cui il sole inonda la Terra; non ci preoccupiamo quindi del rifornimento di energia in quanto tale, ma del rifornimento di energia in forme convenienti come gas e petrolio. Le nostre miniere a malapena scalfiscono la superficie del globo; non ci preoccupiamo della semplice quantità di risorse, ma della loro convenienza e costo. Quando svilupperemo nanomacchine non inquinanti per raccogliere energia solare e risorse dalla Terra, la Terra stessa sarà in grado di sostenere una civiltà di gran lunga più grande e benestante di qualsiasi altra vista prima d'ora, e tuttavia allo stesso tempo soffrirà meno danno di quello che le infliggiamo oggi. Il potenziale della Terra fa apparire insignificanti, al confronto, le risorse che usiamo attualmente. Eppure, la terra non è che un granello. I detriti asteroidali lasciati dalla formazione dei pianeti forniranno materiali sufficienti per costruire mille volte l'area della terraferma Terrestre. Il Sole inonda il sistema solare con un miliardo di volte la potenza che raggiunge la sola Terra. Le risorse del sistema solare sono realmente immense, e l'utilizzo delle risorse della Terra apparirà insignificante, al confronto. Eppure, il sistema solare non è che un granello. Le stelle che affollano il cielo notturno sono dei soli, e l'occhio umano può vedere solo quelli più vicini. La nostra galassia contiene cento miliardi di soli, e molti senza dubbio riversano la loro luce su pianeti morti e asteroidi in attesa di venire a
contatto con la vita. Le risorse della nostra galassia possono far apparire persino il sistema solare insignificante, al confronto. Eppure, la nostra galassia non è che un granello. Luci più antiche di quanto siano antiche le nostre specie ci mostrano galassie al di la della nostra. L'universo visibile contiene cento miliardi di galassie, ognuna con uno sciame di miliardi di soli. Le risorse dell'universo visibile fanno apparire persino la nostra galassia insignificante, al confronto. E con ciò, raggiungiamo i limiti quanto meno di ciò che ci è noto, se non proprio i limiti delle risorse. Il sistema solare sembra comunque sufficiente a rispondere alla limitatezza delle risorse della Terra, e se il resto dell'universo restasse non rivendicato da nessun altro, la nostra prospettiva per l'espansione sarebbe sufficiente per far girare la testa più di una volta. Ciò significa che gli assemblatori-replicatori e il volo spaziale economico metteranno fine alle nostre preoccupazioni per le risorse? In un certo senso, schiudere l'accesso allo spazio polverizzerà i nostri limiti alla crescita, poiché di fatto non conosciamo fine all'universo. Nonostante questo, Malthus era essenzialmente nel giusto. Malthus Nel suo saggio del 1798 sui Principi Demografici (Essay on the Principle of Population), Thomas Robert Malthus, un ecclesiastico inglese, presentava l'antenato di tutti gli odierni argomenti riguardanti i limiti allo sviluppo. Egli notò che il libero incremento demografico tendeva periodicamente verso un raddoppio della popolazione, e quindi la popolazione seguiva un ritmo di espansione numerica di tipo esponenziale. Tutto ciò è sensato: poiché tutti gli organismi discendono da replicatori di successo, essi tendono a replicarsi ogni qualvolta viene data loro la possibilità di farlo. Per semplificare le sue argomentazioni, Malthus partì dall'assunto che le risorse - ossia le disponibilità di cibo - potessero incrementarsi ogni anno solo di una certa quantità fissata e costante (un processo denominato espansione numerica lineare, poiché il suo grafico corrisponde ad una linea). Poiché i matematici dimostrano che qualsiasi crescita di tipo esponenziale, comunque fissato sia il suo ritmo di incremento, riesce infine a raggiungere e a superare una crescita lineare dal ritmo comunque fissato, Malthus concluse che lo sviluppo della popolazione, se non tenuto sotto controllo, avrebbe infine esuberato la produzione di cibo. Gli autori hanno ripetuto variazioni di questa idea fin da allora, persino in libri come The Population Bomb e Famine - entrambi del 1975! - e tuttavia la produzione di cibo riesce ancora a tenere il passo con il ritmo di crescita della popolazione. Africa a parte, anzi, la produzione di cibo è spesso in esubero. Dove ha sbagliato Malthus? Nel fondamento della sua idea egli non ha realmente sbagliato: lo ha fatto principalmente sui dettagli e nelle sue considerazioni riguardanti i tempi. La crescita demografica sulla Terra deve effettivamente affrontare dei limiti, poiché la Terra e spazialmente limitata e tale resta sia per le attività agricole che per qualsiasi altra attività. Malthus ha fallito nel prevedere quando i limiti inizieranno a pungolarci, principalmente perché ha fallito nel prevedere anticipatamente i progressi nella tecnologia agricola, dai raccolti di prodotti modificati geneticamente ai fertilizzanti. Alcuni adesso fanno notare che la crescita esponenziale supererà la scorta fissata di risorse della Terra (16), un argomento più semplice di quello avanzato da Malthus. Sebbene le tecnologie spaziali possono infrangere questi limiti, esse non spazzeranno via tutti i limiti. Anche se l'universo fosse infinitamente esteso, noi non potremmo tuttavia viaggiare infinitamente veloci. Le leggi della natura limitano il ritmo dello sviluppo: la vita proveniente dalla Terra non potrà diffondersi più veloce della luce.
Una espansione a ritmo costante aprirà invece nuove risorse con un ritmo che cresce mano a mano che la frontiera spaziale si sposta in profondità e si allarga in estensione. E questo non equivale ad una crescita lineare ma cubica. E tuttavia Malthus aveva sostanzialmente ragione: la crescita esponenziale sorpasserà la crescita cubica con la stessa facilità con cui sorpasserebbe una crescita lineare. I calcoli mostrano che una incontrollata crescita demografica, sia essa accompagnata o meno dall'esistenza di una indefinita longevità, surclasserebbe la disponibilità di risorse all'incirca entro uno o due millenni, al massimo. La possibilità di una crescita esponenziale illimitata resta quindi una fantasia, persino nello spazio. Qualcuno Potrebbe Fermarci? Altre civiltà si sono già impadronite delle risorse dell'universo? Se così fosse, questa circostanza rappresenterebbe un limite allo sviluppo. I fatti riguardanti l'evoluzione e i limiti tecnologici ci aiutano a gettare qualche utile luce sulla questione. Poiché molti sistemi stellari di tipo solare sono vecchi di molte centinaia di milioni di anni più del nostro sistema solare, alcune civiltà (ammesso che ne esistano in numero sostanziale) dovrebbero essere molte centinaia di milioni di anni più avanti della nostra. Ci dovremmo perciò aspettare che qualcuna di queste civiltà abbia fatto quel che tutti sanno che la vita fa: diffondersi quanto più lontano possibile. La terra non è verde solo negli oceani in cui la vita ha avuto inizio ma anche sulle spiagge, sulle colline, e sulle montagne. Le piante verdi si sono sviluppate anche nelle stazioni in orbita; se prospereremo, le piante della Terra si diffonderanno verso le stelle. Gli organismi si diffondono quanto più lontano possono farlo, dopo di che si diffondono ancora un tantino più lontano. I colonizzatori diretti in America navigarono ed affondarono, sbarcarono e soffrirono la fame, ma alcuni sopravvissero per fondare nuove nazioni. Gli organismi sono soggetti, in qualsiasi posto si trovino, alle pressioni descritte da Malthus, perché essi si sono evoluti per sopravvivere e diffondere geni e memi, entrambi impegnati a spingere nella stessa direzione. Se esistono delle civiltà extraterrestri, e se anche una piccola frazione di queste si è comportata come ha fatto la vita sulla Terra, esse dovrebbero oramai già essersi sparse nello spazio. Al pari della nostra civiltà, esse dovrebbero tendere ad evolvere tecnologie che si avvicinino verso i limiti imposti dalle leggi di natura. Vorrebbero imparare come viaggiare a velocità vicine a quelle della luce, e la competizione o la pura curiosità dovrebbero spingere alcune di esse a farlo. Infatti, solo delle società altamente organizzate e altamente stabili potrebbero riuscire a reprimere talmente bene la pressione competitiva da evitare una espansione esplosiva a velocità prossime a quelle della luce (17). Inoltre, dopo centinaia di milioni di anni, le civiltà che si sono diffuse di più dovrebbero oramai essersi diffuse quanto basta per incontrare ognuna delle eventuali altre, e per spartirsi l'intero spazio con queste. Se queste civiltà sono davvero dappertutto, allora hanno dimostrato grande riserbo e si sono ben nascoste. Esse dovrebbero aver avuto il controllo delle risorse dell'intera galassia per molti milioni di anni, ed aver fronteggiato i limiti allo sviluppo su scala cosmica. Una civiltà avanzata e stretta dai suoi limiti ecologici, quasi per stessa definizione, non dovrebbe far spreco ne di materia che di energia. Tuttavia noi vediamo sprechi di questo tipo in qualsiasi direzione, tanto lontano quanto riusciamo a guardare nelle spirali delle galassie: i loro bracci a spirale contengono nuvole di polvere che rappresenta lo spreco di materia, la quale è illuminata da luce di stelle altrettanto sprecata. Se civiltà così avanzate sono esistite, adesso il nostro sistema solare dovrebbe ricadere nello spazio di dominio di una di esse. E se così fosse, dovremmo necessariamente stare al loro gioco - non potremmo far nulla per minacciarle, e loro potrebbero studiarci a loro piacimento, con o senza la nostra cooperazione. Se esse avanzassero una precisa pretesa, la gente di buon senso dovrebbe
ascoltarle. Ma se esse esistono davvero, allora devono essersi ben nascoste - e dovrebbero mantenere segreti i loro progetti riguardanti la Terra. L'idea che l'umanità sia sola nell'universo visibile è consistente con quello che possiamo vedere nel cielo, e con ciò che conosciamo sull'origine della vita. Nessuna ritrosia degli alieni è necessaria per spiegare i fatti. Alcuni dicono che siccome ci sono così tante stelle, fra esse devono sicuramente esistere altre civiltà. Ma ci sono molte meno stelle nell'universo visibile di quante molecole ci siano in un bicchiere d'acqua. Ed esattamente come un bicchiere d'acqua non necessariamente contiene ogni possibile elemento o composto chimico (anche se si trattasse del liquame di scarto fuoriuscito da qualche impianto chimico) (18), così le altre stelle non necessariamente ospitano altre civiltà. Sappiamo che la competizione fra replicatori tende a diffondere i replicatori fino ai loro limiti ecologici e che tuttavia, ovunque lungo tutto l'universo, le risorse restano tuttora inutilizzate. Non abbiamo ricevuto nessun commiato dalle stelle, e apparentemente non abbiamo alcun guardiano dello zoo a guardia degli umani, neanche uno particolarmente tollerante. Potrebbe non esserci nessuno lassù. E se essi non esistono, non abbiamo bisogno di prendere in considerazione i loro piani. Se invece esistono, dovremmo abbandonare i nostri piani assecondando i loro imperscrutabili desideri, e non sembra esserci alcun modo per preparasi adeguatamente a questa eventualità. Per cui, per ora e forse per sempre, possiamo tranquillamente fare progetti sul nostro futuro senza preoccuparci dei limiti eventualmente imposti da altre civiltà. Sviluppo nell'Ambito dei Limiti Che ci sia o meno qualcun altro là fuori, noi ormai siamo sulla sua strada. Lo spazio ci attende, con le sue aride rocce e la sua luce solare, simili alle aride rocce e alla luce solare dei continenti della Terra di miliardi di anni fa, prima che la vita strisciasse fuori dai mari. I nostri ingegneri stanno evolvendo memi che ci aiutano a creare raffinate navi ed insediamenti spaziali: colonizzeremo agevolmente le terre del sistema solare. E più in là del ricco sistema solare interno c'è la nuvola cometaria - un vasto terreno di coltura che si assottiglia man mano che si allontana verso lo spazio interstellare, e si inspessisce nuovamente giungendo attorno ad altri sistemi stellari, con nuovi soli e sterile roccia che attendono il tocco della vita. Nonostante una interminabile crescita esponenziale resti una fantasia, la diffusione della vita e della civiltà non deve affrontare alcun confine già nettamente stabilito. L'espansione procederà, se sopravviveremo, perché siamo parte di un sistema vivente e perché la vita ha la tendenza a diffondersi. I pionieri si sposteranno verso l'esterno in un numero infinito di mondi. Altri resteranno indietro, costruendo insediamenti delle loro culture in tutte le oasi dello spazio. In ogni insediamento, verrà il tempo in cui la frontiera si allontanerà da lì per spostarsi più lontano, ed in seguito ancora più lontano. Per la maggior parte del nostro futuro, la maggior parte della gente e i loro discendenti convivranno con l'esistenza di limiti alla crescita. I limiti alla crescita possono piacerci o meno, ma la loro reale esistenza è indipendente dai nostri desideri. Esistono dei limiti per qualsiasi meta chiaramente definita che ci si proponga. Ma sulle frontiere, dove gli standard sono in costante cambiamento, questa idea dei limiti diventa irrilevante. Nell'arte o nella matematica il valore di un lavoro dipende da standard molto complessi, soggetti a dispute e a cambiamenti. Uno di questi standard è la novità, e questa non può mai esaurirsi. Dove gli obiettivi cambino e la complessità sia dominante, i limiti non rappresentano necessariamente un vincolo. In campi e attività come la creazione di una sinfonia o di una canzone, la pittura o le mondanità, il software o i teoremi, i film o altre delizie ancora mai immaginate, sembra non esserci mai fine. Le nuove tecnologie alimenteranno nuove arti, e nuove arti porteranno a nuovi standard.
Il mondo della materia bruta offre spazio per un grande sviluppo, pur nell'ambito di limiti. Il mondo della mente e degli schemi, tuttavia, ha spazio per un'evoluzione e una trasformazione praticamente senza fine. Il "possibile" sembra quindi essere sufficientemente spazioso. Uno Sguardo ai Limiti L'idea che i grandi progressi restino comunque vincolati da limiti ben fermi, non si è evoluta per farci piacere, ma per essere accurata. I limiti tracciano le possibilità, ed alcune potrebbero essere sgradevoli o terrificanti. Abbiamo bisogno di prepararci per i passi avanti tecnologici che sono innanzi a noi, nonostante molti studiosi del futuro pretendano di poter affermare che non si verificherà alcun passo avanti. Questa scuola di pensiero è associata con il libro The Limits to Growth (I Limiti dello Sviluppo) (19), pubblicato come rapporto del Club di Roma. Il professor Mihajlo D. Mesarovic in seguito è stato co-autore del libro Mankind at the Turning Point (Umanità al Punto di Svolta) (20), pubblicato come il secondo rapporto del Club di Roma. Il professor Mesarovic attualmente sviluppa modelli al computer analoghi ai modelli utilizzati in "The Limits to Growth" - ognuno dei quali è composto da un insieme di numeri ed equazioni intese per descrivere le future trasformazioni su scala mondiale di popolazione, economia ed ambiente. Nella primavera del 1981, egli ha visitato il MIT per partecipare a "The Finite Earth: Worldviews for a Sustainable Future", ossia lo stesso seminario che ha elogiato "Entropy", il libro di Rifkin. In quella occasione egli ha descritto un modello inteso per dare una descrizione grossolana del prossimo secolo. Quando gli è stato chiesto se lui, o qualche altro dei suoi colleghi, avesse preso in considerazione un qualche progresso drastico per il futuro descritto, per esempio un progresso d'entità comparabile a quello dell'industria petrolifera, dell'aeronautica, dell'automobile, dell'energia elettrica o dei computer - e perché no, magari anche di sistemi robotici auto-replicanti o economici sistemi di trasporto spaziale? - egli ha risposto in modo diretto: "No!". Alcuni modelli del futuro sono, inequivocabilmente, descrizioni di bancarotte. Eppure alcune persone sembrano desiderose - addirittura bramose - di credere che i passi avanti tecnologici cesseranno improvvisamente, e che una corsa tecnologica globale che ha accumulato slancio per secoli, nell'immediato futuro dovrà frenare bruscamente fino ad arrestarsi. L'abitudine di trascurare o negare la possibilità di progressi tecnologici è un problema comune. Alcune persone credono in certi confortevoli limiti perché hanno ascoltato persone rispettabili snocciolare argomentazioni apparentemente plausibili a sostegno di questa tesi. E tuttavia sembra che alcune persone reagiscano più ai loro desideri che ai fatti, persino dopo questo secolo di progresso in continua accelerazione. I limiti confortevoli semplificano la nostra visione del futuro, rendendo più facile la sua comprensione e consentendoci di riflettere su di essa sentendoci più a nostro agio. La credulità di una persona nei confronti dei limiti confortevoli è indicativa anche della sua tendenza verso una certa preoccupazione e senso di responsabilità. Dopotutto, se le forze naturali arresteranno la corsa tecnologica in modo conveniente ed automatico, allora non dovremmo preoccuparci di provare a comprendere e controllare questa corsa. Ancor più paradossalmente, questo escapismo non viene avvertito come tale. La contemplazione di visioni di declino globale dovrebbe produrre la sensazione di non potersi tirare indietro di fronte alla inevitabilità di dover affrontare circostanze ardue. E invece, una tale visione del futuro non sembra essere nulla di sostanzialmente nuovo: ci obbliga semplicemente a rassegnarci a vivere le ben note miserie dell'Europa del passato o del Terzo Mondo del presente. Per affrontare la realtà è necessario un coraggio autentico, il coraggio di affrontare l'accelerazione del cambiamento in un mondo che non ha nessun freno automatico. E ciò costituisce una sfida intellettuale, morale e politica di grande sostanza.
Gli avvertimenti riguardanti i falsi limiti producono un danno doppio. Da una parte discreditano la percezione dei limiti reali, spuntando un utensile intellettuale indispensabile alla comprensione efficace del nostro futuro. Ma dall'altra, peggio ancora, questi allarmi distolgono l'attenzione dai nostri problemi autentici. Nel mondo occidentale c'è una vivida tradizione politica che alimenta la diffidenza verso la tecnologia. Estendere un atteggiamento che in primo luogo disciplina lo scetticismo per mezzo della verifica sperimentale della tecnologia, confrontandola con realtà effettiva e quindi scegliendo strategie funzionanti per guidare il cambiamento, può contribuire fortemente alla sopravvivenza della vita e della civiltà. Ma l'insieme di persone preoccupate della tecnologia e del futuro è una risorsa limitata. Il mondo non può permettersi il lusso di disperdere i propri sforzi in futili campagne per spazzare indietro la marea globale della tecnologia con la stretta ramazza dei movimenti occidentali di protesta. I problemi all'orizzonte richiedono strategie molto più raffinate. Nessuno può tuttavia dire per certo quali problemi si dimostreranno essere i più importanti, o quali strategie si dimostreranno essere le migliori per risolverli. Tuttavia, possiamo già vedere nuovi problemi di grande importanza, e possiamo selezionare strategie che paiono promettenti in misura variabile. In breve, possiamo vedere il futuro quanto basta per individuare gli obiettivi che vale la pena di perseguire.
Parte Terza: PERICOLI E SPERANZE
Capitolo 11: Motori di distruzione Capitolo 12: Strategie e sopravvivenza ---------Capitolo 11: Motori di distruzione La Minaccia delle Macchine Motori di Potere Sistemi Affidabili Strategie per arrivare agli Assemblatori Il Successo è Possibile? Non vi è alcun dubbio che l'esercito più formidabile mai visto sulla terra sia quello composto da una sorta di soldati che, per la loro minuscola dimensione, non sono visibili. - Sir WILLIAM PERRY, parlando dei microbi, 1640 Gli assemblatori-replicatori e le macchine pensanti pongono minacce basilari alla vita sulla Terra. Gli organismi odierni hanno capacità ben lontane dai limiti del possibile, e le nostre macchine stanno evolvendo molto più velocemente di quanto stiamo facendo noi stessi. Appare probabile che nell'arco di poche decadi possano sorpassarci. Se non impareremo a convivere in sicurezza con esse, il nostro futuro sarà tanto eccitante quanto breve. Non possiamo sperare di intuire in anticipo tutti i problemi, ma rivolgendo la nostra attenzione verso le questioni più grandi e più basilari, possiamo forse prevedere le sfide più ardue e ricavare qualche idea su come affrontarle. Di certo verranno scritti libri interi sugli sconvolgimenti sociali in arrivo: Cosa succederà all'ordine globale quando gli assemblatori e l'ingegneria automatica elimineranno la necessità del commercio internazionale? Come cambierà la società quando gli individui potranno vivere indefinitamente?
Cosa faremo quando gli assemblatori-replicatori potranno costruire qualsiasi cosa, o quasi, senza necessità di lavoro umano? Cosa faremo quando i sistemi di IA potranno pensare più velocemente degli umani? (E prima di saltare alla conclusione che la gente dovrà perdere ogni speranza di poter creare o fare una qualsiasi cosa, gli autori di questi libri potrebbero prendere in esame il modo in cui i corridori considerano le automobili, o quello in cui i pittori considerano le macchine fotografiche.) Di fatto diversi autori hanno già previsto e discusso alcune di queste problematiche. Ognuna di esse è una questione di importanza straordinaria, ma la più fondamentale di tutte è la questione della sopravvivenza della vita e della libertà. Dopotutto, se la vita o la libertà verranno annientate, allora le nostre idee sui problemi sociali non avranno più alcuna importanza. La Minaccia delle Macchine Nel Capitolo 4, ho descritto alcune delle cose che gli assemblatori-replicatori faranno per noi, se li utilizzeremo propriamente. Alimentati da carburanti o dalla luce solare, essi saranno in grado di fabbricare quasi qualunque cosa (incluse altre copie di se stessi) a partire da materiali comuni. Anche gli organismi viventi sono alimentati da carburanti o dalla luce del sole, ed anche loro possono creare copie di se stessi a partire da materiali ordinari. Ma a differenza dei sistemi basati sugli assemblatori, non possono costruire "quasi qualunque cosa". L'evoluzione genetica ha limitato la vita a restare vincolata a sistemi basati su DNA, RNA e ribosomi, ma l'evoluzione "memetica" condurrà verso macchine simili a quelle viventi, basate su nanocomputer ed assemblatori. Ho già descritto in che modo le macchine molecolari costruite dagli assemblatori saranno differenti dal macchinario molecolare della vita costruito dai ribosomi. Gli assemblatori saranno in grado di costruire tutto quello che i ribosomi possono costruire, e molto altro ancora; i replicatori basati sugli assemblatori saranno quindi in grado di fare tutto quello che la vita può fare, ed altro ancora. E ciò, da un punto di vista evolutivo, pone una ovvia minaccia alle lontre, alle persone, ai cactus ed alle felci - alla intricata tessitura della biosfera ed a tutto quello che apprezziamo. I primi computer transistorizzati vinsero ben presto la sfida contro i più avanzati fra i computer a valvole, perché erano basati su dispositivi tecnicamente superiori. Per la stessa ragione anche i più rozzi fra i primi replicatori basati sugli assemblatori potranno vincere sui più avanzati organismi moderni. "Piante" con "foglie" non più efficienti delle odierne celle solari potranno adeguatamente competere con piante reali, affollando la biosfera di un immangiabile fogliame. "Batteri" resistenti ed onnivori potrebbero competere nell'ambiente contro batteri reali: essi potrebbero diffondersi come soffi di polline, replicarsi rapidamente, e ridurre la biosfera in polvere nell'arco di giorni. Replicatori pericolosi potrebbero facilmente essere troppo resistenti, troppo piccoli, e di diffusione troppo rapida perché li si possa arrestare - per lo meno se non ci prepareremo in alcun modo. Abbiamo già abbastanza problemi a controllare i virus o i moscerini della frutta (1). Fra le persone consapevoli della nanotecnologia, questa minaccia è divenuta nota come il problema della "melassa grigia" (gray goo). Per quanto delle masse di replicatori incontrollati non si presenteranno necessariamente né grigi né melensi, nell'aspetto, il termine "gray goo" sottolinea che replicatori in grado di cancellare la vita potrebbero allo stesso tempo apparire come qualcosa di meno attraente di una unica massa di tubercoli composta da un'unica specie vivente. Pur essendo "superiori" in senso evolutivo, non necessariamente sarebbero qualcosa a cui potremmo attribuire un qualche valore. Ci siamo evoluti per amare un mondo ricco di cose viventi, ricco di idee e di diversità, e non c'è quindi alcuna ragione di apprezzare il gray goo per il solo fatto che esso sarebbe effettivamente capace di diffondersi ubiquamente. Infatti, prevenendo il gray goo, daremo prova della nostra superiorità evolutiva.
La minaccia del gray goo mette perfettamente in chiaro una cosa: non possiamo permetterci certi tipi di incidenti con gli assemblatori che sono in grado di replicarsi. Nel capitolo 5, ho descritto alcune delle cose che i sistemi avanzati di IA potranno fare per noi se li utilizzeremo propriamente. Nel caso più estremo, essi potranno anche incorporare gli schemi del pensiero e lavorare a ritmi che nessun cervello di mammifero potrebbe eguagliare. Sistemi IA che lavorino assieme, come la gente fa, saranno in grado di capacità di pensiero superiori non solo a quelle degli individui ma anche a quelle di intere società. Ancora una volta, l'evoluzione dei geni ha vincolato la vita a determinati limiti. Ancora una volta, l'evoluzione a cui i memi vengono sottoposti dagli esseri umani, ed eventualmente dalle macchine, farà progredire il nostro hardware ben oltre i limiti della vita. E di nuovo, da un punto di vista evolutivo, tutto questo pone una ovvia minaccia. La conoscenza accresce il potere ed il potere accresce ulteriormente la conoscenza. A seconda della loro natura e dei loro obiettivi, i sistemi avanzati di IA potrebbero raccogliere abbastanza conoscenza e potere da sostituirsi a noi, se non ci saremo preparati adeguatamente. E come accadrà per i replicatori, la semplice "superiorità" evolutiva non renderà necessariamente i vincitori migliori degli sconfitti, secondo qualsiasi parametro di giudizio che non sia la bruta abilità di competizione. Questa minaccia mette perfettamente in chiaro una cosa: abbiamo bisogno di trovare modi di vita che siano compatibili con l'esistenza della macchine pensanti, affinché queste possano divenire dei cittadini osservanti delle leggi. Motori di Potere Certi tipi di replicatori e di sistemi di IA potrebbero obbligarci ad un confronto con forme di hardware capaci di azione rapida, efficace ed indipendente. Ma la novità di questa minaccia proveniente dalle stesse macchine - non dovrebbe renderci ciechi di fronte ad un pericolo ben più tradizionale. Replicatori e sistemi di IA possono anche servire come grandi motori di potere, se adoperati senza freni da stati sovrani. Lungo l'intera storia umana, gli stati hanno sviluppato tecnologie per estendere il loro potere militare, ed essi senza dubbio giocheranno un ruolo dominante nello sviluppo di replicatori e di sistemi di IA. Gli stati potrebbero sfruttare i replicatori per costruire, rapidamente, facilmente ed in quantità, interi arsenali di armi avanzate. Gli stati potrebbero sfruttare dei replicatori "speciali" in modo più diretto, allo scopo di diffondere una sorta di guerra batteriologica - di un tipo peculiare, basata principalmente su un tipo molto più pratico di "germi", perché programmabili e controllati da dei computer. A seconda delle loro capacità, i sistemi IA potrebbero servire da progettisti di armi, da strateghi o da combattenti (2). Gli stanziamenti militari di fondi supportano infatti ricerche sia nell'ambito delle tecnologie molecolari che in quello dell'intelligenza artificiale. Gli stati possono sfruttare gli assemblatori o i sistemi avanzati di IA per ottenere progressi radicali repentini e destabilizzanti. Ho precedentemente discusso sulle ragioni per cui c'è da attendersi che l'avvento dei replicatori comporterà trasformazioni relativamente improvvise. Essendo i replicatori capaci di replicarsi repentinamente, potrebbero diventare numericamente abbondanti nell'arco di pochi giorni. Essendo in grado di fare quasi qualunque cosa, potrebbero essere programmati per duplicare armi già esistenti ma costruite stavolta con materiali superiori. Essendo capaci di lavorare con componenti standard e ben compresi (atomi), potrebbero altrettanto rapidamente realizzare cose che siano state progettate precedentemente, prima che si compiesse il passo avanti tecnologico degli assemblatori. I prodotti risultanti dalla progettazione anticipata, potrebbero includere germi programmabili e altre cose malefiche ed inedite. Per tutte queste ragioni, uno stato che realizzi il passo avanti degli assemblatori, potrebbe rapidamente mettere in piedi una forza militare decisiva se non proprio nell'arco di una notte, quantomeno con una velocità senza precedenti.
Gli stati potrebbero impiegare sistemi di IA altrettanto avanzati per altri scopi analoghi. L'ingegneria automatizzata faciliterà la progettazione anticipata accelerando lo sviluppo degli assemblatori. Sistemi IA capaci di costruire altri sistemi IA ancora migliori, provocheranno una dirompente esplosione della disponibilità di capacità tecniche, con effetti difficili da prevedere. Sia i sistemi IA che gli assemblatori-replicatori doteranno gli stati della possibilità di accrescere le loro capacità militari di diversi ordini di grandezza, nonché in tempi brevi. I replicatori possono essere più potenti delle armi nucleari: devastare la Terra con le bombe richiede masse di congegni hardware esotici e isotopi rari, ma per distruggere tutta la vita con i replicatori basta un semplice granello composto da elementi ordinari. I replicatori faranno compagnia alle armi nucleari come potenziale causa di estinzione, ampliando la preoccupazione morale per l'estinzione potenziale su di un contesto molto più esteso. A dispetto del loro potenziale in termini di macchine di distruzione, nanotecnologia e sistemi IA si prestano ad utilizzi molto più subdoli di quelli possibili con le armi nucleari. Una bomba può solo spazzare via le cose. Ma le nanomacchine e i sistemi IA potrebbero essere utilizzati per infiltrare, sequestrare, modificare o governare un territorio o il mondo intero. Anche la polizia più spietata non ha alcuna possibilità d'utilizzo per le armi nucleari, mentre ne ha per cimici elettroniche, droghe, omicidi ed altri meccanismi flessibili di potere. Con la tecnologia avanzata, gli stati saranno in grado di consolidare il loro potere sulla gente. Come hanno già fatto geni, memi, organismi ed hardware, anche gli stati si sono evoluti. Le loro istituzioni si sono diffuse (con variazioni) grazie a sviluppo, scissioni, imitazioni e conquiste. Gli stati in guerra lottano come belve feroci, ma sfruttando i loro cittadini come ossa, cervelli e muscoli. I prossimi passi avanti tecnologici metteranno gli stati a confronto con nuove pressioni e nuove opportunità, spronando gli stati ad attuare trasformazioni radicali della loro condotta. Per noi, tutto ciò rappresenta, naturalmente, motivo di preoccupazione. Gli stati, storicamente, sono sempre stati degli eccellenti macellai ed oppressori. Da un certo punto di vista, uno stato è semplicemente la somma delle persone che compongono i suoi apparati organizzativi: le azioni di queste persone si sommano tutte insieme per dar forma alle azioni dello stato. Ma la stessa cosa può dirsi di un cane e delle sue cellule costituenti, eppure un cane è chiaramente ben più di un blocco di cellule. Sia i cani che gli stati hanno evoluto dei sistemi e delle strutture che influenzano il comportamento delle loro parti. Per migliaia di anni i cani si sono in gran parte evoluti per piacere agli uomini, poiché sono sopravvissuti ed hanno potuto riprodursi solo in dipendenza dai desideri umani. Per migliaia di anni anche gli stati si sono evoluti, sebbene sotto pressioni selettive diverse. Gli individui possono esercitare molto più potere sui loro cani che sui "loro" stati. Tuttavia, anche gli stati possono beneficiare del gradimento della gente e la concretezza della loro esistenza dipende dalla loro capacità di usare le persone, siano essi leaders, poliziotti o soldati. Potrebbe sembrare paradossale dire che la gente ha un potere limitato sugli stati: dopo tutto, non c'è forse la gente dietro ogni azione di uno stato? Ma nelle democrazie i capi di stato si lamentano della loro debolezza di poteri, i deputati si piegano ai gruppi di interessi, i burocrati vengono vincolati ad agire entro le regole, ed i cosiddetti "elettori in carica" maledicono in blocco questo disastro. Lo stato agisce e la gente lo influenza, e tuttavia nessuno può dire di avere controllo su di esso. Negli stati totalitari, l'apparato di potere ha una tradizione, una struttura ed una logica interna che non lascia libero nessuno, né i governanti né i governati. Persino i "re" devono agire secondo modalità limitate dalle tradizioni della monarchia e dalle pratiche del potere, se vogliono restare regnanti. Gli stati non sono umani, per quanto composti da umani.
A dispetto di tutto questo, la storia dimostra comunque che i cambiamenti restano possibili, persino cambiamenti per il meglio. Ma i cambiamenti passano sempre da un sistema semi-autonomo e nonumano ad un altro egualmente non-umano, per quanto più umano. Nella nostra speranza di miglioramento non dobbiamo confondere gli stati che indossano una facciata umana con gli stati dotati di istituzioni umane. Descrivere gli stati come un quasi-organismo cattura solo un aspetto della complessa realtà, e tuttavia lascia intuire come essi dovrebbero evolvere in risposta ai passi avanti tecnologici in arrivo. La crescita del potere di un governo, che ha il suo spettacolare apice nei paesi totalitari, lascia intuire una direzione. Gli stati potrebbero diventare più simili agli organismi nel dominare in modo più completo le loro parti. Utilizzando gli assemblatori-replicatori, gli stati potrebbero saturare l'ambiente umano di dispositivi di sorveglianza. Sfruttando l'abbondanza di sistemi IA capaci di comprendere il linguaggio umano, essi potrebbero ascoltare le conversazioni di chiunque senza dover per questo impegnare metà della popolazione come ascoltatori. Utilizzando della nanotecnologia come quella proposta per le macchine di riparazione cellulare, essi potrebbero economicamente sedare, lobotomizzare o in qualche altro modo modificare popolazioni intere. Questa possibilità sembra essere solo una estensione possibile di una trama di potere fin troppo familiare. Il mondo ha già governi che spiano, torturano e usano droghe; la tecnologia avanzata, semplicemente, estenderà queste possibilità. Ma d'altronde, con la tecnologia avanzata gli stati non avrebbero più bisogno di controllare la gente - potrebbero invece semplicemente disfarsene. Dopo tutto, la maggior parte delle persone nella maggior parte degli stati serve come forza-lavoro, oppure come futura forza-lavoro, o infine come addetti alla formazione delle futura forza-lavoro, e la maggior parte dei lavoratori sono esclusivamente impegnati nel fabbricare, spostare e sviluppare prodotti. Uno stato dotato di assemblatori-replicatori non ha bisogno che qualcuno svolga questo tipo di lavoro. Inoltre, i sistemi IA avanzati possono sostituire gli ingegneri, gli scienziati, gli amministratori e persino i capi di governo. La combinazione di nanotecnologia ed IA avanzata renderà possibile realizzare robot intelligenti ed efficaci, e con tali robot uno stato può prosperare anche se nel frattempo si andasse a disfare di qualcuno o persino (in linea di principio) di chiunque. Le implicazioni di questa possibilità dipendono dalla funzione per cui lo stato esiste, se cioè lo stato esista per servire la gente o se la gente esista per servire lo stato. Nel primo caso avremmo uno stato modellato da esseri umani per servire certi scopi umani; le democrazie tendono, quanto meno, verso una rozza approssimazione di questo ideale. L'esistenza di un governo controllato democraticamente che non abbia più bisogno della gente, essenzialmente implicherebbe che non ci sarebbe più bisogno di usare la gente nel ruolo di burocrati o di contribuenti. Ciò apre possibilità inedite, alcune delle quali potrebbero dimostrarsi desiderabili. Nel secondo caso avremmo uno stato evolutosi per sfruttare gli esseri umani, forse secondo linee d'azione totalitarie. Gli stati hanno avuto bisogno della gente in qualità di lavoratori, poiché infatti il lavoro umano è stato il necessario fondamento del potere. Inoltre, il genocidio è sempre stato di attuazione costosa e problematica. E tuttavia, in questo secolo diversi stati totalitari hanno massacrato i loro cittadini a milioni. La tecnologia avanzata renderà non necessari i lavoratori e facile il genocidio. La storia suggerisce che gli stati totalitari potrebbero quindi eliminare del tutto la loro popolazione. Non c'è nulla di consolante in tutto ciò. Sembra che uno stato intenzionato ad assoggettarci biologicamente, ed al tempo stesso in grado di farlo, semplicemente ci ucciderebbe. La minaccia della tecnologia avanzata in mano ai governi, rende perfettamente chiara una cosa: non possiamo permetterci di avere uno stato oppressivo che ci guidi fino all'avvento dei prossimi
passi avanti tecnologici. I problemi di base che ho fini qui delineato sono ovvi: nel futuro, come nel passato, le nuove tecnologie tenderanno di per se stesse verso utilizzi accidentali o abusivi. Poiché i replicatori e le macchine pensanti ci doteranno di nuovi grandi poteri, il potenziale per incidenti ed abusi crescerà nella stessa misura. Queste possibilità pongono una minaccia autentica alle nostre vite. Alla maggior parte della gente piace avere una probabilità di vita, nonché di poter scegliere liberamente il modo in cui vivere. Questa meta potrebbe sembrare troppo utopica, quanto meno in alcune parti del mondo. Un tale obiettivo non significa dover forzare chiunque a conformarsi ad un qualche schema d'ordine superiore; Piuttosto, significa principalmente evitare schiavitù e morte. E tuttavia, come il raggiungimento di un sogno utopico, esso condurrà verso un futuro di meraviglie. Dati quindi questi problemi di vita o di morte, e questo obiettivo generale, possiamo prendere in considerazione le contromisure che potrebbero aiutarci nel successo. La nostra strategia dovrebbe coinvolgere persone, principi ed istituzioni, ma dovrebbe anche affidarsi a strategie che, inevitabilmente, coinvolgeranno la tecnologia. Sistemi Affidabili Per usare in tutta sicurezza tecnologie così potenti, dobbiamo fabbricare hardware del quale possiamo fidarci. Per averne fiducia, dobbiamo essere in grado di giudicare accuratamente fatti di tipo tecnico, una abilità che a sua volta dipenderà in parte dalla qualità delle istituzioni di giudizio. Tuttavia, cosa ancor più fondamentale, questa abilità dipenderà anche dalla effettiva possibilità fisica di realizzare hardware affidabile. E questa è una questione di affidabilità dei componenti ed affidabilità dei sistemi. Spesso fabbrichiamo componenti affidabili, persino in mancanza dell'aiuto degli assemblatori. "Affidabile" non significa "indistruttibile" - qualunque cosa può rompersi se posta troppo vicina ad una esplosione nucleare. Non significa neanche "tenace" - un apparecchio televisivo potrebbe essere affidabile, e tuttavia non sopravvivere ad un rimbalzo su un pavimento di cemento. Piuttosto, diciamo che una certa cosa è "affidabile" quando possiamo contare sul fatto che essa funzionerà svolgendo il compito per cui è progettato. Un componente affidabile non deve necessariamente essere la perfetta incarnazione di una perfetta progettazione: ha solo bisogno di essere una incarnazione abbastanza buona di una progettazione abbastanza previdente. Un ingegnere che progetti ponti potrebbe anche essere incerto riguardo la forza dei venti, il peso del traffico e la forza dell'acciaio, ma ipotizzando venti forti, traffico pesante e acciaio debole può progettare un ponte in grado di reggere. I guasti inattesi dei componenti, di solito derivano da difetti dei materiali. Ma gli assemblatori costruiranno componenti in cui esiste solo un trascurabile numero di atomi la cui disposizione è erronea - anzi, persino materiali del tutto privi di atomi fuori posto, se necessario (3). Ciò renderà i componenti perfettamente uniformi e, in senso lato, perfettamente affidabili. Le radiazioni, tuttavia, potranno ancora causare danni, perché non esiste materiale su cui un raggio cosmico non possa inaspettatamente colpire un atomo allontanandolo dalla sua posizione (4). In un componente sufficientemente piccolo (persino in un dispositivo di memoria di un computer moderno), una singola particella di radiazione può causare un guasto. Ma i sistemi possono lavorare anche se le loro parti si guastano; la chiave sta nella ridondanza. Immaginiamo un ponte sorretto da cavi, i quali possano degradarsi in base al caso, ognuno dei quali si rompe, in un momento impredicibile, all'incirca una volta lungo un periodo di un anno. Se il ponte potesse cadere quando un cavo si rompe, il ponte stesso sarebbe troppo pericoloso da
utilizzare. Immaginiamo, tuttavia, che un singolo cavo rotto richieda un giorno per essere riparato (perché squadre di operai possono intervenire prontamente per cambiare il cavo in seguito ad una richiesta d'intervento) e che inoltre se il ponte richiede cinque cavi per potersi sostenere, sia stato realizzato con sei cavi di sostegno. Quindi, se un cavo si rompe, il ponte continua a reggersi. Arrestando il traffico e sostituendo il cavo rotto, gli operai del ponte possono ripristinare la sicurezza. La distruzione del ponte è possibile solo se un secondo cavo dovesse rompersi nello stesso giorno in cui si è rotto il primo. Sostenuto da sei cavi, ognuno con una probabilità di rottura in uno specifico giorno pari a 1 su 365, il ponte probabilmente resisterà circa dieci anni. Sebbene sia pur sempre un miglioramento, questa situazione resta comunque temibile. E tuttavia un ponte con dieci cavi (i cinque necessari più cinque extra) cadrà solo nel caso che 6 cavi si dovessero rompere tutti nello stesso giorno: il sistema di sospensione ha quindi una probabilità di reggere per oltre dieci milioni di anni. Con quindici cavi, il tempo di vita atteso del ponte diventa pari ad oltre mille volte l'età attuale della Terra. La ridondanza può comportare una esplosione esponenziale del grado di sicurezza. La ridondanza funziona meglio quando i componenti ridondanti sono effettivamente indipendenti. Se non ci fidiamo della loro progettazione, dobbiamo usare componenti progettati indipendentemente; se esiste la probabilità che una bomba, una pallottola o un raggio cosmico possano danneggiare diversi componenti circostanti, allora dobbiamo ricorrere più diffusamente a parti ridondanti. Gli ingegneri che vogliano fornire trasporto affidabile fra due isole non dovrebbero semplicemente aggiungere cavi ad un ponte. Essi dovrebbero costruite due ponti ben distinti che utilizzino progettazioni differenti, quindi aggiungere un tunnel, un traghetto, ed un paio di aereoporti a terra. Anche gli ingegneri che progettano computer sfruttano la ridondanza. La Stratus Computer Inc., per esempio, ha realizzato una macchina che utilizza quattro unità centrali di elaborazione (disposte in due coppie) (5) per svolgere il lavoro di una sola, ma per farlo in modo molto più affidabile. Di ogni coppia viene continuamente esaminata la sua consistenza interna, ed una coppia guasta può essere sostituita da un'altra mentre la coppia gemella continua ad elaborare. Una forma anche più potente di ridondanza è quella della progettazione di diversità (6). Nell'hardware di un computer ciò significa l'impiego di diversi computer con progettazioni differenti, i quali lavorano tutti in parallelo. In questo caso la ridondanza può non solo porre rimedio ai guasti di un pezzo di hardware, ma anche ad errori nella sua progettazione. Molto si è lavorato sul problema di scrivere programmi per computer grandi e privi di errori; molta gente considera un tale programma impossibile da sviluppare e da manutenere. Ma i ricercatori dello UCLA Computer Science Department hanno dimostrato che la progettazione diversificata può essere usata anche nel software: diversi programmatori hanno affrontato in modo indipendente lo stesso problema, e successivamente tutti i loro programmi sono stati fatti girare in parallelo rendendo il risultante sistema software resistente agli errori di programmazione che si manifestavano in alcune sue parti. Possiamo sfruttare la ridondanza per controllare i replicatori(7). Come le macchine di riparazione cellulare confrontano filamenti multipli di DNA per essere in grado di correggere le mutazioni nei geni delle cellule, i replicatori potrebbero confrontare copie multiple delle loro istruzioni (o che utilizzare altri efficaci sistemi di correzione degli errori (8)) per essere in grado di resistere alle mutazioni nei loro "geni". Anche in questo caso la ridondanza può produrre una esplosione esponenziale della sicurezza. Possiamo costruire sistemi che siano estremamente affidabili, ma questo comporta dei costi. La ridondanza rende i sistemi più pesanti, più massicci, più dispendiosi e meno efficienti. La nanotecnologia, tuttavia, fabbricherà la maggior parte delle cose in modo che siano più leggere, più
piccole, più economiche e più efficienti. Questo rende la ridondanza e l'affidabilità obiettivi più pratici da perseguire. Al momento, è raro che si desideri pagare il costo di sistemi il più possibile sicuri; tolleriamo guasti più o meno desiderati e di rado prendiamo in considerazione i limiti reali dell'affidabilità. Ciò influenza il nostro giudizio su ciò che effettivamente può essere ottenuto. C'è anche un fattore psicologico che distorce il nostro senso di quale sia il grado di affidabilità con cui le cose possono essere prodotte: i guasti ci restano fermamente in mente, ma i quotidiani successi ottengono ben poca attenzione. I media amplificano questa tendenza riportando i guasti più drammatici accaduti in tutto il mondo, mentre ignorano l'infinita lista di tediosi successi. E quel che è peggio, i componenti dei sistemi ridondanti potrebbero guastarsi in modi visibili, suscitando allarmismi: immaginate come i media riferirebbero la rottura di un cavo di sostegno per un ponte, anche quando il ponte sia del tipo super-sicuro, con quindici cavi, descritto precedentemente. E poiché ogni componente ridondante aggiunto si somma alla probabilità complessiva della rottura di un componente, potrebbe persino sembrare che l'affidabilità complessiva del sistema stia peggiorando mano a mano che il sistema si avvicina alla perfezione. Apparenze a parte, i sistemi ridondanti, costruiti con componenti abbondanti e non privi di difetti, spesso sono perfettamente affidabili. Sistemi in cui la ridondanza sia stata estesamente impiegata, potrebbero sopravvivere persino alle pallottole o alle bombe. Ma che dire degli eventuali errori di progettazione? Anche avere una dozzina di parti ridondanti non è poi una gran cosa se queste condividono un errore fatale di progettazione. La diversificazione progettuale è una risposta a tale questione; l'impiego di accurate procedure di collaudo è un'altra buona risposta. Possiamo affidabilmente evolvere buoni progetti senza essere buoni progettisti: abbiamo bisogno solo di essere bravi nel collaudo, nella manutenzione, e dotati di molta pazienza. La natura ha evoluto del macchinario molecolare funzionante tramite un processo completamente privo di mente di manutenzione e di collaudo. Essendo dotati di menti, possiamo fare altrettanto o anche meglio. Potrebbe risultarci facile progettare dell'hardware affidabile se riuscissimo a sviluppare affidabili sistemi di ingegneria automatizzata. Ma questo problema solleva la questione ben più ampia di come sviluppare sistemi di intelligenza artificiale che risultino affidabili. Abbiamo pochi problemi a realizzare sistemi di IA con hardware affidabile, ma che dire del loro software? Analogamente a sistemi IA e menti umane attuali, i sistemi avanzati di IA saranno delle combinazioni sinergetiche di molte parti più semplici. Ogni parte sarà ben più specializzata e ben meno intelligente del sistema complessivo. Alcune parti andranno alla ricerca degli schemi presenti in immagini, suoni, o in altri dati, ed avanzeranno proposte su ciò che questi dati potrebbero significare. Altre parti confronteranno e giudicheranno le proposte avanzate dalle prime. Così come i sistemi di riconoscimento di schemi nel sistema visivo umano soffrono di errori ed illusioni ottiche, così sarà anche nei sistemi IA per i loro sotto-sistemi dedicati al riconoscimento di schemi. (Di fatto, alcuni sistemi avanzati che realizzano la funzione della visione nelle macchine, già soffrono delle stesse illusioni ottiche che ci sono familiari). E proprio come altre parti della mente umana possono spesso identificare e compensare le illusioni, altrettanto potranno fare altre parti dei sistemi IA. Come accade nelle menti umane, l'intelligenza delle macchine coinvolgerà sia delle parti mentali(9) che avanzeranno alcune prime ed esitanti ipotesi, sia altre parti mentali che scarteranno la maggioranza delle ipotesi cattive prima di dedicare maggiore attenzione alle ipotesi restanti o di influire su decisioni importanti. Le parti mentali che rigettano le idee d'azione basandosi su criteri di etica, corrispondono a ciò che noi chiamiamo coscienza. I sistemi IA con molte parti, avranno spazio a sufficienza per la ridondanza e la diversificazione di progettazione delle parti, rendendo
quindi possibile l'affidabilità. Un autentico e flessibile sistema IA deve evolvere idee. Per far questo, esso deve individuare o formare ipotesi, generare variazioni, sperimentarle, e quindi modificare o scartare quelle che si rivelano inadeguate. L'eliminazione di una qualsiasi di queste capacità renderebbe il sistema stupido, cocciuto o insensato ("questa macchina arrabattata non può pensare e non vuole imparare dai suoi sbagli - buttiamola!"). Per evitare di restare intrappolati negli iniziali equivoci concettuali, bisogna prendere in considerazione punti di vista che sono in conflitto, vedendo quanto bene spieghino i dati e se un punto di vista possa spiegarne un altro. La comunità scientifica lavora attraverso un processo analogo. E in un articolo intitolato "The Scientific Community Metaphor" (10), William A. Kornfeld e Carl Hewitt del MIT Artificial Intelligence Laboratory hanno suggerito che i ricercatori dell'IA dovrebbero scrivere i loro programmi in modo che ricalchino ancor più strettamente la struttura evolvente della comunità scientifica. Essi evidenziano il pluralismo della scienza, ossia la diversificazione delle sue figure in competizione: propositori, sostenitori e critici. Senza propositori, le idee non possono apparire; senza sostenitori non possono crescere; e senza critici ad estirparle, le cattive idee possono proliferare abnormemente rispetto a quelle buone. Tutto ciò ha valore sia per la scienza, che per la tecnologia, nonché per ciò che accade fra le diverse parti delle nostre menti. L'esistenza di un mondo pieno di propositori, promotori e critici, così diversi e ridondanti, è ciò che rende affidabile il progresso della scienza e della tecnologia. L'esistenza di un numero maggiore di propositori, rende più frequente la generazione di buone proposte; L'esistenza di un numero maggiore di critici rende più vulnerabili le cattive proposte. Ne risultano perciò idee migliori e più numerose. Una analoga forma di ridondanza, può aiutare i sistemi IA a sviluppare idee plausibili. La gente si fa guidare nelle proprie azioni da certi standard di verità ed etica, e dovremmo essere in grado di evolvere dei sistemi IA che facciano la stessa cosa, ma in modo più affidabile. Capaci di pensare un milione di volte più velocemente di noi, essi avranno più tempo per una seconda riflessione. Pare quindi che si possa rendere affidabili i sistemi IA, quanto meno per quelli che sono gli standard umani (11). Ho spesso fatto delle analogie fra sistemi IA e singole menti umane, ma la rassomiglianza non deve necessariamente essere stretta. Un sistema che possa imitare una persona non ha bisogno di essere come una persona nell'aspetto, ed è invece molto probabile che un sistema di ingegneria automatizzata non lo sarà affatto. Una proposta (denominata "sistema Agora", termine preso a prestito dal greco, dove è usato per indicare il luogo di incontro e di mercato) (12) consisterebbe di molti pezzi di software indipendenti, i quali interagiscono offrendosi l'un l'altro dei servizi in cambio di denaro. La maggior parte dei pezzi sarebbero degli ingenui specialisti, alcuni in grado di suggerire una scelta di progetto, altri in grado di analizzarne una. Proprio come l'ecologia della Terra ha evoluto degli organismi straordinari, così questa economia dei computer potrebbe evolvere progetti straordinari - e forse secondo un processo altrettanto privo di mente. Ed in più, un tale sistema sarebbe sparpagliato su molte macchine e composto da molte parti scritte da molte persone, per cui esso sarebbe vario e robusto, e sarebbe inoltre difficile che un unico gruppo se ne impadronisca e ne abusi. Alla fine, in un modo o nell'altro, i sistemi di ingegneria automatizzata saranno capaci di progettare le cose, in modo molto più affidabile di quello possibile a qualsiasi attuale gruppo di ingegneri umani (13). La nostra sfida sarà quella di progettare correttamente tali sistemi. Abbiamo bisogno di istituzioni umane che, affidabilmente, sviluppino sistemi affidabili. Le istituzioni umane hanno evoluto sistemi artificiali, e questi sistemi possono spesso risolvere problemi impossibili da risolvere per i loro singoli membri. Ciò rende tali sistemi una sorta di
"sistema di intelligenza artificiale". Le compagnie commerciali, gli eserciti e i laboratori di ricerca ne sono tutti esempi, come lo sono le libere strutture del mercato e della comunità scientifica. Persino i governi potrebbero essere visti come sistemi di intelligenza artificiale - sistemi grossolani, indolenti e ottusi, ma pur sempre sovra-umani nell'essenza della loro capacità. E cos'altro potrebbero essere i controlli di costituzionalità delle leggi ed i bilanci statali, se non un tentativo di accrescere l'affidabilità di un governo grazie alla diversificazione e alla ridondanza delle istituzioni? Quando costruiremo macchine intelligenti, le useremo affinché si controllino e si bilancino l'una con l'altra. Applicando dei sani principi, potremmo diventare capaci di sviluppare anche delle affidabili istituzioni di orientamento tecnico, che siano dotate di forti controlli e bilanciamenti, e che li impieghino per guidare lo sviluppo dei sistemi di cui necessitiamo per riuscire a gestire i passi avanti tecnologici in arrivo. Strategie per arrivare agli Assemblatori Una qualche forza del mondo (che sia degna di fiducia o meno) si conquisterà una posizione di supremazia nello sviluppo degli assemblatori; chiamiamola "la forza dominante". A causa della importanza strategica degli assemblatori, la forza dominante sarà probabilmente una qualche organizzazione o istituzione totalmente controllata da qualche governo o gruppo di governi. Per semplificare i termini della questione, supponiamo per il momento che noi (i "buoni", quelli che tentano di comportarsi "saggiamente") fossimo in grado di influenzare le politiche che guidano la forza dominante. Per i cittadini degli stati democratici, l'esercizio della propria influenza su tali politiche sembra essere una buona attitudine da adottare. Che cosa dovremmo fare per migliorare le nostre probabilità di conquistarci un futuro in cui valga la pena di vivere? E che cosa possiamo fare? Possiamo cominciare considerando quello che non deve accadere: non dobbiamo permettere che neanche un singolo assemblatore-replicatore del tipo sbagliato venga liberamente disperso nell'ambiente di un mondo impreparato. Una preparazione assoluta pare impossibile, (come descrivo nel seguito), ma sembra comunque che la preparazione dovrebbe a sua volta basarsi su sistemi costruiti da assemblatori, i quali potranno essere fabbricati solo dopo che la fabbricazione di replicatori pericolosi sia già diventata possibile. La progettazione anticipata può aiutare la forza dominante a preparasi adeguatamente, nonostante che persino le più energiche azioni di previsione paiano proprio inadeguate a prevenire un'epoca di pericoli. E la ragione di tale inadeguatezza è piuttosto diretta: i replicatori pericolosi saranno enormemente più semplici da progettare rispetto ai sistemi che possono contrastarli, proprio come un batterio è di gran lunga più semplice rispetto ad un sistema immunitario. Abbiamo bisogno di strategie per frenare la nanotecnologia finché non avremo imparato a domarla. Una strategia ovvia è l'isolamento: la forza dominante potrà contenere i sistemi replicatori entro mura multiple oppure in laboratori posti nello spazio. Replicatori molto semplici saranno del tutto privi di intelligenza, e non saranno perciò progettati perché possano evadere dall'isolamento e diffondersi selvaggiamente. Il loro contenimento non sembra una sfida particolarmente ardua. Ancora meglio, saremo in grado di progettare replicatori che, in virtù della loro stessa progettazione, non possano evadere e diffondersi selvaggiamente. Possiamo fabbricarli dotandoli di contatori interni (come quelli delle cellule) che limitino le loro replicazioni ad un numero fissato. Possiamo costruirli in modo che necessitino di speciali "vitamine" sintetiche, o di condizioni ambientali bizzarre che possano esistere solo in laboratorio. Sebbene si potrebbero fabbricare replicatori dotati di tenacia e voracità superiori a quelle di qualsiasi moderna peste, possiamo
realizzarli anche in modo che siano utili ma innocui. Poiché li progetteremo partendo da zero, i replicatori non avranno bisogno di possedere neanche le più rudimentali fra le abilità di sopravvivenza che l'evoluzione ha costruito nelle nostre cellule. Inoltre, essi non hanno bisogno di evolvere, Possiamo fornire ai replicatori copie ridondanti delle loro istruzioni "genetiche", corredate da meccanismi di riparazione atti a correggere qualsiasi mutazione. Possiamo progettarli perché smettano di lavorare molto prima che si possa accumulare un numero di alterazioni sufficienti a rendere significativamente possibile una mutazione duratura. Infine, possiamo progettarli dotandoli di caratteristiche che siano d'ostacolo alla loro evoluzione, anche nel caso dovesse verificarsi qualche mutazione . Gli esperimenti mostrano che la maggior parte dei programmi per computer (a parte quelli specificatamente progettati per sistemi IA (14), come per esempio EURISKO del Dr. Lenat) raramente rispondono alle mutazioni con impercettibili trasformazioni; piuttosto, essi smettono semplicemente di funzionare. Poiché non possono cambiare in modi utilizzabili, non possono neanche evolvere. A meno che non siano stati appositamente progettati, i replicatori diretti da nanocomputer saranno soggetti allo stesso limite. Gli organismi moderni sono relativamente capaci di evolvere, e ciò in parte è anche dovuto al fatto che essi discendono da antenati che evolvevano. Essi si sono perciò evoluti per evolvere; E questa è una delle ragioni che giustifica la complessità della riproduzione sessuale e del rimescolamento di segmenti cromosomici durante la produzione di cellule spermatiche e cellule-uovo. Possiamo semplicemente evitare, perciò, di dotare i replicatori di simili capacità (15). Per la forza dominante, dovrebbe essere facile rendere utili, innocui e stabili gli assemblatorireplicatori. Riuscire invece ad evitare che gli assemblatori vengano rubati ed abusati, è un problema ben diverso e ben più grosso, poiché si tratta di un gioco ben diverso, combattuto contro avversari intelligenti. Come prima strategia, potremmo ridurre l'incentivo al furto di assemblatori rendendoli disponibili in forme sicure. Questo, dovrebbe altresì ridurre l'incentivo allo sviluppo indipendente di assemblatori da parte di altri gruppi. La forza dominante, dopotutto, verrà immediatamente seguita a ruota da altre forze. Assemblatori Limitati Nel capitolo 4 ho descritto come un sistema di assemblatori in una vasca, possa costruire un eccellente motore per un razzo. Ho anche evidenziato che sapremo realizzare sistemi assemblatori che operino come semi, assorbendo la luce solare e materiali ordinari e accrescendosi fino a diventare quasi qualunque cosa. Questi sistemi a scopo-specifico, di per se stessi non saranno replicanti, o quanto meno lo saranno solo limitatamente ad un numero di replicazioni fissato. Essi semplicemente costruiranno quello che sono programmati a costruire, e solo quando verrà detto loro di costruirlo. Chiunque non sia dotato di specifici strumenti costruiti da assemblatori, dovrebbe essere incapace di riprogrammarli perché svolgano altri compiti. Con l'impiego di assemblatori caratterizzati da questo tipo di limitazioni, la gente sarà in grado di fabbricare qualsiasi cosa desideri e in qualsiasi quantità desideri, soggetta solo alle limitazioni implicite nelle macchine stesse. Se nessuna di queste macchine è programmata per fabbricare armi nucleari, nessuno le fabbricherà; se nessuna è programmata per fabbricare replicatori pericolosi, nessuno li fabbricherà. Se alcune macchine sono programmate per fabbricare case, automobili, computer, spazzolini da denti e quant'altro, allora questi prodotti diventeranno economici ed abbondanti. Le macchine costruite tramite degli "assemblatori limitati" ci permetteranno di schiudere l'accesso allo spazio, guarire la biosfera, e riparare le cellule umane. Gli assemblatori limitati possono portare un benessere quasi illimitato sia alla gente che al mondo.
Questa strategia renderà più facile l'esercizio di una pressione morale mirata a rendere immediatamente disponibili gli assemblatori limitati. Ma, in ogni caso, gli assemblatori limitati lasceranno ancora insoddisfatte altre legittime necessità. Gli scienziati avranno bisogno di assemblatori liberamente programmabili per condurre i loro studi; gli ingegneri ne avranno bisogno per la verifica sperimentale delle loro progettazioni. Queste necessità possono essere soddisfatte con l'impiego di "laboratori sigillati per assemblatori". Laboratori Sigillati per Assemblatori Immaginate un accessorio per computer della dimensione del vostro pollice, con un display in cima che serva per mostrarvi lo "stato-dell'arte". La superficie di questo oggetto ha un aspetto monotono simile a plastica grigia, con un numero di serie stampigliato sopra; e tuttavia, questo laboratorio sigillato per assemblatori è esso stesso un oggetto costruito da assemblatori, e contiene moltissime cose. All'interno, fissato appena sotto il display, c'è un grande computer nanoelettronico sul quale viene eseguito un software di simulazione molecolare avanzata (basato sullo stesso software che viene utilizzato durante lo sviluppo progettuale degli assemblatori). Se il nanocomputer "casalingo", costruito anch'esso da assemblatori, è connesso con il laboratorio per assemblatori, e quest'ultimo è con l'interruttore d'alimentazione su "on", il display mostrerà una immagine tridimensionale di ciò che il computer del laboratorio sta simulando, una immagine nella quale gli atomi sono rappresentati come sfere colorate. Con un joystick, potete dirigere il braccio dell'assemblatore simulato affinché costruisca delle cose. Dei programmi appositi possono velocizzare il movimento del braccio, e voi potete così costruire sullo schermo, in un semplice batter d'occhio, strutture anche molto elaborate. La simulazione funziona sempre alla perfezione poiché il nanocomputer imbroglia: quando muovete il braccio simulato per spostare molecole simulate, il computer dirige un braccio vero per spostare molecole vere. Quindi, lo stesso computer verifica i risultati e, se ne riscontra la necessità, corregge i suoi calcoli (16). All'estremità di questo oggetto della dimensione di un pollice, c'è una sfera costituita da molti livelli concentrici. Cavi sottili convogliano dentro la sfera, attraversandone i suoi livelli, energia d'alimentazione e segnali elettrici; Questi cavi consentono al nanocomputer posto in cima di comunicare con i dispositivi al centro della sfera. Il livello più esterno è composto da sensori. Ogni tentativo di rimuovere o penetrare questo livello fa scattare un segnale diretto verso un livello più interno, vicino al nucleo. Il livello successivo a quello esterno è uno spesso guscio sferico di diamante composito pretrattato, ossia che è stato sottoposto a stiramento delle sue regioni più esterne e a compressione di quelle più interne. Questo secondo livello circonda un successivo livello di isolamento termico, che a sua volta circonda un guscio della dimensione di un grano di pepe e composto da blocchi microscopici, opportunamente disposti, di metallo ed ossidante. Tali blocchi sono connessi a dei dispositivi elettrici ignitori. Quando viene penetrato, il livello più esterno composto dai sensori fa scattare gli ignitori. La carica di demolizione è composta dai blocchi di metallo e ossidante, per cui essa brucia in una frazione di secondo e produce un gas di ossidi metallici più denso dell'acqua e quasi altrettanto caldo della superficie del sole. Ma la fiamma è minuscola in estensione e di breve durata, per cui la sfera di diamante riesce comunque a confinare l'enorme pressione sviluppata. Questa carica demolitrice circonda un guscio composito più piccolo, che a sua volta circonda un altro livello di sensori altrettanto in grado di attivare la carica demolitrice. Questi sensori circondano la cavità che contiene infine il vero e proprio "laboratorio sigillato per assemblatori". Precauzioni così elaborate giustificano il termine "sigillato". Nessuno dall'esterno potrebbe aprire il laboratorio senza provocare la distruzione del suo contenuto, e nessun assemblatore o struttura costruita da assemblatori potrebbe evadere dal suo interno. Il sistema è progettato per consentire la fuoriuscita di informazioni ma non di replicatori o strumenti pericolosi. Ogni livello di sensori è
costituito da molti altri, ridondanti, livelli di sensori (17), ognuno pensato per rilevare ogni possibile penetrazione, ed ognuno pronto a sopperire alle eventuali mancanze degli altri. La penetrazione, attivando la carica demolitrice, innalzerebbe la temperatura del laboratorio oltre il punto di fusione di tutte le possibili sostanze contenute al suo interno, rendendo perciò impossibile la sopravvivenza dei dispositivi pericolosi. Questi meccanismi protettivi sono tutti coalizzati contro qualcosa che ha un milionesimo della sua dimensione - il che significa che qualunque cosa sia dentro il laboratorio, essa occupa uno spazio sferico dal diametro non più grande di quello di un capello umano. Sebbene sia molto piccolo secondo gli standard ordinari, questo ambiente di lavoro ha spazio a sufficienza per milioni di assemblatori e milioni di miliardi di atomi. Tali laboratori sigillati per assemblatori consentiranno alla gente di costruire e sperimentare dispositivi, persino dispositivi come replicatori voraci, in condizioni di completa sicurezza. I bambini potranno usare gli atomi all'interno come fossero un insieme di pezzi di un gioco di costruzioni dal numero di parti quasi illimitato. Gli appassionati si scambieranno programmi per costruire diversi congegni. Gli ingegneri costruiranno e sperimenteranno nuove nanotecnologie. I chimici, gli scienziati dei materiali e i biologi costruiranno apparati e eseguiranno esperimenti. In laboratori come questi costruiti attorno a campioni biologici, ingegneri biomedici svilupperanno e sperimenteranno le prime macchine riparacellule. Nel corso di questo lavoro, la gente svilupperà in modo naturale progetti utili, siano essi circuiti per computer, materiali resistenti, dispositivi medici o qualsiasi altra cosa. Dopo una verifica pubblica della loro sicurezza, gli oggetti prodotti potrebbero essere resi disponibili anche fuori dai laboratori sigillati, programmando alcuni assemblatori limitati perché li costruiscano. Laboratori sigillati e assemblatori limitati saranno una coppia di entità complementari: i primi ci consentiranno di inventare liberamente; i secondi ci permetteranno di godere in sicurezza dei frutti delle nostre invenzioni. Avere la possibilità di una pausa fra la fase di progettazione e la fase di rilascio, ci aiuterà a evitare sorprese mortali. I laboratori sigillati daranno alla società intera la possibilità di applicare la propria creatività ai problemi della nanotecnologia. E questo ci preparerà più rapidamente ai tempi in cui una forza indipendente imparerà a costruire qualcosa di maligno. Nascondere Informazioni In un'altra strategia per guadagnare tempo, la forza dominante potrà tentare di bruciare i ponti che essa stessa ha costruito fra la tecnologia di mole e la tecnologia molecolare. Questo significa distruggere le registrazioni delle modalità seguite per ottenere i primi assemblatori (oppure di rendere tali registrazioni completamente inaccessibili). La forza dominante potrebbe essere in grado di sviluppare i primi e rozzi assemblatori in modo tale che nessuno conosca i dettagli di realizzazione eccetto che per una piccola frazione dell'intero sistema. Immaginiamo di sviluppare assemblatori attraverso il percorso delineato nel capitolo 1. Le macchine proteiche che sfrutteremo per costruire i primi rozzi assemblatori diventerebbero presto obsolete. Se distruggiamo le registrazioni della progettazione delle proteine (18), gli sforzi di duplicazione di tali progettazioni verrebbero ostacolati, sebbene ciò non ostacolerebbe l'ulteriore progresso della nanotecnologia. Se i laboratori sigillati e gli assemblatori limitati saranno diffusamente disponibili, la gente non avrà alcuna motivazione economica o scientifica per sviluppare nuovamente ed indipendentemente la nanotecnologia, e l'aver bruciato i ponti dalla tecnologia di mole renderà più difficile uno sviluppo indipendente. E tuttavia queste strategie, non possono essere nulla più che semplici tattiche per guadagnare un po' di tempo. Esse infatti non arresteranno lo sviluppo indipendente; l'umana urgenza di potere stimolerà sforzi che potranno infine risultare nel successo. Solo una politica dettagliata, universale e condotta su scala totalitaria potrebbe arrestare lo sviluppo indipendente su un tempo indeterminato. Se questa politica fosse condotta da qualsiasi cosa simile ad un moderno
governo, essa rappresenterebbe di certo una cura grosso modo pericolosa quanto lo è la malattia. Ed anche in tal caso, la gente potrebbe mantenere per sempre una vigilanza perfetta? Pare che dovremo infine imparare a vivere in un mondo in cui esisteranno replicatori inaffidabili. Una sorta di strategia potrebbe essere quella di nasconderli dietro un muro o di farli operare molto lontano. Ma si tratta di metodi effimeri: i replicatori pericolosi potrebbero infrangere il muro o percorrere la distanza che li tiene separati da noi. E nonostante i muri possano essere realizzati a prova di replicatori, nessun muro fisso può essere a prova di una malizia su larga scala e ben organizzata (19). Abbiamo bisogno di un approccio più robusto e più flessibile. Scudi Attivi Pare quindi che potremo costruire nanomacchine che, in qualche modo, agiscano in modo analogo ai globuli bianchi del sistema immunitario umano: ossia dispositivi che possono combattere non solo virus e batteri, ma anche replicatori pericolosi di ogni tipo. Attribuiamo quindi ad una difesa automatica di questo tipo la denominazione di "scudo attivo", per distinguerla dal tipo di difesa passiva rappresentata da una semplice parete fissa. A differenza degli ordinari sistemi di ingegneria, gli scudi attivi affidabili devono fare ben più che semplicemente tener testa alla natura o ad utenti maldestri. Essi devono anche far fronte ad una sfida ancora più grande - ossia fronteggiare l'intero spettro di minacce che forze intelligenti, a seconda delle circostanze, possono progettare e costruire. La costruzione e il miglioramento di prototipi di scudi, equivarrà ad una corsa agli armamenti, portata avanti da entrambe le parti in gioco sotto forma di ricerche di laboratorio. Ma lo scopo qui sarà quello di ricercare i requisiti minimi per una difesa che sia affidabilmente duratura. Nel capitolo 5 ho descritto come il Dr. Lenat ed il suo programma EURISKO hanno evoluto delle flotte di successo e coerenti con le regole di un gioco di simulazione di guerra navale. In maniera analoga, possiamo tradurre in un gioco lo sforzo mortalmente serio di sviluppare scudi affidabili, utilizzando come campi da gioco "laboratori sigillati per assemblatori" di varie dimensioni. Potremmo sguinzagliare un'orda di ingegneri, hackers dei computer, biologi, hobbisti e sistemi di ingegneria automatizzata, invitandoli tutti a mettere in campo i loro sistemi l'uno contro l'altro in giochi limitati solo dalla condizione di partenza, dalle leggi della natura e dalle pareti che delimitano i laboratori sigillati. Questi competitori evolveranno minacce e scudi in una serie infinità di microbattaglie. Quando gli assemblatori ci doneranno l'abbondanza, la gente avrà tempo a sufficienza per un gioco tanto importante. Alla fine, possiamo mettere alla prova i sistemi di scudo più promettenti in un ambiente spaziale analogo alla Terra. Il successo renderebbe possibile un sistema in grado di proteggere la vita umana e la biosfera Terrestre dalle cose peggiori che un pugno di replicatori dispersi può fare. Il Successo è Possibile? Con le nostre attuali incertezze, non possiamo ancora descrivere con precisione né le minacce né le difese. Ma ciò significa che non possiamo riporre fiducia alcuna sulla possibilità di realizzare delle difese efficaci? A quanto pare, invece, possiamo farlo; dopo tutto, c'è una certa differenza fra sapere che una certa cosa è possibile e sapere come farla. E per questo particolare caso, il mondo ci mostra vari esempi di successi ottenuti in condizioni analoghe. Non c'è nulla di fondamentalmente inedito nel difendersi da invasioni di replicatori; la vita l'ha fatto per ere. Gli assemblatori-replicatori, sebbene insolitamente potenti, saranno sistemi fisici non dissimili da quelli che già conosciamo. L'esperienza suggerisce che possono essere controllati.
I virus sono macchine molecolari che invadono le cellule; le cellule utilizzano macchine molecolari (come enzimi di restrizione ed anticorpi) per difendersi dai virus. I batteri sono cellule che invadono gli organismi; gli organismi utilizzano cellule (come i globuli bianchi del sangue) per difendersi dai batteri. Analogamente, le società utilizzano polizie per difendersi dai criminali ed eserciti per difendersi dagli invasori. Su un livello meno fisico, le menti usano sistemi memetici, come il metodo scientifico, per difendersi dall'insensatezza, e le società usano istituzioni, come i tribunali, per difendersi dal potere di altre istituzioni. L'esempio biologico dell'ultimo paragrafo mostra che persino dopo un miliardo di anni di corsa agli armamenti, le macchine molecolari hanno mantenuto delle difese di successo contro i replicatori molecolari. I fallimenti sono stati comunque molto comuni, ma il successo indica che una difesa è possibile. Questi successi suggeriscono che dovremmo infatti usare delle nanomacchine per difenderci da altre nanomacchine. Nonostante gli assemblatori porteranno molti progressi, non sembra esserci alcuna ragione per cui essi dovrebbero permanentemente restare in equilibro di forze contro i sistemi di difesa. Gli esempi appena riportati, alcuni dei quali riguardano i virus, mentre altri riguardano invece le istituzioni, sono sufficientemente variegati da suggerire che una difesa di successo si basa su principi generali. Ci si potrebbe domandare: perché tutti questi sistemi difensivi funzionano? Ma rigiriamo la domanda: Perché dovrebbero fallire? Ogni conflitto forgia sistemi simili a quelli degli avversari, non lasciando all'attaccante alcun vantaggio ovvio (20). In ogni conflitto, inoltre, gli attaccanti affrontano una difesa che è ben insediata. I difensori lottano sul loro proprio terreno, e ciò da loro il vantaggio di avere posizioni preparate, conoscenza dettagliata del luogo, scorte di risorse ed abbondanza di alleati: quando il sistema immunitario riconosce un germe, può immobilizzare le risorse di un intero corpo. Tutti questi vantaggi sono generali e basilari, ed hanno poco a che fare con i dettagli della tecnologia. Possiamo dotare le nostre difese attive degli stessi vantaggi di cui godono i replicatori pericolosi. E tali difese non devono necessariamente starsene sedute ed inattive intanto che le armi vengono accumulate, non più di quanto il sistema immunitario debba starsene seduto ed inattivo mentre i batteri si moltiplicano. Sarebbe difficile prevedere l'esito dal finale aperto di una corsa agli armamenti fra potenze equipaggiate con assemblatori-replicatori. Ma pare probabile che prima che questa situazione possa insorgere, la forza dominante acquisisca un temporaneo ma schiacciante vantaggio militare. Se l'esito di una corsa agli armamenti dovesse essere in dubbio, la forza dominante probabilmente impiegherà la sua forza per assicurare che a nessun avversario sia consentito di raggiungerlo. Se così fosse, allora, gli scudi attivi non dovrebbero mai vedersi costretti a resistere ad attacchi che si basino sull'impiego delle risorse di mezzo continente o di mezzo sistema solare; esse saranno invece come una forza di polizia o un sistema immunitario, poiché dovranno affrontare soltanto attacchi basati unicamente sulle risorse che possono essere raccolte in segreto e all'interno del territorio protetto. In ognuno dei casi di difesa di successo che ho citato in precedenza, gli attaccanti ed i difensori si sono sviluppati attraverso processi in massima parte analoghi. Il sistema immunitario, modellato dall'evoluzione genetica, affronta minacce anch'esse modellate dall'evoluzione genetica. Gli eserciti, modellati dalle menti umane, affrontano analoghe minacce. Allo stesso modo, sia le difese attive che i replicatori pericolosi saranno modellati dall'evoluzione memetica. Ma se la forza dominante può sviluppare sistemi di ingegneria automatizzata che lavorino un milione di volte più velocemente rispetto agli ingegneri umani, e se potrà utilizzare tali sistemi anche solo per un anno, essa costruirà difese attive basate sui ripensamenti di un milione di anni di progresso ingegneristico. Con tali sistemi saremo in grado di esplorare i limiti del possibile abbastanza bene da costruire una difesa affidabile contro tutte le possibili minacce.
Anche senza conoscere i dettagli delle minacce e delle difese, ci sono ragioni di credere che la difesa sia possibile. Ed anche gli esempi di memi che vigilano su altri memi, o di istituzioni che vigilano su altre istituzioni, suggeriscono che i sistemi IA possono vigilare su altri sistemi IA. Nel costruire difese attive, saremo in grado di utilizzare la potenza dei replicatori e dei sistemi IA per moltiplicare i tradizionali vantaggi delle forze di difesa: possiamo dotare le difese di una forza schiacciante, grazie alla ridondanza dell'hardware costruito da assemblatori ed il cui progetto è basato sull'equivalente di un milione di anni di progresso tecnologico. Possiamo costruire difese attive che abbiano forza e affidabilità tali da far vergognare i sistemi passati. Nanotecnologia e Intelligenza Artificiale possono anche dotarci degli strumenti di distruzione definitivi, ma esse non sono intrinsecamente distruttive. Con la appropriata cautela, possiamo impiegarle per costruire gli strumenti di pace definitivi. ---------Capitolo 12: Strategie e Sopravvivenza Restrizioni Personali Repressione Locale Accordi di Repressione Globale Repressione Globale Forzata Progresso Unilaterale Equilibrio di Potere Sviluppo Cooperativo Una Sintesi di Strategie Scudi Attivi contro Armi Spaziali Potere, Malvagità, Incompetenza ed Indolenza Colui che non ricorre a nuovi rimedi, deve attendersi nuove disgrazie; poiché il tempo è il più grande innovatore. -FRANCESO BACONE Nei capitoli precedenti ho delimitato dettagliatamente il solido terreno delle possibilità tecnologiche. Ora, però, mi devo ulteriormente avventurare nei reami delle politiche e delle azioni umane. Questo terreno è meno solido, ma i fatti tecnologici ed i principi evolutivi forniscono ancora una volta i punti fermi dai quali partire per esplorare il territorio. La corsa tecnologica, guidata dalle pressioni evolutive, ci sta conducendo verso rischi senza precedenti; abbiamo bisogno di escogitare strategie per fronteggiare questi rischi. Poiché innanzi a noi vediamo pericoli così grandi, ha senso considerare di arrestare la nostra corsa frenetica. Ma come potremmo riuscirci? Restrizioni Personali A livello individuale, potremmo astenerci dallo svolgere ricerche che conducano verso capacità pericolose. Ed infatti, la maggior parte della gente se ne astiene, poiché la maggior parte della gente, in primo luogo, non è composta da ricercatori. Ma questa strategia non arresta i progressi: nel nostro mondo così diversificato, altri porteranno avanti il lavoro. Repressione Locale Una strategia di limitazione personale (almeno in questa materia) odora di semplice inazione. Ma che dire di una strategia d'azione politica condotta a livello locale da gruppi di pressione che
domandino leggi per la repressione di certi tipi di ricerche? Questa, vorrebbe essere una azione personale mirata al rafforzamento di una inazione collettiva. Sebbene essa possa ottenere successi nel sopprimere la ricerca in una città, un distretto, un paese o una alleanza, si tratta di una strategia che non può aiutarci a guidare la conquista della posizione di supremazia, lasciando invece che qualche altra forza, una fuori dal nostro controllo, la raggiunga. Un movimento popolare di questo tipo arresterebbe la ricerca solo laddove le persone di tal movimento detengono il potere, e i suoi più grandi successi potenziali risulterebbero meramente nello sgombrare la strada ad uno stato più repressivo, affinché esso possa diventare la forza dominante. Dove siano coinvolte armi nucleari, si possono avanzare argomenti a favore di un disarmo unilaterale e di una resistenza non-violenta (o, quanto meno, non-nucleare). Le armi nucleari possono essere utilizzate per distruggere l'establishment militare e diffondere il terrore, ma non possono essere impiegate per occupare dei territori o comandare sulla gente - almeno non direttamente. Le armi nucleari non sono riuscite a sopprimere le situazioni di guerriglia e le agitazioni sociali, sicché una strategia di disarmo e resistenza ha un certo grado di sensatezza. La repressione unilaterale della nanotecnologia e dell'IA, al contrario, corrisponderebbe ad un disarmo unilaterale in una situazione in cui la resistenza non può funzionare. Uno stato aggressivo potrebbe usare queste tecnologie per sequestrare e dominare (o sterminare) anche una nazione interamente composta da Gandhi, o persino composta da combattenti per la libertà armati e indomiti. Questa circostanza merita di essere evidenziata enfaticamente. Senza un qualche nuovo modo per riformare gli stati del mondo oppressivi, la semplice repressione totale della ricerca non può risultare in un successo totale. In assenza di un successo totale, un successo importante potrebbe essere un disastro per le democrazie. Persino se non si approdasse a nulla, gli sforzi di questo tipo potrebbero assorbire il lavoro e la passione degli attivisti, sprecando in una futile strategia le già scarse risorse umane. Inoltre, gli sforzi di repressione potrebbero inimicarsi i ricercatori coinvolti, fomentando lotte dissidenti fra alleati potenziali e sprecando ulteriori risorse umane. La futilità e il divisionismo di questa strategia, la rendono una strategia da evitare. Nonostante tutto, la repressione possiede una innegabile attrattiva. Essa è semplice e diretta; "Il pericolo arriva? Fermiamolo!". Inoltre, i successi degli sforzi locali di repressione promettono gratificazioni a breve termine: "Il pericolo arriva? Possiamo fermarlo qui ed ora, tanto per cominciare!". Queste partenze potrebbero rivelarsi false partenze, ma nessuno lo noterebbe. Sembra probabile che l'idea della semplice repressione riesca a sedurre molte menti. Dopo tutto, la repressione locale di pericoli locali ha una lunga tradizione di successi; arrestare una sorgente inquinante locale, per esempio, riduce l'inquinamento a livello locale. I tentativi di repressione locale dei pericoli globali sembrano analoghi, comunque differente sia il loro effetto. Abbiamo bisogno di organizzazioni locali e di pressioni politiche, ma attorno ad entrambe andrebbero costruite delle strategie in grado di funzionare. Accordi di Repressione Globale Secondo un approccio più promettente, potremmo applicare delle pressioni locali per la negoziazione di una messa al bando d'estensione mondiale. Una simile strategia potrebbe avere una qualche probabilità di controllare le armi nucleari. Ma tentare di arrestare la nanotecnologia e l'intelligenza artificiale porrebbe problemi di ordine ben differente, per almeno due ragioni. In primo luogo, queste tecnologie sono meno ben definite rispetto a quelle delle armi nucleari: poiché le tecnologie nucleari attuali richiedono certi isotopi di metalli rari, esse sono ben distinte da altre attività. Questa particolare attività può quindi venir ben definita e (in linea di principio) messa
al bando. Ma la biochimica moderna conduce già, a piccoli passi, verso la nanotecnologia, così come la moderna tecnologia informatica conduce a piccoli passi verso l'IA. Nessuna linea definisce un punto di separazione naturale. E poiché ogni piccolo progresso apporterà benefici medici, militari ed economici, come potremmo negoziare un accordo mondiale a proposito del "dove" fermarsi? In secondo luogo, queste tecnologie sono più potenti delle armi nucleari: poiché reattori e sistemi d'arma sono piuttosto grandi, delle ispezioni potrebbero limitare la dimensione di una forza segreta e quindi limitare la sua potenza. Ma i replicatori pericolosi sarebbero microscopici, e il software IA sarebbe intangibile. Come potrebbe chiunque essere sicuro che un qualche laboratorio non si stia avvicinando alla soglia di un passo avanti tecnologico strategico? Sul lungo termine, come potrebbe chiunque essere sicuro che un qualche hacker all'interno del suo scantinato non sia ormai proprio sulla soglia di un passo avanti tecnologico strategico? Le contromisure ordinarie di sorveglianza non funzionerebbero, e ciò rende la negoziazione e il mantenimento di un bando mondiale quasi impossibile. Le pressioni per i giusti tipi di accordo internazionale, renderebbero più sicuro il nostro cammino, ma è evidente che gli accordi che si limitino semplicemente a sopprimere i progressi pericolosi non possono funzionare. Ancora una volta, la pressione locale deve essere parte di una strategia funzionante. Repressione Globale Forzata Se gli accordi pacifici non funzionano, si potrebbe considerare l'uso di forza militare per reprimere i progressi pericolosi. Ma a causa dei problemi di vigilanza, la pressione militare da sola non basterebbe. Per sopprimere i progressi attraverso l'uso della forza, occorrerebbe invece che una potenza conquisti ed occupi altre potenze ostili (1), e che sia armata con armi nucleari al fine di garantire con fermezza una politica di sicurezza. Inoltre, la potenza conquistatrice sarebbe essa stessa dotata di un potere militare massiccio, unito ad una ben dimostrata intenzione di farne uso. Perciò, una tale potenza potrebbe davvero essere considerata affidabile per quel che riguarda l'autorepressione dei propri sforzi di ricerca? Ed anche se così fosse, sarebbe da considerarsi affidabile per il mantenimento di una interminabile e onnipresente vigilanza sul mondo intero? In caso contrario, è molto probabile che la minaccia emerga in segreto, e per di più in un mondo nel quale gli sforzi aperti verso gli scudi attivi sono stati prevenuti. Il probabile risultato sarebbe il disastro. La potenza militare nelle democrazie comporta grandi benefici, ma da sola essa non risolve i nostri problemi. Non possiamo acquisire sicurezza attraverso una strategia di conquista e di repressione della ricerca. Queste strategie per arrestare la ricerca, siano esse basate sulla inazione personale, sulla inazione locale, sulla negoziazione di accordi o sulla conquista del mondo, sembrano tutte destinate a fallire. Eppure, l'opposizione ai progressi ha un suo ruolo da giocare, perché abbiamo bisogno di ritardi selettivi intelligentemente diretti per posporre le minacce fino al momento in cui saremo davvero preparati per affrontarle. Le pressioni degli attivisti allarmisti saranno essenziali, ma per aiutare il progresso e non per arrestarlo. Progresso Unilaterale Se i tentativi di sopprimere le ricerche su IA e nanotecnologia appaiono futili e pericolosi, che dire del corso di azione opposto, ossia uno sforzo di sviluppo completo e unilaterale? Anche questo sforzo presenta dei problemi. Noi, in democrazia, probabilmente non possiamo produrre un grosso passo avanti strategico in condizioni di perfetta segretezza. Troppa gente ne verrebbe coinvolta, e
per troppi anni. Poiché le dirigenze Sovietiche verrebbero a sapere dei nostri sforzi, le loro reazioni sarebbero improntate su una ovvia preoccupazione, e tali dirigenze guarderebbero sicuramente ad un grosso passo avanti tecnologico in termini di una grossa minaccia. Se la nanotecnologia fosse sviluppata come parte di un programma militare segreto, gli analisti del loro servizio di spionaggio temerebbero lo sviluppo di un armamentario sottile e decisivo, probabilmente basato su "germi" programmabili. In base alle circostanze, i nostri opponenti potrebbero scegliere di sferrare un attacco a freddo. E' importante che le democrazie mantengano la supremazia su queste tecnologie, ma saremo più sicuri se potremo in qualche maniera combinare questa forza con delle politiche inequivocabilmente non minacciose. Equilibrio di Potere Se perseguiamo una qualunque delle strategie delineate fino ad ora, inevitabilmente scateniamo dei forti conflitti. I tentativi di reprimere nanotecnologia e IA, getteranno nell'arena i desideri dei repressori contro gli interessi vitali dei gruppi di ricerca, delle istituzioni militari e dei pazienti bisognosi di assistenza medica. I tentativi di conquistare un vantaggio unilaterale per mezzo di queste tecnologie getteranno nell'arena le democrazie cooperative contro gli interessi vitali dei nostri avversari. Tutte le strategie scateneranno conflitti, ma è proprio inevitabile che tutte le strategie vadano a dilaniare così pesantemente le società occidentali o il mondo? Per cercare una via di mezzo potremmo tentare di raggiungere un equilibrio di potere basato su un equilibrio tecnologico. Ciò potrebbe apparentemente estendere una situazione che ha costituito una misura pacificatrice per quattro decadi. Ma la parola chiave qui è "apparentemente": i prossimi passi avanti tecnologici saranno troppo bruschi e destabilizzanti perché possa continuare il vecchio equilibrio. In passato, una nazione poteva soffrire di un ritardo tecnologico di diversi anni e tuttavia poteva ancora mantenere un approssimativo equilibrio militare rispetto ai suoi avversari. Con i replicatori rapidi o con l'IA avanzata, un ritardo di un singolo giorno potrebbe risultare fatale. Un equilibrio stabile sembra troppo improbabile per sperarci. Sviluppo Cooperativo In linea di principio, esiste un modo di assicurare un equilibrio tecnologico fra le democrazie cooperative ed il blocco Sovietico: potremmo sviluppare cooperativamente le tecnologie, condividendo i nostri strumenti e le nostre informazioni. Nonostante tutto ciò presenti degli ovvi problemi, rappresenta quantomeno qualcosa di più pratico da perseguire di quel che potrebbe intuitivamente sembrare. E' possibile negoziare la cooperazione? Vengono subito in mente tentativi falliti di negoziare controlli efficaci sulle minacce legate agli armamenti, e rispetto a tali tentativi la cooperazione potrebbe sembrare ancora più complicata e difficile da impostare. Ma è proprio così? Nel controllo degli armamenti, ogni parte sta tentando di ostacolare le azioni delle altre parti; ciò rafforza la relazione antagonista fra le due parti. Inoltre, ciò scatena conflitti all'interno di ogni fazione, fra gruppi in favore della limitazione delle armi e gruppi che esistono per costruire armi. E, cosa ancor peggiore, i negoziati ruotano attorno alle terminologie e ai loro significati, ma ogni parte ha il suo proprio linguaggio ed un certo interesse a manipolare i significati per adattarli ai propri interessi. La cooperazione, al contrario, coinvolge entrambe le parti nell'operare verso una meta comune; e questo tende a diradare la natura antagonista della relazione. Inoltre, essa potrebbe attenuare i conflitti fra fazioni interne alle due parti, poiché gli sforzi di cooperazione creerebbero progetti, invece di distruggerli. Infine, entrambe le parti discuterebbero i loro sforzi in un linguaggio comune, il linguaggio della matematica e dei diagrammi impiegati in scienza e in ingegneria. E poi, la cooperazione produce risultati visibili e ben delineati. Nella metà degli anni '70, Stati Uniti e Unione delle Repubbliche Sovietiche volarono in una missione spaziale congiunta ed, almeno fino
al momento in cui non si svilupparono nuove tensioni politiche, esse stavano elaborando dei tentativi di pianificazione congiunta per una stazione spaziale comune. Questi episodi non rappresentavano degli isolati accidenti, sia nello spazio che al suolo; i progetti congiunti e gli scambi tecnici hanno avuto luogo per anni. Nonostante tutti i problemi che la cooperazione comporta, essa si è dimostrata almeno altrettanto facile del controllo degli armamenti, e forse persino più facile se si considera il grande sforzo profuso in quest'ultimo. Paradossalmente, dove siano coinvolte IA e nanotecnologia, l'approccio cooperativo ed il controllo efficace degli armamenti dovrebbero essere caratterizzati da una rassomiglianza di base. Verificare un accordo sul controllo degli armamenti richiede una costante e approfondita ispezione, condotta da esperti di una delle due parti nei laboratori dell'altra parte: una relazione altrettanto stretta quanto la più completa cooperazione immaginabile. Ma come potrebbe attuarsi la cooperazione? Essa potrebbe assicurare l'equilibrio ma l'equilibrio non assicura la stabilità. Se due pistoleri si fronteggiano l'uno contro l'altro, ognuno con le armi spianate e la tensione alta, la loro potenza è equilibrata, ma quello che spara per primo può eliminare la minaccia costituita dall'altro. Uno sforzo cooperativo teso allo sviluppo tecnologico che manchi di una accurata pianificazione ed un accurato controllo, doterebbe ognuna delle due parti di armi spaventose, mentre al contempo non fornirebbe nessuna delle due parti di uno scudo contro di esse. Chi potrebbe dirsi sicuro che nessuna delle due parti troverà la maniera di sferrare in piena impunità un attacco disarmante contro l'altra parte? Ed anche se si potesse garantire ciò, che dire del problema di altri poteri - oppure che dire della minaccia potenziale posta da appassionati dilettanti o da incidenti casuali? Nell'ultimo capitolo ho descritto una soluzione per questi problemi: ossia sviluppo, collaudo e costruzione di scudi attivi. Essi, ci offrono un rimedio nuovo per un problema nuovo, e nessuno ha ancora avanzato suggerimenti per una valida alternativa a questo tipo di difese. Finché qualcuno non lo farà, sembrerebbe saggio ragionare su come andrebbero costruiti gli scudi attivi, e se questi possano rendere possibile una strategia in grado di funzionare. Una Sintesi di Strategie Restrizioni personali, azione locale, ritardo selettivo, accordo internazionale, potere unilaterale e cooperazione internazionale: tutte queste strategie possono esserci di aiuto nell'impresa di sviluppare scudi attivi. Consideriamo la nostra situazione odierna. Le democrazie hanno, per decadi, guidato il mondo nella maggior parte delle aree della scienza e della tecnologia; oggi siamo in testa in campi come il software per computer e le biotecnologie. Tutte assieme, costituiamo la forza dominante. Non sembra esserci alcuna ragione per la quale non dovremmo conservare questa supremazia e sfruttarla. Come discusso nell'ultimo capitolo, la forza dominante sarà in grado di utilizzare svariate tattiche per gestire il rivoluzionario passo avanti tecnologico degli assemblatori. Queste tattiche includono l'impiego di laboratori sigillati per assemblatori, limitazioni sugli stessi assemblatori sviluppati, ed il mantenimento della segretezza sui dettagli dello sviluppo iniziale degli assemblatori. Mentre beneficiamo dei frutti, grazie a queste (ed altre) politiche, potremo lavorare allo sviluppo di scudi attivi in grado di garantirci una protezione permanente contro i nuovi pericoli. Questo definisce una meta. Per raggiungerla, una strategia composta da due parti sembra essere la migliore. La prima parte implica un'azione interna alle stesse democrazie cooperative. Abbiamo bisogno di
mantenere una supremazia che sia sufficientemente rassicurante da procedere con cautela; se avvertissimo che potremmo perdere la corsa, potrebbe anche accaderci di entrare in una condizione di pieno panico. Procedere con cautela significa sviluppare istituzioni affidabili per gestire sia passi avanti tecnologici iniziali, che lo sviluppo di scudi attivi. Gli scudi attivi che svilupperemo, a loro volta, dovranno essere progettati per aiutarci ad assicurare un futuro in cui valga la pena di vivere, un futuro con spazio per la diversità. La seconda parte di questa strategia coinvolge politiche riguardanti le potenze che ci sono attualmente ostili. A questo proposito, il nostro scopo dovrà essere quello di mantenere l'iniziativa, minimizzando contemporaneamente la minaccia che costituiamo per gli altri. L'equilibrio tecnologico non funziona, e non possiamo permetterci di cedere la nostra posizione di dominanza. Questo ci lascia esclusivamente la forza e la supremazia come unica nostra scelta realmente possibile, il che rende doppiamente difficile adottare un atteggiamento che non costituisca minaccia. Ecco, ancora una volta, che necessitiamo di istituzioni stabili ed affidabili: se potessimo dotarle di una grande inerzia innata per quel che riguarda i loro obiettivi, allora forse persino i nostri avversari riporrebbero un certo grado di fiducia in esse. Per rassicurare i nostri antagonisti (e noi stessi!) queste istituzioni dovrebbero essere tanto più aperte quanto è possibile (2), in modo consistente con la loro missione. Potremmo adoperarci per costruire istituzioni che offrano un ruolo alla collaborazione Sovietica. Invitandoli alla partecipazione, anche se essi dovessero rifiutare i termini da noi proposti, offriremmo un certo grado di rassicurazione sulle nostre reali intenzioni. Se i Sovietici accettassero, essi potrebbero conquistarsi una loro quota di merito nel raggiungimento del nostro successo congiunto. Ed ancora, se le democrazie saranno forti nel momento in cui i passi avanti tecnologici si avvicineranno, e se eviteremo di minacciare il controllo di qualsiasi altro governo sul suo stesso territorio, i nostri avversari probabilmente non vedranno nessun vantaggio nell'attaccarci. In tal modo, potremo presumibilmente fare a meno anche della cooperazione, se ciò sarà necessario. Scudi Attivi contro Armi Spaziali Potrebbe essere utile considerare come potremmo applicare l'idea degli scudi attivi in campi più convenzionali. Per tradizione, la difesa ha richiesto armi che fossero impiegabili per l'offesa. Questa è una ragione per cui "difesa" è diventata sinonimo di "capacità di ingaggiare guerra" e per cui gli sforzi di "difesa" danno agli avversari motivo di temere. Le difese spaziali che sono state proposte di recente sono appunto una estensione di questo schema. Quasi qualunque sistema difensivo che possa distruggere dei missili in attacco potrebbe anche distruggere le difese di un avversario, o rappresentare un ostacolo spaziale che previene un avversario anzitutto dal costruire le sue "difese". Delle "difese" così fatte puzzano di offesa, come devono appunto apparire per poter svolgere il loro compito. Ed ecco che la corsa agli armamenti si incammina, per sua stessa natura, verso un'altra impennata pericolosa. Difesa ed offesa devono proprio essere così inseparabili? La storia sembra confermarlo. Le mura possono fermare gli invasori sono se sono difese da soldati, ma i soldati possono a loro volta marciare per invadere altri territori. Quando immaginiamo un'arma, naturalmente immaginiamo mani umane a puntarla (3) e capricci umani a decidere quando far fuoco; e la storia ci ha insegnato a temere il peggio. E tuttavia oggi, per la prima volta nella storia, abbiamo imparato come costruire sistemi difensivi radicalmente diversi da questo tipo di armi. Consideriamo un esempio basato sullo spazio. Al momento possiamo progettare dispositivi che "sentono" (guarda, un migliaio di missili che sono stati appena stati lanciati), "valutano" (sembra un tentativo di sferrare un attacco per primi!) ed "agiscono" (proviamo a distruggere quei missili!). Se un sistema aprisse il fuoco solo contro un massiccio volo di missili, non potrebbe mai essere impiegato per l'offesa o per realizzare un ostruzionista assedio spaziale. Ancora meglio, potrebbe essere reso incapace di discriminare quale
sia la parte sta attaccando. Sebbene serva gli interessi strategici dei suoi costruttori, non sarebbe soggetto agli ordini giorno per giorno di alcun generale. Verrebbe semplicemente a dar vita ad un ambiente pericoloso per un missile attaccante. Come un mare o una catena di montagne nelle guerre passate, essa non minaccerebbe nessuna delle due parti mentre costituirebbe per ognuna una protezione dall'altra (4). Sebbene un tale sistema difensivo sfrutterebbe le stesse tecnologie delle armi (sensori, tracciatori, laser, proiettili auto-guidati, e così via), questo sistema di difesa non sarebbe un sistema d'armamenti, poiché il suo ruolo sarebbe fondamentalmente diverso. Sistemi di questo tipo hanno bisogno di un nome che li distingua: essi sono, di fatto, una sorta di scudo attivo, un termine con cui si può descrivere un sistema automatico o semiautomatico progettato perché possa proteggere senza minacciare. Difendendo entrambe le parti, ma al contempo senza minacciarle, gli scudi attivi potrebbero indebolire l'anello vizioso della corsa agli armamenti. Le questioni tecniche, economiche e strategiche sollevate dagli scudi attivi sono complesse e, nell'era pre-assemblatori, potrebbero o meno essere risolte in modi praticabili. Se queste soluzioni saranno praticabili, esisteranno allora diversi possibili approcci verso la loro attuazione. In uno di questi approcci, le democrazie cooperanti costruirebbero scudi attivi unilateralmente. Per mettere in grado altre nazioni di verificare ciò che il sistema potrà e (cosa più importante) non potrà fare, potremmo autorizzare ispezioni multilaterali su progetti chiave, componenti, e passi di produzione. Così facendo non daremo via tutte le tecnologie coinvolte, perché sapere cosa non equivale a sapere come. Secondo un altro approccio, invece, potremmo costruire congiuntamente gli scudi, limitando il trasferimento di tecnologie al minimo indispensabile (5) richiesto dalla cooperazione e dalla necessità di verifica dei limiti dei sistemi (utilizzando i principi discussi nelle note). Abbiamo molta più possibilità di mettere al bando le armi spaziali di quanta possibilità abbiamo di mettere al bando la nanotecnologia, e questa potrebbe anche essere la maniera migliore di minimizzare i nostri rischi sul breve termine. Nella scelta di una strategia sul lungo termine per il controllo della corsa agli armamenti, tuttavia, dobbiamo considerare ben più che il prossimo passo. L'analisi che ho delineato in questo capitolo suggerisce che gli approcci tradizionali al controllo sugli armamenti, basati sulla negoziazione di limitazioni verificabili, non può adattarsi alla nanotecnologia. Se è proprio questa la situazione, abbiamo bisogno di sviluppare approcci alternativi. Gli scudi attivi, che sembrano indispensabili, potrebbero infine offrire una nuova e stabilizzante alternativa ad una corsa degli armamenti nello spazio. Esplorando questa alternativa, esploreremo le problematiche di base comuni a tutti gli scudi attivi (6). Se svilupperemo gli scudi attivi spaziali, guadagneremo esperienza e costruiremo degli accordi istituzionali, due cose che, in seguito, potrebbero dimostrarsi essenziali per la nostra sopravvivenza. Le difese attive sono una nuova opzione basata su una nuova tecnologia. Renderle funzionanti richiede una creativa sintesi interdisciplinare di idee ingegneristiche, di strategia e di diplomazia internazionale. Esse offrono opportunità inedite che potrebbero metterci in grado di uscire dai vecchi vicoli ciechi. Apparentemente offrono una risposta all'antico problema di proteggere senza minacciare, sebbene non una facile risposta. Potere, Malvagità, Incompetenza ed Indolenza Ho tracciato uno scenario per descrivere come nanotecnologia ed IA avanzata metteranno un grande potere nelle mani della forza dominante, potere che può essere usato per distruggere la vita o per estenderla ed affrancarla. Poiché non possiamo arrestare queste tecnologie, sembra che in qualche maniera dobbiamo farvi fronte, per superare l'emergenza di una grande concentrazione di potere più grande di qualunque altra mai vista prima nella storia.
Abbiamo bisogno di un sistema di istituzioni adeguate. Per gestire tecnologie complesse in tutta sicurezza, questo sistema deve disporre di modi per giudicare i fatti rilevanti. Per gestire un grande potere in tutta sicurezza, esso deve includere efficaci meccanismi di controllo e riequilibratura, e i suoi scopi e metodi devono mantenersi aperti allo scrutinio pubblico. Infine, poiché esso ci aiuterà a porre le fondamenta di un mondo nuovo, sarà meglio che sia guidato dai nostri comuni interessi, all'interno di una infrastruttura di principi plausibili. Non partiremo da zero; costruiremo sulle istituzioni che già abbiamo. Alla fine, esse ci appariranno diverse. Non tutte le nostre istituzioni sono delle burocrazie insediate in grigi edifici; esistono anche istituzioni diffuse e vitali come la libera stampa, le comunità di ricerca e le reti di attivisti. Queste istituzioni decentralizzate ci aiutano a controllare le grigie macchine burocratiche. Qui, in parte, abbiamo da fronteggiare una nuova versione dell'atavico e più generale problema di limitare l'abuso di potere. Ciò non rappresenta una grande e fondamentale novità, e principi vecchi di secoli, assieme a istituzioni di democrazia liberale, suggeriscono come tale problema potrebbe venir risolto. I governi democratici possiedono già il potere fisico di far esplodere i continenti nonché di rapire, imprigionare e uccidere i propri cittadini. Ma possiamo convivere con queste capacità perché questi governi sono piuttosto docili e stabili. I prossimi anni caricheranno le nostre istituzioni di ben più pesanti fardelli. I principi del governo di rappresentanza, della libertà di parola, della condotta processuale, del ruolo della legge e della protezione dei diritti umani, resteranno cruciali. Per prepararsi ai nuovi fardelli, abbiamo bisogno di estendere e rinvigorire questi principi e le istituzioni che li supportano; la protezione della libertà di parola riguardo argomenti tecnici potrebbe risultare cruciale. Nonostante abbiamo di fronte una grande sfida, c'è ragione di sperare che possiamo misurarci con essa. Naturalmente ci sono anche ovvie ragioni per dubitare che davvero si riesca a misurarsi con tale sfida. Ma la disperazione è contagiosa e detestabile, e lascia la gente depressa. Per altro, la disperazione appare ingiustificata, a dispetto di ben noti problemi: Malvagità - siamo troppo perfidi per fare la cosa giusta? Incompetenza - siamo troppo stupidi per fare la cosa giusta? Indolenza siamo troppo pigri per preparaci? Sebbene sarebbe troppo avventato prevedere un futuro roseo, questi problemi non sembrano insormontabili. I governi democratici sono grandi e caotici, e talvolta anche responsabili di atrocità, eppure non sembrano malvagi, considerati nel complesso, nonostante possano contenere uomini che meritano di essere etichettati come tali. Di fatto, i loro capi conquistano il potere in gran parte grazie all'apparente sostegno di convenzionali idee di benignità. Il nostro pericolo principale è che le politiche che sembrano benigne possono condurre al disastro, oppure che delle politiche realmente benigne non siano concepite, divulgate e realizzate in tempo per risultare efficaci. Le democrazie soffrono molto più di indolenza ed incompetenza che non di malvagità. L'incompetenza, naturalmente, sarà inevitabile, ma dovrà anche essere inevitabilmente fatale? Noi esseri umani siamo per nostra natura stupidi ed ignoranti, sebbene talvolta operiamo per combinare assieme i nostri frammenti di competenza e conoscenza al fine di realizzare grandi cose. Nessuno conosce come arrivare fino alla Luna, e nessuno lo ha mai imparato, e tuttavia una dozzina di persone hanno passeggiato sulla sua superficie. Abbiamo raggiunto vari successi in ambiti tecnici perché abbiamo imparato a costruire istituzioni che attirano molte persone per lavorare assieme alla generazione e verifica sperimentalmente delle idee. Queste istituzioni guadagnano affidabilità per mezzo della ridondanza, e la qualità dei loro risultati dipende in larga misura da quanta attenzione dedichiamo e quanto duramente lavoriamo. Quando concentriamo attenzione e risorse a sufficienza
sulla affidabilità, spesso otteniamo dei successi. Questo è il motivo per cui le missioni Lunari sono riuscite senza alcun incidente nello spazio, ed anche il motivo per cui nessuna arma nucleare è stata lanciata o detonata accidentalmente. E questo è il motivo per cui potremmo riuscire a gestire la nanotecnologia e l'IA, se verrà posta una attenzione sufficiente per assicurare di lavorare con esse in maniera competente. Persone eccentriche e competenze limitate possono unirsi per formare istituzioni stabili e competenti. L'indolenza, sia intellettuale che morale, o anche fisica, sembra forse il nostro pericolo più grande. Possiamo misurarci con le grandi sfide solo grazie a grandi sforzi. Ci saranno abbastanza persone che si impegneranno in sforzi sufficienti? Nessuno può dirlo, perché nessuno può parlare per chiunque altro. Ma il successo non richiede una illuminata mobilitazione improvvisa e universale. Esso richiede solo una crescente comunità di persone impegnata nello sviluppo, divulgazione e realizzazione di soluzioni funzionanti, e che queste persone ottengano un successo di entità crescente. Ciò non è poi così implausibile. Le preoccupazioni riguardo la tecnologia sono divenute diffuse in tutto il mondo, così come l'idea che l'accelerazione del cambiamento richiederà una preveggenza migliore. La pigrizia non stringe tutti nella sua morsa, e l'esistenza di qualche pensatore fuorviato non riesce comunque a deviare verso una strada sbagliata gli sforzi di chiunque. Le mortali pseudosoluzioni (come quella della repressione della ricerca) perderanno la battaglia delle idee se esisteranno persone a sufficienza che le screditeranno. E nonostante abbiamo di fronte una grande sfida, il successo renderà possibile il compimento di grandi sogni. Grandi speranze e paure possono smuovere abbastanza gente da mettere in grado la razza umana di conquistarsi una vittoria assoluta. Preoccupazione appassionata ed azione, non saranno sufficienti; abbiamo anche bisogno di politiche sensate. E ciò richiede ben più che buone intenzioni e chiari obiettivi: dobbiamo anche mantenere traccia delle connessioni fra i fatti del mondo, affinché si possa mettere in relazione quello che facciamo con quello che effettivamente otteniamo. All'approssimarsi di una crisi tecnologica di complessità senza precedenti, ha senso provare a migliorare le nostre istituzioni per giudicare fatti tecnici importanti. In che altro modo potremmo guidare la forza dominante e minimizzare la minaccia terminale della nostra incompetenza? Le istituzioni evolvono. Per evolvere istituzioni che siano migliori nello scovare i "fatti", dobbiamo copiare, adattare ed estendere i nostri successi passati. Tali successi includono la stampa libera, la comunità scientifica ed i tribunali. Essi, hanno tutti i loro meriti, ed alcuni di questi meriti possono essere combinate assieme. Capitolo 13: Scoprire i fatti Un Caos di Esperti Dalle Fazioni al Giusto Processo Un Approccio Perché Non un Giusto Processo? Costruire un Giusto Processo La paura non può essere bandita, ma può essere quieta e senza panico; e può essere mitigata dalla ragione e dalla valutazione. - VANNEVAR BUSH La società ha bisogno di modi migliori per comprendere la tecnologia, e ciò è ovvio da tempo. Le sfide che ci attendono rendono semplicemente più urgente il nostro bisogno.
Le promesse della tecnologia ci lusingano in anticipo, e la pressione della competizione rende virtualmente impossibile arrestarci. Mano a mano che la corsa tecnologica accelera, nuovi sviluppi ci sfrecciano davanti sempre più veloci, ed è più probabile che si generi qualche equivoco fatale. Abbiamo bisogno di creare un migliore equilibrio fra la nostra capacità di previsione e la nostra velocità di progresso. Non possiamo fare molto per rallentare la crescita della tecnologia, ma possiamo accelerare la crescita della previsione. E con una previsione migliore, avremo una migliore possibilità di imporre una virata alla corsa tecnologica, per dirigerla verso direzioni sicure. Sono stati proposti molti approcci per guidare la tecnologia. "La gente deve controllare la tecnologia" è uno slogan convincente ma ha due possibili significati. Se significa che dobbiamo produrre tecnologia al servizio dei bisogni umani è uno slogan di buon senso. Ma se significa che la gente, nella sua globalità, deve prendere decisioni tecnologiche, diventa uno slogan davvero poco sensato. L'elettorato non può giudicare gli intricati legami fra tecnologia, economia, ambiente, e vita; la gente manca della necessaria conoscenza. E su questo è la gente stessa a concordare: in base ad una indagine della U.S. National Science Foundation (1), l'85 percento degli adulti statunitensi crede che la maggior parte dei cittadini manchi della conoscenza necessaria a scegliere quali tecnologie sviluppare. Il pubblico generalmente delega i giudizi tecnici a tecnici esperti. Sfortunatamente, lasciare il giudizio agli esperti causa problemi. In Advice and Dissent (2), Primack e von Hippel fanno notare che "le dimensioni della Amministrazione possono avere come conseguenza il silenzio in cui vengono tenute certe informazioni scomode e la confusione in cui viene mantenuto il pubblico; il benessere pubblico può essere sacrificato impunemente alla convenienza delle burocrazie e al guadagno privato". I legislatori subiscono più critiche quando un nuovo farmaco provoca una sola morte, di quelle che ricevono quando l'assenza di un nuovo farmaco causa un migliaio di morti. E mal legiferano di conseguenza. I burocrati militari hanno tutto l'interesse nello spendere denaro nascondendo gli errori e portando avanti i loro progetti. Essi, di conseguenza, perseguono una cattiva gestione. Questo tipo di problema è così basilare e naturale che difficilmente servono esempi ulteriori. Ovunque, segretezza e nebulosità, fanno sentire più a loro agio i burocrati; ovunque, la convenienza personale deforma le affermazioni riguardanti i fatti di pubblico interesse. Mano a mano che la tecnologia cresce in complessità ed importanza, la pericolosità associata a questa tendenza cresce. Alcuni autori considerano virtualmente inevitabile la necessità di un governo formato da tecnocrati riservati. In Creating Alternative Futures, Hazel Henderson (3) argomenta che le tecnologie complesse "diventano intrinsecamente totalitarie" poichè nessun elettore o legislatore può comprenderle. In The Human Future Revisited, Harrison Brown analogamente arguisce (4) che la tentazione di scavalcare i processi democratici quando si cerchi una soluzione a crisi complesse, comporta il pericolo che "se la civiltà industriale sopravvive alla crisi finirà per acquisire, a ritmo crescente, una natura totalitaria". Stando davvero così le cose, ciò potrebbe probabilmente significare il nostro disastro: non possiamo fermare la corsa tecnologica, ed un mondo di stati totalitari basati su tecnologia avanzata, che non abbia bisogno ne di lavoratori ne di soldati, potrebbe anche sbarazzarsi della maggior parte della popolazione. Fortunatamente, democrazia e libertà hanno già prima d'ora affrontato sfide comparabili a questa. Gli stati sono cresciuti fino ad una complessità troppo grande per una democrazia diretta, per cui si sono evoluti i governi "rappresentativi". Il potere dello stato minacciava di schiacciare la libertà, ma si sono evolute le regole legislative. La tecnologia è cresciuta fino ad una complessità troppo grande, ma questo non ci da nessuna ragione per ignorare la gente, o per disfarci delle leggi ed acclamare un dittatore. Abbiamo bisogno di modi per maneggiare la complessità tecnica in un contesto democratico, usando gli esperti come strumenti per chiarire la nostra visione senza mettere nelle loro mani il controllo delle nostre vite. Ma gli esperti tecnici odierni sono impantanati in un sistema di conflitti fra fazioni.
Un Caos di Esperti Governo ed industria, ed i loro critici, spesso nominano comitati di esperti che si incontrano in segreto, o addirittura non si incontrano affatto. Questi comitati si auto-attribuiscono una credibilità che si basa su quali siano le persone componenti, non su come esse lavorino. Gruppi che compongono fazioni in reciproca opposizione, scelgono di reclutare Premi Nobel in faziosa opposizione di idee. Per conquistarsi influenza nella nostra democrazia di massa, i gruppi provano a silurarsi l'uno con l'altro. Quando i loro punti di vista abbiano una attrattiva corporativa, li propongono al pubblico tramite campagne di informazione pubblicitarie. Quando i loro punti di vista abbiano la possibilità di ottenere il supporto di finanziamenti governativi, essi li propongono ai legislatori per mezzo di opportune pressioni. Quando i loro punti di vista possiedano un drammatico potenziale di appello, li propongono al pubblico tramite campagne di informazione sui media. I gruppi reclamizzano i loro esperti preferiti, la battaglia diventa pubblica, e pacifici scienziati ed ingegneri vengono travolti dal clamore risultante. Mano a mano che il conflitto pubblico si gonfia, la gente comincia a dubitare dei pronunciamenti degli esperti. Giudica le loro affermazioni nel modo più ovvio: in base alla loro sorgente ("Naturale che dichiari che le estrazioni petrolifere non siano dannose - lavora per la Exxon"; "Naturale che dica che la Exxon mente - lavora per Nader"). Quando esperti dimostrati perdono la loro credibilità, i demagoghi possono entrare in battaglia in condizioni di parità. I cronisti, che smaniano di assistere a controversie e di rado sono guidati da una pregressa formazione tecnica, nel tentativo di mostrarsi equi portano tutte le fazioni dritte davanti al pubblico. Le caute affermazioni di scienziati scrupolosi suscitano scarsa impressione; altri scienziati non vedono altra scelta che quella di adottare lo stile dei demagoghi stessi. Il dibattito diventa tagliente e furioso, cresce la divisione, e il fumo della battaglia oscura i fatti. Spesso ne segue la paralisi o l'assurdità. Il nostro più grande problema è come gestiamo i problemi. Molti sono i dibattiti che infuriano sulla sicurezza dell'energia nucleare, su quella delle centrali elettriche a carbone, e sui rifiuti chimici (5). Gruppi dalle buone intenzioni e sostenuti da esperti di un certo nome, battono ripetutamente sempre sugli stessi stupidi fatti, stupidi in tutto eccetto che nella loro importanza: Quali sono gli effetti di un basso livello di radioattività, e quanto probabile è la fusione e lo sprofondamento nel sottosuolo del reattore nucleare? Quali sono le cause e gli effetti delle piogge acide? Quanto bene potrebbero funzionare dei sistemi di difesa spaziali concepiti per bloccare attacchi missilistici? Cinque casi di leucemia entro tre miglia da una discarica di rifiuti dimostrano l'esistenza di un rischio mortale o sono puramente opera del caso? Davanti a noi, argomenti di discussione ancora più grandi ci attendono: Quanto sono sicuri i replicatori? Questi sistemi di scudi attivi sono prudenti e sicuri? Questa procedura di biostasi è reversibile? Possiamo fidarci dei sistemi di Intelligenza Artificiale? Le dispute su fatti tecnici alimentano dispute più estese sulla politica. Le persone potrebbero credere in valori differenti (Cosa sarebbe preferibile avere, encefaliti o avvelenamento da pesticidi?) ma i loro punti di vista su quali siano i fatti rilevanti spesso differiscono ancora di più (Con quale frequenza questa zanzara veicola l'encefalite? Quanto è tossico questo pesticida?). Quando punti di vista differenti su fatti noiosi conducono al disaccordo su politiche importanti, la gente potrebbe meravigliarsene: "Come è possibile che si oppongano a noi su una questione tanto vitale senza che lo facciano in malafede?". Le dispute riguardo i fatti possono in tal modo mettere l'uno contro l'altro degli alleati potenziali (6). E ciò ostacola i nostri sforzi di comprendere e risolvere i problemi.
La gente ha disputato sui fatti per millenni; soltanto la recente predominanza di dispute su argomenti tecnici è nuova. Le società hanno evoluto metodi per giudicare i fatti di pubblico interesse. Questi metodi suggeriscono come dovremmo giudicare i fatti riguardanti la tecnologia. Dalle Fazioni al Giusto Processo Lungo tutta la storia, i gruppi hanno evoluto modi di risoluzione delle dispute; l'alternativa è stata la creazione di contese del tutto chiuse e spesso mortali. Gli europei del medioevo usavano vari metodi di risoluzione delle dispute, tutti invariabilmente migliori delle eterne contese. Usavano provare a cimentarsi in battaglia: gli opponenti lottavano, e la legge dava ragione al vincitore. Usavano la compurgazione: i vicini, sotto giuramento, testimoniavano l'onestà dell'accusato; e se esistevano sufficienti testimonianze, l'accusa decadeva. Usavano affidarsi al giudizio divino: in un esempio di tali prove, l'accusato veniva legato e gettato in un fiume; se affondava era innocente, e colpevole se galleggiava. Usavano in giudizio espresso da comitati riservatissimi: il concilio reale si incontrava per giudicare e approvare la sentenza che gli pareva più adatta. In Inghilterra, un tale concilio si riuniva in una stanza denominata Star Chamber. Questi metodi presumibilmente determinavano chi faceva cosa, ossia i fatti riguardanti gli eventi umani: Ma il tutto era accompagnato da seri inconvenienti. Oggi usiamo modi analoghi di determinare "cosa provoca cosa", ossia per determinare i fatti riguardanti scienza e tecnologia. Usiamo provare a cimentarci in combattimento sulla stampa. Gli oppositori lanciano parole sferzanti contro la causa dell'altra parte, danneggiandola politicamente. Sfortunatamente, questo assomiglia fin troppo spesso ad una contesa infinita. Usiamo la compurgazione: gli esperti giurano su certi fatti; se abbastanza di questi esperti giurano sugli stessi fatti, i fatti vengono dichiarati veri. Usiamo il giudizio di comitati riservati: esperti selezionati si incontrano per giudicare i fatti e raccomandare azioni che sembrano loro appropriate. Negli Stati Uniti, essi spesso si riuniscono in comitati della National Academy of Sciences. Affidarsi al giudizio divino sembra essere invece passato di moda, ma i combattimenti a mezzo stampa sembrano proprio come torture inflitte a tranquilli scienziati dotati di rispetto per se stessi. L'Inghilterra ha abolito i procedimenti della Star Chamber nel 1641, considerando tale abolizione una grande conquista. Le contese tramite combattimento, compurgazione, e giudizio divino sono analogamente divenute storia. Oggi diamo valore a un giusto processo, quanto meno quando giudichiamo la gente. Le procedure dei tribunali illustrano i principi di un giusto processo: le asserzioni devono essere specifiche. Entrambe le parti devono avere una possibilità di parlare e di confrontarsi apertamente con l'altra parte, nonché di confutare le asserzioni e di sottoporle ad esame incrociato. Il processo deve essere pubblico, al fine di prevenire una sua corruzione occulta. Il dibattito deve anzitutto condurre alla scelta di una giuria la cui imparzialità sia riconosciuta da entrambe le parti. Infine, un giudice deve arbitrare il processo ed imporre l'osservanza delle regole. Per vedere quale sia il valore di un giusto processo immaginate il suo opposto: un processo che calpesti tutti questi principi darebbe la parola ad una parte e nessuna possibilità di un esame
incrociato o di risposta all'altra parte. Esso si condurrebbe in segreto, permetterebbe diffamazioni vaghe e sarebbe privo di un giudice che faccia rispettare quelle poche leggi che potrebbero essere sopravvissute. I giurati verrebbero convocati avendo già pronta la loro decisione. In breve, esso assomiglierebbe ad un linciaggio popolare eseguito in un capannone serrato - o all'allestimento di un comitato per la stesura di una relazione. L'esperienza mostra il valore di un giusto processo per giudicare i fatti riguardanti le persone; potrebbe tale esperienza essere di qualche validità anche nel giudicare fatti riguardanti scienza e tecnologia? Quella del "giusto processo" è una idea basilare non limitata ai tribunali di legge. Ad esempio, alcuni ricercatori nel campo dell'Intelligenza Artificiale (7) stanno costruendo, per i loro programmi per computer, dei principi che mettano tali programmi in grado di produrre giudizi corretti. Pare quindi che un "giusto processo" dovrebbe essere utile per giudicare i fatti tecnici. Infatti, la letteratura scientifica - il forum principale della scienza - incorpora già una forma di giusto processo: nei buoni giornali, le affermazioni scientifiche devono essere specifiche. In teoria, dato un tempo sufficiente e una certa perseveranza, in una disputa tutte le parti potrebbero dichiarare i loro punti di vista, poiché i giornali restano aperti alla controversia. Sebbene gli avversari potrebbero anche non incontrarsi mai faccia a faccia, essi si confrontano l'uno contro l'altro a distanza; Essi domandano e rispondono, a ritmi lenti, tramite lettere ed articoli. Gli arbitri, come le giurie, valutano le dimostrazioni ed i ragionamenti. Gli editori, come i giudici, fanno rispettare le regole della procedura. Le pubblicazioni mantengono il dibattito totalmente aperto al pubblico scrutinio. Sia nei giornali che nei tribunali, le idee in conflitto vengono illustrate e confrontate l'una contro l'altra, sulla base di regole evolutesi per assicurare un combattimento equo e regolato. Tali regole a volte falliscono, poiché vengono violate o perché sono di per sé inadeguate, ma esse sono tuttora le migliori che abbiamo sviluppato. La conduzione imperfetta di un giusto processo si è dimostrata in ogni caso migliore della assenza totale di un giusto processo. Perché gli scienziati attribuiscono valore ai giornali arbitrati? Non perché essi credano a tutti i giornali arbitrati, o perché credano a tutto ciò che viene scritto in ognuno di essi. Persino il miglior sistema possibile per un giusto processo potrebbe non riuscire a spremere fuori un singolo rivolo di autentica verità. Piuttosto, gli scienziati attribuiscono valore ai giornali arbitrati perché questi tendono a mostrare l'esistenza di discussioni critiche sensate. Di fatto, i giornali devono farlo: poiché competono l'uno contro l'altro per la carta, per il prestigio e per conquistarsi lettori, i giornali migliori devono di fatto essere buoni. I giornali procedono lentamente e tuttavia dopo diversi gironi di pubblicazioni e critiche, riescono a distillare un certo consenso generale. L'esperienza mostra il valore sia dei tribunali che dei giornali. Le analogie che sono alla loro base, suggeriscono che il loro valore derivi da una sorgente comune - ossia il "giusto processo". Un giusto processo può anche fallire, ma è tuttora l'approccio migliore che conosciamo per scovare i fatti. Oggi, tribunali e giornali non sono sufficienti. Le dispute tecniche di importanza vitale continuano ad andare avanti, poiché non abbiamo alcun metodo rapido e regolato di estrapolarne i fatti (e delimitare la nostra ignoranza). I tribunali non sono adatti a trattare con questioni tecniche. In questo, i giornali sono migliori dei tribunali, ma sono comunque non privi di inconvenienti. Essi si sono sviluppati in tempi di tecnologia più arretrata, ed evoluti per adattarsi ai limiti del processo di stampa, alla velocità della posta e alle necessità della scienza accademica. Ma oggi, in un tempo in cui avremmo disperatamente bisogno di giudizi tecnici migliori e più rapidi, ci troviamo in un mondo in cui esistono i telefoni, gli aerei, le fotocopiatrici, la posta espresso e la posta elettronica. Possiamo usare le tecnologie moderne per accelerare il dibattito tecnologico?
Naturalmente sì: gli scienziati sfruttano già diversi approcci. Gli aerei portano gli scienziati lungo tutto il globo, per partecipare a conferenze in cui gli articoli vengono pubblicati e discussi. Ma le conferenze gestiscono la controversia in modo molto carente; il decoro pubblico e le strette programmazioni dei tempi limitano il vigore e la profondità del dibattito. Gli scienziati si tengono in contatto anche tramite reti informali di ricerca, connesse tramite telefono, posta, computer e macchine fotocopiatrici; questi mezzi accelerano lo scambio di informazioni e la discussione. Ma essi sono essenzialmente istituzioni private. Ed inoltre, tali istituzioni non riescono a fornire una procedura pubblica e credibile per appianare le differenze. Le conferenze, i giornali e le reti di informazione, condividono alcune analoghe limitazioni. Esse tipicamente si focalizzano sulle questioni tecniche di importanza scientifica, piuttosto che sulle questioni tecniche di importanza rilevante per la politica pubblica. Per di più, di solito si focalizzano esclusivamente su questioni puramente scientifiche. I giornali tendono a snobbare le questioni tecniche che mancano di intrinseco interesse scientifico; essi spesso trattano tali questioni come argomenti del tutto inediti, senza preoccuparsi di verificarli tramite arbitraggio. Ed in più, le nostre attuali istituzioni mancano di qualsiasi modalità equilibrata per presentare la conoscenza nei casi in cui essa sia legata a controversie. Sebbene alcuni articoli scientifici di rassegna spesso presentino e soppesino idee diverse, lo fanno comunque dal punto di vista di un singolo autore. Tutti questi inconvenienti condividono una comune sorgente: le istituzioni scientifiche si sono evolute per far progredire la scienza, non per valutare i fatti a beneficio degli esecutori politici. Tali istituzioni assolvono il loro scopo piuttosto bene, ma assolvono altri scopi in maniera piuttosto misera. Nonostante ciò non costituisca un completo fallimento, resta insoddisfatta una necessità reale. Un Approccio Abbiamo bisogno di procedure migliori per dibattere i fatti tecnici - procedure che siano aperte, credibili, e mirate a trovare i fatti di cui necessitiamo per formulare politiche assennate. Potremmo cominciare dal copiare alcuni aspetti da altre procedure basate sul "giusto processo"; possiamo cioè modificare e raffinare queste procedure alla luce dell'esperienza. Usando i mezzi moderni di comunicazione e di trasporto, possiamo sviluppare un processo specializzato, snello ed analogo a quello dei giornali scientifici, e che possa accelerare il dibattito pubblico su fatti cruciali; e questo sembra essere solo metà del lavoro da fare. L'altra metà richiede di distillare i risultati del dibattito in scenari equilibrati del nostro stato di conoscenza (e altrettanto rappresentativi del nostro stato di ignoranza). A questo scopo, sembrano essere utili procedure in qualche modo simili a quelle dei tribunali (8). Poiché la procedura (un fact forum, foro di discussione sui fatti) è inteso come mezzo per riassumere i fatti, ogni parte comincerà esponendo quelli che per lei sono i fatti chiave, e li elencherà in ordine di importanza. La discussione inizierà esaminando le affermazioni che ogni parte ha posto in cima alla lista. Attraverso vari gironi di discussione, di esame incrociato delle argomentazioni di ogni parte e di negoziazione, l'arbitro del forum cercherà di conquistare un accordo generalizzato sulle affermazioni. Dove rimanga il disaccordo, un pannello tecnico riporterà la trascrizione delle opinioni in proposito, schematizzando quello che pare già noto e quello che appare più incerto. I risultati prodotti dal forum dei fatti includeranno argomenti di fondo, dichiarazioni di accordo, e le opinioni riportate sul pannello. Il tutto potrebbe assomigliare ad un insieme di pezzi saggistici di una rivista scientifica, introdotti da un conciso articolo di panoramica che si limiti ad affermazioni attinenti ai fatti e quindi prive di raccomandazioni di carattere politico. Questa procedura deve differire sotto diversi aspetti da quella che si adotta in un tribunale. Per
esempio, il pannello tecnico, avendo nel forum la funzione di "giuria", deve essere tecnicamente competente. Un condizionamento pregiudiziale potrebbe condurre il pannello ad un giudizio erroneo dei fatti, ma una sua incompetenza tecnica risulterebbe altrettanto dannosa. Per questa ragione, la "giuria" di un forum dei fatti deve essere selezionata secondo modalità che sarebbero invece pericolose se permesse in un tribunale. Poiché i tribunali adoperano il potere della polizia, useremo giurie che siano state selezionate fra la totalità della popolazione al fine di salvaguardare la nostra libertà. Ciò obbliga il governo a cercare il consenso di un gruppo di cittadini, prima di procedere a punire qualcuno, vincolando di conseguenza l'azione del governo a criteri diffusi nella comunità. In ogni caso, un forum dei fatti non punisce mai gente e nemmeno fa politica pubblica. Il pubblico dovrebbe essere libero di assistere al processo e decidere se dare fiducia ai suoi risultati. Questo doterà la gente di sufficiente controllo. Tuttavia, per rendere un forum dei fatti equo ed efficace, avremo bisogno di una buona procedura per la "selezione" dei componenti del pannello. I pannelli tecnici corrisponderanno grosso modo ai comitati di esperti che vengono nominati dai governi o ai moderatori nominati dalle riviste scientifiche. Per assicurare l'equità, un pannello deve essere selezionato non da una commissione, un politico o un burocrate, ma da un processo che raccolga il consenso di entrambe le parti coinvolte nella disputa. Nei processi legali dei tribunali, gli avvocati possono mettere in discussione e respingere ogni giurato che possa sembrare non imparziale; possiamo utilizzare una procedura simile in un forum dei fatti, per la selezione del suo pannello. Esperti che siano direttamente coinvolti in una disputa non possono contribuire alla stesura delle trascrizioni da inserire nel pannello: infatti potrebbero sia condizionarlo che determinarne la sua faziosa frammentazione. Il gruppo che sostiene un forum dei fatti dovrebbe cercare le persone incaricate di scrivere il pannello fra coloro che sono competenti nei campi coinvolti. Questo pare essere un criterio pragmatico, poiché i metodi del giudizio tecnico (spesso basati sugli esperimenti ed i calcoli) sono piuttosto generali. I curatori del pannello, avendo familiarità con i fondamenti di un determinato campo, saranno in grado di giudicare le dettagliate argomentazioni prodotte dagli specialisti di ognuna delle due parti. I forum dei fatti assomiglieranno ai tribunali e alle riviste scientifiche anche sotto altri aspetti. Un comitato simile al gruppo editoriale di un giornale nominerà un arbitro e alcuni curatori del pannello per ogni disputa. I difensori di ognuna delle due parti, come fossero procuratori o autori, costruiranno e presenteranno le più forti argomentazioni che sapranno mettere in piedi. A dispetto di queste analogie, un forum dei fatti differirà da un tribunale: esso si concentrerà su questioni tecniche. E non suggerirà alcuna azione. Mancherà quindi di potere esecutivo. Seguirà regolamenti tecnici basati su prove ed argomenti. Differirà dai tribunali in un numero infinito di dettagli riguardo tono e procedura. L'analogia con un tribunale è, in quanto tale, una semplice "analogia": ossia una fonte di idee d'ispirazione. Un forum dei fatti differirà anche da una giornale: esso procederà a ritmi altrettanto veloci di quel che permettono la posta, le conferenze ed i messaggi elettronici, piuttosto che ritardare gli scambi di opinioni di molti mesi, come avviene nella tipica pubblicazione di un giornale. Esso sarà incentrato su una singola questione, piuttosto che essere concepito per coprire un intero campo scientifico. Riassumerà la conoscenza per aiutare le decisioni, piuttosto che servire come primaria fonte di dati per la comunità scientifica. Nonostante un insieme di forum dei fatti non possa sostituire un giornale, i forum ci aiuteranno a trovare e pubblicizzare i fatti che potrebbero salvare le nostre vite. Il Dottor Arthur Kantrowitz (un membro della National Academy of Sciences che è competente in campi che vanno dalla tecnologia medica ai laser d'alta energia) ha ideato il concetto che ho appena descritto a grandi linee (9). Ha parlato di tale idea dapprima denominandola "consiglio di
investigazione scientifica". I giornalisti la hanno prontamente ridenominata "tribunale della scienza". Io l'ho chiamata "forum dei fatti": Ho invece riservato la denominazione di "tribunale della scienza" ad un forum dei fatti che venga impiegato (o proposto) come istituzione governativa (10). Le proposte per un giusto processo condotto su dispute tecniche sono tuttora in divenire; altre discussioni utilizzano denominazioni differenti. Il Dottor Kantrowitz si è impegnato in un giusto processo riguardante dalla decisione degli Stati Uniti di costruire un razzo gigantesco per raggiungere la Luna in un unico immenso balzo; egli, appoggiato dai risultati riscontrati da un comitato di esperti (11), ha raccomandato alla NASA di utilizzare razzi più piccoli per trasportare componenti in un'orbita bassa, e qui assemblarli assieme per costruire un veicolo che raggiunga la Luna. Questo approccio promette un risparmio di miliardi di dollari e contemporaneamente lo sviluppo di abilità di costruzione in ambiente spaziale. Nessuno ha risposto alle sue argomentazioni, per cui egli ha fallito nel vincere la sua causa. Le menti sono ormai impostate verso ben definite inclinazioni, i politici sono impegnati, il suo resoconto è stato conservato sotto chiave in una camera di sicurezza della Casa Bianca ed il dibattito è stato chiuso. I fatti tecnici sono stati mestamente soppressi negli interessi di quelli che cercano di costruire una nuova generazione di razzi giganteschi. Ciò mostra una grave pecca delle nostre istituzioni, una pecca persistente che ci fa sprecare denaro e incrementa il rischio di un errore disastroso. Il Dr. Kantrowitz raggiunge prontamente la conclusione oramai ovvia: abbiamo bisogno di istituzioni mirate per condurre giusti processi su controversie riguardanti argomenti tecnici. Il Dr. Kantrowitz ha perseguito questo obiettivo (nella sua forma di "tribunali della scienza) per mezzo di discussioni, relazioni, studi e conferenze. Per la sua idea dei tribunali scientifici è stato premiato da Ford, Carter, e Reagan in qualità di candidati presidenziali. Dai presidenti, non ha ottenuto nulla, sebbene un consiglio presidenziale appositamente composto abbia elaborato una dettagliata proposta di procedura (12). Tuttavia, alcuni progressi sono stati compiuti. Nonostante io abbia usato il tempo futuro nel descrivere i forum dei fatti, la loro sperimentazione è già stata avviata. Ma prima di descrivere un percorso verso un giusto processo, ha senso prendere in considerazione alcune delle obiezioni. Perché Non un Giusto Processo? I critici di questa idea (quanto meno nella sua versione di tribunali della scienza) sono stati spesso l'uno in disaccordo con l'altro. Alcuni hanno obbiettato che le dispute fattuali non sono importanti, o che possono essere attenuate tenendole nascoste dietro porte chiuse; altri hanno obbiettato che le dispute fattuali sono troppo profonde ed importanti perché l'applicazione di un giusto processo possa servire. Alcuni hanno lanciato l'allarme sul fatto che i tribunali della scienza potrebbero essere pericolosi; altri hanno avvertito che essi potrebbero essere impotenti. Queste critiche hanno tutte qualche valido contenuto: i giusti processi non sarebbero una cura universale. Talvolta potrebbero non essere necessari, e talvolta potrebbero venir abusati. Ma allo stesso modo, tuttavia, si potrebbe rigettare la validità della penicillina sulla base della sua sporadica inefficacia, o della sua sporadica non necessità o dannosità. Questi critici non propongono alcuna alternative, e raramente osservano che al giorno d'oggi portiamo avanti comunque dei giusti processi, oppure che i processi attuali sono senza alcun valore. Dobbiamo trattare con questioni tecniche complesse dalle quali dipendono milioni di vite; non saremmo forse incoscienti se lasciassimo tali questioni a comitati riservati, a giornali indolenti, a battaglie sui media, al giudizio tecnico dei politici? Se distruggessimo gli esperti, dovremmo accettare il giudizio di comitati riservati formatisi in segreto oppure domandare un processo più
aperto? Infine, possiamo con il nostro sistema presente fronteggiare la corsa tecnologica globale verso la nanotecnologia e la intelligenza artificiale? Le istituzioni per processi giusti ed aperti sembrano essere di importanza vitale. Permettendo a tutte la parti di parteciparvi, imbriglieremo le energie del conflitto nella ricerca dei fatti. Limitare la possibilità degli esperti di descrivere i fatti, ci aiuterà a fronteggiare la tecnologia senza consegnare le nostre decisioni nelle mani dei tecnocrati. Individui, compagnie e ufficiali nominati, manterranno il pieno controllo delle politiche; gli esperti tecnici potranno raccomandare altre politiche tramite altri canali. Come possiamo distinguere i fatti dai valori? Lo standard proposto da Karl Popper sembra essere utile a questo scopo: una affermazione è fattuale (ossia vera o falsa) se un esperimento o una osservazione potrebbe in linea di principio confutarla. Ad alcune persone, l'idea di esaminare i fatti senza considerare i valori ricorda l'idea di fare politica senza considerare i valori. E ciò sarebbe effettivamente assurdo: per loro stessa natura, le decisioni politiche coinvolgono sempre sia i fatti che i valori. Causa ed effetto riguardano i fatti, dicendoci quel che è possibile. Ma la politica coinvolge anche i nostri valori, i nostri motivi di azione. Senza fatti accurati non possiamo ottenere i risultati che cerchiamo, ma senza valori - senza desideri e preferenze - non potremmo anzitutto cercare alcunché. Un processo che scopra i fatti può aiutare le persone a scegliere politiche che siano efficaci nel servire i loro valori. I critici hanno espresso alcune preoccupazioni riguardo la possibilità che un tribunale della scienza (praticamente) dichiarerà che la Terra è piatta, perciò ignorando un Aristarco di Samo o un Magellano quando questi ultimi trovino evidenza del contrario. Errori, inclinazioni dettate dal pregiudizio e conoscenza imperfetta saranno di certo tutte cause di equivoci memorabili. Ma i membri di un pannello tecnico non hanno necessità di dichiarare una certezza contraffatta. Essi possono invece descrivere la nostra conoscenza e delimitare i confini fra questa e la nostra ignoranza, talvolta affermando che semplicemente non conosciamo i fatti, o quantomeno le prove attuali forniscono solo una idea approssimativa dei fatti. In questo modo, essi proteggeranno le loro reputazioni di buoni giudici. Quando giungano delle nuove prove, una questione può essere riaperta; le idee non hanno bisogno di essere salvaguardate dalla eventualità di un secondo giudizio. Se i forum dei fatti diverranno popolari e rispettati, essi guadagneranno influenza. Il loro successo li renderebbe tali che sarà più difficile abusarne: molti gruppi in competizione li sosterrebbero, anche economicamente, e gruppi che abusino della procedura tenderanno a conquistarsi una cattiva reputazione e saranno quindi ignorati. Nessun singolo gruppo sostenitore sarà in grado di oscurare i fatti riguardanti un argomento importante, se i forum dei fatti guadagneranno una sufficiente affidabilità per mezzo della ridondanza. Nessuna istituzione sarà mai in grado di eliminare corruzione ed errore, ma i forum dei fatti saranno guidati, per quanto in modo imperfetto, da uno migliore standard per la conduzione di dibattito pubblico; essi dovrebbero degenerare in gran misura prima di diventare peggiori del sistema che abbiamo oggi. La giustificazione di base per i forum dei fatti è che (1) un giusto processo è l'approccio corretto da tentare, e (2) riusciremo a far di meglio se lo tentiamo, piuttosto che se non lo facciamo. Costruire un Giusto Processo L'antropologa Margaret Mead venne invitata ad un colloquio sui tribunali scientifici per parlare contro tale idea (13). Ma quando giunse il momento, essa parlò a favore dell'idea, sottolineando che "Abbiamo bisogno di una nuova istituzione. Non c'è alcun dubbio su questo. Le istituzioni che abbiamo sono del tutto insoddisfacenti. In molti casi inoltre non sono solo insoddisfacenti, ma implicano una prostituzione della scienza ed una prostituzione del processo di creazione delle
decisioni". La gente che non ha alcun interesse consolidato nelle istituzioni esistenti, spesso è d'accordo con la sua valutazione. Se scovare i fatti riguardanti la tecnologia è davvero così cruciale per la nostra sopravvivenza e se i giusti processi sono davvero la chiave per scovare i fatti, allora cosa dovremmo fare in proposito? Non abbiamo bisogno di iniziare per forza con delle procedure perfette; possiamo cominciare con dei tentativi informali per migliorare la procedura di cui disponiamo al momento. Possiamo evolvere procedure migliori per variazione dei nostri metodi e per selezione di quelli che funzionano meglio. Un processo giusto è una questione di grado. Le istituzioni esistenti potrebbero muoversi verso il giusto processo (14) modificando alcune delle loro regole e tradizioni. Per esempio, le agenzie governative potrebbero regolarmente consultarsi con le parti in opposizione prima di stabilire quali siano i componenti di un comitato di esperti. Esse potrebbero garantire ad ognuna delle due parti il diritto di presentare prove, esaminare prove, ed esaminare gli esperti dell'altra parte. Esse potrebbero aprire i loro procedimenti agli osservatori. Ognuno di questi passi rafforzerebbe la correttezza del processo, trasformando processi non dissimili da quelli della "Star Chamber" in istituzioni più degne di rispetto. I benefici pubblici dei giusti processi, comunque, non necessariamente li renderanno popolari fra i gruppi che chiedono la loro modifica. Non abbiamo sentito il boato di gruppi di interesse che si precipitano a verificare sperimentalmente le loro affermazioni, ne le lacrime di gioia dei comitati all'apertura delle loro porte per consentire di sottomettere il loro operato alla disciplina imposta da un giusto processo. E nemmeno abbiamo sentito riferire di politici che abbiano rinunciato all'utilizzo di fatti spuri per nascondere le basi politiche delle loro decisioni. E tuttavia tre candidati alla presidenza U.S.A. hanno sottoscritto l'idea dei tribunali della scienza. Il Committee of Scientific Society Presidents, che include ventotto delle società scientifiche di punta degli Stati Uniti, ha sottoscritto l'idea. Lo U.S. Department of Energy ha utilizzato una "procedura analoga a quella dei tribunali della scienza" per valutare alcune proposte in competizione per la produzione di energia tramite fusione nucleare, e ha dichiarato che la procedura è efficiente e utile. Il Dottor John C. Bailar del National Cancer Institute, dopo aver fallito nel far riconoscere a varie organizzazioni mediche la pericolosità dei raggi X e del loro impiego massiccio in radiografia, ha proposto un tribunale della scienza sull'argomento. I suoi avversari hanno allora fatto marcia indietro e modificato le loro politiche - apparentemente la semplice minaccia dell'eventualità di un giusto processo sta già salvando vite. Nonostante questo, il vecchio corso prosegue, quasi invariato. Perché accade ciò? In parte perché la conoscenza è potere, e quindi viene gelosamente sorvegliata (15). In parte perché gruppi potenti possono prontamente immaginare in che modo i giusti processi potrebbero andare a loro svantaggio. In parte perché uno sforzo di migliorare i metodi sistematici di "risoluzione di problemi" mancano del potenziale drammatico di una campagna allestita per combattere direttamente i problemi; ossia il potenziale drammatico associato a un migliaio di attivisti alacremente impegnati nel salvataggio dello stato della nave, ognuno dedito a tappare un singolo buco nello scafo. I governi potrebbero tuttavia adoperarsi per realizzare i tribunali della scienza, ed ogni passo potrebbe portare verso un maggior merito della procedura per un giusto processo. E tuttavia è ragionevole temere il supporto del governo per i tribunali della scienza: il potere centralizzato tende a generare mostri in quantità. Una "Agenzia Giudiziaria della Scienza" centralizzata potrebbe anche lavorare piuttosto bene mentre fa ben poco danno evidente, e tuttavia comportare un gran costo poco visibile: la sua stessa esistenza (e l'assenza di competizione) potrebbe bloccare miglioramenti basati su processi evolutivi. Altre strade restano aperte. I forum dei fatti saranno in grado di esercitare influenza senza ricevere
aiuto da particolari poteri legali. Per avere un effetto potente, i loro risultati avranno soltanto bisogno di essere più credibili delle asserzioni di una specifica persona, uno specifico comitato o una specifica corporazione o gruppo di interesse. Un forum dei fatti ben condotto sarà caratterizzato da una certa credibilità in virtù della sua stessa struttura. Alcuni forum potrebbero essere finanziati dalle università. Infatti, il Dottor Kantrowitz ha recentemente condotto una procedura sperimentale presso la University of California a Berkeley (16). Essa era incentrata attorno alla disputa pubblica fra il genetista Beverly Paigen ed il biochimico William Havender riguardante i difetti di nascita e i rischi genetici presso il sito di discarica chimica della Love Canal. I due scienziati hanno svolto il ruolo di avvocati; studenti di corsi di laurea hanno svolto il ruolo di pannello tecnico. La procedura era composta da incontri distribuiti su diverse settimane, per gran parte spesi nella discussione delle aree di accordo e disaccordo; essa si è conclusa con diverse sessioni pubbliche di esame incrociato, che hanno immediatamente preceduto la stesura finale del pannello. Sia gli avvocati che il pannello hanno concordato su undici affermazioni di fatto, e hanno evidenziato chiaramente i loro rimanenti punti di disaccordo e le loro incertezze residue. Arthur Kantrowitz e Roger Masters notano che "in contrasto con le difficoltà sperimentate nei molti tentativi di realizzare un tribunale della scienza sotto auspici governativi, risultati incoraggianti sono stati ottenuti nel primo serio tentativo di questo tipo che sia stato condotto in un ambiente universitario". Essi sottolineano che le tradizioni e le risorse delle università, rendono le università stesse luoghi naturali in cui impegnarsi in tali sforzi. E auspicano che ci avviino esperimenti di questo tipo in numero maggiore. Tutto ciò mostra un modo decentralizzato di sviluppare istituzioni per giusti processi, un modo che ci permetta di aggirare l'esistenza delle attuali burocrazie e interessi acquisiti. Nel far questo, possiamo costruire su principi stabiliti e sperimentare le variazioni nella migliore tradizione evolutiva. I leaders preoccupati di migliaia di problemi differenti - con leaders sui lati opposti delle barricate per ognuno di tali problemi - possono unirsi nel supporto da dare alla realizzazione di giusti processi. Come fanno notare Roger Fisher e William Ury dell'Harvard Negotiation Project (17), se si tenta di ottenere il consenso delle parti avverse per mettere in piedi un giusto processo, e quando ogni parte è fermamente convinta di essere nel giusto, esse tendono a favorire un arbitraggio imparziale. Infatti, entrambe le parti si aspettano di vincere (18), per cui entrambe acconsentono a partecipare. I forum dei fatti dovrebbero quindi attrarre i sostenitori in buona fede delle cause, e ripugnare i ciarlatani. Mano a mano che il giusto processo diverrà uno standard, i sostenitori di cause fondate conquisteranno vantaggio su coloro che rifiutano di cooperare - "Se non vogliono difendere la loro causa in pubblico, perché dovremmo ascoltarli?". Inoltre, molte dispute si risolverebbero (o sarebbero evitate) senza gli svantaggi delle procedure attuali: la prospettiva di un dibattito pubblico ed arbitrato incoraggerà i sostenitori delle cause a controllare i loro fatti prima di iniziare il dibattito. Istituire un forum dei fatti potrebbe facilmente fare di più per una causa assennata, di quanto potrebbe fare il reclutamento di un milione di sostenitori. E tuttavia, oggi, leaders ben intenzionati potrebbero sentirsi obbligati a esagerare le loro cause semplicemente per poter essere ascoltati al di sopra del rombo prodotto dai comunicati stampa dei loro avversari. Queste persone, potrebbero mai contrastare a malincuore la disciplina di un forum dei fatti? Sicuramente no; i giusti processi possono in primo luogo curare la malattia sociale che ci costringe ad allontanarsi dai fatti. Proponendo i loro punti di vista in un forum dei fatti, queste persone potrebbero recuperare il rispetto per se stessi che deriva dalla onestà intellettuale. Dissotterrare la verità potrebbe minare una posizione presa particolarmente a cuore, ma non può danneggiare gli interessi di un gruppo orientato verso esigenze autenticamente "pubbliche". Se è
necessario smuovere un po' di cose per far spazio alla verità, perché non farlo? Grandi leaders hanno visto cambiare le loro posizioni per ragioni anche peggiori, ed anche i giusti processi comporteranno trasformazioni nelle posizioni dei gruppi avversi. Gregory Bateson ha affermato una volta che "nessun organismo può permettersi di esser conscio su materie che dovrebbero essere affrontate a livello inconscio". Se l'organismo in questione è una democrazia, il livello conscio corrisponde approssimativamente al dibattito sui mass media. Il livello inconscio è costituito da qualsiasi processo che di solito funziona abbastanza bene fintanto che non è accompagnato da clamorose proteste del pubblico. Nei media, come nella coscienza umana, una preoccupazione tende a far passare in secondo piano un'altra preoccupazione. Questo è ciò che rende l'attenzione cosciente così scarsa e preziosa. La nostra società ha bisogno di identificare i fatti che la riguardano con maggiore rapidità ed affidabilità, e con meno contese faziose dei media che distolgano l'attenzione. Ciò lascerà il dibattito pubblico libero di occuparsi dei suoi veri compiti - ossia giudicare le procedure atte a rintracciare i fatti, decidere cosa vogliamo e aiutarci a scegliere una strada che ci conduca verso un mondo in cui valga la pena di vivere. Mano a mano che il cambiamento andrà accelerandosi, il nostro bisogno crescerà. Per giudicare i rischi di un replicatore o l'attuabilità di uno scudo attivo, abbiamo bisogno di modi migliori per dibattere i fatti. Invenzioni puramente sociali come i forum dei fatti ci aiuteranno, ma le nuove tecnologie sociali basate sui computer sono promettenti in altrettanta misura. Anche queste arricchiranno le nostre procedure per la conduzione di giusti processi. ---------Capitolo 14: La rete della conoscenza La Carta Magica Diventa Reale Collegare la Nostra Conoscenza Pericoli degli Ipertesti Dal Desktop alla Libreria Mondiale Ipertesti e Carta Stampata I computer [...] sono entrati nelle nostre vite quotidiane e stanno diventando il sistema nervoso centrale della nostra società. - TOHRU MOTO-OKA (1) Per prepararsi al passo avanti degli assemblatori avanzati, la società deve imparare ad "imparare" più velocemente. I forum dei fatti ci aiuteranno a farlo, ma le nuove tecnologie potrebbero aiutarci ancora di più. Con esse, saremo in grado di diffondere, raffinare e combinare le nostre informazioni in modo di gran lunga più rapido di quanto sia mai stato fatto prima. Il sovraccarico informativo è diventato un ben noto problema: frammenti di conoscenza si accumulano troppo velocemente perché le persone possano mettervi ordine e trarne fuori un senso. Migliaia di riviste tecniche si occupano di migliaia di soggetti diversi. Gli articoli pubblicati ammontano a oltre un milione per anno. I forum dei fatti ci aiutano a far pulizia delle menzogne, alleggerendo il nostro sforzo di dare senso al mondo. Ma qualunque istituzione formale di questo tipo resterebbe comunque sommersa dal travolgente moderno flusso di informazione: i forum dei fatti saranno in grado di trattare solo una frazione dei fatti, sebbene una frazione importante, e inevitabilmente saranno in qualche modo flemmatici. Le istituzioni formali possono intercettare solo una minuscola frazione delle energie intellettuali della nostra società. Oggi, i nostri sistemi informativi sono d'ostacolo al nostro progresso. Per farsi un'idea intuitiva del
problema, immaginate di dover gestire un frammento di informazione: L'avete scoperta: ma come potreste diffonderla? Qualcun altro l'ha pubblicata: ma come trovarla? L'avete trovata: e dove dovreste archiviarla? Avete individuato un errore in essa: come potreste correggerla? Il vostro archivio cresce: come dovreste organizzarlo? Attualmente gestiamo l'informazione in maniera maldestra. I nostri "media" elettronici tradizionali sono vivaci ed intriganti, ma sono malamente adattabili per divenire capaci di gestire dibattiti di lungo termine; come potreste, nel ruolo di spettatore, archiviare, organizzare, o correggere l'informazione contenuta in un documentario televisivo? In breve, come potreste trasformare queste informazioni in una ben integrata porzione di un corpo di conoscenze in evoluzione? Possiamo gestire meglio dei dibattiti complessi usando i "media" cartacei, tuttavia le settimane (o anni) di ritardo imposte da un tipico processo di pubblicazione rallentano il dibattito, il quale procede come camminasse a carponi. Ed anche le pubblicazioni su carta sono difficili da archiviare, organizzare e correggere. Le macchine tipografiche producono fasci di carta inchiostrata; a prezzo di sforzi eroici, i bibliotecari e gli studiosi lavorano per collegare ed organizzare in modo utile tutte questi fasci cartacei. Ma indici, riferimenti e correzioni, semplicemente aggiungono ulteriori pagine ed edizioni, e seguire i collegamenti che essi rappresentano resta tuttora un compito tedioso. Libri ed altri fasci di carta funzionano bene, a prezzo di qualche adattamento. Essi contengono molti dei nostri tesori culturali e per ora non abbiamo nessun altro modo migliore di pubblicare la maggior parte di queste cose. Tuttavia, la loro forma attuale lascia aperto molto spazio per il miglioramento. I problemi che incontriamo nel diffondere, correggere ed organizzare le informazioni obbligano la nostra conoscenza a rimanere relativamente scarsa, non corretta e disorganizzata. Poiché la conoscenza consolidata è spesso difficile da trovare, altrettanto spesso ne facciamo a meno, col risultato di rimanere apparentemente più ignoranti di quando abbiano necessità d'esserlo. Le nuove tecnologie possono aiutarci? Le nuove tecnologie lo hanno già fatto prima d'ora. L'invenzione del torchio di stampa ha portato grandi progressi; I servizi testuali basati sull'informatica ci promettono ancora di più. Comunque, per intuire in che modo la nostra informazione potrebbe essere migliore, potrebbe aiutarci tentare di capire in che modo essa potrebbe risultare peggiore. Consideriamo quindi, una immaginaria situazione caotica, ed una sua immaginaria soluzione. Il Racconto del Tempio Tanto tempo fa, c'era un popolo con un problema di informazione. Nonostante avessero sostituito le loro ingombranti tavolette d'argilla con la carta, la utilizzavano in modo bizzarro. Nel cuore della loro terra si ergeva una cupola imponente. Sotto la cupola vi era la loro grande Camera degli Scrittori. All'interno di questa camera c'era una grossa collinetta di foglietti di carta, ognuno dalla dimensione della mano di bambino. Di tanto in tanto, un erudito viaggiava fino a questo "tempio dello studio" per offrire la sua conoscenza. Un consiglio di scribi avrebbe giudicato il valore della conoscenza offerta. Se questa si fosse dimostrata preziosa, essa sarebbe stata trascritta su un foglietto, il quale sarebbe stato solennemente lanciato sul mucchio. Di tanto in tanto, altri industriosi eruditi venivano a cercare conoscenza, frugando nel mucchio alla ricerca del foglietto desiderato. Alcuni di loro, più abili in queste ricerche, avrebbero potuto trovare un particolare foglietto in meno di un mese. Gli scribi accoglievano sempre volentieri i ricercatori, poiché erano così rari.
Noi moderni possiamo vedere chiaramente il loro problema: in un mucchio disordinato, ogni foglietto aggiunto seppellisce i restanti (come accade su molte odierne scrivanie). Ogni foglietto è separato, non correlato agli altri, ed aggiungere un riferimento ad un altro foglietto sarebbe ben poco utile, visto che cercare un foglietto richiede dei mesi. Se usassimo un tale mucchio per conservare la nostra informazione, i nostri innumerevoli e dettagliati scritti di scienza e tecnologia diventerebbero quasi inutili. Le ricerche richiederebbero anni, o intere vite. Noi moderni abbiamo adottato una soluzione semplice: mettiamo in ordine le pagine. Mettiamo una pagina dopo l'altra per comporre un libro, un libro dopo l'altro per riempire uno scaffale, e quindi riempiamo di mensole un edificio per comporre una biblioteca. Mettendo in ordine le pagine possiamo trovarle, e seguire molto più rapidamente i riferimenti. Se gli scribi avessero assunto degli eruditi per disporre i foglietti in pile distinte per soggetto, la ricerca dei foglietti sarebbe divenuta più facile. E tuttavia, di fronte a pile distinte di foglietti riguardanti la storia, la geografia e la medicina, dove avrebbero dovuto mettere, questi eruditi, i foglietti riguardanti la geografia storica, o la epidemiologia geografica, o la storia medica? Dove avrebbero dovuto mettere i foglietti riguardanti "La Storia della Diffusione della Grande Peste?". Ma nel nostro paese immaginario, gli scribi adottarono un'altra soluzione: si rivolsero ad un mago. Ma prima di farlo, essi rinchiusero gli eruditi nella camera perché cucissero e legassero dei fili di connessione fra un foglietto ed un altro. I fili di un particolare colore legavano un foglietto al successivo in una serie, un altro colore conduceva ad un riferimento, un altro ad una nota critica, e così via. Gli eruditi intessevano una rete di relazioni, rappresentate da una rete di connessioni. Infine il mago (dagli occhi scintillanti e una chioma fluttuante) recitò un incantesimo, e l'intero caos si librò lentamente nell'aria per aleggiare come una nuvola nella cupola. Dopo di ciò, un erudito che impugnasse un foglietto doveva solo afferrare dal suo bordo uno dei fili che vi erano annodati, per tirarsi appresso tutti gli altri foglietti collegati. E i fili, magicamente, non si ingarbugliavano mai. Ora gli eruditi potevano collegare i foglietti riguardanti "La Storia della Diffusione della Grande Peste" ai foglietti riguardanti la storia, la geografia e la medicina. Potevano aggiungere tutte le note e tutto il testo che volevano, collegandoli nel modo più vantaggioso. Potevano aggiungere speciali foglietti d'indice, in grado di mettere a portata di mano qualunque cosa fosse in lista. Potevano disporre i collegamenti ovunque desiderassero, tessendo una rete di conoscenza che sapesse far corrispondere le connessioni con il mondo reale. Noi, con le nostre inerti pile di carta, potremmo solo invidiarli - se non avessimo i computer. La Carta Magica Diventa Reale Nel 1945, Vannevar Bush propose un sistema che denominò "memex". Era un dispositivo da scrivania, zeppo di microfilm e meccanismi, e capace di visualizzare le pagine immagazzinate e di consentire all'utente di aggiungervi delle note. Un sistema a microfilm memex non è mai stato costruito, ma il sogno ha continuato a vivere. Oggi, i computer ed i loro schermi hanno cominciato a diventare sufficientemente economici perché siano abitualmente utilizzati come strumenti di scrittura e di lettura. Alcuni editori di riviste cartacee sono diventati editori elettronici, producendo riviste, quotidiani e giornali accessibili solo attraverso le reti di computer. E con i programmi giusti, i computer dedicati alla gestione di testi ci permetteranno di collegare questa informazione in modi anche migliori del filo magico. Theodor Nelson, l'iniziatore dell'idea, ha denominato ciò che ne risulta con il nome di "Ipertesto":
ossia un testo con collegamenti in molte direzioni, e non solo in una sequenza unidimensionale. Lettori, autori ed editori che utilizzano i sistemi ipertestuali di solito non conoscono il funzionamento di computer e schermi, proprio come di solito non conoscevano neanche i meccanismi della fotocomposizione o della stampa litografica del passato. Un sistema ipertestuale funzionerà semplicemente come uno scritto magico; chiunque ci giochi per un po' acquisisce subito familiarità con le sue capacità basilari. Tuttavia, una descrizione della struttura di uno di questi sistemi (2) aiuterà nella spiegazione del funzionamento di un ipertesto. Nell'approccio adottato dallo Xanadu hypertext group (presso San Jose in California), il nucleo del sistema, la parte "server", è una rete di computer capace di immagazzinare sia documenti che collegamenti fra i documenti. Un sistema iniziale potrebbe essere rappresentato da una singola macchina desktop; ma alla fine un intera crescente rete di macchine sarebbe capace di servire come una biblioteca elettronica. I documenti memorizzati saranno in grado di rappresentare quasi qualsiasi cosa, sia romanzi che grafici, libri di testo o persino programmi, ed infine anche musica o filmati. Gli utenti saranno in grado di collegare qualsiasi parte del documento ad un'altra qualsiasi parte dello stesso documento, o di un qualunque altro documento. Quando un lettore punta ad uno dei capi di un collegamento (sia che esso venga mostrato sullo schermo come una sottolineatura, un asterisco una icona o un filo colorato), il sistema preleva dalla memoria e visualizza il materiale corrispondente all'altro capo del collegamento. Inoltre, esso registra le nuove versioni di un documento molto grande senza immagazzinare copie addizionali; il sistema avrà unicamente la necessità di memorizzare le parti che sono state modificate. Questo permette che l'immagazzinamento sul sistema delle precedenti versioni di un qualsiasi documento pubblicato e modificato causi meno dispendio di memoria. Il sistema farà tutto ciò rapidamente, persino quando la quantità totale di informazione immagazzinata divenga immensa. Una rete di tali macchine potrebbe infine maturare in una biblioteca elettronica mondiale. Per immaginare come tutto ciò dovrebbe apparire ad un utente, immaginate uno schermo della dimensione di un libro aperto, riempito da caratteri con una dimensione che consenta una chiara lettura, come quelli che state leggendo ora. Oggi lo schermo potrebbe assomigliare un apparecchio televisivo, ma entro pochi anni il suo aspetto potrebbe essere più simile a quello di un libro, un oggetto dalla dimensione tale da poter essere tenuto in grembo, con un cavo di connessione verso un dispositivo di immagazzinamento e distribuzione di informazione. (Con la nanotecnologia potremmo eliminare il cavo: un oggetto della dimensione di un libro sarà in grado di contenere un sistema ipertestuale comprendente riproduzioni fotografiche di tutte le pagine distinte che esistono al mondo, immagazzinate in una memoria veloce realizzata da un nastro molecolare). In questo libro - quello che avete adesso nelle vostre mani - potrei descrivere i libri di Theodor Nelson(3) riguardanti gli ipertesti, le Macchine da Letteratura e le biblioteche computerizzate, ma non potreste vedere i suoi libri su queste pagine. Le pagine in questione sono altrove, restando momentaneamente intrappolate in uno degli scritti del suo autore. Ma se questo fosse un sistema ipertestuale ed io, o qualcun altro, avessimo aggiunto l'ovvio collegamento, voi potreste puntare all'espressione "Macchine da Letteratura" qui presente, ed un momento più tardi vedreste sostituirsi al testo di questa pagina la visualizzazione chiara dell'Indice del libro di Nelson, o di una mia selezione di citazioni tratte dal suo libro. Da lì, potreste entrare nel suo libro e vagare in esso, forse mentre un'altra porzione del vostro sistema di visualizzazione vi mostra ogni nota che io ho collegato al suo testo. Potreste quindi ritornare qui (o verso pagine che forse ora mostrano anche le sue note al mio testo) o muovervi ancora oltre , verso un altro documento collegato al suo. Senza lasciare la vostra sedia, potreste avere una panoramica di tutti i principali scritti sugli ipertesti, spostandovi da un collegamento ad un altro attraverso un qualsiasi numero di documenti. Mantenendo traccia dei collegamenti (diciamo per esempio fra descrizioni di massima, bozze e materiali di riferimento) gli ipertesti aiuteranno la gente a scrivere e a redigere lavori più ambiziosi.
Utilizzando gli ipertesti potremo tessere la nostra conoscenza per dar vita a unità coerenti. John Muir ha osservato che "Quando proviamo a individuare isolatamente qualcosa, scopriamo che pare legata a qualsiasi altra cosa nell'universo". Gli ipertesti ci aiuteranno a mantenere legate assieme le idee secondo modi che meglio rappresentano la realtà. Con gli ipertesti saremo meglio capaci di collezionare e organizzare conoscenza, accrescendo l'efficacia operativa della nostra intelligenza. Ma perché la collezione di informazione si traduca in una maggiore efficacia operativa, deve essere decentralizzata; una informazione frammentariamente sparpagliata su molte menti non può essere facilmente inserita dentro il sistema da un gruppo composto da pochi specialisti. Lo Xanadu group propose un soluzione semplice: permettere che chiunque potesse scrivere e che il sistema retribuisse automaticamente ad ogni scrittore i relativi diritti d'autore ogni volta che qualcuno avesse letto il suo materiale. La pubblicazione sarebbe stata favorita dalla possibilità di fornire alla gente ciò che essa vuole. Immaginate che voi stesso abbiate qualcosa da dire riguardo alcune idee o eventi. Immaginate alcuni vecchi commenti dotati di un certo perspicace acume, e che oramai sono sbiaditi nella memoria sia degli oratori che degli ascoltatori di tutto il mondo. Su un sistema ipertestuale, sarà facile pubblicare e trovare commenti. Immaginate le domande che vi hanno confuso. Potreste pubblicare anche queste; qualcuno, trovata la risposta che vi serve, pubblicherà una replica al vostro intervento. Poiché chiunque sarà in grado sul sistema di scrivere testi e creare collegamenti, la rete di ipertesti accumulerà grandi magazzini di conoscenza e di saggezza e ancor più grandi mucchi di completa immondizia. Gli ipertesti comprenderanno vecchie news, pubblicità, graffiti, urla insensate e bugie sicché come potrebbe un lettore essere in grado di evitare le cose cattive e focalizzarsi su quelle buone? Potremmo mettere su un comitato editoriale centrale, ma ciò potrebbe distruggere la apertura del sistema. Ordinare informazioni costituisce di per se stesso un problema di informazione per il quale fortunatamente gli ipertesti ci aiuteranno ad evolvere buone soluzioni. Poiché gli ipertesti saranno capaci di fare quasi qualunque cosa di ciò che i sistemi cartacei possono fare, possiamo almeno usare la soluzione che adottiamo già oggi. Autori ed editori si sono costruiti delle reputazioni consolidate nell'ambito dei media cartacei, e molti di loro hanno cominciato a spostarsi verso la pubblicazione elettronica. Su un sistema ipertestuale essi saranno in grado di pubblicare documenti coerenti con i loro standard di reputazione. I lettori ben disposti verso di loro, potranno impostare i loro sistemi di visualizzazione affinché mostrino solo questi documenti, ignorando automaticamente la nuova immondizia. Per essi, il sistema ipertestuale apparirà come qualcosa che contiene solo materiale di pubblicisti rispettabili, che in più, rispetto alla distribuzione su carta, sarà materiale caratterizzato da una maggiore accessibilità perché distribuito elettronicamente e corredato da indici e collegamenti ipertestuali. L'autentica immondizia sarebbe ancora lì, (quanto meno finché i suoi autori continueranno a pagare una piccola tariffa per la conservazione in memoria del proprio materiale), e tuttavia essa non invaderà lo schermo di ogni lettore. Ma saremo in grado di fare ancor meglio di così. Il consenso su un documento (dimostrato da collegamenti e raccomandazioni) può venire da chiunque; i lettori presteranno più attenzione al materiale raccomandato da qualcuno che stimano. Al contrario, i lettori che troveranno dei documenti che apprezzano, saranno in grado di vedere chi li ha raccomandati; questo condurrà i lettori a scoprire gente che condivide i suoi stessi interessi e preoccupazioni. Indirettamente, gli ipertesti aggregheranno la gente e accelereranno lo sviluppo e la crescita di comunità. Quando la pubblicazione sarà divenuta così facile e veloce, gli scrittori produrranno più materiale. Poiché gli ipertesti incoraggeranno l'attività editoriale indipendente, gli editori stessi troveranno più lavoro da fare. I documenti che citano, elencano e collegano altri documenti serviranno da
antologie, giornali ed indici ad accesso istantaneo. L'incentivo rappresentato dagli introiti dovuti ai diritti d'autore incoraggerà la gente a trovare ciò che desidera. Appariranno ben presto guide alla letteratura presente, in competizione fra loro - nonché guide alle guide. Gli ipertesti collegano meglio di quanto facciano i riferimenti bibliografici cartacei, e non solo in termini di velocità. I riferimenti cartacei permettono ad un lettore volenteroso di seguire collegamenti da un documento ad un altro - ma tentate di scoprire in quali documenti ci sono dei riferimenti verso quello che state leggendo attualmente! Oggi, trovare tali riferimenti richiede l'ingombrante presenza di un indice delle citazioni, disponibile solo in apposite biblioteche di ricerca, ed orientato verso argomenti ristretti a campi limitati, nonché obbligato ad aggiornamenti che vengono compiuti con ritardi di qualche mese. Gli ipertesti collegheranno i lavori in entrambe le direzioni, permettendo ai lettori di trovare anche commenti su ciò che stanno leggendo. Questo, di fatto, è proprio un drastico passo avanti tecnologico: un progresso che sottopone le idee ad una analisi critica più completa, velocizzando perciò la loro evoluzione. L'evoluzione della conoscenza - sia in filosofia che in politica, o in scienza, o in ingegneria richiede la generazione, la diffusione e la verifica di memi. Gli ipertesti accelereranno questo processo. I media cartacei gestiscono questo processo di generazione e diffusione piuttosto bene, ma sono molto goffi per quel che riguarda la gestione della verifica. Una volta che una cattiva idea raggiunga la stampa, essa assume vita propria, e persino il suo autore può di rado avere la possibilità di piantare un paletto nel suo cuore. Una confutazione devastante di una cattiva idea diventa semplicemente un'altra pubblicazione, un altro foglietto di carta. Giorni o anni più tardi, resta ancora improbabile che i lettori che hanno incontrato o incontrano l'idea contraffatta siano anche casualmente capitati sulla sua confutazione. E così il nonsenso sopravvive e prospera. Solo con l'avvento degli ipertesti, i critici saranno in grado di piantare i loro stiletti nelle carni dei loro bersagli. Solo con gli ipertesti gli autori possono essere in grado di ritrattare i loro errori, e facendolo non grazie al rogo delle biblioteche o imbastendo una massiccia campagna pubblicitaria, ma semplicemente revisionando i loro testi ed etichettando la vecchia versione come "ritrattata". Gli autori avranno il mezzo per rimangiarsi le loro parole in tutta tranquillità; questo li compenserebbe, in parte per l'accresciuta ferocia della critica. I critici useranno chiare confutazioni per trafiggere a morte le insensatezze (come per esempio quello dei falsi limiti allo sviluppo), spazzandole via dall'arena intellettuale - sebbene senza eliminare le loro registrazioni - con quasi la stessa velocità con cui esse diventano visibili. Le guide alle buone critiche aiuteranno i lettori a vedere se una idea è sopravvissuta alle obiezioni più agguerrite sollevate fino a quel momento. Oggi, l'assenza di critiche conosciute non significa molto, poiché i brevi commenti critici sono difficili da pubblicare e ardui da trovare. In un consolidato sistema ipertestuale, tuttavia, le idee che siano sopravvissute a tutte le critiche note saranno sopravvissute ad una vera sfida. Esse si saranno conquistate una credibilità autentica e crescente. Collegare la Nostra Conoscenza I pregi impliciti negli ipertesti si estendono molto in profondità; e questo è il motivo per cui essi sono così grandi. Gli ipertesti ci consentiranno di rappresentare la conoscenza in maniera più naturale. La conoscenza umana forma una rete priva di interruzioni, ed i problemi umani sconfinano largamente oltre i vaghi confini che delimitano i vari campi. Le schiere ordinate di libri svolgono un ben misero lavoro come rappresentanti della struttura della nostra conoscenza. Le biblioteche, inventando modi migliori di indicizzare, referenziare e disporre fogli sfusi, hanno lavorato per rendere queste schiere di libri più simili a reti, e tuttavia, a dispetto dei nobili sforzi compiuti e delle vittorie riscosse dai bibliotecari, una ricerca bibliografica è tuttora qualcosa che spaventa chiunque, fatta eccezione per una minoranza specializzata del pubblico di lettori. I bibliotecari hanno evoluto
pian piano soluzioni orientate in direzione degli ipertesti, e tuttavia la meccanica della carta è tuttora d'intralcio per questo obiettivo. I sistemi ipertestuali ci consentiranno di compiere un passo da gigante nella stessa direzione verso cui ci siamo mossi fin dall'invenzione della scrittura. La nostra stessa memoria funziona tramite associazioni, cioè per mezzo di collegamenti che rendono richiamabili le nostre re-classificazioni delle informazioni memorizzate. Anche i ricercatori nel campo della IA trovano che il meccanismo dell'associazione sia essenziale per la costruzione di conoscenza utilizzabile dai loro sistemi; questi ricercatori programmano ciò che loro chiamano "reti semantiche" per costruire sistemi di rappresentazione della conoscenza, Sulla carta, le associazioni fra parole ci forniscono un aiuto prezioso; nella mente, un vocabolario funzionante si basa su associazioni rapide e flessibili fra parole. Di fatto, nella memoria, le correlazioni forniscono il contesto che dona significato alle nostre idee. Utilizzando gli ipertesti la gente assocerà idee grazie a collegamenti pubblicati, arricchendo le stesse idee di significato, e rendendole ancor più parte della nostra stessa mente. Quando modifichiamo la nostra mente riguardo alla concezione che abbiamo del mondo, e la concezione di dove esso stia andando, trasformiamo la nostra rete di conoscenza. Trasformazioni ragionate spesso ci richiedono di confrontare schemi di idee in competizione fra loro. Per giudicare la specifica visione del mondo presentata da un libro, un lettore deve spesso ricordare o rileggere spiegazioni da recuperare dalle pagine precedenti - o da un contestato articolo apparso l'anno precedente. Ma la memoria umana è fallace, e scavare alla ricerca di un vecchio articolo spesso sembra richiedere troppo lavoro. Ben conoscendo tale problema, gli autori spesso esitano incerti fra l'alternativa di includere troppo materiale nel loro lavoro (annoiando i loro lettori) e quella di tralasciare molte cose importanti (lasciando punti deboli nella loro discussione). Inevitabilmente, essi fanno entrambe le cose, contemporaneamente. I lettori degli ipertesti saranno in grado di vedere se le fonti collegate supportano una idea o se altre fonti connesse contengono critiche che la demoliscono. Gli autori scriveranno corposi e stimolanti sunti delle loro idee e le collegheranno alle loro estese e noiose spiegazioni. Mano a mano che gli autori esporranno le loro idee e i critici le discuteranno, entrambi tesseranno in parallelo intere reti contrastanti di visioni del mondo, punto su punto. I lettori non saranno ancora in grado di giudicare perfettamente o istantaneamente le idee presentate, ma saranno quanto meno in grado di giudicarle meglio e più rapidamente. In questo modo, gli ipertesti ci aiuteranno in uno dei compiti più grandi del nostro tempo: giudicare cosa sia davanti a noi, e correggere il nostro pensiero per adeguarlo alle prospettive di ciò che scuoterà le fondamenta delle nostre consolidate visioni del mondo. Gli ipertesti rafforzeranno la nostra preveggenza. Per allora, molte delle utili applicazioni di un maturo sistema ipertestuale saranno divenute ovvie o quantomeno altrettanto ovvie di quanto lo possono essere oggi, prima di aver mai avuto l'occasione di sperimentarle direttamente. Il supporto alla diffusione di news giornalistiche è una di queste ovvie applicazioni. Le news modellano la nostra visione del mondo, ma i media attuali pongono dei limiti a ciò che i giornalisti possono ritrarre. Spesso, le storie riguardanti la tecnologia e gli eventi del mondo hanno senso solo nell'ambito di un contesto più generale, ma le limitazioni di spazio e le frenetiche scadenze di pubblicazione strappano via il contesto associato alle storie. Ciò indebolisce la nostra comprensione degli eventi. Utilizzando gli ipertesti, i cronisti troveranno facile collegare le news del giorno a più estese discussioni precedenti. Per di più, la gente coinvolta nelle storie e i casuali osservatori delle stesse, saranno in grado di dire la loro, collegando così i loro commenti alla storia riportata dal cronista. La pubblicità lubrifica gli ingranaggi dell'economia, spingendoci (anche in malafede) verso i
prodotti disponibili. Dei consumatori ben informati potrebbero anche evitare l'acquisto di beni mediocri ed in sovraprezzo, ma la necessità di cercare fra i beni disponibili e confrontarli, inghiottirebbe notevoli quantità di tempo. Su un sistema ipertestuale, invece, alcune compagnie che offrono servizi per i consumatori compileranno cataloghi comparativi, collegando l'una all'altra le descrizioni di prodotti in reciproca competizione per verificarle e riferire ai consumatori. Per quel che riguarda l'istruzione, impariamo meglio quando siamo interessati a quel che stiamo leggendo. Ma la maggioranza dei libri presenta idee solo in una unica sequenza, e solo ad un livello di difficoltà, senza preoccuparsi della preparazione pregressa o dell'interesse di chi legge per apprendere. Anche in questo caso, la domanda popolare favorirà la crescita di utili reti ipertestuali. La gente creerà collegamenti fra presentazioni analoghe, ma concepite per livelli di difficoltà differenti. Gli studenti saranno in grado di leggere una presentazione pensata su un agevole livello di difficoltà, sbirciando su discussioni parallele che scendono un tantino più in profondità. La facilità di assimilazione del materiale più ostico ne risulterà accresciuta, poiché i collegamenti verso nozioni e definizioni basilari consentirà al lettore di prendersi pause per riordinare le idee istantaneamente, privatamente e senza imbarazzo. Altri collegamenti potrebbero condurre in tutte le direzioni verso materiale correlato; i collegamenti in una descrizione sulla barriera corallina potrebbero condurre verso testi sull'ecologia dei coralli o sulle storie di squali affamati. Potremmo soddisfare un nostro interesse momentaneo quasi istantaneamente, ed apprendere diverrà più divertente. Sempre più gente potrebbe considerarlo qualcosa che genera assuefazione. Con gli ipertesti la procedura del giusto processo si irrobustirà. Poiché gli ipertesti sono aperti verso tutte le direzioni, permettendo di formulare domande, di rispondervi, e così via, il dibattito condotto a mezzo ipertesto sarà dotato di una implicita procedura di giusto processo di alta qualità. Di fatto, gli ipertesti saranno un media ideale per la conduzione di forum dei fatti. Le procedure dei forum, a loro volta, saranno complementari agli ipertesti perché distilleranno i risultati dei loro dibattiti d'ampio respiro in affermazioni chiare (sebbene ottenute per tentativi) riguardanti fatti tecnici di importanza chiave. Un effetto finale ovvio degli ipertesti sarà quello di ridurre il problema delle citazioni fuori contesto: i lettori saranno in grado di recuperare il contesto originario associato ad ogni citazione, facendolo riapparire nel sistema con la semplice pressione di un pulsante. Questa sarà una caratteristica preziosa, e non solo per la prevenzione della rappresentazione travisata della posizione di un autore; i benefici indiretti potrebbero essere ancor più grandi. Strappare dal loro contesto di fondo affermazioni ragionevoli può sembrare assurdo, ma gli autori degli ipertesti sapranno che le citazioni "assurde" condurranno i lettori direttamente verso il contesto originale dell'autore. Ciò favorirà una scrittura più ardita, dando ai memi basati sulle prove e sul ragionamento un vantaggio rispetto a quelli basati sulla pura convenienza o timidezza. Forse il più importante (sebbene il meno evidente) beneficio degli ipertesti sarà una nuova capacità di vedere l'esistenza di lacune. Per sopravvivere ai prossimi anni, dobbiamo saper valutare correttamente idee complesse, e ciò richiede di saper giudicare se un argomento è pieno di lacune. Ma al momento abbiamo problemi ad individuare le lacune. Ancora più difficile è riconoscere l'assenza di lacune fatali, e tuttavia questa è la chiave per riconoscere un argomento fondato. Gli ipertesti ci aiuteranno anche in questo. I lettori esamineranno importanti argomentazioni, e dove riscontrino delle lacune le correderanno di cospicue obiezioni. Queste obiezioni renderanno le lacune così consistentemente visibili che l'assenza di buone obiezioni costituirà una chiara assenza di lacune conosciute. Potrebbe essere difficile apprezzare quanto tutto ciò sia importante: la mente umana tende a non riconoscere i problemi causati dalla nostra incapacità di vedere l'assenza di lacune, per non parlare poi delle opportunità che questa incapacità ci fa sfuggire. Per esempio, immaginate di avere una idea, e di star cercando di decidere se sia plausibile e valga
la pena pubblicarla. Se l'idea non è ovvia, potreste dubitare della sua veridicità e non pubblicarla. Ma se sembra ovvia, potreste con tutta ragione presumere che sia stata già pubblicata, anche se proprio non sapete trovare dove. Gli ipertesti, poiché rendono più facile trovare le cose, renderanno più facile vedere se qualcosa non sia ancora stata pubblicata. Rendendo le lacune della nostra conoscenza più visibili, gli ipertesti ci stimoleranno a colmare tali lacune. Per comprendere e guidare la tecnologia, abbiamo bisogno di trovare gli errori - incluse le omissioni - nelle proposte tecnologiche complesse. Poiché assolviamo questo compito in modo così carente, incorriamo in molti equivoci, e la visibilità di questi equivoci rende la nostra incompetenza un fatto evidente e minaccioso. Ciò incoraggia la prudenza, e tuttavia favorisce anche la paralisi: poiché abbiamo difficoltà ad accorgerci della presenza di lacune, temiamo che siano ovunque, anche dove non esistono affatto. Gli ipertesti ci aiuteranno a costruire fiducia in noi stessi dove tale fiducia sia giustificata grazie ad una più affidabile esposizione dei problemi. Pericoli degli Ipertesti Come molti altri utili strumenti, gli ipertesti potrebbero essere utilizzati per far danno. Sebbene ci aiuteranno a mantenere traccia dei fatti, potrebbero anche aiutare i governanti a mantenere traccia di noi. Tuttavia, in un bilancio complessivo, essi potrebbero servire la libertà. Pensati per essere intrinsecamente decentralizzati - con molte macchine, molti scrittori, molti editori - gli ipertesti potrebbero aiutare i cittadini più di quanto possano aiutare coloro che li governano. Le banche dati governative cresceranno di dimensioni in ogni caso, indipendentemente dagli ipertesti. I sistemi ipertestuali potrebbero persino aiutarci a tenerle d'occhio. Affidarsi completamente alla pubblicazione elettronica comporta altri pericoli. I governi degli Stati Uniti, come quelli d'altri paesi, hanno spesso interpretato l'ideale che una volta veniva enunciato come "libertà di parola" e di "stampa" intendendolo esclusivamente come libertà di parlare e di vendere carta stampata. I governi hanno infatti regolamentato l'uso della radio e della televisione, richiedendo a questi media di servire una concezione del pubblico interesse piuttosto orientata verso l'interpretazione che le burocrazie avevano di esso. I limiti pratici che obbligano a vincolare il numero di canali trasmittenti sul largo raggio, hanno fornito qualche scusa per questa imposizione, ma tali scuse devono fermarsi qui. Dobbiamo estendere i principi della libertà di parola ai nuovi media. Saremmo inorriditi se i governanti ordinassero agli agenti di irrompere nelle biblioteche per bruciare libri. Dovremmo ugualmente inorridire se i governanti tentassero di cancellare documenti pubblici dalle librerie elettroniche. Se gli ipertesti dovranno veicolare le nostre tradizioni, allora ciò che è stato pubblicato deve restare tale. Una biblioteca elettronica non sarebbe meno di una biblioteca solo perché è priva di scaffali o di carta. La cancellazione non produrrebbe fumo o fiamme, ma la puzza del rogo di libri resterebbe. Dal Desktop alla Libreria Mondiale Alcuni dei benefici che ho descritto deriverebbero solo da un grande ed altamente evoluto sistema ipertestuale - uno che già svolga la funzione di forum per dibattiti d'ampio respiro e che sia sulla buon strada per divenire una biblioteca elettronica mondiale. Un sistema di questo tipo potrebbe anche non arrivare a piena maturazione prima dell'arrivo della rivoluzione degli assemblatori e della IA. Perché gli ipertesti conquistino terreno, piccoli sistemi devono guadagnare applicazione pratica, e perché gli ipertesti ci aiutino a gestire la corsa tecnologica, i sistemi piccoli devono ottenere effetti che vanno al di la della loro dimensione. Fortunatamente, possiamo attenderci benefici sostanziali fin quasi dal principio.
Singole macchine ipertestuali saranno in grado di servire contemporaneamente per diversi utilizzi. Anche senza essere collegati ad ogni cosa del mondo esterno, essi aiuteranno le compagnie, le associazioni e i gruppi di ricerca, a gestire informazioni complesse. Tuttavia, creare collegamenti con l'esterno sarà facile. Il numero di basi di dati pubbliche che sono disponibili, si è sviluppato dalla dozzina della metà degli anni '60 fino a qualche centinaio nella metà degli anni '70, e qualche migliaio nella metà degli anni '80. Le compagnie hanno reso queste basi di dati pubblicamente disponibili grazie alle reti di computer. I sistemi ipertestuali saranno in grado di prelevare materiali da tali basi di dati, per cui dovranno immagazzinare solo i codici di accesso verso di esse piuttosto che il testo attuale. Questa informazione sarà solo apparentemente residente nel sistema ipertestuale, ma la bontà di tale soluzione sarà sufficiente per molti scopi. La gente utilizzerà i primi sistemi per fornire ad una comunità un servizio di connessione telefonica come quelli esistenti negli attuali bulletin board systems. Gruppi di discussione dedicati a interessi specifici sono già emersi sulle reti di computer; tali gruppi trovano che gli ipertesti siano un media migliore per lo scambio di informazione e punti di vista. I primi sistemi ipertestuali ci aiuteranno anche a costruire e avviare delle organizzazioni. L'ordinaria conferenza a mezzo computer (che semplicemente manda avanti e indietro dei brevi messaggi) già aiuta i gruppi a comunicare. I vantaggi di una conferenza non "faccia a faccia" includono costi più bassi (nessun bisogno di viaggiare) una interazione meno aspra (nessuna necessità di attendere o di interrompere la gente) ed una migliore visibilità delle caratteristiche delle menti partecipanti (grazie a messaggi più chiari e meno conflitti derivati da particolari protagonismi). Le comunicazioni ipertestuali estenderanno tali benefici dando ai partecipanti strumenti migliori per riferire, confrontare e riassumere. Poiché i dibattiti a mezzo ipertesti non hanno bisogno di un singolo editore, alle organizzazioni è perciò consentito di divenire più aperte. Utilizzare un servizio ipertestuale tramite il telefono e da un computer domestico durante le ore non di punta probabilmente costerà all'inizio diversi dollari per ogni ora. Questo costo crollerà nel tempo. Per diverse decadi fino ad oggi, l'effettivo costo dei computer è sceso di circa un fattore dieci ogni dieci anni, e il costo delle comunicazioni si è ridotto anch'esso. I sistemi di ipertesto saranno affrontabili da un numero sostanziale di persone quasi nello stesso momento in cui essi diverranno disponibili. Sembra che entro dieci anni, il costo calerà abbastanza da essere compatibile con l'utilizzo di questi sistemi da parte di un mercato di massa. La possibilità della pubblicazione elettronica è già stata colta al volo. La Academic American Encyclopedia, strutturata come un semplice ipertesto, è stata resa disponibile a 90.000 sottoscrittori, incluse 200 librerie e scuole. Il Time magazine riferisce (4) che i bambini usano il sistema con entusiasmo. I terminali nelle librerie possono già accedere al testo dei titoli di quotidiani, rotocalchi e giornali professionali. Non abbiamo bisogno di attendere un sistema universale per beneficiare universalmente dei suoi benefici, poiché gli ipertesti inizieranno a fare la differenza molto prima. Abbiamo bisogno che gli ipertesti siano a portata di mano di studenti, scrittori, ricercatori e dirigenti, e per la stessa ragione per cui abbiamo bisogno di libri di testo nelle scuole, di strumenti nei laboratori e di utensili nelle officine. Alcuni libri hanno fatto una grande differenza, persino quando letti da meno di una persona su mille, poiché hanno originato un ondata di nuove idee, in seguito propagatasi lungo tutta la società. Gli ipertesti faranno la stessa cosa, aiutandoci a raffinare idee che potranno in seguito diffondersi più estesamente anche tramite la carta stampata e i media radiotelevisivi. Ipertesti e Carta Stampata
Come si potrebbe confrontare la rivoluzione degli ipertesti con la rivoluzione di Gutenberg? Alcuni numeri suggeriscono la risposta. La stampa con caratteri mobili abbatte drasticamente i costi dei libri. Ne quattordicesimo secolo, l'Avvocato Reale di Francia aveva solo settantasei libri, e tuttavia essi venivano considerati componenti di una biblioteca molto grande. Un libro richiedeva settimane di lavoro esperto - e i copisti erano necessariamente dei letterati. Le masse contadine non avrebbero mai potuto né permettersi né leggere dei libri. Oggi, un anno di lavoro può permettere l'acquisto di quattromila libri. Molte case ne contengono centinaia; le grosse biblioteche ne contengono milioni. La stampa taglia i costi dei libri di un centinaio di volte o anche più, aprendo la possibilità dell'alfabetizzazione ed educazione di massa, e della rivoluzione mondiale tecnologica e democratica in corso. E gli ipertesti? Gutenberg mostrò all'Europa come disporre caratteri di metallo per stampare pagine; gli ipertesti ci permetteranno di redisporre del testo già immagazzinato e inviarlo lungo tutti i paesi alla velocità della luce. La stampa accumula pile di libri nelle case e montagne di libri nelle biblioteche; gli ipertesti avranno l'effetto di portare queste montagne di libri ad ogni terminale. Gli ipertesti estenderanno la rivoluzione di Gutenberg grazie all'incremento della quantità di informazione disponibile (5). E tuttavia, un altro vantaggio pare essere ancora più grande. Oggi, seguire un riferimento in una biblioteca di solito richiede minuti - con un po' di fortuna qualche centinaio di secondi - ma richiede anche giorni o più se il materiale non è molto popolare quindi è assente, oppure è troppo popolare e quindi esaurito. Gli ipertesti decurtano questi ritardi da centinaia di secondi a circa un secondo. Sicché, dove la rivoluzione di Gutenberg riduceva il costo del lavoro per la produzione di testi in misura di varie centinaia, la rivoluzione degli ipertesti ridurrà il costo del lavoro necessario per trovare un testo in misura di varie centinaia. Questa, di fatto, sarebbe una rivoluzione. Come ho discusso, rendere più convenienti i riferimenti ai collegamenti trasformerà la tessitura del testo, portando ad una rivoluzione non semplicemente nella quantità ma anche nella qualità. Questo incremento in qualità assumerà molte forme. Indici migliori renderanno più facile rintracciare informazione. Migliori discussioni critiche estirperanno le insensatezze ed aiuteranno a rafforzare le idee plausibili. Migliori presentazioni della globalità evidenzieranno le lacune nella nostra conoscenza. Con informazione abbondante, disponibile e d'alta qualità, sembreremo più intelligenti. E ciò aumenterà le nostre possibilità di gestire correttamente i passi avanti tecnologici in arrivo. Cosa potrebbe essere più utile? La prossima volta che vedrete diffondersi una falsità o vedrete una cattiva decisione derivare dalla pura ignoranza, fermatevi un attimo, e riflettete sugli ipertesti. ---------Capitolo 15: Abbondanza di mondi e tempo Nanotecnologia e Vita Quotidiana Altri Sogni Fantascientifici Semplicità Avanzata Spazio a Sufficienza per i Sogni Preparativi La difficoltà risiede, non tanto nelle nuove idee, quanto nello sfuggire a quelle vecchie che, per quelli che sono stati educati nel modo in cui la maggior parte di noi lo è stata, si ramificano in ogni
angolo delle nostre menti. - JOHN MAYNARD KEYNES Ho descritto come i progressi della chimica e della biotecnologia condurranno verso gli assemblatori, che a loro volta ci porteranno ai nanocomputer, ai replicatori, ed alle macchine riparacellule. Ho descritto come i progressi del software ci condurranno verso l'ingegneria automatizzata e verso l'intelligenza artificiale. Assieme, questi progressi renderanno possibile un futuro ricco di possibilità, una delle quali è la nostra stessa distruzione. Tuttavia, se utilizzeremo i forum dei fatti e gli ipertesti per rafforzare la nostra preveggenza, potremo evitare l'annichilazione, per muoverci oltre …ma verso dove? Verso una trasformazione d'estensione mondiale che può, se risulterà in un successo, portare abbondanza e longevità a tutti quelli che le desiderano (1). E questa è una prospettiva che, come è piuttosto naturale, scatena sogni di utopia. Un problema classico dell'utopia, come tutti ben sanno, è che dovrebbe essere statica, noiosa e terribile; infatti, altrimenti non sarebbe affatto un'utopia. Ciò nonostante, i sogni degli utopisti hanno cambiato ed ancora cambiato la storia, moltissime volte, in meglio o in peggio. Sogni pericolosi hanno condotto la gente ad uccidere in nome dell'amore, e schiavizzare in nome della fratellanza. Fin troppo spesso i sogni sono stati impossibili da realizzare, ed il tentativo di inseguirli è stato disastroso. Abbiamo bisogno di sogni più utili per guidare le nostre azioni. Un sogno utile deve mostrarci una meta possibile e desiderabile, ed i passi intrapresi verso quella meta devono produrre risultati positivi. Per aiutarci a cooperare nella conduzione della corsa tecnologica, abbiamo bisogno di mete che facciano presa su gente con sogni differenti; ma quali mete ci occorrono? Pare che ci debba essere spazio per la diversità. Analogamente, quali dei sogni oggi scelti, così vicino all'alba dell'intelligenza, potrebbero dimostrarsi preoccupanti per il nostro futuro potenziale? Pare che ci debba essere spazio per il progresso. Solo un certo tipo di futuro sembra risultare sufficientemente di largo respiro da possedere un'attrattiva generalizzata: un futuro aperto, di libertà, diversità e pace, che abbia spazio per l'inseguimento di molti sogni differenti; un futuro aperto, e desiderabile in egual misura da persone molto diverse fra loro; I piani grandiosi, come quello di stabilire un ordine mondiale uniforme, sembrano invece più pericolosi. L'imperativo "un mondo o nessun mondo", significherebbe l'imposizione di un singolo sistema sociale su un mondo di ostili potenze nucleari, il che pare una giusta ricetta verso il disastro. "Molti mondi o nessuno" sembrerebbe essere la nostra scelta reale, se potremo sviluppare scudi attivi per assicurare la pace. Potremmo essere capaci di realizzare tutto questo. Utilizzando dei sistemi di ingegneria automatizzata come quelli descritti nel capitolo 5, saremo in grado di esplorare i limiti del possibile a ritmi milioni di volte superiori rispetto a quelli umani. Saremo quindi in grado di delineare i limiti ultimi della corsa tecnologica, inclusa la corsa agli armamenti. Assieme all'impiego di scudi attivi basati su tale conoscenza, sembra quindi che potremo assicurare una pace stabile e duratura (2). La tecnologia avanzata non ha bisogno di modellare il mondo pressandolo contro un unico stampo. Molta gente un tempo aveva timore che macchine e organizzazioni sempre più grandi potessero dominare il nostro futuro, stritolando la diversità e i desideri umani. Di fatto, le macchine possono svilupparsi nella direzione di un accrescimento sempre maggiore, ed alcune lo fanno. Le organizzazioni possono svilupparsi verso un accrescimento sempre maggiore, ed alcune lo fanno. Ma macchine sgradevoli e sferraglianti, e burocrazie immense cominciano già ad avere l'aspetto di abiti fuori moda, a confronto dei microcircuiti, delle biotecnologie e delle organizzazioni fluide.
Oggi possiamo vedere le linee generali del quadro delineato sulla scala umana da una più alta tecnologia, quelle di un mondo in cui le macchine non sferragliano e gli impianti chimici non puzzano e i sistemi di produzione non usano la gente come fossero semplici ingranaggi meccanici. La nanotecnologia ci mostra che i progressi possono condurre verso un differente stile di tecnologia. Assemblatori ed intelligenza artificiale ci permetteranno di creare prodotti complessi senza organizzazioni complesse. Gli scudi attivi ci permetteranno di assicurare la pace senza un massiccio complesso militare-industriale. Queste tecnologie allargheranno le nostre scelte, liberandoci dai nostri vincoli e creando disponibilità di spazio per una più grande diversità ed indipendenza. Instaurare un'era di abbondanza richiederà soltanto che, un giorno, le vaste e non rivendicate risorse dello spazio siano divise in modo da distribuirne ad ognuno una significativa porzione. Nelle poche restanti sezioni, darò uno sguardo su alcune possibilità estreme che le nuove risorse e i nuovi motori della creazione apriranno per noi; estremi che spaziano dalla fantascienza ai modi di vita dell'età della pietra. Considerate gli estremi presentati nel seguito come degli intensi colori primari, da mescolare sulla vostra tavolozza per dipingere il futuro che più vi piace. Nanotecnologia e Vita Quotidiana Una tecnologia avanzata potrebbe mettere fine alla vita oppure estenderla, ma potrebbe anche trasformare la sua qualità. I prodotti basati sulla nanotecnologia pervaderanno le vite quotidiane della gente che sceglierà di utilizzarli. Alcune conseguenze saranno triviali; altre potrebbero essere profonde. Alcuni prodotti produrranno effetti in termini di semplificazione dell'ordinaria manutenzione casalinga (altrettanto sostanziali degli effetti di riduzione delle cause di litigio domestico). Non dovrebbe rappresentare un indice di grande ingegnosità, per esempio, pensare di realizzare ogni prodotto casalingo, dai piatti ai tappeti, in maniera che risulti essere auto-pulente, mantenendo così permanentemente sana l'aria della casa. Per delle nanomacchine progettate a questo scopo, lo sporco potrebbe essere cibo. Altri sistemi basati sulla nanotecnologia, potrebbero produrre del cibo fresco: carne genuina, grano, vegetali, ecc…, prodotti direttamente in casa e lungo tutto l'anno. Questi cibi derivano dallo sviluppo di cellule secondo certi schemi, sviluppo che costruisce così piante e animali; le cellule potrebbero quindi essere obbligate a svilupparsi secondo gli stessi schemi anche in altri luoghi. Gli sviluppatori domestici di cibo consentiranno alla gente di sostenere delle diete ordinarie senza uccidere nessuno. Il movimento per i diritti degli animali (il precursore di un movimento per la protezione di tutte le entità coscienti e senzienti?) approverà entusiasticamente. La nanotecnologia renderà possibile schermi ad alta risoluzione capaci di proiettare immagini differenti su ogni occhio; il risultato sarà una televisione tridimensionale così reale che lo schermo sembrerà come una finestra su un altro mondo. Schermi di questo tipo potrebbero corredare l'elmetto di una tuta spaziale simile a quella descritta nel capitolo 6. La tuta stessa, piuttosto che esser programmata per applicare alla pelle forze e trame di pressione definite dall'esterno, potrebbe invece applicare forze e trame di pressione definite da un complesso programma interattivo. La combinazione di una tuta e di un elmetto di questo tipo, potrebbe simulare la maggior parte delle visioni e delle sensazioni di un intero ambiente, sia esso un ambiente reale o immaginario. La nanotecnologia renderà possibile delle vivide forme d'arte e la creazione di mondi fantastici estremamente più avvincenti di qualsiasi libro, gioco o film. Le tecnologie avanzate renderanno possibile un intero nuovo mondo di prodotti al cui confronto ciò che oggi è considerato conveniente sembrerà sconveniente e pericoloso. Perché gli oggetti non
dovrebbero essere leggeri, flessibili, duraturi e cooperativi? Perché le pareti non dovrebbero apparirci in qualunque aspetto desiderato, e non dovrebbero poter trasmettere solo i suoni che desideriamo udire? Perché dovremmo costruire edifici e veicoli che stritolano o arrostiscono i propri occupanti? Per quelli che lo desidereranno, l'ambiente della vita quotidiana potrà assomigliare a quello delle più sfrenate fra le descrizioni che è possibile trovare nella fantascienza. Altri Sogni Fantascientifici Verso molti degli estremi del possibile ci sono i sogni della fantascienza, per coloro che desiderano viverli. Essi spaziano dalle case che cooperano con noi per il nostro comfort alle prospettive del duro lavoro su pianeti distanti. Gli autori di fantascienza hanno immaginato moltissime cose, alcune possibili ed altre in evidente contraddizione con le leggi naturali conosciute. Alcuni hanno sognato del volo spaziale, ed il volo spaziale è giunto. Alcuni hanno sognato di robot, ed i robot sono arrivati. Alcuni hanno sognato del volo spaziale economico e di robot intelligenti, ed anche questi sogni sono prossimi a realizzarsi. Ma esistono ancora altri sogni che paiono possibili. Gli autori hanno scritto della condivisione diretta di pensieri ed emozioni da una mente all'altra. La nanotecnologia sembra probabilmente in grado di rendere possibile una qualche forma di questo sogno, grazie alla connessione di strutture neurali per mezzo di trasduttori e segnali elettromagnetici. Sebbene limitata dalla velocità della luce, questa sorta di telepatia sembra altrettanto possibile di quanto lo è la telefonia. Astronavi, colonie spaziali e macchine intelligenti diverranno tutte cose possibili. Ma sono tutte cose che risiedono all'esterno della nostra pelle, mentre gli scrittori hanno anche narrato di trasformazioni interne alla nostra pelle, che diverranno altrettanto possibili. Conquistare completamente la salute nel corpo e nella mente è una delle forme di tali possibilità, e tuttavia alcune persone vorranno di più. Esse saranno alla ricerca di cambiamenti ad un livello più profondo che non la semplice conquista di salute ed abbondanza. Alcuni cercheranno appagamento nel mondo dello spirito; sebbene questa ricerca risieda oltre la portata della tecnologia puramente materiale, nuove possibilità fisiche forniranno punti di partenza, nonché tempo a sufficienza per tentare. La tecnologia alla base dei sistemi di riparazione cellulare permetterà alla gente di trasformare i propri corpi in modi che vanno dal triviale al sorprendente, ed infine al bizzarro. Tali trasformazioni avranno ben pochi limiti ovvi. Alcune persone potrebbero spogliarsi della forma umana al pari di un bruco che si trasformi per spiccare il volo; altre potrebbero portare il modello umano verso un nuovo nirvana di perfezione. Altre persone ancora, infine, semplicemente si cureranno le loro verruche, ignoreranno le nuove farfalle e se ne andranno a pesca. Gli scrittori hanno sognato di viaggi nel tempo verso il passato , ma a tal riguardo la natura non sembra cooperare (3). Tuttavia la biostasi apre la porta del viaggio temporale verso il futuro, poiché può far si che gli anni trascorrano nell'arco di un battito di ciglia. La stanchezza potrebbe spingere alla ricerca di un futuro molto più distante, forse nell'attesa di una lenta maturazione nel campo delle arti oppure in altri campi sociali, o nell'attesa della creazione di interi mondi su tutta la galassia. Se le cose andranno davvero così, si potrebbe passare da un'epoca all'altra alla ricerca di un futuro che ci sembri adatto. Strani futuri restano aperti, associati a mondi oltre la nostra immaginazione. Semplicità Avanzata E. F. Schumacher, autore di Small Is Beautiful, ha scritto: "Non ho dubbi che sia possibile dare una nuova direzione allo sviluppo tecnologico, una direzione che lo riporti indietro verso i reali bisogni dell'uomo, il che significa anche: verso la vera scala dimensionale umana. L'uomo è piccolo, e di conseguenza piccolo è bello". Schumacher non stava scrivendo a proposito di nanotecnologia, ma
davvero una tecnologia avanzata fatta su misura per la scala umana, potrebbe contribuire ad una vita più semplice? In tempi preistorici, la gente utilizzava due tipi di materiali: i prodotti dei processi naturali di mole (pietra, acqua, aria ed argilla) ed i prodotti del macchinario molecolare naturale (ossa, legno, pelle e lana). Oggi noi utilizziamo questi stessi materiali assieme a dei complessi processi di mole, per fabbricare i prodotti della nostra civiltà industriale globale. Se in passato il nostro sistema tecnologico é cresciuto al di là della portata della scala umana, sono in massima parte da commiserare solo la nostra tecnologia di mole e la stupidità delle nostre macchine: per realizzare sistemi complessi dobbiamo renderli più grandi. Per renderli capaci, dobbiamo riempirli di gente. Il sistema risultante si è ormai allargato su tutti i continenti, intrappolando la gente in una ragnatela globale. Esso ci ha offerto una via di fuga dalla dura fatica di dover condurre fattorie per assicurarci la nostra sussistenza, ed ha prolungato le nostre vite portandoci benessere, ma lo ha fatto ad un costo che qualcuno considera troppo alto. La nanotecnologia ci apre ora nuove possibilità. I sistemi autoreplicanti saranno capaci di produrre il cibo, aver cura della nostra salute, fornirci asilo e soddisfare altre nostre necessità. Essi compiranno tutto ciò senza burocrazie o grosse industrie. Comunità piccole ed autosufficienti potranno raccoglierne tutti i benefici. Una misura sperimentale della libertà che una tecnologia offre, è il grado di libertà che lascia alla gente di scegliere se ritornare a modi di vita più primitivi. La tecnologia moderna ha fallito da questo punto di vista; la tecnologia molecolare invece riuscirà in tutto ciò. Per misurare il grado di libertà offerto dalla nanotecnologia, immaginiamo di ritornare allo stile di vita dell'età della pietra, ma non semplicemente ignorando la tecnologia molecolare, quanto piuttosto mentre continuiamo comunque ad utilizzarla. Gli abitanti dell'età della pietra, mancando di una istruzione come quella moderna, non avrebbero potuto comprendere il macchinario molecolare, ma questo poco importa. Fin dai tempi antichi, gli abitanti di queste epoche hanno utilizzato il macchinario molecolare di lieviti, semi, e capre, pur senza comprenderli a livello molecolare. Se cose così complesse ed indisciplinate come lo sono le capre, sono adatte a stili di vita primitivi, allora ci sono sicuramente anche altre forme di macchinario molecolare che sono altrettanto qualificate per questo scopo. Le cose viventi mostrano che il macchinario interno ad un sistema auto-replicante può anche non esserci noto, persino più di quanto si possa ignorare quello che c'è all'interno di una automobile. Per cui, un gruppo di persone può tranquillamente coltivare "piante" ed allevare "animali" per facilitare la severa durezza dell'esistenza, e continuare a condurre uno stile di vita fondamentalmente identico a quello dell'età della pietra. Queste persone potrebbero anche auto-limitarsi a piante ed animali ordinari, modificati solo tramite la semplice ingegneria di millenni di selezionamenti artificiali delle specie coltivate o allevate. Con possibilità così ampie, alcune persone potrebbero persino scegliere di vivere come facciamo oggi: con i rumori del traffico, e gli stessi cattivi odori e pericoli di oggi; con i denti cariati e gli stridenti trapani del dentista; con le giunture dolenti e le rughe della pelle; con le loro gioie disturbate ed intralciate da paure, da fatiche e dall'approssimarsi della morte. Ma a meno di una totale amnesia che faccia loro dimenticare l'esistenza di possibilità migliori, quante persone desidererebbero davvero rassegnarsi a vite come queste? Forse pochissime. Possiamo immaginare di condurre una vita ordinaria in una colonia spaziale? Un insediamento spaziale dovrebbe essere grande, complesso e localizzato nello spazio: ma anche la Terra è grande, complessa e localizzata nello spazio. I mondi nello spazio possono essere altrettanto auto-sostenuti rispetto alla Terra, e grandi quanto interi continenti, inondati dalla luce del sole, saturi d'aria e contenuti in un bio-cilindro se non addirittura in una biosfera.
I mondi nello spazio non necessariamente dovranno essere dei prodotti della diretta progettazione umana. Soggiacente a molta della bellezza della natura, c'è un certo tipo di disordinato ordine. Le venature di una foglia, i rami di un albero, le ramificazioni di un bacino fluviale, contengono tutte una libertà di forme incanalata nell'ambito di schemi che assomigliano a ciò che i matematici chiamano "frattàli" (4). I paesaggi dello spazio non dovranno necessariamente essere modellati come campi da golf o periferie residenziali. Alcuni potranno essere modellati con l'ausilio di computer programmati per riflettere una profonda conoscenza dei processi naturali, e per combinare tale conoscenza in realizzazioni guidate da scopi umani, svolgendo tutto ciò con una naturalezza che nessuna mente o mano umana può direttamente produrre. Montagne e valli selvagge verranno rispecchiate nella modellazione di forme di rocce e terre di sogno scolpite nelle acque elettroniche di una sognante era virtuale. I mondi nello spazio saranno veri mondi. Spazio a Sufficienza per i Sogni Questa quindi è la dimensione che il futuro promette. Sebbene continueranno ad esistere limiti allo sviluppo, saremo in grado di raccogliere la potenza energetica del sole in misura un milione di miliardi di volte maggiore di tutta la potenza attualmente impiegata dall'uomo. Dalle risorse del nostro sistema solare saremo in grado di creare aree di territorio un milione di volte più estese di quelle terrestri. Con gli assemblatori, con l'ingegneria automatizzata e con le risorse dello spazio, potremo rapidamente conquistare un benessere in quantità e qualità ben superiore a quella immaginata nei sogni del passato. Resteranno dei limiti ultimi all'estensione della vita umana, ma la tecnologia per la riparazione cellulare metterà a disposizione di tutti una salute perfetta e una longevità indefinita. Questi progressi ci porteranno nuovi motori di distruzione, ma renderanno anche possibili scudi attivi e sistemi di controllo degli armamenti capaci di stabilizzare la pace. In breve, abbiamo una possibilità per un futuro con spazio a sufficienza per molti mondi e molte scelte, e con tempo sufficiente per poter esplorare entrambe. Una tecnologia ben addomesticata può far recedere i nostri limiti, consentendo che le forme della tecnologia modellino molto meno le forme dell'umanità stessa. In un futuro aperto di abbondanza, spazio e diversità, i gruppi di persone saranno liberi di costituire qualsiasi forma di società essi desiderino, liberi di fallire o di diventare un fulgido esempio per il mondo. A meno che il vostro sogno non sia quello di dominare chiunque altro, ci sono possibilità che altre persone desiderino condividerlo. E se sarà così, allora voi e questi altri potreste scegliere di unirvi per dar forma ad un mondo nuovo. Se una promettente partenza dovesse poi rivelarsi fallimentare, se essa risolvesse troppi problemi oppure troppo pochi, avreste il modo di riprovarci ancora. I nostri problemi attuali non sono quelli di saper costruire o progettare utopie, ma di cercare una possibilità per provare a realizzarle. Preparativi Potremmo anche fallire. Gli assemblatori-replicatori e l'IA potrebbero condurci a problemi dalla complessità senza precedenti, e minacciare di arrivare con una repentinità senza precedenti. Non possiamo attendere che si verifichi un errore fatale, per decidere solo in seguito cosa fare in proposito; dobbiamo impiegare queste nuove tecnologie per costruire scudi attivi prima che i sintomi minacciosi compaiano. Fortunatamente per le nostre possibilità, i passi avanti tecnologici imminenti diverranno costantemente sempre più ovvi. Essi probabilmente cattureranno l'attenzione pubblica, garantendo almeno un certo grado di preveggenza. Ma più presto cominceremo a stendere dei piani, migliori saranno le nostre probabilità. Il mondo diverrà presto un luogo ospitale per i memi che si propongono di descrivere delle politiche assennate per gestire i passi avanti tecnologici degli assemblatori e della IA. E a quel punto, tali memi si diffonderanno e rafforzeranno, indipendentemente al fatto che lo meritino o meno. Le nostre probabilità saranno migliori se,
quando verrà il momento, sarà stato elaborato un sensato corredo di idee, e se esso avrà cominciato a diffondersi - opinione e politica pubbliche avranno maggiore probabilità di scattare in direzioni assennate quando la crisi si avvicinerà. La situazione rende importante già da ora una attenta discussione e una adeguata educazione pubblica. Guidare la tecnologia richiederà anche delle nuove istituzioni, e le istituzioni non si evolvono nell'arco di una notte. Questo rende importante già da ora lavorare sugli ipertesti e sui forum dei fatti. Se saranno già pronti all'uso, essi cresceranno in popolarità all'approssimarsi della crisi. A dispetto della enorme attrattiva esercitata da un futuro di apertura, alcune persone si opporranno ad esso. Gli affamati di potere, gli idealisti intolleranti, ed una manciata di persone assolutiste nel loro odio verso l'umanità intera, giudicheranno ripugnante la prospettiva della libertà e della diversità. Ma il punto fondamentale è: queste persone influenzeranno la politica pubblica in modo sostanziale? Inevitabilmente, i governi sovvenzioneranno, ritarderanno, classificheranno, gestiranno, abbozzeranno o guideranno i rivoluzionari progressi tecnologici. Le democrazie cooperative potrebbero commettere errori fatali, ma se li commetteranno è probabile che ciò accadrà più come risultato della pubblica confusione nel giudicare quali siano le politiche che provocano determinate conseguenze. Ci sarà una più genuina opposizione ad un futuro di apertura, sulla base di valori e obiettivi differenti (e spesso non esplicitamente dichiarati), ma ci saranno disaccordi ancora più grandi su specifiche proposte, sulla base di differenti credenze riguardanti materie di fatto. E nonostante la maggior parte dei disaccordi deriverà da differenze di giudizio, molti altri deriveranno inevitabilmente dalla semplice ignoranza. Persino fatti solidi e ben attestati resteranno, in un primo momento, poco noti. Quel che è peggio, la prospettiva di tecnologie così fondamentali come quelle degli assemblatori, della IA e della macchine di riparazione cellulare, deve inevitabilmente rovesciare, tutte assieme in una volta sola, molte vecchie idee fortemente radicate. Questo causerà conflitti nelle menti della gente (lo so bene, avendone sperimentati alcuni). In alcune menti, i conflitti farebbero scattare il riflesso del "rigetta-il-nuovo" che è finora servito all'umanità come il più basilare dei sistemi immunitari mentali. E questo riflesso farà sì che l'ignoranza sarà molto tenace. E c'è ancora di peggio, ossia che la diffusione di mezze-verità sarà causa di danni ulteriori. Perché possano funzionare appropriatamente, alcuni memi devono essere messi in relazione con altri. Se ad esempio l'idea della nanotecnologia fosse libera dall'idea dei suoi pericoli, la nanotecnologia sarebbe un pericolo ancora più grande di quello che già costituisce di per sé stessa. Ma in un mondo già pieno di diffidenza verso la tecnologia, questo rischio sembra improbabile. E tuttavia altri frammenti incompleti di idee si diffonderanno, seminando incomprensione e conflitto. L'idea dei forum dei fatti, quando venga considerata senza distinguere fra fatti, valori, e politiche, ha il sapore di qualcosa di tecnocratico. Gli scudi attivi, se proposti senza menzionare gli ipertesti o i forum dei fatti, potrebbero sembrare cose su cui è impossibile fare affidamento. I pericoli e l'inevitabilità della nanotecnologia condurrebbero alla disperazione coloro che ignorassero l'esistenza dell'idea degli scudi attivi. Il pericolo della nanotecnologia, se allo stesso tempo non se ne comprendesse bene la sua inevitabilità, fomenterà futili sforzi locali mirati ad arrestare la sua avanzata globale. Gli scudi attivi, quando non motivati dal loro requisito ultimo di controllare la tecnologia molecolare, sgomenteranno qualcuno per la loro apparente problematicità eccessiva. Quando si parla di "progetti difensivi" senza distinguere fra difesa ed offesa, gli scudi attivi sgomenteranno qualcuno per la loro apparente minacciosità nei confronti della pace. Analogamente, l'idea della longevità, se non affiancata all'aspettativa di abbondanza e di nuove frontiere, sembrerà perversa. L'abbondanza, immaginata senza uno sviluppo spaziale, suona pericolosa per l'ambiente. L'idea della biostasi, per coloro che nulla conoscono sulla riparazione
cellulare e confondono l'espirazione con la dissoluzione, suona assurda. Se non ci fossero le copertine dei libri o i collegamenti ipertestuali a tenerle assieme, le idee tenderebbero a frammentarsi man mano che si diffondono. Abbiamo bisogno di sviluppare e diffondere una comprensione unitaria del futuro, ossia la comprensione di un sistema di pericoli ed opportunità fittamente intrecciate. Questo nostro bisogno richiede lo sforzo di molte menti. L'incentivo allo studio ed alla diffusione delle informazioni necessarie sarà sufficientemente forte: gli argomenti sono infatti affascinanti ed importanti, e molta gente vorrà unirsi ad amici, familiari e colleghi, nelle discussioni e riflessioni su quel che ci attende. Se spingiamo nella giusta direzione imparando, insegnando, discutendo, cambiando direzione - ed infine ancor spingendo, potremmo ancora guidare la corsa tecnologica verso un futuro con spazio a sufficienza per i nostri sogni. Eoni di evoluzione e millenni di storia ci hanno preparato questa sfida, e l'hanno sommessamente presentata alla nostra generazione. I prossimi anni ci porteranno fino al punto di svolta più importante di tutta la storia della vita sulla Terra. Guidare la vita e la civiltà attraverso questa transizione è il compito più grande del nostro tempo. Se avremo successo (e se sopravviveremo), potremmo essere onorati dalle domande incessanti dei nostri seccanti pronipoti: "Com'era quando eri ragazzo, prima della rivoluzione tecnologica?" e " Che si prova ad invecchiare?" e "Cosa hai pensato quando hai sentito che stava per arrivare il 'Passo Avanti'?" e "E quindi che hai fatto?". Con le vostre risposte, racconterete un'ennesima volta la storia di come vincemmo il futuro.