Follia filosofica e visionarietà progettuale
Ho letto in questi giorni Nick Bostrom, fisico, filosofo e neuroscienziato svedese quarantacinquenne, PhD alla London School of Economics, direttore del Future of Humanity Institute di Oxford, nel suo Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, 2018, regalatomi per il mio compleanno da Alina e Stefano. Un libro furbamente intelligente-intrigante e socialmente pericoloso, se il lettore non possiede una buona cultura filosofico-scientifica e una sufficiente soglia critica.
Per esemplificare, forse un po’arbitrariamente una parte del suo pensiero, pur correndo il classico rischio della fuorvianza o devianza interpretativa dovuta all’estrapolazione di un brano dal testo completo, ma Bostrom me lo perdonerà perché leggo tra le righe che è uomo di spirito, ti propongo, caro lettore, quanto si trova a pag. 161, in una manchette a sfondo grigio, certamente scelta dal grafico per dare maggiore importanza al testo:
“(…) Per alcuni lettori il fatto che la capacità di eseguire 10 alla 85esima potenza operazioni computazionali sia molto importante potrebbe non essere ovvio, quindi è utile contestualizzarla. Potremmo, per esempio, confrontare questo numero con la nostra stima (box 3 cap. 2) che sarebbero necessarie 10 alla 31esima meno 10 alla 44esima operazioni per simulare tutte le operazioni neuronali che avranno avuto luogo nella storia della vita sulla Terra. In alternativa, supponiamo che i computer siano usati per far girare emulazioni globali del cervello umano che vivono una vita ricca e felice interagendo tra loro in ambienti virtuali. Una stima tipica dei requisiti computazionali per far girare un’emulazione è 10 alla 18esima operazioni al secondo. Per far girare un’emulazione per 100 anni soggettivi quindi sarebbero necessarie grosso modo 10 alla 27esima operazioni. Ciò significa che si potrebbero creare almeno 10 alla 58esima vite umane in emulazione anche con ipotesi abbastanza prudenti riguardo all’efficienza del computronium.
In altre parole, supponendo che l’universo osservabile non contenga civiltà extraterrestri, a essere in gioco sono almeno 10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 vite umane (anche se il numero reale è probabilmente maggiore). Se rappresentiamo tutta la felicità provata (e qui viene il bello, ndr) nel corso di una di queste vite con una sola lacrima di gioia, la felicità di queste anime potrebbe riempire gli oceani della Terra una volta al secondo e continuare a farlo per 100 miliardi di millenni. E’ molto importante assicurarci che siano davvero lacrime di gioia.”
Occorrono commenti logorroici? Non penso, perché basta solo chiedersi come le lacrime di gioia escono dalle celle lacrimali, per quale ragione, in che contesto, in chi, per risponderci che il mero esempio computazionale è uno sterilissimo gioco accademico statistico. Infatti, l’ultima domanda che si fa Bostrom fa crollare l’intero impianto argomentativo. Basti solo pensare che si potrebbe indurre la lacrimazione in millanta altri modi, o che l’espressione gioiosa del volto potrebbe essere bio-elettricamente stimolata fino alla stereo-tipizzazione. Et de quo satis.
… e poi quanto si legge a pag.197, dove Bostrom sviluppa il tema etico-morale della sua ricerca in un capitolo dal titolo “Crimine morale”, che significa come si renda perfettamente conto di quanto va scrivendo.
“(…) Non voglio dire che dal punto di vista morale la creazione di simulazioni senzienti sia necessariamente sbagliata in ogni situazione. Molto dipenderebbe dalle situazioni in cui vivono questi esseri, in particolare dalla qualità edonica (e che è? lo so bene ciò che è, ndr) delle loro esperienze, ma forse anche da molti altri fattori. Anche se elaborare un’etica per questi problemi è un compito che esula dagli scopi di questo libro, un punto chiaro è che si potrebbe produrre una gran quantità di morti e sofferenze tra menti simulate o digitali e, a fortiori, di risultati moralmente catastrofici.
Una superintelligenza digitale potrebbe avere anche altre ragioni strumentali, oltre a quelle epistemiche, per eseguire computazioni che istanziano menti senzienti, o che comunque infrangono le norme morali: potrebbe minacciare di maltrattare simulazioni senzienti, o impegnarsi a ricompensarle, allo scopo di ricattare o incentivare vari agenti esterni, oppure potrebbe creare simulazioni per indurre incertezza indessicale negli osservatori esterni.”
Mi fermo qui perché il testo si commenta da sé.
Ma poi, andando avanti, quando Bostrom ipotizza di viaggiare al 50% o al 99% della velocità della luce, cosa ovviamente impossibile allo stato presente e futuro delle cose, cosicché potremmo intercettare pianeti abitati da intelligenze pari o superiori alle nostre, con visioni morali molto diverse, vien da pensare che si possono fare le ipotesi più strampalate, in onore del pensiero pensante e in quanto tale potenzialmente pensante qualsiasi cosa e mai stanco di pensare, perché si pensa anche quanto si pensa di non pensare, appunto, pensando di non pensare. Platone e Aristotele, in fondo, pensavano che la filosofia fosse un’attività beata, anche se non la si volesse finalizzare a nient’altro che al piacere di pensare in modo elevato, e perciò apportatore di gioia spirituale. Perché no? Anch’io, in fondo, ho un’idea della filosofia più legata al piacere intellettuale che alla sua funzionalità pratica, se non nella sua branca morale.
Nella visione di Bostrom, per avviarmi a concludere questa breve e parziale esegesi di uno dei suoi testi, forse sarebbe addirittura preferibile un’etica declinata secondo l’AI, affidata a macchine che acquisiscono i connotati neuro-morfici delle reti corticali del cervello umano, un po’ come raccontato in film del genere Robocop, Terminator, Matrix e, appunto, lo spielberghiano AI.
L’umanesimo rimanente nella visione ipotizzata nel libro qui citato potrebbe essere, da un lato la ECG o ecografia cerebrale generale, e la VET, cioè la volontà estrapolata coerente. Ciò che resta dell’uomo biologico: what remains the human kind.
L’importante è che l’uomo pensi, ricerchi, scriva, comunichi, ma sempre con l’umiltà della consapevolezza del proprio limite.
Post correlati
1 Comments
Leave a Reply
sostanzialmente d’accordo ma con due appunti:
1) (rafforzativo) inquietante la scarsa consapevolezza con la quale scivola, nei capitoli iniziali, in tema di superintelligenza di tipo biologico, verso ipotesi di lavoro già frequentate dal Nazismo (e da fascismi vari)
2) (diminutivo) io non sarei perplesso per affermazioni e ipotesi che si riferiscono ad una sostanziale illimitatezza delle potenzialità dell’IA; non ha molto senso affermare che oggi non si vede come sia possibile viaggiare al 50% di “c”. Se si accetta il fatto che l’attuale livello tecnologico è il risultato dell’attività, e dei limiti, dell’attività dell’intelletto umano, è obbligatorio derivarne che nessun limite di fantasia può essere posto nel concepire ciò di cui potrebbe essere capace una super intelligenza.
Comunque, si, di questi tempi è una lettura pericolosa, per i tanti cervelli deboli in circolazione.