Superintelligenza

nick-bostrom

Tendenze, pericoli, strategie (seconda parte)

         Oggi filosofi, fisici, matematici, neuroscienziati, studiosi di tecnologie si interessano  sempre più dell’Intelligenza Artificiale (identificata con la sigla A.I. – iniziali di artificial intelligence) una disciplina dell’informatica che progetta tutti quei sistemi, che vanno dalla robotica ai sofisticati programmi per il computer, capaci di fornire prestazioni che superano, o vorrebbero superare, le normali attitudini  dell’uomo e la comune intelligenza umana

Dinanzi ad una ipotetica catastrofe esistenziale, determinata dal risultato di default di una esplosione di intelligenza, definita da Nick Bostrom (l’autore del libro Superintelligenza)  come «qualunque intelletto che superi di molto le prestazioni cognitive degli esseri umani in quasi tutti i domini di interesse», si pone il problema, oltre che di evitare un risultato di default (condizione operativa automaticamente selezionata da un programma o da un sistema informatico in mancanza di una istruzione specifica da parte dell’operatore), anche quello del controllo e della creazione di un agente artificiale superintelligente.

Il libro di Bostrom è un saggio “colto”, “complesso” e “rigoroso” che offre interessanti spunti di riflessione per il nostro futuro. Colto perché è costruito dialogando con i più importanti studiosi che si sono dedicati all’analisi della complessa questione dell’I.A.; complesso perché è corredato da numerose e profonde osservazioni tratte da una attenta conoscenza e studio del fenomeno; rigoroso perché introduce distinzioni concettuali che possono essere considerate degli strumenti metodologici necessari per analisi precise della stessa problematica dell’I.A..

Il saggio del filosofo svedese, che descrive il panorama sugli sviluppi dell’I.A. anche se di difficile comprensione, perché presuppone conoscenze e competenze inerenti il linguaggio informatico, computazionale, scientifico, risulta chiaro e leggibile. Il libro apre un fecondo dibattito sull’incerto futuro dell’umanità per gli usi e la governance delle nuove  tecnologie digitali e in particolare dell’I.A.. Bostrom, nell’impegnarsi a sviscerare i possibili scenari per evitare che la Superintelligenza ponga gravi minacce al genere umano, consiglia al lettore una lettura attenta e critica sul mondo tecnologico che ci circonda.

Quella che una volta era fantascienza adesso è realtà caratterizzata dall’evoluzione tecnologica, dalla presenza di macchine sempre più intelligenti che stanno cambiando il nostro modo di stare al mondo e stanno delineando un futuro incerto, imprevedibile.  Basta pensare che oggi costruire una macchina che funziona a base di un algoritmo costa meno che impiegare un uomo o una donna. Oggi si utilizzano macchine  che non sono più replicanti delle nostre funzioni ma sono molto più potenti della nostra mente. Ci troviamo di fronte a un cambiamento radicale. «Ci sarà un futuro – ha dichiarato  recentemente l’autorevole sociologo Richard Sennet –  ma differente».

Le innovazioni tecnologiche, soprattutto in tema di I.A. (intesa come l’insieme di quei sistemi software e hardware capaci di avere un comportamento intelligente simile a quello umano, in molti campi), avranno conseguenze di profondi cambiamenti culturali, politici, economici e sociali e avranno preoccupanti ripercussioni non soltanto sul piano del modus operandi ma soprattutto sul piano valoriale, portando l’uomo a vivere la sua esistenza con sempre maggior libertà.

Le tecnologie dell’I.A. possono essere vantaggiose per le opportunità che offrono e possono aiutare moltissimo l’uomo nelle grandi sfide sociali  di fronte alle quali oggi ci troviamo: salute, scuola, invecchiamento della popolazione, beni culturali, investimenti economici e finanziari ecc.. Oggi si possono realizzare sistemi di I.A. capaci di avere un comportamento visivo e percettivo come quello dell’essere umano, e forse anche migliore (per esempio sistemi che riconoscono le targhe, che diagnosticano un melanoma) e di trasformare il nostro mondo, con le sue tecnologie che sono e saranno sempre più protagoniste assolute nella vita quotidiana di tutti i cittadini.

Le persone che creano l’I.A. devono essere distinte da quelle che ne hanno ordinato la creazione. I potenziali metodi di controllo della Superintelligenza per avere sicurezza riguardano sia le capacità, cioè ciò che può fare la superintelligenza, e servono per impedire risultati indesiderabili, per non compiere azioni nocive, limitando le possibilità di azione della superintelligenza, e sia le motivazioni, ciò che vuole fare. È necessario stabilire quali tipi di sistemi possono costruire e quali metodi di controllo sono applicabili a ciascun tipo.

L’autore, preoccupato della sicurezza, si chiede quale sia il tipo di sistema che offre le migliori possibilità di sicurezza. Inoltre, poiché il futuro della vita intelligente è determinato da una dinamica competitiva, l’autore esamina cosa potrebbe accadere in uno scenario multipolare di una società competitiva post-transizione con molte superintelligenze in competizione e come si potrebbe mantenere senza pericoli una  I.A. superintelligente. Resta sempre aperto il problema di rendere intelligenti le macchine.   Per ora non sappiamo come fare per trasferire i valori umani in un computer digitale, anche data una intelligente digitale di livello umano. Se sapessimo risolvere il problema del caricamento dei valori, dovremmo affrontare il problema di decidere quali valori caricare, cioè che cosa vorremmo che volesse una superintelligenza. Scegliere l’obiettivo finale per una superintelligenza digitale (sicura e benevola), che determinerà tutto il futuro dell’umanità, è il contesto decisionale meno conosciuto che si possa immaginare.

Poiché la superintelligenza svolge compiti cognitivi meglio degli umani, occorre evitare che essa assumi il controllo del destino dell’umanità e che crei motivi di scontro tra gli esseri umani: è necessario che l’umanità mantenga la responsabilità ultima del suo destino nel costruire una I.A. superintelligente con l’obiettivo di fare ciò che è moralmente corretto, utilizzando le sue superiori capacità cognitive. La correttezza morale (C.M.) può aiutare l’I.A. ad agire in base al risultato e orientare la stessa I.A. verso l’azione moralmente corretta.

Nel penultimo capitolo del saggio Bostrom introduce concetti analitici generali che saranno applicati alla questione dell’intelligenza digitale, che aiutano a riflettere su questioni di politica scientifica e tecnologica. Secondo il principio dello sviluppo tecnologico differenziale, è importante ritardare lo sviluppo dei tecnologie pericolose e dannose, specie quelle che aumentano il livello di rischio esistenziale, e accelerare lo sviluppo di tecnologie benefiche, specie quelle che riducono i rischi esistenziali posti dalla natura o da altre tecnologie.                                                                              La superintelligenza è una tecnologia che ha un effetto ambivalente sui rischi esistenziali perché ne aumenta alcuni (per esempio quelli delle nanotecnologie, della biologia sintetica) e ne diminuisce altri (rischi naturali, antropogenici).

Secondo l’autore nei prossimi anni la rischiosità di un’esplosione di intelligenza si ridurrà in maniera significativa perché si svilupperanno sempre più soluzioni del problema del controllo, soprattutto delle tecnologie indesiderabili, che richiederà lungimiranza, ragionamento e perspicacia teorica. Quello che conta è la quantità di progresso intellettuale, dovuto al potenziamento cognitivo dei singoli individui e della società. in rapporto al problema del controllo al momento della denotazione di intelligenza. Il potenziamento cognitivo, che promuove il progresso in relazione al problema del controllo, è desiderabile soprattutto se si concentra sui rischi esistenziali di un’esplosione di intelligenza.

Pertanto, per risolvere il problema del controllo di progetti che creano una superintelligenza digitale sicura, è necessaria una collaborazione ampia che tende a produrre risultati in cui i frutti, i benefici di un’esplosione di intelligenza controllata vengano distribuiti in modo più equo per il bene comune a vantaggio di tutti, dell’intera umanità e al servizio di ideali etici ampiamente condivisi.

Secondo l’autore stiamo vivendo un momento cruciale di incertezza per la quale è importante ridurre i rischi della rivoluzione dell’intelligenza digitale attraverso l’analisi strategica, la ricerca di considerazioni importanti, che richiederà di attraversare confini tra discipline accademiche diverse e altri settori della conoscenza, e lo sviluppo delle capacità.        

Di fronte a questi cambi di paradigmi socio-culturali, prospettatici dall’autore in questo imponente libro Superintelligenza, e di fronte a questo mondo, in cui viviamo, ricco di fermenti e di sfide, dobbiamo agire e reagire con volontà estrema, con libertà e con fiducia nell’uomo, nella sua capacità di trovare soluzioni e risposte adeguate ai nuovi  paradigmi esistenziali e aprire nuovi orizzonti di civiltà vantaggiosi per l’intera umanità.

Antonio Polselli

 

Condividi articolo