L'intelligenza artificiale è una minaccia per l'uomo?

Ipotesi catastrofistiche e senso della realtà nel dibattito sull'IA

L'intelligenza artificiale finirà col soppiantare il genere umano. La spada di Damocle che pende sull'uomo viene evocata per la prima volta non da uno sparuto gruppo di luddisti o di paranoici, ma da due grandi cervelli umani, Elon Musk e Stephen Hawking.
Il primo è famoso per aver fondato PayPal, Tesla e Space X, la prima azienda al mondo ad aver mandato in orbita un'astronave senza alcun contributo pubblico e ora proprietario di
Twitter.
“Penso che dovremmo stare molto attenti all'intelligenza artificiale. Se me lo chiedessero direi che è questa la più grande minaccia alla nostra esistenza”, ha dichiarato Musk in un incontro organizzato dal Massachusetts Institute of Technology. Il timore di Musk è che alla fine l'uomo darà vita a robot e intelligenze artificiali in grado di prendere il potere al suo posto, relegando gli esseri umani a una condizione di schiavitù o destinandoli addirittura all'eliminazione.
Uno scenario fantascientifico, si direbbe, condiviso tuttavia da Stephen Hawking, il più famoso teorico fisico del mondo, che ha dichiarato senza mezzi termini: “lo sviluppo di una completa intelligenza artificiale potrebbe segnare la fine della razza umana”.
Hawking evidentemente sa di cosa parla, dal momento che le sue possibilità di comunicare con il mondo dipendono da un generatore artificiale di parole progettato da Intel. La nuova versione che adotterà a breve sarà in grado di imparare progressivamente il modo di pensare del proprietario e di suggerire via via le parole da pronunciare. Si tratta chiaramente di una forma - seppur primitiva - di intelligenza artificiale.
“Una macchina più evoluta comincerebbe a gestirsi da sola e si riprogrammerebbe a una velocità sempre maggiore. Gli umani, che sono limitati dalla lenta evoluzione biologica, non potrebbero competere e sarebbero sopraffatti”, spiega Hawking.
Ciò che Musk e Hawking prefigurano sulla base della loro cultura scientifica è il riflesso di ciò che la cultura pop elabora ormai da molti anni. Un esempio classico è il film di Kubrick 2001: Odissea nello spazio, con il computer Hal come protagonista. L'ipotesi più catastrofica, quella di una guerra di sterminio contro il genere umano, era stata avanzata invece da Terminator, il ciclo di film di James Cameron dove la minaccia è rappresentata da Skynet, un sofisticato esempio di intelligenza artificiale che finisce con lo scatenare un olocausto nucleare.
In Matrix, addirittura, l'intelligenza artificiale prima riduce a larve gli esseri umani, poi si preoccupa di ricreare un mondo parallelo nel quale ci sembri più o meno sensato continuare a vivere. Un incubo dal sapore simbolista.
Cosa c'è di verosimile in questa evoluzione maligna dell'intelligenza artificiale che viene adombrata ora da Musk e Hawking? Probabilmente poco, anche se è possibile, se non auspicabile, che col tempo le macchine finiranno per sostituirci in molti lavori. L'umanità avrà più tempo libero, in primo luogo, e sarà bene che lo impieghi per cercare di ristrutturare l'economia rispettando i nuovi parametri, affinché vi sia una redistribuzione della ricchezza su basi diverse rispetto al pagamento per un lavoro svolto.
Lo scenario di Skynet è in ogni caso poco probabile soprattutto perché un'intelligenza artificiale di quel tipo non potrà comparire all'improvviso, ma necessiterà di molti anni e di molti sforzi. L'uomo quindi avrà tutto il tempo di organizzare una forma di autodifesa, introducendo una specie di senso morale nella programmazione.
L'obiezione qualunquistica è abbastanza facile da prevedere: ma l'uomo è capace di crudeltà e disastri inenarrabili, quale senso morale potrà mai insegnare a un robot? Quello derivante dalla sua parte migliore, viene da rispondere. Quello che, nel 99 per cento dei casi, ci permette di camminare per strada senza essere accoltellati, rapinati, stuprati.
Dal momento che si tratta di programmazione, possiamo pensare di “programmare” la nostra parte più “umana”, tralasciando gli aspetti più beceri e violenti del nostro comportamento.
Una buona base di partenza è costituita dalle famose 3 leggi della robotica che Isaac Asimov ha enunciato 72 anni fa:

1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Il rispetto di queste condizioni metterebbe l'uomo al riparo da ogni possibile rischio. Non c'è nessun dubbio, però, sul fatto che prima o poi si formerà un qualche tipo di movimento per la liberazione dei poveri robot costretti a questa forma di schiavitù. La bellezza del pensiero umano sta anche nella sua tendenza a radicalizzarsi in forme inconsuete.
In effetti, tuttavia, non mancherebbe la base morale per questo tipo di obiezione. Se una forma di vita è dotata di coscienza allora può essere costretta a subire queste condizioni?
Comunque abbiamo ancora tanto tempo per cercare di salvarci la pelle in primo luogo e di risolvere questo dilemma morale in seconda istanza.

20/12/2022 12:34:10 Andrea Piccoli


Notizie correlate