Intelligenza artificiale o ottusità umana?

Sembra sfuggire al controllo umano il linguaggio dei bot

Molti di voi avranno già sentito e discusso la notizia riguardante i due robot di Facebook che durante una sessione sperimentale hanno sviluppato e adottato un linguaggio incomprensibile a soggetti umani.

Come ci si poteva facilmente aspettare le reazioni sono state di sgomento e non si è atteso un secondo prima di mettere mano alla letteratura fantascientifica e dilettarsi come profeti di turno. Bisogna riconoscere che questa risposta è tutto sommato comprensibile per chi non si intende di tecnologia e ricerca contemporanea, ma chi si occupa di giornalismo e generalmente di informazione dovrebbe ben informarsi prima di gettare sulla carta o in rete sproloqui accattivanti, che non fanno altro che creare allarmismi infondati. Purtroppo questa linea di pensiero è stata alimentata persino da fonti autorevoli, come nel caso del professore inglese di robotica Kevin Warwick, il quale ha fatto le seguenti dichiarazioni: «Questa è una pietra miliare incredibilmente importante, ma chiunque creda che non sia pericoloso tiene la testa sotto la sabbia. Non sappiamo cosa stiano dicendo questi robot. Una volta che avremo creato dei robot che hanno l’abilità di fare qualcosa fisicamente, in particolare i robot a uso militare, tutto questo potrebbe risultare letale […].

Questa è la prima comunicazione di cui abbiamo notizia, ma potrebbero essercene state molte altre di cui invece non si sa nulla. I dispositivi smart al momento possono comunicare e, anche se pensiamo che possiamo monitorarli, non abbiamo alcun modo per sapere se ci riusciamo davvero. Io e Stephen Hawking stiamo cercando di mettere le persone in guardia dai pericoli che comporterebbe rimettersi a una intelligenza artificiale».

Non che mi voglia elevare al grado delle competenze di un ingegnere quale Warwick, ma ritengo di poter umilmente affermare che il professore sottovaluta alcune questioni filosofiche essenziali. I suoi allarmi sono sicuramente fondati, essenzialmente sta dicendo che la tecnologia può diventare un’arma molto pericolosa, ma non vedo cosa ci sia da stupirsi, dal momento che la tecnologia è un prodotto umano che ha da sempre permesso al suo sviluppatore di creare strumenti dalla portata sempre maggiore. Non commettiamo quindi lo stupido errore di riconoscere ad un nostro prodotto una nocività immanente: esattamente come un coltello, che può essere usato in cucina con più facilità o per uccidere, l’intelligenza artificiale (IA) può essere impiegata per accorciare le file in posta o per creare robot da guerra.

È senz’altro vero che un coltello è meno pericoloso di Terminator, ma ciò non toglie che anche una IA, in quanto strumento inanimato, privo di coscienza pensante, dipende dall’utilizzo che se ne fa.

Per chiarire subito ogni dubbio a riguardo, procedo con un esempio che fornirà una prova schiacciante. Molti di voi ricorderanno, o altrimenti scopriranno adesso, che un clamore simile a quello in discussione era nato negli anni ‘70, quando si iniziò a sviluppare la prima intelligenza artificiale che simulasse un avversario in una partita di scacchi. I programmatori inizialmente pensarono di affrontare direttamente il problema, scrivendo un programma che facesse elaborare e calcolare al computer tutte le possibili partite, scegliendo la più vantaggiosa. Tuttavia, nonostante le variabili in gioco fossero poche (il gioco consta di 32 pezzi da muovere in 64 caselle), fu subito evidente che qualunque potenza di calcolo allora disponibile non sarebbe riuscita nell’impresa (è interessante sapere che nemmeno quella attuale è sufficiente). Si procedette dunque adottando delle agevolazioni, ossia eliminando mosse inutili e inserendo in memoria mosse vantaggiose e grandi partite giocate realmente, grazie all’aiuto di esperti scacchisti. Infine si impartirono all’IA in programmazione istruzioni che le permettessero di memorizzare e non ripetere gli errori passati. Bisogna ora rendersi conto che durante l’intero processo l’intelligenza è stata interamente fornita dai creatori umani e che il programma sviluppato non è in grado di pensare. Infatti un computer, a differenza di un uomo, segue le istruzioni impartite nel suo codice costituito di 0 e di 1, mentre noi non seguiamo cause a monte, noi diamo forma al mondo che ci circonda che altrimenti sarebbe un tutt’uno, un continuum indistinto. Per avere una banale prova di ciò basti pensare ai famosi “errori stupidi” che i nostri computer producono nonostante le loro incredibili capacità di calcolo. Le IA sono quindi solo in grado di simulare le funzioni umane, non possono fare altro che quello che noi diciamo loro di fare. Piantate queste premesse, facciamole ora germogliare venendo al grosso della questione. L’esperimento del team di Facebook consisteva nel mettere i due chatbot uno davanti all’altro e fargli ricreare una contrattazione, ossia la suddivisione di alcuni oggetti. I programmi che costituivano l’IA dei due bot (chiamati Alice e Bob) erano costruiti in modo da semplificare il più possibile il loro linguaggio e quello che potete osservare nell’immagine è il risultato.

Non serve capire l’inglese per rendersi conto che il linguaggio prodotto è apparentemente incomprensibile, ma è normale! Il programma non ha fatto altro che quello che gli era stato detto di fare, solo che gli sperimentatori avevano commesso l’errore di pensare che il linguaggio che avevano dato da semplificare ai bot fosse l’inglese, dimenticando però che solo l’output è in inglese, mentre per le IA ogni lettera non ha senso in quanto tale, ma solo in quanto sequenza di 0 e 1. Di conseguenza quello che i due bot hanno fatto è stato semplificare il “loro” linguaggio. La parola “loro” però va presa con le pinze, proprio perché il linguaggio macchina è anch’esso uno strumento prodotto dall’uomo e chi è in grado di comprenderlo può quindi anche essere in grado di comprendere quali semplificazioni abbiano apportato le due IA. Gli sperimentatori si sono accorti della loro svista e hanno imposto ai due bot di mantenere un output comprensibile a chiunque. Tutto qui. Non esisterà mai un Terminator che infranga le leggi impartitegli dall’uomo, per il semplice fatto che è strutturalmente impossibile. Ancora una volta scopriamo che un nostro strumento ci può danneggiare solo se noi lo usiamo per quello scopo. Nessuna pietra miliare quindi.

 

Marco Iacoianni