Artificiale, ma non chiamatela Intelligenza
L’illusione nasce dall’equivoco.
Per le macchine non si può parlare di “intelligenza” – per quanto elaborate possano essere – in quanto non sono in grado di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, giudicare, avere capacità di astrazione, logica, comprensione, autoconsapevolezza e – soprattutto – non hanno una coscienza emotiva.
Ciò che maggiormente caratterizza la non-intelligenza dell’AI, è l’assenza di una facoltà di comprensione delle proprie azioni e – di conseguenza – dell’intenzionalità.
Nel mondo di ciò che viene somministrato sotto l’etichetta di “Intelligenza Artificiale” si nascondono potenti software in grado di elaborare (molto più velocemente di un cervello umano) enormi quantità di dati, eseguire istruzioni o algoritmi con una precisione impressionante e fornire risposte. Dietro alla roboante definizione di “Machine Learning” (tradotto in italiano come “apprendimento automatico”) si cela la capacità di valorizzare miliardi di dati statistici e fornire un risultato “predittivo”. Questa funzione ci è sicuramente utile in molti settori del mondo moderno, ma certamente non è “intelligenza”. Nessun umano e nessuna macchina è in grado di predire il futuro, però questa vasta capacità elaborativa può aiutarci a consigliare le decisioni da adottare (sempre su base statistica e deterministica).
Embrioni di funzioni predittive, però, si nascondono anche dentro gli antichi proverbi “rosso di sera buon tempo di spera” oppure “cielo a pecorelle, pioggia a catinelle”, seppure i dati in possesso dei primi uomini a notare queste conseguenze fossero ben pochi. In ogni caso, la moderna meteorologia – calcolata su miliardi di dati statistici da potentissimi elaboratori – non sempre è in grado di “predire” il tempo, anche a causa dell’inaspettata variabile introdotta dalle azioni dell’uomo in questo antropocene, in cui sono state stravolte tutte le statistiche a causa dell’arrogante impronta dell’umanità sui cicli naturali dell’ambiente.
Un’intelligenza “artificiale” può seguirci molto attentamente nelle nostre azioni quotidiane (uso della rete, telefonate, acquisti con carta di credito, ecc.) e profilare le nostre abitudini tanto da capire se preferiamo il gelato alle creme invece di quello alla frutta, proponendoci così – attraverso messaggi spesso non sollecitati – una varietà di gelati al cioccolato, zabaione o pistacchio. Eppure sarà sufficiente svegliarci una mattina e scegliere un gelato alla frutta per “confondere” l’intelligenza artificiale e far deragliare l’algoritmo.
Ciò che maggiormente caratterizza la non-intelligenza dell’AI, è l’assenza di una facoltà di comprensione delle proprie azioni e – di conseguenza – dell’intenzionalità. L’intenzionalità è una componente principale della mente umana ed è strettamente legata all’evento di coscienza: questi due elementi sono considerate proprietà primitive e riguardano la capacità di un essere umano di formulare i propri obiettivi e di provare emozioni. Il filosofo americano John Searle ha voluto caratterizzare questa lacuna attraverso l’esperimento mentale della “stanza cinese”.
Immaginiamo che un individuo venga rinchiuso in una stanza. Questa persona è madrelingua italiana e non capisce la lingua cinese: né in forma scritta, né in quella parlata. Nella stanza questo individuo trova un foglio zeppo di ideogrammi cinesi e un secondo foglio, sempre rigorosamente scritto in cinese, con una serie di domande. L’uomo quindi si trova davanti a due serie di simboli che per lui non hanno alcun significato. Ma nella stanza si trova anche un libro con una serie di regole scritte in italiano che lo istruiscono su quali simboli inserire come risposte al secondo foglio.
Supponiamo che il primo foglio sia una storia scritta in cinese e il secondo una serie di domande inerenti alla storia. A quel punto l’uomo comincia a produrre output di risposta, seguendo alla lettera le istruzioni che gli sono state consegnate. Le risposte che l’uomo produce sono formalmente giuste, perché ha eseguito con diligenza le istruzioni consegnate insieme agli ideogrammi. Nonostante questo, non ha compreso nulla di quello che ha ricevuto, di quello che ha risposto e, ovviamente, continua a non conoscere il cinese. Se quindi ci fosse un eventuale osservatore esterno all’esperimento, supponiamo un osservatore madrelingua cinese, potrebbe pensare che l’uomo abbia invece una buona padronanza della sua lingua.
Il linguaggio sta ogni giorno perdendo le sue peculiari caratteristiche di complessità a favore di una semplificazione standardizzata e codificata.
Secondo Searle, allo stesso modo in cui un uomo esegue meccanicamente l’ordine senza comprendere il cinese, il calcolatore esegue il programma scritto nel linguaggio di programmazione (che è la sua madrelingua), ma essenzialmente manipola simboli di cui non conosce il significato. La sua operazione è puramente sintattica.
Dare a una macchina un aspetto umano, antropomorfo, è quindi una banale illusione e un grave errore di fondo. L’essere umano conosce bene la propria forma di comunicazione, la quale – peraltro – non si limita alla capacità verbale e uditiva, ma si dirama nel complesso meccanismo del linguaggio del corpo che trasmette emozioni, stati di coscienza, sguardi e gesti. Far assumere quindi a una macchina un aspetto umano rappresenta perciò una semplificazione errata, derivante dal presupposto che una macchina possa comunicare nello stesso modo in cui comunica l’essere umano.
Nel caso del robot antropomorfo appare evidente che un interlocutore umano sarà più facilmente portato ad affidare la propria fiducia alle parole e ai gesti di un volto che lo emula piuttosto che a ciò che viene ascoltato da un altoparlante di una macchina! In questo modo, però, l’affidamento diventa anche una pericolosa riduzione di capacità critiche e valutative. In un rapporto tra umani è naturale affidarsi a questo istinto adattativo per meglio comprendere i sentimenti e le emozioni del nostro interlocutore. Tuttavia nel caso in cui l’interazione coinvolga una controparte non umana, l’antropomorfismo rappresenta una trappola seducente che porta spesso all’errore.
I bambini compiono un’impresa impressionante in pochi anni, acquisendo un’incredibile quantità di conoscenze e apprendendo un enorme portafoglio di abilità.
Mentre il robot emula l’essere umano, l’uomo emula il robot! Osservando i media e i comportamenti più comuni, si assiste oggi a un paradossale fenomeno: mentre da un lato l’aspetto più sconcertante di una tecnologia governata solo dalla produzione di reddito sembra portare le macchine a voler sempre più assomigliare all’uomo, quest’ultimo, dal canto suo, emula con modalità apparentemente naturali il comportamento delle macchine stesse. Il linguaggio sta ogni giorno perdendo le sue peculiari caratteristiche di complessità a favore di una semplificazione standardizzata e codificata; i nostri gesti quotidiani sono condizionati a tal punto da essere ripetitivi e meccanizzati; le infinite possibilità di espressione delle emozioni umane vengono soffocate in banali “Like” o simboli grafici codificati e la nostra capacità di lettura e concentrazione sta lentamente richiudendosi all’interno di poche centinaia di caratteri.
Il fattore abilitante di tutte le tecnologie di Intelligenza Artificiale odierne è la rimozione dell’imprevedibilità. Tuttavia, rimuovere l’imprevedibile dalla vita significa rimuovere l’essenza stessa dell’esperienza umana, ciò che alimenta la propria intelligenza.
È inevitabile che il programma di sviluppo di Inteligenza Artificiale e di parossistica applicazione della tecnologia avrà un potente effetto devastante sulla condizione umana.
Non sarebbe forse più opportuno investire risorse e concentrazione su ciò che può accrescere la nostra intelligenza umana, sulle tecniche necessarie per meglio impiegare la completa potenzialità intellettiva del nostro cervello (ancora scarsamente usata), piuttosto che concentrarci su come costruire macchine più intelligenti che renderanno la nostra intelligenza obsoleta?
La creatività è ciò che distingue veramente l’Homo Sapiens dalle altre specie, e una macchina non potrà mai essere “creativa” nel senso umano del termine. Nell’articolo “Perché i bambini sanno usare l’immaginazione meglio di noi? ” abbiamo evidenziato come il fenomeno creativo dell’immaginazione sia alla base della natura umana e grandi studiosi come Gaston Bachelard, Carl Gustav Jung e Gilbert Durand hanno speso le loro vite nella ricerca e nello studio di questo campo. Oggi c’è l’illusione di non aver più bisogno di immaginare, c’è chi lo fa per noi e c’è sempre l’oggetto costruito appositamente per evitare che si faccia uso dell’intuizione e dell’ingegno.
I bambini compiono un’impresa impressionante in pochi anni, acquisendo un’incredibile quantità di conoscenze e apprendendo un enorme portafoglio di abilità. Sono anche straordinariamente creativi nel modo in cui trattano oggetti e persone. Gli adolescenti sono ancora in grado di apprendere rapidamente (ad esempio le lingue straniere) e possono essere molto creativi (spesso sconvolgendo i genitori e la società che si aspettano un comportamento più ortodosso, ovvero il rispetto delle regole). Gli adulti, d’altra parte, tendono a vivere una vita di routine, seguendo tutte le regole che vengono loro presentate, facendo del loro meglio perché anche i bambini perdano la loro prorompente capacità immaginativa.
È inevitabile che il programma di sviluppo di Intelligenza Artificiale e di parossistica applicazione della tecnologia avrà (e sta già avendo) un potente effetto devastante sulla condizione umana. La sconvolgente rivelazione non sarà che le macchine potranno fare tutto ciò che possiamo fare noi, ma nella realizzazione speculare: che noi possiamo fare solo ciò che una macchina può fare. I dispositivi “intelligenti” non hanno il libero arbitrio, è sempre possibile trovare la causa elettromeccanica della loro azione. Si può tornare indietro e scoprire l’esatta sequenza di eventi che hanno attivato l’azione di una macchina, dipende solo da quanto indietro nel tempo si vuole andare, ma c’è un chiaro percorso di cause che hanno avuto effetti che alla fine hanno portato quella macchina a effettuare quella determinata azione. Una volta che questi dispositivi iniziano a fare tutto ciò che facciamo, diventa ovvio che anche le nostre azioni sono semplicemente gli effetti di eventi al di fuori del nostro controllo, non siamo più padroni delle nostre azioni, ma le nostre azioni diventano una conseguenza di quelle della macchina.
Esiste il sospetto che, lungi dal portarci a livelli di comprensione più entusiasmanti, l’ascesa delle macchine intelligenti sarà un’esperienza umiliante per l’umanità. Copernico ci ha mostrato che non siamo al centro dell’universo. Newton ed Einstein ci hanno mostrato che il futuro è influenzato dal passato. L’intelligenza artificiale ci mostrerà che non abbiamo nemmeno il controllo delle nostre azioni: siamo robot, proprio come “loro”.
Mi chiedo come mai avevo già elaborato qyeste considerazioni critiche senza averle lette qui o ascoltate da qualcuno— forse l’intelligenza invisibile ha influenzato qualcunl di noi spingendolo a reagire prima che sia troppo tardi per salvare una Umanità in declino dalla robotizzazione