La simulazione della mente è socialmente dannosa?

La simulazione della mente

La simulazione della mente al calcolatore è socialmente dannosa? Si chiede Margaret A. Boden in un testo della fine degli anni ottanta del secolo scorso. Margaret A. Boden analizza la crescente visibilità pubblica dell’Intelligenza Artificiale (IA) e le reazioni teoriche, culturali e filosofiche che essa ha suscitato, in particolare nel campo della psicologia. Alternando una ricostruzione storica alla discussione critica, Boden esplora i legami tra IA, simulazione mentale e le resistenze nei confronti di una concezione meccanicistica della mente umana.

Boden afferma che la simulazione al calcolatore delle funzioni mentali, fino a pochi anni prima confinata agli ambienti accademici, è diventata improvvisamente visibile e discussa a livello globale. Sebbene alcuni manuali di psicologia ne tacciano ancora, corsi e dibattiti sull’argomento proliferano ovunque. Secondo l’autrice, ormai è difficile ignorare l’IA, almeno come “progetto tecnologico”, anche se si può ancora discutere sulla sua validità come “teoria o metodologia psicologica”.

L’Intelligenza Artificiale, scrive Boden, mira a “mettere i calcolatori in grado di fare lo stesso tipo di cose che riesce a fare la mente dell’uomo”. Il risveglio dell’interesse pubblico si deve in gran parte alla sfida del progetto giapponese dei calcolatori di “quinta generazione”, annunciato nel 1981, ma le radici di tale tecnologia risalgono a oltre trent’anni prima, a un gruppo di scienziati impegnati nella creazione di modelli psicologici simulati da computer. In questo senso, l’IA è “strettamente connessa con le teorie psicologiche” che vedono un’analogia strutturale tra mente e macchina, tanto sul piano storico quanto su quello concettuale.

Tuttavia, proprio queste connessioni generano sospetti e resistenze. Boden sottolinea che le paure suscitate dall’IA non riguardano solo la possibilità di abusi autoritari in stile Grande Fratello o la perdita di posti di lavoro, ma toccano soprattutto il significato e l’immagine dell’essere umano. L’IA viene spesso percepita come una minaccia ai “tratti specifici e alle peculiarità essenziali dell’essere umano”. C’è il timore che, modellando l’uomo sull’immagine del calcolatore, si finisca per ridurre o cancellare i valori umani fondamentali.

Boden inserisce questa reazione in una cornice più ampia, osservando che l’idea che scienza e tecnologia siano “essenzialmente disumanizzanti” non è affatto nuova. È una preoccupazione storicamente radicata in certo pensiero filosofico europeo. Richiamando Max Weber, Wilhelm Dilthey e Jürgen Habermas, l’autrice evidenzia la distinzione da essi tracciata tra il Verstehen — la comprensione interpretativa, ritenuta propria delle scienze umane — e l’approccio oggettivante delle scienze naturali. Anche chi non ha familiarità con il lessico filosofico, osserva Boden, spesso condivide inconsciamente queste posizioni. Infatti, la controcultura degli anni ’70, alimentata da testi come Where the wasteland ends di Theodore Roszak, ha diffuso un’opposizione viscerale alla razionalità tecnica della società industriale, proponendo valori umanistici e religiosi in netto contrasto con quelli scientifici.

Secondo Boden, queste preoccupazioni hanno avuto un’eco anche nella psicologia teorica, pur con differenze significative. Ad esempio, il comportamentismo, che ha cercato di emulare il rigore delle scienze naturali, ha rigettato qualsiasi concetto “mentalistico”, ovvero legato alla soggettività o all’interiorità. Anche Freud, nonostante il suo approccio interpretativo, riteneva che concetti come “scopo” o “scelta” potessero, in linea di principio, essere ridotti a fenomeni cerebrali descritti dal linguaggio della neurologia.

Non tutti gli psicologi, tuttavia, condividono questo orientamento. Alcuni, di matrice fenomenologica, esistenziale o etogenica, hanno mantenuto nei loro modelli teorici la centralità dell’esperienza soggettiva. Per questi studiosi, la crescente influenza della scienza e della tecnologia rappresenta un problema urgente e concreto. Boden spiega che, secondo tali psicologi, le teorie comportamentali non si limitano a descrivere la realtà sociale: esse la costituiscono, la plasmano. “Cambiando l’immagine che abbiamo di noi stessi, esse ci cambiano.” È una questione pratica, non una sottigliezza astratta. Le nostre idee — spesso implicite, inconsapevoli — su ciò che gli esseri umani sono o possono essere, influenzano profondamente la nostra esistenza quotidiana, proprio perché sono legate alla nostra visione morale del mondo.

In questo contesto, Boden cita lo psicologo esistenziale Rollo May, che già nel 1959 denunciava gli effetti disumanizzanti della scienza moderna. May osservava che molti dei suoi pazienti soffrivano perché non si percepivano come agenti liberi, capaci di scelte consapevoli. Per lui, questa condizione psicologica derivava da una visione scientista dell’uomo, visto come una macchina. Se avesse scritto trent’anni dopo — ipotizza Boden — May avrebbe certamente incluso l’IA tra le cause di questa deriva, collegandola “agli aspetti disumanizzanti della scienza moderna che trasformano l’uomo a immagine della macchina”.

Infine, Boden conclude con un’osservazione particolarmente incisiva: non è neppure necessario esplicitare un paragone tra uomo e macchina perché l’effetto disumanizzante si produca. Il messaggio implicito delle scienze naturali è inequivocabile: “poiché nella fisica non c’è posto per concetti come quelli di scopo, scelta, credenza, azione e, soprattutto, soggettività”, si finisce per incoraggiare teorie dell’uomo che escludono proprio questi aspetti essenziali.

Avatar photo

Mac Peer