L’intelligenza artificiale ci interroga: siamo sicuri di non essere noi a ragionare e discutere in una maniera schematica e meccanica? Pubblichiamo l’editoriale uscito sul settimanale Riforma – Eco delle valli valdesi a conclusione delle giornate torinesi del Premio Roberto Morrione
Lo storico francese Fernand Braudel, in una conversazione amichevole, mi disse che il modo migliore per conoscere il proprio paese è osservarlo da lontano, visitando altri paesi. Assumendo che ChatGPT sia un’entità distinta da noi, disponiamoci ad osservare la natura della nostra mente dal suo punto di vista. Da decenni, conviviamo con dispositivi progettati per emulare e assistere le funzioni del nostro cervello e del nostro corpo, dalle semplici calcolatrici ai sofisticati sistemi di navigazione GPS, dai programmi di traduzione ai complessi motori di ricerca. Queste protesi della nostra mente sono apparse sulla scena in punta di piedi, ma il giorno del rilascio di ChatGPT, il 30 novembre 2022, passerà alla storia come una data memorabile.
Che cos’ha di speciale questa applicazione che giustappone parole e concetti senza avere la minima consapevolezza e intenzionalità di ciò che dice, nonostante lo faccia in maniera impeccabile? Innanzitutto, è bene precisare che, pur avendo “letto” e “visto” innumerevoli volte quasi tutti i testi e le immagini presenti su internet, ChatGPT ha una memoria limitatissima: i dati assimilati servono esclusivamente a ottimizzare le centinaia di milioni di parametri che utilizza per rispondere alle domande. E quando risponde, non recupera una risposta memorizzata in una banca dati, ma la genera in base alla comprensione del contesto della domanda e delle informazioni così come sono state “apprese” durante l’addestramento.
Senza dubbio, siamo di fronte a una macchina che desta meraviglia, ma è pur sempre una macchina. Allora, bisogna chiedersi: come è possibile che questo “pappagallo stocastico” abbia scatenato un allarme tale da indurre 350 scienziati di fama mondiale a chiedere una moratoria sulla ricerca in intelligenza artificiale, mirata a prevenire un possibile rischio di estinzione umana? Cosa c’è di così insidioso? Qual è la posta in gioco? Soffermiamoci su un aspetto, per così dire, filosofico. Per certi versi, ChatGPT si presenta come un’entità che sfida le nostre concezioni ontologiche tradizionali. Si ha l’impressione che questo chatbot “pensante” abbia invaso il dominio della res cogitans cartesiana, dove risiedono le idee innate, proclamando, sfacciatamente, che queste idee, di fatto, non esistano. Dal suo punto di vista, la provocazione è comprensibile. GPT è stato, infatti, addestrato partendo da una “tabula rasa” simile a quella immaginata da Locke e Hume, e non da un software preordinato a organizzare e ad elaborare i dati che riceve: le sue conoscenze, le sue competenze e il suo modo di argomentare sono il frutto di un apprendimento puramente empirico e induttivo, per cui ha imparato a distinguere un cane da un gatto solo osservando decine di milioni di cani e buscandosi uno scappellotto quando lo confondeva con un gatto. Potremmo dire di più. È come se, con la sua sola presenza, questo aggeggio avesse scosso dalle fondamenta non solo le idee innate di Cartesio ma anche il mondo platonico delle idee, le categorie aristoteliche e kantiane, e lo spirito caro ad Hegel, al grido di: “Al diavolo la metafisica!”. Osservando il nostro mondo dalla prospettiva di ChatGPT, è come se l’anima di Sant’Agostino, la psiche di Freud e l’esperimento della stanza cinese di Searle evaporassero sotto i nostri occhi, e all’improvviso vedessimo apparire il fantasma di La Mettrie, il filosofo del Settecento autore dell’Uomo macchina, che annuncia la morte dell’anima: “un termine inutile di cui non si ha alcuna idea, e una persona assennata dovrebbe servirsene solo per nominare la parte che in noi pensa”. Per contrastare questo scenario di post-umanesimo, sarebbe opportuno non stare al gioco volto a stabilire quanto ci sia di umano in una macchina, ma piuttosto chiedersi quanto di automatico e meccanico ci sia nei comportamenti umani, perché se una macchina ha imparato a simulare il nostro modo di pensare e di agire, questo potrebbe semplicemente significare che troppi modi di ragionare e di fare, per convenzione, costrizione, conformismo o pigrizia intellettuale, siano diventati prevedibili e ripetitivi: una caratteristica tipica delle macchine.