Per anni abbiamo descritto il pensiero umano in modo piuttosto semplice: da una parte l’intuizione, veloce e automatica; dall’altra la riflessione, più lenta e deliberativa. È la Teoria del Doppio Processo, resa celebre da Daniel Kahneman nel suo libro “Pensieri lenti e veloci”, che definisce i cosiddetti due sistemi, Sistema 1 e 2.
Poi però è arrivato ChatGPT. Sempre più spesso, non ci limitiamo a pensare da soli, ma chiediamo risposte a sistemi di intelligenza artificiale generativa. Li usiamo per i compiti più disparati: sbrigare questioni lavorative [1], cercare informazioni [2], decidere cosa votare [3], e così via. Per questa ragione, Shaw e Nave, in un recente working paper [4], propongono di aggiungere un terzo elemento alla teoria del doppio processo: un sistema di pensiero esterno, artificiale: il Sistema 3.
Un recente studio del MIT [5] suggerisce che l’uso di sistemi come ChatGPT è associato a un minore coinvolgimento cognitivo, ossia una riduzione dell’attività neurale e della connettività funzionale durante. Sul piano comportamentale, le persone mostrano una minore capacità di richiamare i contenuti prodotti e un più basso senso di autorialità – la percezione che i contenuti siano davvero “propri”.
Alcuni autori parlano proprio di cognitive surrender (resa cognitiva) [4]: le persone non usano l’AI come strumento, ma come parte integrante o sostitutiva del pensiero. Questa delega aumenta nel tempo [6]. Si comincia affidando piccoli compiti, che riducono lo sforzo mentale e producono una forma di sollievo psicologico. Ciò aumenta la fiducia verso la macchina [7], che nel tempo ci spinge a delegare questioni più complesse, riducendo il controllo e la verifica, e rendendo più probabile accettare acriticamente le risposte generate.
Gli LLM possono generare un’illusione di conoscenza. Alcuni autori la chiamano epistemia [8]: testi così fluidi e coerenti da farci credere che ci sia una comprensione, sia da parte della macchina sia da parte nostra. Ma questi sistemi non “capiscono”: riconoscono pattern statistici nel linguaggio. Siamo noi ad attribuire significato a questi pattern, in una sorta di pareidolia semantica: come vedere i volti nelle nuvole [9].
Gli studi su questi temi sono ancora agli inizi, e non sono privi di difetti [10]. Ma una cosa è già chiara: non è corretto dire che l’AI sia uno strumento neutrale e che dipende solo da come la usiamo. Il modo in cui la usiamo conta — ma anche il tipo di relazione che instauriamo con essa. Questi sistemi possono amplificare le nostre capacità, ma non sono decisori. E più iniziamo a trattarli come tali, più rischiamo di smettere di esserlo noi.