Per anni abbiamo descritto il pensiero umano in modo piuttosto semplice: da una parte l’intuizione, veloce e automatica; dall’altra la riflessione, più lenta e deliberativa. È la Teoria del Doppio Processo, resa celebre da Daniel Kahneman nel suo libro “Pensieri lenti e veloci”, che definisce i cosiddetti due sistemi, Sistema 1 e 2.

Poi però è arrivato ChatGPT. Sempre più spesso, non ci limitiamo a pensare da soli, ma chiediamo risposte a sistemi di intelligenza artificiale generativa. Li usiamo per i compiti più disparati: sbrigare questioni lavorative [1], cercare informazioni [2], decidere cosa votare [3], e così via. Per questa ragione, Shaw e Nave, in un recente working paper [4], propongono di aggiungere un terzo elemento alla teoria del doppio processo: un sistema di pensiero esterno, artificiale: il Sistema 3.

Cosa succede quando deleghiamo i pensieri?

Un recente studio del MIT [5] suggerisce che l’uso di sistemi come ChatGPT è associato a un minore coinvolgimento cognitivo, ossia una riduzione dell’attività neurale e della connettività funzionale durante. Sul piano comportamentale, le persone mostrano una minore capacità di richiamare i contenuti prodotti e un più basso senso di autorialità – la percezione che i contenuti siano davvero “propri”.

Alcuni autori parlano proprio di cognitive surrender (resa cognitiva) [4]: le persone non usano l’AI come strumento, ma come parte integrante o sostitutiva del pensiero. Questa delega aumenta nel tempo [6]. Si comincia affidando piccoli compiti, che riducono lo sforzo mentale e producono una forma di sollievo psicologico. Ciò aumenta la fiducia verso la macchina [7], che nel tempo ci spinge a delegare questioni più complesse, riducendo il controllo e la verifica, e rendendo più probabile accettare acriticamente le risposte generate.

Gli LLM possono generare un’illusione di conoscenza. Alcuni autori la chiamano epistemia [8]: testi così fluidi e coerenti da farci credere che ci sia una comprensione, sia da parte della macchina sia da parte nostra. Ma questi sistemi non “capiscono”: riconoscono pattern statistici nel linguaggio. Siamo noi ad attribuire significato a questi pattern, in una sorta di pareidolia semantica: come vedere i volti nelle nuvole [9].

Perché è importante?

Gli studi su questi temi sono ancora agli inizi, e non sono privi di difetti [10]. Ma una cosa è già chiara: non è corretto dire che l’AI sia uno strumento neutrale e che dipende solo da come la usiamo. Il modo in cui la usiamo conta — ma anche il tipo di relazione che instauriamo con essa. Questi sistemi possono amplificare le nostre capacità, ma non sono decisori. E più iniziamo a trattarli come tali, più rischiamo di smettere di esserlo noi.

Fonti:

  1. Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2024). GPTs are GPTs: Labor market impact potential of LLMs. Science, 384(6700), 1306–1308. https://doi.org/10.1126/science.adj0998 
  2. Sharma, N., Liao, Q. V., & Xiao, Z. (2024). Generative Echo Chamber? Effect of LLM-Powered Search Systems on Diverse Information Seeking. CHI ’24: Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems, 1–17. https://doi.org/10.1145/3613904.3642459 
  3. Lin, H., Czarnek, G., Lewis, B., White, J.P., Berinsky, A.J., Costello, T., Pennycook, G., Rand, D.G. (2025). Persuading voters using human–artificial intelligence dialogues. Nature, 648, 394–401. https://doi.org/10.1038/s41586-025-09771-9 
  4. Shaw, S. D., & Nave, G. (2026). Thinking fast, slow, and artificial: Toward a tri-system theory of cognition in the age of AI. PsyArXiv. 
  5. Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X. H., Beresnitzky, A. V., … & Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint arXiv:2506.08872 
  6. Romeo, G., Conti, D., (2026). Exploring automation bias in human–AI collaboration: a review and implications for explainable AI. AI & Society, 41, 259–278. https://doi.org/10.1007/s00146-025-02422-7 
  7. Gensger, R., Eier, J., Csillag, J., & Schlogl, S. (2021). Trust, automation bias and aversion: Investigating trust in automated systems. Interdisciplinary Description of Complex Systems, 19(4), 542–560. 
  8. Quattrocchi, W., Capraro, V., & Perc, M. (2025). Epistemological fault lines between human and artificial intelligence (preprint). arXiv. https://doi.org/10.48550/arxiv.2512.19466 
  9. McIntyre, J. (2025). Pareidolic illusions of meaning: ChatGPT, pseudolaw and the triumph of form over substance. arXiv. https://doi.org/10.48550/arxiv.2503.13556 
  10. Jones, N. (2025). Does using ChatGPT change your brain activity? Study sparks debate. Nature, 643, 15–16. https://doi.org/10.1038/d41586-025-02005-y