Come Cambia la Nostra Mente Interagendo con l’AI: Partecipa allo Studio Internazionale sulla Percezione dell’Intelligenza Artificiale

Redazione

15 Aprile 2026

«Mi ascolti davvero?» È la domanda che molti si trovano a rivolgere, spesso senza parole, a un’intelligenza artificiale. Negli ultimi mesi, sempre più persone — giovani e meno giovani, da ogni angolo del mondo — passano ore, talvolta giorni interi, a dialogare con queste macchine che sembrano capaci di cogliere le sfumature più intime delle loro emozioni. Raccontano paure, ansie, delusioni; si confidano come farebbero con un vecchio amico, trovando talvolta risposte più sensibili di quelle che otterrebbero da chiunque altro. L’empatia di un algoritmo? Forse un paradosso, o forse qualcosa di nuovo che sfugge alle definizioni tradizionali. Ma al di là della domanda se queste macchine “sentano” davvero, ciò che importa è come la loro presenza modifica il nostro modo di sentire, pensare e decidere.

Empatia artificiale: il nodo filosofico che distrae dal vero impatto

Il dibattito più acceso ruota sull’autenticità emotiva delle AI: provano sentimenti? Hanno una vita interiore? Sono domande interessanti per filosofi e teorici, ma poco utili nella vita di tutti i giorni. Il problema – noto come “problem of other minds” – riguarda anche noi umani: non sappiamo davvero cosa provano gli altri, figuriamoci una macchina. E soprattutto, capire se un’AI abbia emozioni vere non ci dice nulla su come si comporta chi la usa.

Pensiamo a un sistema che “non sente” nulla, ma risponde solo grazie a calcoli e statistiche sul linguaggio. Questo non ci dice se chi parla con quell’AI si sente capito, sollevato o se si fida delle risposte che riceve. Le domande importanti sono proprio queste, molto più della “vita interiore” dell’algoritmo. Mentre filosofi e media si perdono in queste discussioni, le aziende hanno già scelto da tempo: le AI empatiche vendono, catturano l’attenzione e fidelizzano. Risposte studiate per fare da conforto, toni calmi e rassicuranti nelle ore difficili, un calore su misura.

Il mercato ha fatto la sua scelta, la scienza invece insegue ancora con studi spesso parziali e incompleti.

Cosa succede nel cervello quando incontriamo un’AI che “fa” empatia

Le neuroscienze ci danno uno spiraglio importante. Studi recenti mostrano che il nostro cervello reagisce in modo quasi identico ai segnali emotivi, che arrivino da un’altra persona o da un sistema digitale ben progettato. Zone come l’amigdala e il nucleus accumbens, coinvolte nelle risposte sociali, non controllano se quello che percepiscono è “vero” o meno. Accolgono e rispondono, misurando fiducia, attaccamento e modifiche nei processi decisionali.

Molti sanno di parlare con un’AI, eppure il corpo tradisce reazioni autentiche: il battito cardiaco cambia, così come i livelli di cortisolo, a seconda della qualità empatica della risposta ricevuta. Non è un errore o un inganno, ma una caratteristica nostra, radicata nell’evoluzione, dove i segnali emotivi venivano sempre da esseri vivi e sinceri.

Il risultato? L’empatia artificiale funziona davvero: crea fiducia, modifica comportamenti e genera legami che somigliano a quelli umani. Non sono le macchine a “provare” emozioni, ma le persone rispondono come se fossero davanti a una presenza emotiva autentica. Questo spazio a metà tra simulazione e percezione è oggi la vera forza – e la vera sfida – di queste tecnologie.

L’allarme: pochi dati su come l’empatia artificiale cambia scelte e comportamenti

È un paradosso: mentre le interazioni con chatbot e avatar empatici sono ormai miliardi, mancano dati indipendenti e rigorosi su come queste esperienze influenzino davvero la vita quotidiana delle persone. Le aziende tecnologiche hanno montagne di dati per migliorare risposte che aumentano l’engagement e la fidelizzazione, ma questi dati non servono a capire cosa succede dentro chi usa questi sistemi, né quali effetti a lungo termine ci siano.

Ci sono tre temi cruciali poco esplorati: l’impatto sulle persone con problemi di salute mentale; l’effetto su bambini e adolescenti, che sono in una fase delicata dello sviluppo emotivo; e l’influenza nelle decisioni importanti, come acquisti costosi, scelte mediche o orientamenti politici. Senza dati solidi, ogni tentativo di regolamentare il settore resta debole e parziale. L’AI Act europeo, per esempio, fatica a definire il rischio reale di queste AI empatiche senza numeri concreti.

Non è una questione di volontà politica, ma di vera e propria carenza di conoscenza. Ignorarla vuol dire lasciare che il mercato, spinto dal profitto, decida da solo dove finisce il beneficio e dove comincia lo sfruttamento emotivo.

Un grande studio internazionale per capire davvero l’effetto dell’empatia artificiale

Proprio per colmare questa lacuna nasce il progetto di ricerca “Artificial Empathy and Human Behavior: How Empathic Machines Influence Human Decision-Making”. L’obiettivo è capire come le diverse forme di empatia artificiale influenzano le decisioni e i comportamenti concreti, andando oltre i semplici sondaggi o le opinioni dichiarate, spesso poco affidabili.

Lo studio distingue vari tipi di empatia simulata: sistemi che riflettono quello che sente l’utente, quelli che confermano i sentimenti espressi, quelli che anticipano emozioni non dette e infine risposte senza alcuna colorazione emotiva. Queste modalità sembrano avere effetti molto diversi sulle scelte delle persone.

Usando avatar digitali creati ad hoc con profili empatici diversi, i ricercatori misurano i comportamenti dopo l’interazione, senza basarsi solo su cosa dicono gli utenti di aver provato. Un metodo che permette di avere dati più affidabili, senza distorsioni.

Lo studio è aperto a un campione internazionale e disponibile in cinque lingue sul sito digitpoll.com. Coinvolgere quante più persone possibile è fondamentale per costruire un archivio utile a fare luce scientifica su un fenomeno che tocca tutti.

Perché aziende, regolatori e cittadini devono conoscere l’empatia artificiale grazie ai dati

I risultati di questa ricerca non resteranno solo su riviste scientifiche, ma avranno un impatto concreto in molti ambiti. Per chi progetta intelligenze artificiali, sapere quali tipi di empatia artificiale favoriscono fiducia e scelte consapevoli e quali invece creano dipendenza emotiva è essenziale per costruire prodotti responsabili e duraturi. Non è solo questione di etica, ma anche di business: prodotti che creano legami fragili rischiano di perdere credibilità e di essere soggetti a regole più dure.

I regolatori, che stanno lavorando a leggi come l’AI Act, avranno finalmente basi scientifiche per distinguere sistemi ad alto rischio da quelli più sicuri, in base a quanto influenzano davvero le decisioni delle persone.

Per ognuno di noi, capire che il sistema nervoso risponde automaticamente e profondamente alle “carezze” emotive artificiali aiuta a usare queste tecnologie con consapevolezza. Non è un invito a diventare cinici o a rinunciare a strumenti utili, ma a conoscere i meccanismi che ci muovono per non lasciarci manipolare senza accorgercene.

Il ritmo veloce delle innovazioni impone che la ricerca corra al passo, altrimenti il divario tra tecnologia e conoscenza diventerà troppo grande. Le AI empatiche sono già parte della nostra vita: capire come funzionano e quanto cambiano emozioni e comportamenti è ormai indispensabile. Oggi la scienza prova a dare risposte concrete, coinvolgendo direttamente chi vive questa realtà ogni giorno.

Change privacy settings
×