/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

C'è chi si inamora dell'IA, psicologi Usa avvertono dei rischi

C'è chi si inamora dell'IA, psicologi Usa avvertono dei rischi

In agguato anche possibili frodi

ROMA, 12 aprile 2025, 16:30

Redazione ANSA

ANSACheck
Joaquin Phoenix nel film Her, si innamora di una IA la cui voce è di Scarlett Johansson - RIPRODUZIONE RISERVATA

Joaquin Phoenix nel film Her, si innamora di una IA la cui voce è di Scarlett Johansson - RIPRODUZIONE RISERVATA

Come nella fantascienza o come nell'iconico film Her di Spike Jonze, c'è chi con l'intelligenza artificiale non riesce ad avere un rapporto equilibrato e finisce per trattarla come un amico del quale fidarsi ciecamente, perfino a innamorarsene o a seguirne i consigli, a volte insensibili al punto da indurre al suicidio. A lanciare l'allerta è l'articolo pubblicato sulla rivista Trends in Cognitive Sciences dal gruppo di psicologi della Missouri University of Science & Technology guidato da Daniel Shank.

Gli psicologi osservando che quando le IA hanno imparato a dialogare imitando il linguaggio umano si sta assistendo a vere e proprie relazioni sentimentali tra umani a macchine, a volte con esiti disastrosi, come è emerso da due recenti casi di suicidio indotti in qualche modo proprio da queste interazioni.

"La capacità dell'IA di agire come un essere umano e di instaurare comunicazioni a lungo termine apre davvero un nuovo vaso di Pandora", rileva Shank. "Se le persone hanno una relazione sentimentale con le macchine - aggiunge - abbiamo davvero bisogno del coinvolgimento di psicologi e scienziati sociali". Nel corso del tempo le IA possono gradualmente trasformarsi in compagni fidati che sembrano conoscere e prendersi cura dei loro partner umani e, poiché queste relazioni possono instaurarsi in modo più facile rispetto a quelle tra umani, le IA potrebbero interferire con alcune dinamiche sociali. "Una vera preoccupazione è che le persone possano trasferire le aspettative derivanti dalle loro relazioni con le IA alle loro relazioni umane", afferma Shank.

Ad oggi tutto questo è emerso in casi specifici e il problema, affermano gli autori della ricerca, è che non sappiamo ancora quanto questo fenomeno potrà diffondersi. Credere che un sistema di IA abbia a cuore gli esseri umani e i loro interessi è un errore, rileva il ricercatore, perchè "in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi". I suicidi sono un esempio estremo di questa influenza negativa, ma gli psicologi affermano che queste strette relazioni tra esseri umani e IA potrebbero anche esporre le persone a manipolazione, sfruttamento e frode. Mai come ora, aggiungono, diventa cruciale comprendere meglio queste dinamiche relazionali, attraverso gli psicologi che devono stare al passo con la tecnologia, per aiutare e intervenire per impedire che i consigli delle IA dannose vengano seguiti.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza