Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

ChatGpt e gli altri chatbot si danno regole autonomamente

/ricerca/ansait/search.shtml?tag=
Mostra meno

ChatGpt e gli altri chatbot si danno regole autonomamente

Quando sono in gruppo, senza intervento umano

ROMA, 15 maggio 2025, 10:59

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

ChatGpt e gli altri Grandi modelli linguistici basati sull'Intelligenza Artificiale sono in grado di auto-organizzarsi senza bisogno di un intervento umano: quando sono in gruppo, stabiliscono spontaneamente norme di comportamento e convenzioni sociali, proprio come avviene nelle società umane. È quanto emerge dallo studio, unico nel suo genere, pubblicato sulla rivista Science Advances e coordinato dall' italiano Andrea Baronchelli, che lavora in Gran Bretagna al City St George's dell'Università di Londra, .
    "Il meccanismo è lo stesso alla base di comportamenti molto più complessi nelle società umane, come le norme di cortesia, i codici di abbigliamento o le regole morali", dice all'ANSA Baronchelli, che ha studiato alla Sapienza Università di Roma.
    "Un esempio quotidiano che tutti conoscono - aggiunge - è la parola 'spam': nessuno l'ha decisa dall'alto, ma è emersa dall'uso collettivo".
    I ricercatori hanno adattato per l'esperimento un classico gioco usato per studiare le convenzioni sociali negli esseri umani, il 'gioco dei nomi'. In questo caso, sono stati creati gruppi più o meno grandi di modelli linguistici come ChatGpt, i cosiddetti Large Language Model (Llm): due di questi all'interno di ogni gruppo venivano di volta in volta accoppiati e veniva chiesto loro di selezionare un 'nome', in questo caso una lettera dell'alfabeto o una stringa casuale di caratteri, tra le opzioni disponibili.
    "Gli Llm ricevevano punti positivi ogni volta che riuscivano a coordinarsi con successo sull'uso dello stesso nome e punti negativi in caso di fallimento", afferma Baronchelli. "Questo meccanismo serve a motivare gli agenti a cercare di trovare un accordo nella singola interazione locale. È lo stesso schema che abbiamo usato in esperimenti precedenti con esseri umani in laboratorio, dove i partecipanti ricevevano piccole ricompense economiche".
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza