Nel panorama in rapida evoluzione dell'intelligenza artificiale, torna a farsi sentire il gigante cinese dell'e-commerce Alibaba. Dopo aver lanciato a gennaio Qwen2.5 Max, ora l'azienda presenta R1-Omni, un modello che avvicina il concetto di intelligenza artificiale generale (Agi), potendo interpretare le emozioni umane. In una demo pubblicata su GitHub, un archivio dove poter scaricare progetti open-source, si vede l'IA analizzare un breve clip video, descrivendo cosa indossano le persone e i loro stati emotivi.
Un risultato a cui l'intelligenza artificiale giunge grazie all'analisi di una molteplicità di segnali, che includono le espressioni facciali, il linguaggio del corpo, le variazioni nel tono della voce. L'obiettivo primario di questa tecnologia, spesso definita "emotion AI" o "computazione affettiva", è quello di dotare le macchine della capacità di interpretare e rispondere agli stati emotivi umani, promuovendo interazioni più naturali ed empatiche. Il riconoscimento delle emozioni si articola in tre approcci principali, ciascuno dei quali sfrutta diverse modalità di elaborazione dei dati. L'analisi testuale si concentra sull'interpretazione del linguaggio, sia scritto che parlato, per dedurre i sentimenti espressi.
Le tecnologie di elaborazione del linguaggio naturale (nlp) e gli algoritmi di analisi del sentiment permettono di estrarre informazioni emotive da testi e discorsi. L'analisi audio, invece, si basa sulle caratteristiche vocali, come il tono, il timbro e il ritmo della voce, per rilevare variazioni emotive. L'integrazione di queste diverse tecniche consente di ottenere una comprensione più accurata delle emozioni. Il fine, mai nascosto di Alibaba, è quello di raggiungere l'Agi, l'intelligenza artificiale generale, ultimo passo prima del superamento delle capacità umane. Il Ceo, Eddie Wu, ha più volte spiegato come l'Agi sia la priorità principale dell'azienda su cui si basano gli investimenti attuali e futuri.
Riproduzione riservata © Copyright ANSA