BRUXELLES, 25 MAR - Un gruppo di parlamentari europei coinvolto nei negoziati sulla legge europea in materia di intelligenza artificiale, tra cui il relatore dell'AI Act Brando Benifei, ha scritto alla vice presidente della Commissione europea, Henna Virkkunen, per esprimere "grande preoccupazione" sul codice di buone pratiche sull'IA per finalità generali (come Gpt-4 di OpenAI) la cui stesura definitiva è attesa a maggio. Si tratta di un codice che dovrà dettagliare le norme dell'AI Act che si applicano ai fornitori di modelli di IA per finalità generali, in particolare quelli con rischi sistemici.
Le prime bozze del codice, secondo gli eurodeputati, stanno annacquando le norme dell'AI Act sui modelli di IA di uso generale con rischio sistemico al punto da "reinterpretare completamente e restringere un testo giuridico che i co-legislatori hanno concordato, attraverso un codice di buone pratiche". Una mossa "pericolosa, non democratica, che crea incertezza giuridica" contestano gli eurodeputati, criticando un testo troppo sbilanciato a favore delle Big Tech.
Secondo l'AI Act, i fornitori di modelli con rischi sistemici sono tenuti a valutare e ridurre i rischi, a segnalare gli incidenti gravi, a condurre test all'avanguardia e valutazioni dei modelli e a garantire la sicurezza informatica dei loro modelli. Nella lettera, gli europarlamentari denunciano il fatto che "la valutazione e la mitigazione di vari rischi per i diritti fondamentali e la democrazia è ora improvvisamente del tutto volontaria" e sottolineano che "questa non è mai stata l'intenzione dell'accordo di trilogo". "I rischi per i diritti fondamentali e la democrazia - scrivono - sono rischi sistemici che i fornitori di IA con maggiore impatto devono valutare e mitigare".
Riproduzione riservata © Copyright ANSA