293 Visualizzazioni

L’UE Stabilisce Nuove Norme per l’Intelligenza Artificiale: Sicurezza, Rispetto dei Diritti e Stimolo all’Innovazione

9 Dic 2023 - Europa

L’UE Stabilisce Nuove Norme per l’Intelligenza Artificiale: Sicurezza, Rispetto dei Diritti e Stimolo all’Innovazione

Dopo tre giorni di intensi negoziati, il Consiglio dell’Unione Europea e il Parlamento europeo hanno raggiunto un accordo storico sulla proposta di norme armonizzate per l’intelligenza artificiale (IA). Questo regolamento, il primo del suo genere a livello globale, mira a garantire che i sistemi di IA immessi sul mercato europeo siano sicuri, rispettino i diritti fondamentali e i valori dell’UE, e al contempo stimolino gli investimenti e l’innovazione in questo settore in Europa.

Un Approccio Basato sul Rischio

Il fulcro di queste nuove norme è un approccio “basato sul rischio” per regolamentare l’IA. Questo approccio classifica i sistemi di IA in base al loro potenziale di causare danni alla società, variando da rischio minimo a inaccettabile. Più elevato è il rischio, più stringenti sono le regole imposte. La maggior parte dei sistemi di IA rientra nella categoria di rischio minimo e beneficerà di una sorta di “free-pass”.

Sistemi ad Alto Rischio e Linee Rosse

I sistemi di IA identificati come ad alto rischio dovranno soddisfare requisiti rigorosi, inclusi sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, supervisione umana, e un alto livello di robustezza e sicurezza informatica. Esempi di questi sistemi includono quelli utilizzati in infrastrutture critiche, dispositivi medici, sistemi educativi e di reclutamento, e in alcuni ambiti delle forze dell’ordine e dell’amministrazione della giustizia.

Per quanto riguarda i rischi inaccettabili, saranno vietati i sistemi di IA che rappresentano una chiara minaccia ai diritti fondamentali, come quelli che manipolano il comportamento umano o consentono il “punteggio sociale”. Alcuni usi dei sistemi biometrici saranno anch’essi proibiti, con eccezioni limitate e strettamente regolamentate.

Rischi Specifici e Trasparenza

Per i rischi specifici, come le chatbot, è richiesto che gli utenti siano consapevoli di interagire con una macchina. I contenuti generati dall’IA, come i deepfake, dovranno essere chiaramente etichettati. Inoltre, i fornitori di IA dovranno assicurarsi che i contenuti sintetici siano riconoscibili e contrassegnati in modo appropriato.

Ambito di Applicazione e Eccezioni

Il regolamento non si applica ai settori al di fuori del campo di applicazione del diritto dell’UE, né pregiudica le competenze degli Stati membri in materia di sicurezza nazionale. Inoltre, non si applica ai sistemi utilizzati esclusivamente per scopi militari o di difesa, né a quelli impiegati solo a fini di ricerca e innovazione o da persone per motivi non professionali.

© RIPRODUZIONE RISERVATA
Tag: , , ,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Per rimanere aggiornato/a iscriviti al nostro canale whatsapp, clicca qui:

Articoli correlati

Budapest vieta il Pride: Orbán sfida Bruxelles
Budapest vieta il Pride: Orbán sfida Bruxelles

La decisione del governo ungherese riapre il confronto sui limiti del potere comunitario Il recente […]

Fête de la Musique nel caos: 145 donne aggredite con siringhe
Fête de la Musique nel caos: 145 donne aggredite con siringhe

La Fête de la Musique si trasforma in incubo: oltre 140 donne denunciano aggressioni con […]

L’Ue indaga sulle lobby green: prima vittoria della destra
L’Ue indaga sulle lobby green: prima vittoria della destra

Un sistema di potere verde costruito nell’ombra Per anni, il Green Deal europeo è stato […]

Kaja Kallas e la guerra immaginaria: quando la politica estera Ue finisce in mani sbagliate
Kaja Kallas e la guerra immaginaria: quando la politica estera Ue finisce in mani sbagliate

Kaja Kallas, l’ultima Cassandra d’Europa “Se non aiutiamo l’Ucraina, dovremo imparare il russo”. Con questa […]