Quotidiano della Federazione Ordini Farmacisti Italiani
Giovedì 29 FEBBRAIO 2024
Farma Talk - Farmacia dei servizi
Governo e Parlamento
ZzzQuil Natura
Segui ilFarmacistaOnline
Governo e Parlamento
La UE verso l’approvazione di una legge sull’intelligenza artificiale: regole diverse per diversi livelli di rischio. Sarà la prima legge al mondo in questo settore
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.
13 GIU -

Come parte della sua strategia digitale, l'UE intende regolamentare l'intelligenza artificiale (IA) al fine di garantire garantire migliori condizioni per lo sviluppo e l'uso di questa innovativa tecnologia.

Ne dà conto una nota del Parlamento Europeo che sottolinea come l'IA possa portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un'energia più conveniente e sostenibile ma possa anche essere origine di rischi per un suo cattivo uso.

Nell'aprile 2021, la Commissione UE ha proposto il primo quadro normativo dell'UE sull'IA. La norma propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull'IA.

Quali sono gli obiettivi della normativa sull’IA del Parlamento
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.

Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale.

La legge sull'intelligenza artificiale: regole diverse per diversi livelli di rischio
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati.

Rischio inaccettabile
I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.

Questi comprendono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
  • classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza "post", in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

Alto rischio
I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'UE:

  • identificazione e categorizzazione biometrica di persone naturali
  • gestione e funzionamento di infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione, gestione dei lavoratori e accesso all'autoimpiego
  • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell'ordine
  • gestione delle migrazioni, asilo e controllo delle frontiere
  • assistenza nell'interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

AI generativa
L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

• rivelare che il contenuto è stato generato da un'intelligenza artificiale

• progettare il modello in modo da impedire la generazione di contenuti illegali

• pubblicare riepiloghi dei dati con diritti d'autore utilizzati per l'addestramento.

Rischio limitato
I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

Prossime tappe
Il Parlamento definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, dopodiché inizieranno i negoziati con i Paesi dell'UE in Consiglio per la stesura finale della legge.

L'obiettivo, conclude la nota del Parlamento UE, è quello di raggiungere un accordo entro la fine di quest'anno.

13 giugno 2023
Ultimi articoli in Governo e Parlamento
IlFarmacistaOnline.it
Quotidiano della Federazione degli Ordini dei Farmacisti Italiani: www.fofi.it
Direttore responsabile
Andrea Mandelli
Editore
QS Edizioni srl
contatti
P.I. P.I. 12298601001
Riproduzione riservata.
Copyright 2022 © QS Edizioni srl Srl. Tutti i diritti sono riservati | P.I. 12298601001