marcomirra.it
BLOG DI DIVULGAZIONE SCIENTIFICA
SUL MONDO DEL DIGITALE E NON SOLO.
marcomirra.it
Cerca
Close this search box.

L’Intelligenza Artificiale verso una regolamentazione Europea. E gli altri?

L'11 dicembre 2023 segna un anno dall'approvazione dell'AI Act (regolamento sull'Intelligenza Artificiale), il primo regolamento al mondo sull'intelligenza artificiale. Proposto dalla Commissione europea nel 2021 e negoziato con il Parlamento europeo e il Consiglio dell'UE, mira a stabilire un quadro giuridico chiaro e uniforme per l'uso dell'IA all'interno dell'UE.
ue

L’11 dicembre 2023 segna un anno dall’approvazione dell’AI Act (regolamento sull’Intelligenza Artificiale), il primo regolamento al mondo sull’intelligenza artificiale. Proposto dalla Commissione europea nel 2021 e negoziato con il Parlamento europeo e il Consiglio dell’UE, mira a stabilire un quadro giuridico chiaro e uniforme per l’uso dell’IA all’interno dell’UE.

Si applica a tutti i sistemi di intelligenza artificiale che presentano un rischio significativo per gli esseri umani, la società o l’ambiente. Tali sistemi sono classificati in tre categorie, a seconda del livello di rischio: rischio elevato, rischio medio e rischio basso.

Rischio inaccettabile

I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.

Questi comprendono:

    • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
    • classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali
    • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

Alto rischio

I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:

        • identificazione e categorizzazione biometrica di persone naturali
        • gestione e funzionamento di infrastrutture critiche
        • istruzione e formazione professionale
        • occupazione, gestione dei lavoratori e accesso all’autoimpiego
        • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell’ordine
        • gestione delle migrazioni, asilo e controllo delle frontiere
        • assistenza nell’interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

AI generativa

L’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

        • rivelare che il contenuto è stato generato da un’intelligenza artificiale
        • progettare il modello in modo da impedire la generazione di contenuti illegali
        • pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Rischio limitato

I sistemi di intelligenza artificiale a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).

Prossime tappe

Il Parlamento definirà la propria posizione negoziale durante la sessione plenaria di giugno 2023, dopodiché inizieranno i negoziati con i Paesi dell’UE in Consiglio per la stesura finale della legge. L’obiettivo è quello di raggiungere un accordo entro la fine di quest’anno. Nel corso del prossimo anno, è probabile che l’AI Act continui a influenzare il settore dell’intelligenza artificiale  e impatterà sui  fornitori di sistemi di intelligenza artificiale, che  dovranno adeguare le proprie attività ai requisiti del regolamento. In questa fase non pare vi sia alcun accenno ad eventuali risposte sanzionatorie per chi non si adegui. Attendiamo cosa accadrà nel corso di questi mesi, ma delle zone d’ombra ancora persistono. Come ad esempio: Una persona che acquista un servizio di IA fuori dall’europa e che quindi secondo quel paese è assolutamente in regola incorrerà in un illecito? La norma è eventualmente sanzionatoria solo per le aziende o anche per gli utilizzatori? Insomma staremo a vedere, auspicando che a livello globale tutti i pesi adottino un protocollo universale.

 

Ti è piaciuto questo articolo? CONDIVIDILO

Facebook
WhatsApp
articolo

ALTRI CONTENUTI

SmartPhone WC

Nel nostra esistenza oramai abbiamo appurato che il nostro smartphone sembra essere diventato un compagno inseparabile. Talmente inseparabile da preferirlo anche come compagno  durante i momenti più personali, come una visita al bagno. Molti di noi sono consapevoli dei rischi

Read More »
Robot fatti di cellule umane “antrobot”

Un team di ricercatori dell’Università di Harvard ha realizzato i primi robot a partire da cellule umane. I robot, chiamati Anthrobot, sono costituiti da cellule della trachea e sono in grado di muoversi autonomamente e di assemblarsi in strutture più

Read More »