di Avv. Tommaso Rossi
Introduzione: Il campo dell’intelligenza artificiale (A.I. o, in italiano, I.A.) sta vivendo un rapido sviluppo che offre molte opportunità e sfide. Al fine di affrontare le questioni etiche, sociali e legali associate all’uso dell’AI, l’Unione Europea ha introdotto un nuovo regolamento chiamato “AI Act“. Questo articolo si propone di esaminare i principali aspetti giuridici e tecnici del nuovo AI Act, analizzando il suo impatto sullo sviluppo, l’adozione e l’uso dell’IA all’interno dell’Unione Europea.
Aspetti giuridici: Il AI Act rappresenta un importante passo avanti nel fornire una base normativa chiara per l’utilizzo dell’IA nell’UE, prendendo come punto di riferimento e di partenza iniziale il Regolamento Europea per la Protezione dei Dati Personali (GDPR) . Il regolamento appena varato, mira a proteggere i diritti fondamentali delle persone, garantendo la trasparenza, l’accountability e la responsabilità nell’uso dei sistemi di IA. Tra i principali aspetti giuridici del AI Act vi sono:
- Categorie di rischio: Il regolamento definisce quattro categorie di rischio per i sistemi di IA, che vanno dalla bassa alla massima. I sistemi ad alto rischio, come quelli utilizzati nei settori della salute, dei trasporti e dell’amministrazione della giustizia, saranno soggetti a requisiti più rigorosi in termini di trasparenza, governance e valutazione della conformità.
- Dovere di diligenza: Il AI Act richiede che i fornitori di sistemi di IA adottino misure adeguate per valutare e mitigare i rischi associati ai loro prodotti o servizi. Ciò include l’implementazione di meccanismi di governance, la conduzione di valutazioni di impatto sull’IA e l’adozione di misure proporzionate per garantire la qualità e la sicurezza dei sistemi di IA.
- Trasparenza e accesso alle informazioni: Il regolamento impone l’obbligo di fornire informazioni chiare e comprensibili sul funzionamento e sull’uso dei sistemi di IA agli utenti e alle autorità competenti. Inoltre, i sistemi di IA ad alto rischio devono essere in grado di fornire spiegazioni sulla logica, le decisioni e gli effetti delle loro azioni.
- Supervisione e conformità: Il AI Act istituisce un nuovo organismo di regolamentazione, l’Autorità europea per l’intelligenza artificiale (AI Authority), responsabile della supervisione e dell’applicazione delle norme. Sarà incaricata di emettere certificazioni per i sistemi di IA ad alto rischio e di condurre ispezioni e indagini in caso di presunte violazioni.
Aspetti tecnici:
Oltre agli aspetti giuridici, il AI Act introduce anche disposizioni tecniche per garantire l’affidabilità e la sicurezza dei sistemi di IA. Questi includono:
- Dati di addestramento: Il regolamento richiede che i dati utilizzati per addestrare i sistemi di IA siano accurati, rappresentativi e rispettino i diritti di proprietà intellettuale, la privacy e la protezione dei dati personali. Inoltre, le informazioni demografiche, sociali e comportamentali utilizzate per l’addestramento devono essere equilibrate e non discriminatorie.
- Test e valutazioni: I sistemi di IA ad alto rischio devono essere sottoposti a test e valutazioni indipendenti per valutarne la conformità alle norme e identificare eventuali rischi o bias. Questo processo di valutazione deve essere condotto da organizzazioni certificate e competenti.
- Sistema di tracciabilità: Il AI Act richiede che i sistemi di IA ad alto rischio siano dotati di un sistema di tracciabilità che registri le informazioni sull’addestramento, il funzionamento e le modifiche apportate. Questo consentirà una maggiore trasparenza e permetterà di individuare eventuali errori o comportamenti imprevisti.
- Compliance con le norme europee: I fornitori di sistemi di IA dovranno garantire che i loro prodotti e servizi rispettino i principi e i valori stabiliti nel AI Act, così come altri regolamenti europei pertinenti, come il GDPR (General Data Protection Regulation).
Aspetti peculiari del AI Act che riguardano ChatGPT:
Responsabilità e accountability:
Uno degli aspetti fondamentali del AI Act riguarda la responsabilità e l’accountability degli sviluppatori e dei fornitori di sistemi di intelligenza artificiale. In quanto modello di intelligenza artificiale, ChatGPT è sviluppato da OpenAI, che è responsabile della sua creazione e distribuzione. OpenAI deve conformarsi al AI Act e aderire alle norme e ai principi etici stabiliti dalla regolamentazione.
Trasparenza e accessibilità delle informazioni:
Il AI Act pone un’enfasi sulla trasparenza e l’accessibilità delle informazioni riguardanti i sistemi di intelligenza artificiale. In questo contesto, ChatGPT dovrebbe fornire informazioni chiare e comprensibili sul suo funzionamento, le sue limitazioni e le sue capacità agli utenti e alle autorità competenti. Gli utenti di ChatGPT devono essere informati sul fatto che stanno interagendo con un modello di intelligenza artificiale e devono comprendere le sue potenzialità e le sue limitazioni.
Impatto sociale ed etico:
Il AI Act si preoccupa anche dell’impatto sociale ed etico dei sistemi di intelligenza artificiale. ChatGPT, come molti altri modelli di intelligenza artificiale basati sul linguaggio, può influenzare le persone attraverso le sue risposte e le sue interazioni. Pertanto, ChatGPT dovrebbe essere progettato e addestrato tenendo conto dei principi etici e delle norme sociali, evitando discriminazioni, pregiudizi e promuovendo la diversità e l’inclusione.
Protezione dei dati e della privacy:
Il AI Act richiede che i fornitori di sistemi di intelligenza artificiale garantiscano la protezione dei dati e della privacy delle persone coinvolte nell’utilizzo dei sistemi. Nell’interazione con ChatGPT, le informazioni personali degli utenti devono essere trattate in conformità alle leggi sulla protezione dei dati, come il GDPR. OpenAI, come sviluppatore di ChatGPT, deve adottare misure adeguate per garantire la sicurezza e la riservatezza dei dati degli utenti.
Conclusioni: Il nuovo AI Act rappresenta un importante passo avanti nella regolamentazione dell’utilizzo dell’IA all’interno dell’Unione Europea. Con i suoi aspetti giuridici e tecnici, il regolamento mira a garantire la protezione dei diritti fondamentali, la trasparenza, l’accountability e la sicurezza nell’uso dei sistemi di IA. Sebbene il AI Act rappresenti un importante strumento normativo, saranno necessari ulteriori sforzi per garantire la sua efficace attuazione e per affrontare le sfide emergenti nell’ambito dell’IA.