La crescente diffusione dell'intelligenza artificiale (IA) sta spingendo verso l'emanazione di nuove leggi e standard etici. La Corea del Sud è diventata di recente la prima nazione ad applicare pienamente una legge completa e autonoma sull'IA. 1 A causa di questi rapidi cambiamenti, il 77% delle aziende considera la conformità all'IA una priorità assoluta. 2
Il nostro team si è dedicato di recente a semplificare questa complessità attraverso la valutazione comparativa dei pregiudizi nell'IA , la selezione di strumenti di governance dell'IA e la verifica di casi di studio sull'etica dell'IA .
Scopri cos'è la conformità all'IA, perché è importante ora , le sue sfide e alcuni esempi concreti in cui i modelli non riescono a soddisfare gli standard legali:
Che cos'è la conformità all'IA?
La conformità all'IA si riferisce al processo di garanzia che i sistemi di IA rispettino tutte le leggi, i regolamenti e gli standard etici pertinenti. Ciò implica assicurarsi che:
- Gli strumenti di intelligenza artificiale non vengono utilizzati in modi illegali, discriminatori, ingannevoli o dannosi.
- I dati utilizzati per addestrare questi sistemi vengono raccolti e utilizzati in modo legale ed etico.
- Le tecnologie di intelligenza artificiale vengono impiegate in modo responsabile e a beneficio della società.
Vantaggi della conformità in materia di IA
La conformità all'IA può garantire:
- Gestione regolare della conformità e dei rischi, garantendo l'uso legale ed etico dei sistemi di intelligenza artificiale.
- Tutelare la privacy e la sicurezza degli individui garantendo un trattamento adeguato dei dati personali.
- Processi decisionali che portano a risultati di intelligenza artificiale più accurati e affidabili.
- L'interoperabilità dei sistemi di intelligenza artificiale facilita un'integrazione più fluida con altri sistemi e tecnologie, migliorando l'efficienza e la collaborazione tra diverse piattaforme.
- Protezione delle organizzazioni da potenziali rischi legali e finanziari, quali multe, sanzioni o azioni legali.
- Migliore reputazione dell'organizzazione e maggiore fiducia da parte di clienti, stakeholder e pubblico, dimostrando un impegno verso pratiche etiche nell'ambito dell'intelligenza artificiale.
Perché la conformità all'IA è importante?
La conformità all'IA acquisisce importanza per i seguenti motivi:
- Adozione crescente dell'IA: le statistiche sull'IA suggeriscono che
- Si prevede che entro il prossimo anno il 90% delle applicazioni aziendali commerciali utilizzerà l'intelligenza artificiale.
- 9 aziende su 10 tra le più importanti investono costantemente nell'intelligenza artificiale.
- Crescente interesse per l'intelligenza artificiale generativa: ecco cosa spiegano le tendenze dell'automazione IT.
- Dal lancio di ChatGPT nel 2022, le aziende hanno segnalato un aumento del 97% dell'interesse nello sviluppo di modelli di intelligenza artificiale generativa.
- I tassi di adozione delle pipeline di apprendimento automatico per migliorare le strategie di intelligenza artificiale generativa sono aumentati del 72%.
- Necessità di una governance dei dati efficace: secondo le statistiche sull'IA :
- Considerato che l'intelligenza artificiale generativa dovrebbe creare il 10% di tutti i dati generati entro il 2025, una governance dei dati efficace è fondamentale per garantire l'integrità dei dati e la conformità normativa.
- Sollevando preoccupazioni etiche: a causa di esempi concreti di mancata conformità alle normative sull'IA e di pratiche di IA responsabile, come modelli distorti e chatbot con comportamenti discriminatori e discorsi d'odio.
Per ulteriori esempi concreti, vedi sotto:
Esempi concreti di mancata conformità alle normative sull'IA
Ecco alcuni esempi concreti di aziende che hanno dovuto affrontare problemi di reputazione e rimandare i propri progetti di intelligenza artificiale a causa di conseguenze non etiche. Questi esempi hanno portato queste aziende a investire nella gestione della conformità dell'IA e ad adottare pratiche di intelligenza artificiale responsabile.
1. Deepfake
I deepfake sono contenuti multimediali generati dall'intelligenza artificiale che alterano in modo convincente l'aspetto, la voce o le azioni di una persona e possono essere utilizzati in modo non etico per:
- Frode finanziaria perpetrata da truffatori che impersonano altre voci per effettuare trasferimenti di denaro non autorizzati.
- Il cyberbullismo consiste nel creare immagini o video falsi e dannosi a scopo di molestia.
- Manipolazione dei dati per ingannare i media, alterare la percezione pubblica, influenzare le elezioni o causare crisi.
- Testimonianza mendace per produrre prove false in procedimenti legali, con il rischio di condanne ingiuste.
- Violazioni della privacy finalizzate alla creazione di contenuti non autorizzati ed espliciti, spesso rivolti a individui senza il loro consenso.
Ad esempio, un video che ritrae falsamente il Primo Ministro Lee Hsien Loong mentre promuove un prodotto di investimento evidenzia i pericoli dell'intelligenza artificiale nella diffusione di disinformazione. 3 Ecco il video deepfake del Primo Ministro:
2. Pregiudizi di genere negli strumenti di assunzione basati sull'intelligenza artificiale
Nel 2018, Amazon ha chiuso uno strumento sperimentale di intelligenza artificiale per la selezione del personale dopo aver scoperto che privilegiava sistematicamente i candidati di sesso maschile. Il problema risiedeva nei dati di addestramento distorti che riflettevano gli squilibri di genere nel settore tecnologico. 4
Questo pregiudizio ha sollevato preoccupazioni circa l'equità e l'accuratezza dell'IA nelle decisioni di assunzione, spingendo Amazon a rimuovere lo strumento per evitare di perpetuare la disuguaglianza di genere.
3. Pregiudizi razziali
3.1 Pregiudizi razziali in COMPAS
È emerso che lo strumento COMPAS, utilizzato per prevedere la probabilità di recidiva tra i criminali statunitensi, presenta pregiudizi razziali. 5 Un'indagine di ProPublica del 2016 ha rivelato che COMPAS era più propenso a classificare gli imputati neri come ad alto rischio rispetto agli imputati bianchi, anche tenendo conto di fattori come precedenti penali ed età. Alcuni dei suoi risultati distorti includevano:
- Hanno classificato erroneamente quasi il doppio degli imputati neri (45%) come ad alto rischio rispetto agli imputati bianchi (23%).
- Sono stati erroneamente classificati come a basso rischio un numero maggiore di imputati bianchi, con un tasso di recidiva del 48% rispetto al 28% degli imputati neri.
3.2. Pregiudizi razziali nell'algoritmo sanitario statunitense
Un algoritmo di intelligenza artificiale utilizzato negli ospedali statunitensi per prevedere le esigenze dei pazienti presentava dei pregiudizi nei confronti dei pazienti di colore. 6
L'algoritmo basava le sue previsioni sui costi dell'assistenza sanitaria, non tenendo conto delle disparità razziali nella remunerazione delle prestazioni sanitarie. Di conseguenza, ai pazienti neri venivano assegnati punteggi di rischio inferiori e ricevevano meno cure rispetto ai pazienti bianchi con condizioni di salute simili. Questa distorsione ha portato a un accesso ineguale alle cure mediche necessarie.
4. Comportamento discriminatorio dei chatbot
4.1 Tay
Nel 2016, Microsoft ha lanciato Tay, un chatbot su Twitter progettato per imparare dalle interazioni degli utenti. 7 Entro 24 ore, Tay ha iniziato a pubblicare tweet razzisti, transfobici e antisemiti dopo aver appreso da messaggi incendiari inviati dagli utenti. Nonostante gli iniziali sforzi di filtraggio dei dati, il comportamento di Tay ha evidenziato i pericoli dei sistemi di intelligenza artificiale che apprendono dalle interazioni pubbliche senza adeguate misure di sicurezza.
4.1 Neuro-sama
Un altro esempio è Neuro-sama, una VTuber basata sull'intelligenza artificiale che trasmette in streaming su Twitch e interagisce con gli spettatori come se fosse una streamer umana. 9
Nel 2023, il suo canale Twitch è stato temporaneamente bannato a causa di comportamenti che incitavano all'odio, probabilmente legati a commenti controversi fatti dall'IA, tra cui la messa in discussione dell'Olocausto. In seguito a questo incidente, la creatrice, Vedal, ha aggiornato il filtro della chat per prevenire problemi simili.
Ecco un'immagine di Neuro-sama:

Scopri altri casi d'uso etici dell'IA ed esempi concreti.
Sfide di conformità dell'IA
Ecco alcune sfide di conformità all'IA che richiedono l'implementazione di strumenti e pratiche:
1. Orientarsi tra le normative globali
La conformità all'IA implica il rispetto di una varietà di normative internazionali, come l'AI Act dell'UE, gli ordini esecutivi statunitensi e l'AIDA canadese. Ora, la Corea del Sud è il primo paese ad aver pienamente reso operativa una legge completa sull'IA. La sua nuova legge fondamentale sull'IA impone l'utilizzo di watermark per i contenuti generativi e una rigorosa supervisione per i settori ad "alto impatto".
Questi cambiamenti creano un panorama complesso per le operazioni di intelligenza artificiale. La conformità richiede un attento allineamento dei sistemi di IA con i quadri giuridici specifici di ciascuna regione per evitare sanzioni.
La tabella seguente elenca i requisiti legali vigenti che i modelli di intelligenza artificiale devono rispettare:
2. Regolamentazione basata sul rischio
La legge europea sull'IA ha introdotto categorie di rischio per i sistemi di intelligenza artificiale (inaccettabile, elevato, limitato, basso), ognuna delle quali comporta specifici obblighi normativi. I sistemi di IA ad alto rischio richiedono misure di conformità più rigorose, tra cui una documentazione completa e protocolli di trasparenza.
Tuttavia, valutare il livello di rischio di ciascun sistema di IA e garantire la conformità ai relativi requisiti normativi rappresenta una sfida. Ad esempio, il 47% delle organizzazioni dispone di un framework per la gestione del rischio dell'IA, ma il 70% non effettua un monitoraggio e controlli continui. Una classificazione errata può portare a violazioni delle normative e a conseguenze significative. 10
3. Gestire i nuovi obblighi
Nuove leggi, come l'AI Act, la Direttiva sulla responsabilità nell'IA e la Direttiva sulla responsabilità del prodotto, impongono ulteriori responsabilità alle organizzazioni. Queste leggi richiedono l'implementazione di meccanismi di sicurezza, audit periodici e una documentazione completa per i sistemi di intelligenza artificiale.
Le organizzazioni devono adattare i propri processi per soddisfare questi nuovi standard, il che può richiedere ingenti risorse e una ristrutturazione delle pratiche di conformità esistenti, tenendo conto dell'approccio basato sul rischio previsto dall'AI Act.
4. Coordinamento all'interno del team di conformità
La conformità dell'IA richiede la collaborazione di più team, tra cui quello legale, quello di governance dei dati e quello di sviluppo tecnico. Ogni team ha un ruolo fondamentale nel garantire che i sistemi di IA siano conformi ai requisiti normativi.
Un coordinamento efficace è essenziale per evitare incomprensioni e garantire che tutti gli aspetti della conformità siano affrontati. Il monitoraggio e l'adeguamento continui dei sistemi di intelligenza artificiale per mantenere la conformità aumentano ulteriormente la complessità.
5. Responsabilità interfunzionale
La conformità all'IA è spesso affidata al Chief Data Officer (CDO) o a una figura equivalente, ma questa visione ristretta può risultare limitante. Solo il 4% delle organizzazioni dispone di un team interfunzionale dedicato alla conformità all'IA. 11
Un ampio impegno organizzativo e il coinvolgimento dei vertici aziendali sono essenziali per stabilire la conformità come priorità in tutte le funzioni e per garantire le risorse necessarie.
6. Misure di sicurezza tecniche
Garantire che gli algoritmi di intelligenza artificiale rispettino le linee guida etiche, la trasparenza e i principi di protezione dei dati rappresenta una sfida significativa, soprattutto per i sistemi ad alto rischio.
La conformità richiede lo sviluppo di algoritmi equi, non discriminatori e sicuri, il che può essere tecnicamente impegnativo. Le organizzazioni devono investire in competenze e strumenti per soddisfare questi standard senza ostacolare l'innovazione.
Strumenti di conformità per l'IA
Uno strumento di conformità per l'IA è una piattaforma centralizzata in cui i team tecnici, commerciali e di gestione del rischio e della conformità possono collaborare, documentare e gestire la conformità dei progetti di IA per orientarsi nel complesso panorama normativo associato ai sistemi di IA.
Alcune tecnologie in grado di garantire la conformità all'IA includono:
Ampie tecnologie di conformità all'IA
- Strumenti di governance dell'IA progettati per monitorare, gestire e far rispettare le politiche relative ai sistemi di IA, al fine di garantire la conformità agli standard normativi.
- Le piattaforme di IA responsabile contribuiscono a garantire che i sistemi di IA siano etici, trasparenti ed equi, aiutando le organizzazioni a soddisfare i requisiti di conformità.
- Le LLMOps (Large Language Model Operations) forniscono framework e strumenti operativi per la gestione di modelli linguistici di grandi dimensioni, tenendo conto delle considerazioni etiche e di conformità.
- MLOps (Machine Learning Operations) si concentra sull'implementazione di modelli di machine learning in ambienti di produzione, garantendo al contempo affidabilità, governance e flussi di lavoro sicuri.
- La governance dei dati garantisce una corretta gestione dei dati, allineando le pratiche ai requisiti legali e alle aspettative interne.
Tecnologie specifiche di conformità all'IA
- Strumenti per la gestione della privacy dei dati
Software progettato per gestire e proteggere i dati sensibili, garantendo la conformità alle normative sulla protezione dei dati come il GDPR e il CCPA. - Strumenti per la spiegabilità dei modelli
Tecnologie che garantiscono trasparenza nei processi decisionali dell'IA, contribuendo al rispetto dei requisiti normativi in materia di interpretabilità ed equità. - Piattaforme di gestione del rischio basate sull'IA
Strumenti che aiutano a identificare, valutare e mitigare i rischi associati ai sistemi di intelligenza artificiale, garantendo la conformità agli standard normativi ed etici. - Strumenti per l'individuazione e la mitigazione dei pregiudizi
Tecnologie che individuano e riducono i pregiudizi nei modelli di intelligenza artificiale, aiutando le organizzazioni a soddisfare i requisiti di conformità relativi all'equità e alla non discriminazione. - Strumenti di monitoraggio della sicurezza e della conformità
Soluzioni che monitorano costantemente i sistemi di intelligenza artificiale per individuare minacce alla sicurezza e verificarne la conformità agli standard normativi, fornendo avvisi e risposte automatizzate in caso di rilevamento di problemi.
Ulteriori approfondimenti sulla conformità all'IA
Scopri di più sulle tecnologie e gli sviluppi relativi all'IA responsabile, all'IA etica e alla conformità in materia di IA consultando la nostra pagina:
- Intelligenza artificiale spiegabile (XAI): guida all'IA pronta per l'uso aziendale
- Intelligenza artificiale responsabile: 4 principi e migliori pratiche
- Etica dell'IA generativa: le 6 principali preoccupazioni
Sii il primo a commentare
Il tuo indirizzo email non verrà pubblicato. Tutti i campi sono obbligatori.