Intelligenza artificiale in azienda: 3 rischi e come tutelarsi
I 3 punti chiave dell’articolo:
- Il ruolo dell’AI Act per l’intelligenza artificiale
- Quali sono i 3 grandi rischi dell’intelligenza artificiale in azienda
- Come tutelarsi: best practice da considerare
Intelligenza artificiale in azienda, il ruolo dell’AI Act
Per evitare i possibili rischi legati all’introduzione dell’intelligenza artificiale in azienda, le imprese dovrebbero prendere come bussola l’AI Act, il regolamento europeo per l’integrazione dei sistemi AI nel tessuto sociale, economico e produttivo, che classifica e regolamenta i tipi di intelligenza artificiale sulla base dei potenziali rischi derivanti dal suo utilizzo.
L’approccio risk-based adottato attribuisce una responsabilità, per chi sviluppa e usa il sistema AI, tanto maggiore quanto più è alto il rischio insito nell’utilizzo del sistema, fino a vietare l'utilizzo delle applicazioni e delle tecnologie il cui livello di rischio è considerato inaccettabile. Il regolamento ha avuto il via libera per essere recepito dai Paesi UE e sembra destinato a diventare il riferimento comune per un uso etico e responsabile di questo strumento anche al di fuori dei paesi dell’Unione, come già accaduto per il GDPR.
I 3 rischi principali dell’intelligenza artificiale in azienda
L’impiego dell’Intelligenza Artificiale in azienda può offrire molteplici benefici che vanno dall’automazione delle attività ripetitive a previsioni accurate basate sull’analisi di grandi quantità di dati, fino a una gestione più efficiente e innovativa delle risorse interne. Tuttavia, per poter trarre vantaggio da queste opportunità è necessario valutare accuratamente i potenziali rischi, specialmente a livello di infrastruttura IT.
Di seguito indichiamo i 3 rischi principali, derivanti dall’integrazione dell’intelligenza artificiale in azienda, e suggeriamo alcune azioni da intraprendere per poterli mitigare.
1. Rischio bias
L’intelligenza artificiale in azienda può riflettere i pregiudizi presenti nei dati di addestramento (bias), generando risultati sistematicamente distorti e portando, di conseguenza, a decisioni basate su prospettive e informazioni parziali. Un addestramento basato su dati storici che non tengano conto dei cambiamenti del mercato o delle preferenze dei consumatori potrebbe portare, ad esempio, a previsioni errate nel campo delle vendite. Un addestramento su un gruppo demografico troppo ristretto, pur in assenza di pregiudizi, potrebbe invece portare a escludere sistematicamente alcune categorie di candidati in un sistema impiegato per la selezione dei curriculum, propedeutica alle assunzioni, o portare a valutazioni poco mirate sulle performance. Vanno dunque previsti controlli umani, evitando di lasciare le decisioni totalmente in mano ai sistemi AI.
2. Rischio violazioni
Gli algoritmi di intelligenza artificiale in azienda possono produrre risposte errate o imprecise, soprattutto quando si basano su dati di addestramento non sufficientemente rappresentativi o su modelli molto complessi. È per questo necessario adottare misure preventive nell’uso degli output, introducendo come prassi la verifica delle fonti.
In questo modo, è possibile evitare il rischio di violare il copyright. I modelli di intelligenza artificiale sono infatti addestrati su una grande quantità di dati disponibili su Internet che spesso includono materiale protetto da diritto d’autore. Oltre a controllare le fonti, l’azienda dovrebbe monitorare eventuali variazioni della legislazione sul copyright.
L’intelligenza artificiale in azienda può anche comportare un rischio per la privacy dei dati e la sicurezza delle informazioni. Alla luce dell’AI Act, è fondamentale andare oltre la semplice compliance formale al GDPR: con l’uso dell'intelligenza artificiale in azienda, vanno comunque rispettate le norme sulla sicurezza delle reti e dei sistemi informativi, adottando misure tecniche e organizzative per prevenire la perdita dei dati sensibili. A titolo esemplificativo possiamo ricorrere alla cifratura dei dati, soprattutto per quelli riservati, la limitazione dell'accesso solo al personale autorizzato, la formazione mirata alla sensibilizzazione sulle pratiche di sicurezza, l’impiego di firewall e antivirus.
3. Rischio cybercrime
L’AI può diventare uno strumento potente in mano al cybercrime che può impiegarla nella creazione di algoritmi malevoli in grado di potenziare la capacità degli attaccanti di sfuggire ai sistemi di rilevazione tradizionale. Integrare intelligenza artificiale e cyber security può, d’altra parte, rafforzare la difesa contro i potenziali attacchi alla sicurezza: è il caso degli algoritmi di detection AI-Based indispensabili non solo per individuare anomalie all’interno dei dati raccolti ma anche per monitorare l’installazione di software scaricati da Internet, per riconoscere le criticità all’interno dei sistemi, per individuare tempestivamente gli attacchi e agire in modo proattivo.
Fonti consultate: