L’importanza di una policy aziendale sull’uso dei sistemi di intelligenza artificiale
L'utilizzo - sempre più diffuso - di tecnologie e sistemi di intelligenza artificiale (IA) nell’operatività quotidiana delle aziende rende necessaria l’adozione da parte delle Società di specifiche linee guida relative all’utilizzo di detti sistemi al fine di fornire a tutti i dipendenti e collaboratori le opportune indicazioni e istruzioni di modo che gli stessi ne comprendano le potenzialità, astenendosi da utilizzi impropri.
Nel prosieguo cercheremo dunque di individuare quali sono i principali elementi che, anche alla luce dei principi sanciti dal Regolamento europeo sull'intelligenza artificiale (1689/2024), è importante prendere in considerazione laddove si intenda redigere una Policy aziendale sull'uso dell'intelligenza artificiale completa ed esaustiva.
- Tutela dei dati personali e delle informazioni aziendali riservate
Il funzionamento dei sistemi di IA si basa su algoritmi in grado di elaborare un’enorme quantità di dati che consentono ai sistemi stessi di apprendere e migliorare le proprie prestazioni.
La vastità di dati raccolti aumenta il rischio di violazioni della normativa vigente in materia di protezione dei dati personali. Pertanto, in un’ottica di accountability, è importante che ogni Società, in qualità di titolare del trattamento dei dati personali dei propri stakeholders, stabilisca chiaramente quali tipologie di dati personali possono essere trattati attraverso i sistemi di IA, limitando o vietando, ove necessario, la condivisione degli stessi.
Le medesime considerazioni devono essere svolte anche con riferimento a quei dati che, ancorché non qualificabili come personali, le aziende hanno interesse a mantenere riservati (si pensi, a mero titolo esemplificativo, alle informazioni relative al know-how aziendale). Sotto tale profilo, potrebbe dunque essere utile inserire nella policy sull’IA una clausola che vieti e/o limiti la condivisione, attraverso l'uso di sistemi di intelligenza artificiale, di qualsivoglia informazione di natura confidenziale di cui si sia venuti a conoscenza durante l’esecuzione del rapporto di lavoro e che non sia già di pubblico dominio.
- Controllo della qualità degli output
Gli output generati dai sistemi di IA possono contenere bias, discriminazioni e/o informazioni errate, imprecise o comunque non corrette, potenzialmente in grado - laddove utilizzati acriticamente in ambito lavorativo senza previe verifiche circa la loro attendibilità, adeguatezza e utilizzabilità - di arrecare un pregiudizio e/o danno alla Società. Per tale ragione, una Policy sull'IA dovrebbe prevedere l'obbligo di valutare la qualità degli output e di verificare la loro accuratezza e conformità al codice etico aziendale.
- Protezione della proprietà intellettuale e del diritto d'autore
I sistemi di IA sono addestrati con una vasta gamma di dati che possono includere informazioni e/o contenuti protetti da diritti di proprietà intellettuale e/o diritti d'autore di terzi. Il principale rischio è dunque che tali informazioni vengano riprodotte negli output senza alcun riferimento alla fonte e/o autore, esponendo l'azienda al rischio di richieste risarcitorie. Per scongiurare tali rischi, è bene che la Policy sull'IA includa l'obbligo di verificare che gli output non violino diritti di terze parti.
- Formazione del personale
Le tecnologie dell’IA sono in costante e rapida evoluzione. È quindi indispensabile che le aziende investano nella formazione continua dei dipendenti, per garantire un utilizzo etico e consapevole dei sistemi di IA nel rispetto delle procedure aziendali e della normativa vigente.