Dato l’interesse per l’Intelligenza Artificiale (IA) riportiamo una nota della Filctem CGIL in relazione alla recente approvazione del Regolamento Europeo IA Act
Arriva la prima regolamentazione dell’intelligenza artificiale. Permangono punti oscuri, soprattutto servirebbe una normativa specifica sul mondo del lavoro
L’IA Act, ossia la proposta di Regolamento europeo che mira a introdurre un quadro comune normativo e giuridico per l’intelligenza artificiale, arriva all’approvazione il 9 dicembre dopo due anni di confronto serrato, nonostante sia ancora in corso di definizione il lato tecnico del testo, che sarà votato dagli organismi europei.
È bene ricordare che la CGIL durante le fasi di negoziazione, insieme alla Ces, ha espresso su questo tema la richiesta di un divieto assoluto, e che le ong e la stessa Amnesty International, a valle della recente approvazione, considerano grave questa possibilità; si veda la dichiarazione di Mher Hakobyan, consulente per l’IA di Amnesty International, che sostiene che “non garantire un divieto totale sul riconoscimento facciale rappresenta una mancata opportunità di fermare e prevenire danni colossali ai diritti umani, agli spazi pubblici e allo stato di diritto, già minacciati in tutta l’Unione Europea”.
Parimenti grave è che siano sì state previste restrizioni riguardanti il divieto delriconoscimento delle emozioni sul luogo di lavoro e nelle scuole, ma con l’avvertenza che, ricorrendone i presupposti, potrebbe essere consentito per giustificati (da chi e per cosa?) motivi di sicurezza. In generale, la sola idea che si possano rilevare e processare le emozioni in qualunque ambito della vita delle persone pare aberrante.
In generale, si è mantenuta la previsione di un approccio basato sul rischio: inaccettabile, ossia vietato, come il social scoring; ad alto rischio, con una regolamentazione molto restrittiva; a rischio minimo, in cui basteranno codici di autoregolamentazione e a rischio di carenza informativa che obbliga a informare il consumatore. Si prevede anche la creazione di un IA Office centralizzato per supervisionare i modelli più avanzati.
Possiamo ritenerci soddisfatti come sindacato? Seppur convinti che l’Unione Europea stia, unica al mondo, provando a regolamentare le nuove tecnologie e a mantenere centrali le libertà individuali, manca però un elemento fondamentale.
Nulla infatti è previsto nell’IA Act che preveda una regolamentazione specifica per l’utilizzo in ambito lavorativo, mancando la previsione di un ruolo specifico delle organizzazioni sindacali dinanzi all’applicazione di strumenti di intelligenza artificiale. Di certo non basta la sola previsione, contenuta nell’atto, relativa all’obbligo di informazione del lavoratore sottoposto a sistemi di IA. Eppure è sul mondo del lavoro che fortemente impatterà l’applicazione di queste tecnologie.
Ma il sindacato ha una lunga storia di normazioni nate dalle proprie battaglie. Allora, nelle more di una definizione specifica che riguardi l’utilizzo dell’IA nel mondo del lavoro, su cui il sindacato italiano ed europeo dovrà continuare la propria battaglia, è necessario utilizzare tutti gli strumenti che già abbiamo (Gdpr, decreto trasparenza, norme contrattuali sui diritti di informazione preventiva) per poter agire un ruolo specifico.
Il primo strumento che possiamo utilizzare è chiedere alle imprese il rispetto dell’art. 1 bis del decreto legislativo 152/97, introdotto con d.lgs 104:2022, in tema di obblighi di informazione del datore di lavoro sull’utilizzo di strumenti automatizzati. Questo ci consente di conoscere i sistemi in uso e, in relazione alla classificazione basata sul rischio degli strumenti di IA, controllarne la corretta applicazione prevista per ciascun livello. La Filctem Cgil nazionale ha già dato indicazioni a Rsu e strutture territoriali di chiedere l’informativa prevista dall’art. 1 bis.
In questo senso anche il rafforzamento degli obblighi di informazione previsti nella prima parte dei ccnl è ormai ineludibile, divenendo indispensabile una forte integrazione tra diritto del lavoro e legislazione sui sistemi di Intelligenza artificiale. Anche in questo ambito la Filctem Cgil, unitamente a Femca Cisl e Uiltec Uil, ha iniziato a inserire un rafforzamento di questi obblighi a carico del datore di lavoro nelle nuove piattaforme di rinnovo contrattuale.
Tutto questo per consentirci di avere sia specifica contezza dei sistemi che impattano sulle varie attività e sul loro livello di rischio sia per poter agire la verifica del rispetto delle norme cogenti indicate, ad esempio, per i sistemi considerati ad alto rischio.
Tra i sistemi ad alto rischio troviamo ad esempio alcune “infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità”: è del tutto evidente che, in questo caso, Rsu e Filctem Cgil dovranno essere a conoscenza di ogni sistema applicato e del rispetto delle regole previste in capo al produttore per le tecnologie in oggetto, nonché verificare il rispetto dell’obbligo, per chi impiega questi sistemi di IA, di condurre una valutazione d’impatto sui diritti fondamentali prima di metterli in uso.
Preoccupa poi che l’IA Act si concentri molto, correttamente, sui sistemi di intelligenza artificiale ad alto rischio, lasciando però sostanzialmente non regolamentati altri rischi come quelli, ad esempio, dei “giocattoli intelligenti”, altro elemento che interessa la Filctem in relazione questa volta al prodotto e alla sua realizzazione, ma che interessa anche la società intera per il delicatissimo tema che attiene agli strumenti utilizzati da bambini e bambine. Medesimo ragionamento per gli assistenti virtuali: Amazon non a caso sta sviluppando una versione avanzata di Alexa che si interfaccerà anche con i bambini per raccontare storie.
Secondo le affermazioni riportate dalla stampa di Katriina Heljakka, ricercatrice dell’Università di Turku in Finlandia, che studia l’evoluzione dei giocattoli e il loro ruolo nella società contemporanea, “quando si inizia a comprendere la tecnologia dietro i ‘giocattoli intelligenti’ si scopre che questa non è affatto innocente”: proprio per questo motivo sarebbe stata necessaria una diversa qualificazione nell’IA Act di queste applicazioni. Del resto basta ricordare che proprio Amazon nel 2023 è stata sottoposta a un’inchiesta negli Stati Uniti da parte della Federal trade commission (Ftc) per aver raccolto i dati dei bambini senza il consenso dei genitori attraverso Alexa, violando le leggi statunitensi.
Dunque, pur consapevoli che questa sia la prima norma nel pianeta che prova a regolare il complesso mondo dell’intelligenza artificiale, vi sono ancora punti oscuri e un’incolmabile lacuna che attiene alla necessità di una normativa specifica che riguardi il mondo del lavoro.
Nel frattempo, come sindacato dobbiamo nei nostri ambiti agire tutte le possibilità che ci fornisce il combinato disposto delle leggi vigenti e dei Regolamenti europei per raccogliere dati, coinvolgere lavoratrici e lavoratori, fare formazione e informazione, rivendicando il ruolo centrale del sindacato in una rivoluzione tecnologica così accelerata e non priva di incognite.
Cinzia Maiolini è segretaria nazionale Filctem Cgil
Related news: Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI
EU AI Act: first regulation on artificial intelligence
Come l’Intelligenza Artificiale può creare un set di dati falsi ma credibili nella ricerca medica
L’intelligenza artificiale cambierà il mondo dei farmaci?
L’intelligenza artificiale nell’informazione scientifica
Ologrammi e realtà virtuale nella formazione medica, è il futuro?