L’intelligenza artificiale occupa oramai uno spazio nella quotidianità di molte persone, nell’ambiente scolastico, universitario, nella vita privata e nel lavoro. Abbiamo avuto modo di conoscerla in modo “ricreativo”, sperimentandone le caratteristiche ed intravedendone le potenzialità dalle prime versioni demo fino ad oggi, integrata nei browser ed utilizzata in molte attività professionali. La comodità e nota: si inseriscono le informazioni, si indicano gli obiettivi e l’AI (Artificial Intelligence) restituisce in output risultati che una mente umana riuscirebbe a processare, anche utilizzando i classici strumenti software, in molto più tempo. Il vantaggio, specie a livello professionale, è quindi l’efficienza: un collega che in modo rapido e veloce supporta la quotidianità e svolge le attività che noi non abbiamo tempo o voglia di fare. Il prezzo da pagare per tutto ciò è celato ma ovvio: i software di intelligenza artificiale processano i dati che noi forniamo, informazioni potenzialmente sensibili e che, nella quotidianità, forse non daremmo a qualcuno al di fuori dell’organizzazione o dell’ufficio. Ma dove finiscono queste informazioni? Chi ne può entrare in possesso e come possono essere utilizzate da terzi? Chi si occupa di controllare e normare questo flusso informativo, oramai sempre maggiore?
Nel caso di tecnologie che si evolvono rapidamente, processano e immagazzinano informazioni di persone e imprese, l’obiettivo del Legislatore è quello di garantire il rispetto dei diritti fondamentali della democrazia e del consumatore, garantendo la sicurezza dei dati forniti e limitandone il loro utilizzo. In linea con questi principi, il Consiglio europeo e l’Europarlamento sono giunti, qualche giorno fa, ad un accordo sul trattamento dell’intelligenza artificiale: l’AI-Act.
Si tratta di un insieme di regole sull’intelligenza artificiale e sul suo sviluppo, che hanno l’intento di proteggere i consumatori da possibili abusi legati all’utilizzo dell’AI e incentivano all’uso responsabile ed etico. Coniugando i due principi – quello di sicurezza e quello di stimolo all’innovazione – l’IC Act vuole posizionare l’Europa come leader mondiale nel campo dell’intelligenza artificiale. In questo senso, si tratta del primo tentativo a livello globale di creare un quadro giuridico completo sul tema con il dichiarato obiettivo di innovazione e sviluppo di settore.
Ecco alcuni dei principali temi concreti trattati nel nuovo regolamento.
Come detto, uno dei principali obiettivi è il supporto all’innovazione del settore in Europa: questo si traduce in sostegni e incentivi alle startup ed ai ricercatori europei con l’auspicio che, a loro volta, possano supportare le imprese nel processo di innovazione.
L’incentivo all’innovazione nelle imprese si traduce in misure specifiche per il supporto alle SME (Piccole e Medie imprese) che potranno usufruire di ambienti di test in cui sperimentare la tecnologia senza regole, simulando condizioni reali di utilizzo. Le PMI saranno supportate anche nell’adeguamento normativo, limitando così l’eccessiva pressione competitiva e le barriere all’entrata generate dai colossi del settore.
Oltre che leader globale, l’Europa aspira a diventare anche un modello normativo in tema di intelligenza artificiale, definendo, con una legislazione avanguardistica, uno standard globale per l’utilizzo dell’AI.
Particolare attenzione viene posta sugli utilizzi non sostenibili e ad alto rischio: un aspetto importante sottolineato dall’AI Act è l’equilibrio tra progresso tecnologico, sostenibilità ambientale e tutela dello stato di diritto. Si vieta, inoltre, l’utilizzo di sistemi di AI che categorizzano le persone in base a convinzioni religiose, razziali o politiche – cercando di prevenire abusi o discriminazioni derivanti dall’identificazione biometrica delle persone.
Il riconoscimento facciale è, in generale per tutte le nuove tecnologie, un tema delicato dal punto di vista giuridico e di tutela dello stato di diritto: l’AI Act ne vieta l’utilizzo se applicato ad un database di immagini facciali raccolto da internet o da telecamere a circuito chiuso, così come è vietato il riconoscimento delle emozioni in luoghi di lavoro e istituzioni educative, la valutazione delle persone basata sui comportamenti o caratteristiche personali (“Social Scoring”) e l’uso di sistemi AI che sfruttano la vulnerabilità delle persone (età, disabilità, situazione economica). Tutto ciò ha lo scopo di prevenire la sorveglianza di massa, tutelare la privacy, proteggere la dignità e libertà emotiva degli individui e proteggere i consumatori da tecniche manipolative e potenziali abusi.
Ciò che emerge dall’introduzione dell’AI Act è una volontà effettiva, da parte dell’Unione Europea, di proporsi a livello mondiale come leader normativo e tecnologico nella gestione e nell’utilizzo dell’intelligenza artificiale. Di positivo c’è che sempre più a livello europeo il progresso giuridico e normativo tiene il passo delle nuove conquiste tecnologiche seppur queste, per loro natura, evolvono molto rapidamente ed in modo continuo. Conquiste normative come l’AI Act denotano una positiva consapevolezza politica e collettiva circa le enormi potenzialità degli strumenti tecnologici e di intelligenza artificiale, riguardo la crescita e lo stimolo all’innovazione, così come sull’importanza di guidare tali innovazioni verso un futuro socialmente sostenibile.
Leonardo Pietro Cervesato – Redattore Lexacivis