Un punto focale del dibattito è la questione dei “foundation models”. Questi modelli di AI, che gestiscono enormi quantità di dati (pensiamo a sistemi avanzati come GPT-4), sono sottoposti a una regolamentazione a due livelli. Per i modelli ad alto impatto, è richiesta una valutazione preventiva da parte degli sviluppatori, che devono garantire sicurezza informatica e trasparenza prima che il prodotto possa entrare nel mercato. Per quelli meno impattanti, si richiede comunque una certa trasparenza quando si presentano al mercato europeo.
L’Act affronta anche la delicata questione del riconoscimento biometrico. Il suo uso è permesso solo in circostanze specifiche e per fini nobili, come la ricerca di vittime di crimini gravi. Allo stesso tempo, vieta categoricamente sistemi che possano utilizzare dati biometrici sensibili, come le convinzioni politiche o religiose, per scopi discutibili. Gli sviluppatori di sistemi AI ad alto rischio devono rispettare una serie di obblighi, dalla valutazione accurata del modello alla mitigazione dei rischi sistemici. L’obiettivo è chiaro: garantire che l’innovazione tecnologica proceda di pari passo con la salvaguardia dei diritti umani e della sicurezza.
In sintesi, l’Artificial Intelligence Act rappresenta un passo avanti significativo nella regolamentazione dell’intelligenza artificiale. Fornisce un equilibrio tra il promuovere l’innovazione tecnologica e il proteggere i diritti fondamentali delle persone, orientando il futuro dell’AI verso un percorso responsabile e sicuro. Che poi venga rispettato e in qualche modo possa influenzare chi sviluppa i modelli AI, oggettivamente libero di muoversi dove e quando vuole, è ben altra faccenda.