La Commissione europea ha presentato una bozza del primo documento al mondo che mira a regolare l’intelligenza artificiale. L’obiettivo è quello di tutelare i cittadini e fornire loro dei valori comuni in base ai quali valutare l’uso di questa tecnologia, ma anche quello di dare misure che favoriscano lo sviluppo di startup e sistemi di intelligenza artificiale.
Come racconta il Corriere della Sera, nella bozza sono evidenziati quattro gruppi di rischio legati alle applicazioni di intelligenza artificiale: inaccettabile, alto, limitato e minimo. Con minimo si fa riferimento ai filtri anti-spam, con limitato si parla di sistemi come i chatbot, a cui prestare maggiore attenzione.
I due gradi più pericolosi sono quelli “inaccettabile” e “alto”. Con questi si intendono le applicazioni che possono influenzare i comportamenti delle persone, come per esempio gli algoritmi che calcolano se una persona può ottenere un prestito o le tecnologie che muovono le auto a guida autonoma.
Questi sistemi, considerati ad alto rischio, dovranno rispettare alcune regole precise: l’uso di dati di alta qualità per l’addestramento dell’algoritmo, presentare una documentazione che ne spieghi con precisione il funzionamento, spiegare con trasparenza quali contenuti generano. I sistemi saranno tutti catalogati in un database e se gli obblighi non dovessero essere rispettati, sono previste sanzioni fino al 6% del fatturato annuo.
La Commissione Ue si è poi concentrata sui sistemi di tracciamento e riconoscimento biometrico: alcuni sono proibiti, come quelli di sorveglianza di massa che possono essere usati per scopi discriminatori, mentre altri potranno essere usati, come il riconoscimento facciale nei luoghi pubblici che potrà essere sfruttato dalla polizia, previa procedura di autorizzazione da parte della magistratura.