16 marzo 2024

L’Unione Europea e l'Intelligenza Artificiale: tra regole (tardive?) e grandi paure

Il Parlamento Europeo ha finalmente approvato la Legge sulla Intelligenza Artificiale, che di fatto va a delineare i perimetri leciti di operatività di queste nuove tecnologie. Tradotto in italiano corrente significa che l'Europa ha messo fuori legge una serie di tipologie di IA considerate tropo pericolose per la privacy, la sfera intima, il condizionamento psicologico e la presunzione di innocenza di ogni privato cittadino.

Ovviamente non manca una lunga serie di prescrizioni volte a garantire la trasparenza sulle tecnologie utilizzate, ma del resto ormai tra gli uffici pubblici che devono essere “case di vetro” e gli uomini sottoposti ad analisi della IA che saranno “uomini di vetro” diventeremo talmente “trasparenti” da rischiare di sparire del tutto. E in effetti che la IA  sia l'inizio della fine del genere umano lo ha ipotizzato già 40 anni fa James Cameron con il suo Teminator, che ha fatto la fortuna sua e di Schwarzenegger ma speriamo non la sfortuna di tutti noi: un futuro non molto lontano in cui le macchine prendono il sopravvento e cercano di distruggere l'uomo.  Ma accadrà veramente ?

Nessuno lo può dire ed ammetto che anche chi scrive prova sensazioni contrastanti e non nasconde i propri timori.

Certo è che la maggior parte dei timori attuali del Legislatore europeo in realtà a me paiono più che altro rincorrere una evoluzione un po’ più raffinata e rapida di quanto accade già. Internet ad esempio era in uso all'interno del Pentagono già negli anni 70, ma è sbarcato in blocco nelle nostre vite alla fine degli anni 90 modificandole radicalmente, nel bene e nel male, e con le IA succederà la stessa cosa.

La IA sarà in grado di orientare scelte di consumo e perfino politiche dei cittadini: ma perché la TV prima e Internet poi che hanno fatto negli ultimi 50 anni?

La IA violera’ la nostra privacy perché sarà in grado di trascrivere i nostri pensieri rendendoli pubblici, e perfino di spiattellare a tutti le nostre inclinazioni sessuali soltanto osservando volti e movimenti. Mi pare che non sia poi così distante da quanto hanno fatto i Social e le varie App di incontri negli ultimi 10 anni…

La IA sarà in grado di prevedere la nostra inclinazione a compiere reati e delitti sulla base dei nostri dati biometrici, e cioè studiando i nostri volti. Ve lo ricordate Cesare Lombroso, il medico e antropologo che alla fine dell '800 a Torino raccolse una infinità di reperti anatomici volti a dimostrare che sulla base delle fattezze fisiche si poteva stabilire il livello di pericolosità dei criminali…? Lombroso è stato demonizzato in ogni modo dal pensiero dominante contemporaneo ipergarantista, ed ecco che improvvisamente l'evoluzione tecnologica più avanzata sembra dirci esattamente la stessa cosa…

Sto ovviamente banalizzando e ironizzando su questioni estremamente complesse, ma suscita in me un misto di ironica preoccupazione il fatto che tutti i Legslatori mondiali cerchino di arginare una valanga con dei paletti: si mette nero su bianco che alcune IA sono estremamente pericolose e ci si limita a vietarne l'uso pubblico. Un po’ come dire che siccome la droga fa male non la legalizzo però la spacciano per strada perché la gente la droga la usa…Non era meglio intervenire 10 anni fa e impedire che questo tipo di IA  venisse concepito e realizzato ? Era probabilmente impossible vietare, ma avremmo avuto certezza che il Legislatore è soprattutto la Politica sapevano cosa stava accadendo... Invece ci appare ahinoi sempre più evidente la impossibilità delle norme di stare al passo della tecnologia: essa corre rapida nel sottosuolo dei laboratori spinta da economie private avide di guadagni, mentre la legislazione langue nelle lunghe ritualita’ delle stanche democrazie occidentali, che non possono che prendere atto davanti al fatto compiuto, ammettere che c'è un pericolo e cercare di arginarlo mettendo fuori legge alcune sue declinazioni. A me sinceramente pare molto poco: molti leaders europei hanno dichiarato che questa legislazione è soltanto l'inizio, ma pare evidente che la IA sia già ben oltre la metà del cammino.

Le IA attualmente più diffuse sono dette “scacchiste” perché imparano a vincere una partita a scacchi giocando milioni di volte fino a quando non individuano le mosse della partita perfetta. Non ci arrivano incamerando  e analizzando tutte le partite a scacchi della Storia o tutti i libri articoli etc scritti sull'argomento. Queste ultime sono invece dette IA “cognitive”, sono meno diffuse ma più affidabili e saranno la prossima frontiera diffusa delle IA. Ovviamente in questo caso si pone il.tema delicatissimo di quali informazioni utilizza la IA e sopratutto da dove le prende, perché se c'è una cosa che abbiamo capito del.Web è che non è concepito per distinguere l'informazione falsa da quella vera, l'informazione di qualità da quella scarsamente attendibile.

I rischi connessi alle IA “scacchistiche” riguardano proprio il sistema chiuso che esse costruiscono basandosi su una raccolta statistica e quantitativa delle informazioni, e non qualitativa e cognitiva: ecco che allora per esempio rischiamo di essere “isolati” dal punto di vista delle informazioni che ci raggiungono: se dimostro di avere inclinazioni politiche di Destra (o di Sinistra) la IA progressivamente mi fornirà informazioni e punti di vista sempre più selezionati sulla base del mio orientamento, limitando progressivamente ma inesorabilmente la mia lucidità di giudizio. Ecco dove a mio avviso sta il vero grande rischio nonché la grande contraddizione di una strumento che paradossalmente si appoggia proprio su una base di conoscenze infinita come il Web. Tutto questo in realtà oggi già accade nell'orientamento al consumatore, laddove quotidianamente sui nostri smartphone noi siamo bombardati di suggerimenti di acquisto basati fondamentalmente su quanto tempo o quante volte guardiamo un certo tipo di merce, e progressivamente ci viene propinata sempre più frequentemente stessa attraverso pubblicità, cookies, immagini, link , e-mails e cosi via.

Verrebbe da pensare che basterebbe non utilizzare un computer o uno smartphone per essere salvi e liberi, ma in realtà un altro degli snodi centrali che il Legislatore deve affrontare è che le IA possono fare gran parte di queste cose semplicemente accedendo alle.telecamere sparse in giro per strade e luoghi pubblici, ed ecco che diviene centrale tutelare proprio l'accesso a questi dati ed il loro utilizzo.

Ma  basta la legge per fermare una valanga ..? No. Occorre educare fin dalle scuole all'utilizzo consapevole degli strumenti, cosa che non si è minimamente fatta con Internet. E occorre essere estremamente severi con chi questi strumenti lì gestisce, a dispetto di quanto fin ora è stato fatto con i giganti della rete che hanno operato in maniere totalmente libera e indiscrimanta profittando e approfittando  degli utenti in ogni modo. Ma forse tutto questo andava fatto dieci anni fa.

Non ci resta forse che attendere.

(La foto del professor Martelli è di Daniele Mascolo)

Sovrintendente agli Archivi del Comune di Milano

Docente di archivistica all'Università degli studi di Milano

Francesco Martelli


© RIPRODUZIONE RISERVATA




commenti