Varato l’AI Act: le regole intelligenti della Ue

L’Europa ha varato ieri l’AI Act: le prime regole al mondo create per governare l’intelligenza artificiale. Almeno un paio di miti vanno sfatati. Miti che troppo spesso vengono usati come alibi per non agire. Il primo è che l’Europa sia capace di fare solo regole. Il secondo è che bastino delle norme per riuscire a far nascere start up e imprese capaci di competere nel mondo dell’hi-tech. Cullarci ancora in queste illusioni rischia solo di farci perdere occasioni. Intanto a chiedere regole sono stati i nuovi protagonisti dell’intelligenza artificiale, da Sam Altman creatore di Open Ai, madre di Chat GPT, passando per Elon Musk. Indicandone peraltro i pericoli. L’esperienza di Internet brucia ancora. Non essere intervenuti con delle norme ha fatto sì che oggi il mercato del web sia dominato da pochi grandi big. È invece proprio grazie a questa nuova cornice legislativa che si individua un campo di gioco dove la competizione potrà essere onesta, leale ed equa. Magari agevolando la nascita di nuovi protagonisti. A differenza del far west digitale al quale abbiamo assistito.

Un’esigenza sentita non solo in Europa. Negli Stati Uniti, a ottobre, Joe Biden ha emesso un ordine esecutivo sull’AI. Persino in Cina il presidente cinese Xi Jinping ha proposto il suo «Global AI Governance Initiative». E nel frattempo altre autorità hanno varato misure ad interim su l’AI applicata a testi, foto, audio e video destinate ai cittadini cinesi. La differenza tra Usa, Cina e Unione europea sta nel fatto che nelle 100 pagine e 20 mila parole dell’atto di Biden si dice che gli attori dell’AI hanno il dovere di informare l’amministrazione. Ma nessun obbligo. Quella europea è invece una legge che arriva a prevedere sanzioni pesanti per chi non la rispetta.

L’Europa è l’area economica di mercato libero più grande al mondo. Maggiore anche di Stati Uniti e Cina. Ha una sorta di responsabilità nel guidare i mercati. E non è un caso che i precedenti regolamenti sul mondo digitale da quello sulla privacy (GDPR), a quelli sulla salvaguardia dei diritti dei cittadini nei confronti dei big del web (DSA e DMA), siano stati studiati e persino utilizzati anche fuori dall’Unione.

È vero, le regole possono apparire fastidiose. Ma garantiscono il rispetto dei principi. Non piace a nessuno ogni volta che si apre un sito dover rispondere alle domande poste dalle piattaforme. Ed è ormai chiaro che spesso le continue richieste di liberatoria siano una sorta di ritorsione dei giganti della tecnologia sui consumatori. Giganti che hanno usato i nostri dati per fare profitti e che oggi grazie anche il GDPR sulla privacy si sono trovati a render conto dell’uso che ne fanno.

Alla base dell’AI Act c’è un principio cardine: le regole diventano più stringenti man mano che aumenta il rischio legato all’uso della tecnologia. Un conto è utilizzare l’AI per scegliere un ristorante o il volo più economico. Un altro è usarla in medicina per analizzare radiografie o esami; o per un’auto a guida autonoma che può mettere a rischio la vita delle persone. Da qui il divieto di applicarla come tecnica manipolativa, subliminale o per il “social scoring” (voti ai cittadini a scopo sanzionatorio).

Ma fatte le regole, stabilito il campo di gioco, ora servono i giocatori. Lo scorso 21 gennaio si è capito che l’Europa voleva davvero entrare in partita. La Commissione ha presentato GENAI4EU. Un pacchetto di misure capaci di aggregare 4 miliardi di investimenti. Non finanziamenti a pioggia ma uno scopo dichiarato: fare in modo che nascano e si sviluppino start up e imprese nel settore.

Non solo. È stata installata l’infrastruttura che sta già permettendo a molte aziende, anche italiane, di offrire intelligenza artificiale di nuova generazione. Negli anni scorsi l’Europa ha creato una rete continentale di supercomputer: tre di quelli più veloci al mondo sono sul nostro Continente. E altri 5 sono in arrivo. Rete che garantisce quella capacità di calcolo necessaria per creare, testare e addestrare i programmi che sono alla base dell’intelligenza artificiale. Un ambiente tecnologico fatto di dati e velocità di calcolo dei quali i grandi della tecnologia dispongono. Ma che usano per loro scopi privati, per loro profitto.

È qui il passaggio fondamentale. Il finlandese Lumi, lo spagnolo Mare Nostrum e l’italiano Leonardo che è a Bologna formano una rete di supercomputer pubblica e aperta a start up come alle grandi aziende europee che possono usarla per sviluppare intelligenza artificiale.

Un ambiente tecnologico costato circa 8 miliardi e costruito secondo i principi europei. A partire dalla difesa dei diritti dei cittadini e di tutte le componenti della nostra società. Un esempio per tutti: i dati aggregati non sono stati pescati sul web «a strascico» copiando qui e là o carpendo informazioni senza il consenso come è accaduto anche per alcuni dei più celebri programmi di intelligenza artificiale. Ma rispettando il copyright.

Le regole ci sono, l’infrastruttura anche. La palla passa al governo e alle imprese.

Iscriviti alle newsletter di L'Economia

Le idee di Ferruccio de Bortoli e Daniele Manca
I fatti e le persone letti attraverso la lente dell'economia.

E non dimenticare le newsletter
L'Economia Opinioni e L'Economia Ore 18

13 marzo 2024 ( modifica il 19 marzo 2024 | 09:20)

Editoriali e commenti di oggi
desc img
di Danilo Taino
desc img
di Gian Antonio Stella
desc img
di Sara Gandolfi
desc img
di Gian Antonio Stella

Cambiare la storia per Matteotti?

desc img
di Angelo Panebianco

Premierato, una riforma da cambiare