La politica mondiale continua a faticare nell’affrontare la questione dell’intelligenza artificiale, pur essendo evidente il crescente impatto di questa tecnologia sulla società. Negli Stati Uniti, sia i Democratici che i Repubblicani non sono riusciti a sviluppare un approccio chiaro e coordinato. Sebbene ci siano stati tentativi, come il “guardrail” proposto da Chuck Schumer (membro del Partito Democratico, attualmente Senatore dello stato di New York) per regolamentare l’AI, i piani rimangono vaghi e poco definiti. La paura che regolamentazioni troppo rigide possano frenare l’innovazione contribuisce a una risposta incerta e frammentata da parte del governo americano.
Il recente dibattito televisivo tra Kamala Harris e Donald Trump ha ulteriormente messo in luce queste difficoltà. Soltanto la Harris ha brevemente menzionato un’unica volta l’intelligenza artificiale, criticando Trump per aver venduto chip americani alla Cina, rafforzando così l’esercito cinese. La candidata democratica ha sottolineato che la politica statunitense dovrebbe concentrarsi su obiettivi strategici, come la corsa all’AI e al quantum computing, per vincere la competizione globale del 21° secolo. Tuttavia, la brevità del suo riferimento evidenzia come il tema dell’intelligenza artificiale rimanga marginale nel dibattito politico americano, mancando una visione chiara e a lungo termine.
In Europa, invece, l’Unione Europea ha adottato un approccio più strutturato, proponendo normative come l’AI Act. Tuttavia, queste iniziative sono state criticate per il timore che una regolamentazione troppo rigida possa soffocare l’innovazione in un continente già in ritardo rispetto agli Stati Uniti. Figure come il ministro irlandese Simon Coveney hanno avvertito che l’Europa rischia di “andare troppo oltre, troppo presto”, frenando così uno sviluppo essenziale per la competitività globale. Lo stesso Draghi ha evidenziato, nel proprio rapporto sulla competitività europea, la mancanza di una strategia in questo ambito cruciale per il futuro del continente.
A complicare ulteriormente il panorama è l’approccio anarchico di figure come Elon Musk, che continua a promuovere lo sviluppo dell’AI senza una vera supervisione governativa, pur chiedendo a gran voce una qualche forma di regolamentazione. Musk stesso ha partecipato a forum con legislatori negli Stati Uniti, suggerendo la creazione di un “arbitro” per l’AI, ma le sue proposte, come quelle di molti altri leader tecnologici, rimangono generiche e senza dettagli concreti su come procedere.
In Italia il tema dell’intelligenza artificiale è quasi del tutto assente dal dibattito politico. Né il governo, né l’opposizione, sembrano voler prendere sul serio le implicazioni economiche e sociali dell’AI e il documento “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” pubblicato dall’Agenzia per l’Italia Digitale (AgID) che pur contiene spunti interessanti.
Perché la politica sembra così apatica e in difficoltà nell’affrontare la questione dell’intelligenza artificiale? Vediamo alcune possibili motivazioni:
1. La complessità tecnica dell’AI
L’intelligenza artificiale è un campo molto complesso, che richiede una profonda comprensione di tecnologie avanzate. Molti legislatori, anche in paesi tecnologicamente avanzati, non hanno la preparazione necessaria per gestire le implicazioni di tale innovazione. La complessità tecnica, quindi, genera incertezza e rende difficile l’elaborazione di regolamenti efficaci.
2. La rapidità dell’innovazione tecnologica
La velocità con cui l’AI sta evolvendo è sconcertante per i processi politici, che tendono a essere più lenti e burocratici. La politica non riesce a stare al passo con l’innovazione e spesso rimane indietro, lasciando che le decisioni siano prese a posteriori, piuttosto che proattivamente.
3. Timore di soffocare l’innovazione
In un’epoca in cui l’intelligenza artificiale è vista come un motore di sviluppo economico, i governi sono preoccupati che una regolamentazione troppo severa possa frenare gli investimenti e l’innovazione. Le imprese tecnologiche fanno pressioni per mantenere un quadro normativo flessibile, portando a un atteggiamento prudente nei confronti delle regole che potrebbero limitare la crescita del settore.
4. Pressione degli interessi economici
Le grandi aziende tecnologiche, in particolare quelle coinvolte nell’intelligenza artificiale, hanno una forte influenza sul processo decisionale politico. Attraverso lobby potenti, queste imprese riescono spesso a bloccare regolamenti stringenti, promuovendo un clima di deregolamentazione. La politica, dunque, si trova a dover mediare tra gli interessi economici e la necessità di tutelare i cittadini.
5. Paura delle conseguenze sociali
L’intelligenza artificiale porta con sé il timore di grandi sconvolgimenti sociali, tra cui la disoccupazione tecnologica, la manipolazione dei dati e l’uso militare dell’AI. I politici, preoccupati per il consenso elettorale, preferiscono evitare decisioni difficili su questi temi, rimandando il dibattito o affrontandolo solo superficialmente.
6. Mancanza di consenso internazionale
L’intelligenza artificiale è una sfida globale, ma non esiste un consenso su come dovrebbe essere regolamentata a livello internazionale. Ogni Paese segue i propri interessi e strategie, rendendo difficile un approccio coordinato e uniforme alla regolamentazione. Questo crea un contesto frammentato in cui i Paesi faticano a collaborare su standard condivisi.
7. La visione a breve termine della politica
La politica, influenzata dai cicli elettorali, tende a concentrarsi su questioni immediate e urgenti, trascurando sfide più complesse e a lungo termine come l’intelligenza artificiale. Questo orientamento a breve termine porta a un’assenza di strategie lungimiranti per affrontare l’AI, che richiede una pianificazione e un impegno a lungo termine.
8. Assenza di leadership forte sul tema
Nonostante l’importanza dell’intelligenza artificiale, nessun grande leader politico ha ancora preso in mano il tema come una priorità assoluta. Questo contribuisce a mantenere l’AI ai margini del dibattito politico, lasciandola spesso trattata in modo superficiale.
9. Il ruolo della Cina: una competizione deregolamentata con gli Stati Uniti
Un altro fattore determinante è la competizione tra Stati Uniti e Cina, due delle principali potenze tecnologiche. La Cina adotta un approccio molto diverso rispetto agli Stati Uniti. Essendo priva di strumenti democratici di controllo, il governo cinese può imporre decisioni strategiche senza alcun dibattito pubblico o resistenza interna. Questo consente uno sviluppo dell’intelligenza artificiale che si muove velocemente e con poche regolamentazioni, permettendo alla Cina di accelerare l’innovazione, soprattutto in settori sensibili come la sorveglianza e l’AI militare.
Gli Stati Uniti, al contrario, devono fare i conti con il proprio sistema democratico, che impone trasparenza, dibattiti pubblici e controlli istituzionali sulle decisioni governative. Questo rallenta inevitabilmente i processi decisionali, ma garantisce un maggiore controllo sugli sviluppi tecnologici e sui diritti dei cittadini. Tuttavia, la pressione derivante dal rapido sviluppo dell’AI in Cina spinge gli Stati Uniti a evitare regolamentazioni stringenti per non restare indietro nella corsa globale all’innovazione. Questa competizione porta quindi a un contesto di sviluppo in cui la priorità è mantenere il vantaggio tecnologico rispetto alla Cina, anche a scapito di una regolamentazione più attenta e sicura.
Come devono comportarsi i cittadini con strumenti tanto potenti come le AI generative (persino gratuiti) e un sistema legislativo non completo o del tutto assente?
Con l’avvento dell’intelligenza artificiale, e in particolare dei modelli generativi, i cittadini si trovano ad avere a disposizione strumenti straordinariamente potenti, spesso accessibili gratuitamente e in grado di influenzare profondamente diversi ambiti della vita quotidiana. Tuttavia, in un contesto in cui il quadro legislativo è incompleto o del tutto assente, l’uso di queste tecnologie pone nuove responsabilità.
È fondamentale che i cittadini adottino un approccio razionale e consapevole verso l’intelligenza artificiale. Questo significa, innanzitutto, evitare pregiudizi o paure immotivate che possono derivare dalla scarsa comprensione della tecnologia determinata anche da una stampa, sia generalista, sia specializzata, che per i propri interessi opera una continua e spietata disinformazione. L’AI dovrebbe essere vista come uno strumento costruttivo e creativo, capace di migliorare la vita delle persone in molti modi, dal lavoro alla cultura, dalla scienza alla comunicazione. Utilizzare l’AI con una mentalità aperta e innovativa è essenziale per sfruttarne tutto il potenziale positivo.
Allo stesso tempo, è indispensabile che l’uso di questi strumenti avvenga nel rispetto delle leggi già esistenti. Sebbene il quadro normativo specifico per l’AI sia ancora in evoluzione, ci sono già principi giuridici consolidati, come quelli legati alla privacy e alla sicurezza che devono essere osservati. L’aggiunta continua di nuove leggi e regolamentazioni potrebbe non essere la soluzione ideale. Invece di sovraccaricare il sistema normativo con regole su regole, è più utile un approccio che favorisca l’applicazione delle leggi già presenti, adattandole in modo flessibile alle nuove sfide poste dall’AI.
I cittadini devono semplicemente comportarsi in maniera responsabile e costruttiva, sfruttando i vantaggi dell’intelligenza artificiale senza perdere di vista i principi etici e giuridici già esistenti. Questo approccio, basato su consapevolezza, creatività e rispetto delle regole, consentirà di creare un equilibrio tra innovazione e sicurezza, senza la necessità di un’eccessiva burocrazia normativa che potrebbe soffocare lo sviluppo tecnologico.