L’intelligenza artificiale (IA) si è già affermata, senza quasi farsi notare, in molti ambiti della nostra vita quotidiana. Al mattino, quando diamo un’occhiata al nostro smartphone prima ancora di pettinarci, l’IA sblocca il telefono utilizzando un software di riconoscimento facciale. Poi apriamo la nostra applicazione di posta elettronica, e grazie all’IA le e-mail pubblicitarie e di phishing indesiderate finiscono nella cartella dello spam. Quando andiamo al lavoro in macchina, l’IA inclusa nel sistema di navigazione ci avverte degli ingorghi e calcola i percorsi alternativi più rapidi. La sera, l’IA di Netflix ci suggerisce i film che potrebbero interessarci di più.
Un libro con sette sigilli
Il rapido aumento della potenza di calcolo dei computer negli ultimi decenni, l’enorme quantità di dati disponibili e lo sviluppo di forme di apprendimento automatico hanno portato l’intelligenza artificiale al punto in cui si trova oggi. Grazie all’IA è diventato possibile delegare a un computer compiti che prima potevano essere eseguiti solo da un essere umano. E questo fatto può cambiare notevolmente l’economia e la società. La traduzione automatica, le auto a guida autonoma, i chatbot o i software di riconoscimento delle immagini sono solo alcuni degli esempi possibili. Eppure per molte persone l’IA rimane un libro chiuso e incomprensibile: l’incertezza sul modo in cui l’IA prende una decisione, l’uso dell’IA per la sorveglianza di massa, la manipolazione delle campagne elettorali con l’aiuto dell’IA o la diffusione dei sistemi d’arma autonomi influiscono sulla fiducia che la società ripone in questa nuova tecnologia. Secondo uno studio commissionato dal WEF, il 60% degli adulti, in tutto il mondo, si aspetta che sul mercato arrivino prodotti e servizi che utilizzano l’intelligenza artificiale per semplificare la loro vita. Ma solo il 50% dichiara di fidarsi delle aziende che impiegano l’IA tanto quanto di quelle che non la utilizzano.
Che cosa si può fare per aumentare la fiducia nei sistemi che utilizzano l’IA?
I sistemi IA supportano gli esseri umani in molti settori, sono in fase di sviluppo in tutto il mondo e tuttavia sollevano interrogativi fondamentali di tipo etico, giuridico e di normazione. Perché la tecnologia non è neutrale rispetto ai valori. Gli sviluppatori introducono nelle applicazioni elementi propri della loro cultura e del loro ambiente sociale di partenza. A livello internazionale sono in corso molte discussioni su questo tema, regna però una certa confusione e i dibattiti restano limitati a determinati settori e sono scarsamente coordinati. Con la sua politica estera la Svizzera mira a promuovere lo scambio di opinioni tra i più importanti attori nel campo dell’IA. Facendo leva sulla sua Strategia di politica estera 2020–2023 il nostro Paese sta assumendo un ruolo attivo nella definizione di un quadro normativo internazionale per l’IA che contribuirà a creare un clima di fiducia intorno ai sistemi che usano l’intelligenza artificiale. Un insieme di norme internazionali è necessario per definire la cooperazione tra gli attori, assicurare una efficace distribuzione dei ruoli e regole chiare nell’applicazione dell’IA; lasciando comunque al settore privato il necessario margine di manovra per l’innovazione.
Il valore aggiunto della Svizzera nel dibattito internazionale
La Svizzera come polo di ricerca, sviluppo e innovazione nel campo dell’intelligenza artificiale è molto avanti rispetto agli standard internazionali. Numerose aziende attive a livello mondiale nei settori della tecnologia medica, della farmaceutica o dell’industria metalmeccanica delocalizzano la loro produzione all’estero, ma lasciano in Svizzera la fase di sviluppo dei prodotti e servizi che richiedono maggiore innovazione. In quanto Stato ospite, la Svizzera mette in relazione numerosi attori e organizzazioni che hanno sede nella Ginevra internazionale e che sono considerati «centri di potere normativo»: Stati, organizzazioni multilaterali o aziende private che svolgono un ruolo centrale nella definizione di norme e standard applicabili a livello globale ai sistemi che utilizzano l’IA.
Un altro attore ginevrino è la Fondazione GESDA (Geneva Science and Diplomacy Anticipator), il cui obiettivo è anticipare le rivoluzioni tecnologiche e scientifiche – tra cui quelle legate all’IA – e analizzare il loro impatto sull’umanità. Le discussioni internazionali sull’IA hanno una forte componente geopolitica. Grazie alla sua neutralità e alla sua stabilità politica, la Svizzera può offrire un valore aggiunto in questo ambito e contribuire alla ricerca di soluzioni di compromesso in qualità di mediatrice credibile.
Elaborazione di un quadro normativo internazionale
La conferenza di due giorni organizzata a Ginevra, «Artificial Intelligence with trust», riunisce esperte ed esperti oltre ai principali attori nel campo dell’IA e offre una piattaforma per uno scambio di opinioni sulle sfide più urgenti poste dall’intelligenza artificiale. Finora dal dibattito internazionale in corso sono emersi cinque livelli rilevanti per l’elaborazione di un quadro normativo internazionale sull’IA, che dovrebbero essere meglio connessi tra loro e che elenchiamo qui di seguito.