Inizio pagina

Hai fiducia nell’intelligenza artificiale?

Che si tratti di sistemi di navigazione per auto, chatbot o software di riconoscimento delle immagini, l’intelligenza artificiale (IA) sta cambiando radicalmente la società. Ciò che manca per ora è la fiducia, e la regolamentazione. La conferenza «AI with Trust» organizzata a Ginevra con la collaborazione del DFAE solleva proprio queste domande e offre una piattaforma per uno scambio di opinioni sulle sfide più urgenti poste dall’IA. La Svizzera può apportare un valore aggiunto a questo dibattito grazie alla sua posizione di Paese innovativo, alla sua credibilità e alla sua neutralità.

16.05.2022
Sullo schermo di uno smartphone si vede un’emoji con un’espressione dubbiosa.

Il potenziale dell’intelligenza artificiale è enorme. La Svizzera offre un valore aggiunto nel dibattito sulla fiducia nell’intelligenza artificiale e sulla sua regolamentazione. © Markus Winkler/Unsplash

L’intelligenza artificiale (IA) si è già affermata, senza quasi farsi notare, in molti ambiti della nostra vita quotidiana. Al mattino, quando diamo un’occhiata al nostro smartphone prima ancora di pettinarci, l’IA sblocca il telefono utilizzando un software di riconoscimento facciale. Poi apriamo la nostra applicazione di posta elettronica, e grazie all’IA le e-mail pubblicitarie e di phishing indesiderate finiscono nella cartella dello spam. Quando andiamo al lavoro in macchina, l’IA inclusa nel sistema di navigazione ci avverte degli ingorghi e calcola i percorsi alternativi più rapidi. La sera, l’IA di Netflix ci suggerisce i film che potrebbero interessarci di più.

Un libro con sette sigilli

Il rapido aumento della potenza di calcolo dei computer negli ultimi decenni, l’enorme quantità di dati disponibili e lo sviluppo di forme di apprendimento automatico hanno portato l’intelligenza artificiale al punto in cui si trova oggi. Grazie all’IA è diventato possibile delegare a un computer compiti che prima potevano essere eseguiti solo da un essere umano. E questo fatto può cambiare notevolmente l’economia e la società. La traduzione automatica, le auto a guida autonoma, i chatbot o i software di riconoscimento delle immagini sono solo alcuni degli esempi possibili. Eppure per molte persone l’IA rimane un libro chiuso e incomprensibile: l’incertezza sul modo in cui l’IA prende una decisione, l’uso dell’IA per la sorveglianza di massa, la manipolazione delle campagne elettorali con l’aiuto dell’IA o la diffusione dei sistemi d’arma autonomi influiscono sulla fiducia che la società ripone in questa nuova tecnologia. Secondo uno studio commissionato dal WEF, il 60% degli adulti, in tutto il mondo, si aspetta che sul mercato arrivino prodotti e servizi che utilizzano l’intelligenza artificiale per semplificare la loro vita. Ma solo il 50% dichiara di fidarsi delle aziende che impiegano l’IA tanto quanto di quelle che non la utilizzano.

Che cosa si può fare per aumentare la fiducia nei sistemi che utilizzano l’IA?

I sistemi IA supportano gli esseri umani in molti settori, sono in fase di sviluppo in tutto il mondo e tuttavia sollevano interrogativi fondamentali di tipo etico, giuridico e di normazione. Perché la tecnologia non è neutrale rispetto ai valori. Gli sviluppatori introducono nelle applicazioni elementi propri della loro cultura e del loro ambiente sociale di partenza. A livello internazionale sono in corso molte discussioni su questo tema, regna però una certa confusione e i dibattiti restano limitati a determinati settori e sono scarsamente coordinati. Con la sua politica estera la Svizzera mira a promuovere lo scambio di opinioni tra i più importanti attori nel campo dell’IA. Facendo leva sulla sua Strategia di politica estera 2020–2023 il nostro Paese sta assumendo un ruolo attivo nella definizione di un quadro normativo internazionale per l’IA che contribuirà a creare un clima di fiducia intorno ai sistemi che usano l’intelligenza artificiale. Un insieme di norme internazionali è necessario per definire la cooperazione tra gli attori, assicurare una efficace distribuzione dei ruoli e regole chiare nell’applicazione dell’IA; lasciando comunque al settore privato il necessario margine di manovra per l’innovazione.

Il valore aggiunto della Svizzera nel dibattito internazionale

La Svizzera come polo di ricerca, sviluppo e innovazione nel campo dell’intelligenza artificiale è molto avanti rispetto agli standard internazionali. Numerose aziende attive a livello mondiale nei settori della tecnologia medica, della farmaceutica o dell’industria metalmeccanica delocalizzano la loro produzione all’estero, ma lasciano in Svizzera la fase di sviluppo dei prodotti e servizi che richiedono maggiore innovazione. In quanto Stato ospite, la Svizzera mette in relazione numerosi attori e organizzazioni che hanno sede nella Ginevra internazionale e che sono considerati «centri di potere normativo»: Stati, organizzazioni multilaterali o aziende private che svolgono un ruolo centrale nella definizione di norme e standard applicabili a livello globale ai sistemi che utilizzano l’IA.

Un altro attore ginevrino è la Fondazione GESDA (Geneva Science and Diplomacy Anticipator), il cui obiettivo è anticipare le rivoluzioni tecnologiche e scientifiche – tra cui quelle legate all’IA – e analizzare il loro impatto sull’umanità. Le discussioni internazionali sull’IA hanno una forte componente geopolitica. Grazie alla sua neutralità e alla sua stabilità politica, la Svizzera può offrire un valore aggiunto in questo ambito e contribuire alla ricerca di soluzioni di compromesso in qualità di mediatrice credibile.

Elaborazione di un quadro normativo internazionale

La conferenza di due giorni organizzata a Ginevra, «Artificial Intelligence with trust», riunisce esperte ed esperti oltre ai principali attori nel campo dell’IA e offre una piattaforma per uno scambio di opinioni sulle sfide più urgenti poste dall’intelligenza artificiale. Finora dal dibattito internazionale in corso sono emersi cinque livelli rilevanti per l’elaborazione di un quadro normativo internazionale sull’IA, che dovrebbero essere meglio connessi tra loro e che elenchiamo qui di seguito.

Diritto internazionale pubblico

Il diritto internazionale comprende già numerose disposizioni fondamentali per l’intelligenza artificiale, connesse ai diritti umani, tra cui il divieto di discriminazione e di arbitrio nonché il rispetto della libertà di espressione. Lo stesso vale per il diritto internazionale umanitario applicabile in caso di conflitti armati, per esempio per quanto riguarda i sistemi d’arma autonomi. A questo livello, il dialogo tra i principali attori del campo dell’IA dovrebbe contribuire ad adattare e, se necessario, a sviluppare ulteriormente le norme esistenti del diritto internazionale per affrontare le questioni derivanti dall’applicazione dell’intelligenza artificiale.

Soft Law

Nell’ambito della soft law esistono già alcuni strumenti che definiscono principi non giuridicamente vincolanti applicabili nel campo dell’IA. Nel 2029, a livello di G7 e di G20, sono stati concordati alcuni principi di base sull’utilizzo dell’IA a favore di una crescita inclusiva e sostenibile o la promozione di un’IA incentrata sulle esigenze dell’essere umano. Questi principi sono in linea con quelli dell’OCSE, che ha anche pubblicato alcune raccomandazioni specifiche.

Provvedimenti nazionali con effetti a livello internazionale

Paesi come gli Stati Uniti o la Cina, che promuovono fortemente l’impiego dell’IA, influenzano indirettamente lo sviluppo e la gestione dell’IA anche in altri Stati attraverso la loro legislazione nazionale, che assume così una rilevanza internazionale.

Norme tecniche e misure di autoregolamentazione delle imprese

Le organizzazioni di normazione come l’ISO, la Commissione elettrotecnica internazionale (IEC) e l’Unione internazionale delle telecomunicazioni (UIT) definiscono gli standard tecnici. Per esempio chiariscono come dovrebbero funzionare i robot controllati dall’intelligenza artificiale per la consulenza nutrizionale o gli apparecchi intelligenti utilizzati nelle case. Per l’industria questi standard svolgono un ruolo centrale e possono a volte essere dichiarati vincolanti a livello nazionale o internazionale. Molte imprese tecnologiche pubblicano poi dichiarazioni di autoregolamentazione in risposta a questioni etiche legate all’uso dell’IA. In questa attività sono spesso guidate dal diritto internazionale.

Forza normativa dei fatti sulla scorta dello sviluppo tecnologico

Anche i fatti, ossia ciò che emerge direttamente dal lavoro dei grandi sviluppatori di tecnologia, hanno una forza normativa, che richiede però una standardizzazione o normazione tecnica e giuridica. Un esempio in questo ambito è il progetto di Apple di introdurre un filtro dei contenuti basato sull’IA per contrastare la pedopornografia. Questo filtro si spingeva tuttavia troppo oltre rispetto a quanto oggi è considerato accettabile nel campo della tutela della sfera privata e dei dati. La sua introduzione è stata quindi, per il momento, rinviata. Le modalità di funzionamento di un filtro del genere possono comunque essere considerate un precedente, in grado di influenzare il quadro normativo relativo all’IA in questo campo.

AI with Trust»: conferenza per l’armonizzazione dell’intelligenza artificiale

Creare un clima di fiducia intorno all’intelligenza artificiale è diventata una preoccupazione fondamentale dell’industria, del mondo accademico, dei legislatori, degli sviluppatori di standard e di chiunque si occupi di controlli di conformità. Il Dipartimento federale degli affari esteri (DFAE), insieme alla Commissione elettrotecnica internazionale (IEC), organizza a Ginevra il 16 e 17 maggio 2022 una conferenza di esperte ed esperti sul tema «Artificial Intelligence with trust». L’obiettivo della conferenza è analizzare le interazioni tra legislazione, normazione e valutazione della conformità e definire misure adeguate per armonizzare gli sforzi internazionali in questo settore.