forum

Controllare potenzi...
 
Notifiche
Cancella tutti

Controllare potenzialità e rischi dell’intelligenza artificiale è la grande sfida di questo secolo

1 Post
1 Utenti
0 Reactions
78 Visualizzazioni
(@gabriella-siciliano)
Post: 4
Active Member Registered
Topic starter
 

Potenzialità e rischi sembrano inscindibili quando si tratta di intelligenza artificiale. Controllare il suo futuro sviluppo sembra la sfida del XXI secolo, un tempo rivoluzionato da macchine che promettono progressi epocali e allo stesso tempo suscitano timori inediti. «Lo sviluppo dell’intelligenza artificiale è la più grande sfida intellettuale, pratica e antropologica di quest’epoca», ha detto la presidente del Consiglio Giorgia Meloni nel suo intervento nella prima sessione della seconda giornata dell’AI Safety Summit a Bletchley Park, nel Regno Unito. «È una tecnologia che cambia il modo in cui facciamo le cose, esattamente come è accaduto con l’energia elettrica o con la rivoluzione industriale».

Il vertice globale è stato organizzato dal primo ministro inglese nello stesso Bletchley Park in cui un tempo il genio di Alan Turing decifrò il codice “Enigma” nazista e contribuì a porre fine alla Seconda Guerra Mondiale. L’obiettivo del summit dell’1 e 2 novembre, è  affrontare il rischio che l’umanità possa perdere il controllo dell’intelligenza artificiale. Il premier britannico Rishi Sunak ha detto che «nulla del nostro prossimo futuro sarà più trasformativo per la nostra economia, la nostra società e tutte le nostre vite di questa tecnologia. Ma in questo momento è anche una delle più grandi prove di leadership che dobbiamo affrontare», mettendo in guardia sui pericoli dell’intelligenza artificiale come rendere più semplice la realizzazione di armi biologiche o chimiche, e sui rischi della disinformazione. 

Le nuove macchine sono anche in grado di generalizzare i concetti come gli esseri umani, imparando dai propri errori: la tecnologia permette di riprodurre testi, video e immagini simili a quelle reali, facendo credere di possedere una mente propria.

Di recente due ricercatori, Marco Baroni del Dipartimento di Linguistica all’Università Pompeu Fabra di Barcellona e Brenden M. Lake esperto di Psicologia e Data Science dell’Università di New York, hanno addestrato una rete neurale a integrare parole appena apprese in un vocabolario esistente e utilizzarle in contesti nuovi, un aspetto chiave della cognizione umana noto come generalizzazione sistematica. Gli autori dello studio pubblicato su Nature hanno prima testato venticinque persone sulla capacità di impiegare una pseudo-lingua in situazioni diverse, facendo scegliere loro delle combinazioni che rappresentassero funzioni tra le parole appena imparate. Circa l’ottanta per cento delle volte, in media le combinazioni scelte dai partecipanti rappresentavano la funzione corretta. Gli errori commessi, riflettevano i noti pregiudizi umani. Successivamente, gli autori hanno addestrato una rete neurale a svolgere un compito simile a quello presentato alle persone, facendole riprodurre anche i loro errori. Le sue risposte corrispondevano quasi esattamente a quelle dei volontari umani, e in alcuni casi superavano le loro prestazioni. 

«Le reti neurali – spiega  a Linkiesta Roberto Navigli, professore ordinario di Elaborazione del Linguaggio Naturale all’Università La Sapienza di Roma – sono dei modelli di apprendimento che prendono una sequenza di dati in ingresso e restituiscono un output il più possibile vicino a quello atteso. Quello dei due ricercatori è un passo avanti potenzialmente importante, anche se per ora è un esperimento di laboratorio perché la tecnica del meta apprendimento che hanno utilizzato fa sì che i modelli riescano ad apprendere lo svolgimento di attività non viste in fase di addestramento, e  che possano farlo modificando il proprio comportamento progressivamente nel tempo senza bisogno di essere riaddestrati da zero». Un altro aspetto importante da considerare, secondo Navigli, è l’affidabilità, ovvero la possibilità di ridurre la cosiddetta allucinazione cui sono soggetti i modelli come Chat Gpt che possono inventare informazioni.

«Non sappiamo – prosegue – se poi andando a usare l’intero vocabolario di una lingua, anche considerando l’ambiguità delle parole, questa capacità di generalizzare tenga, ma lo studio è nella direzione di rendere innovativi i modelli e far sì che apprendano cose nuove, inventino, compongano in modo creativo». Le reti migliorerebbero e intanto, come spiega l’esperto, l’utente ridurrebbe la sua capacità di elaborare e ragionare se non impara a usare correttamente questi strumenti, rischiando di passare ore a conversare con modelli linguistici potenzialmente “orientati” o malevoli e lo stesso web, inoltre, rischierebbe di essere inquinato con contenuti automatici,  portando il linguaggio di questi modelli a estremizzarsi e semplificarsi sempre di più. 

«Vengono già utilizzate per creare software», dice a Linkiesta  Salvatore Gaglio, professore di Intelligenza Artificiale all’Università degli studi di Palermo. «Questo accelera i processi ma preoccupa perché queste macchine ci danno delle soluzioni che noi non siamo neanche più in grado di comprendere. L’altro aspetto da considerare è che chi addestra queste reti potrebbe iniettare in queste tecnologie delle polarizzazioni, comportamenti razzisti o sessisti, in base agli esempi che vengono loro forniti. Oppure potrebbe iniettare del software malevolo all’interno. Le nostre decisioni si basano su una serie di valutazioni e si dice che queste macchine possano essere di supporto, potrebbero quindi interagire con le nostre scelte. Bisogna sempre tenere presente che dietro c’è l’uomo, perché le macchine non capiscono, non sono senzienti per cui quello che si fa con queste tecnologie dovrebbe essere validato e certificato. Ci vuole un po’ di regolamentazione». 

I rappresentanti di ventotto Paesi, tra cui Stati Uniti, Cina e i governi dell’Unione europea, aderenti al AI Safety Summit hanno firmato una dichiarazione per affrontare insieme il rischio dell’IA di frontiera, costruendo una una comprensione scientifica condivisa sul tema e politiche per garantire la sicurezza dei Paesi, affinché i vantaggi della tecnologia possano essere sfruttati in maniera responsabile per il bene di tutti.

Gli Stati si stanno attrezzando per regolamentare l’intelligenza artificiale ma per ora si procede in ordine sparso. Sunak che ha dichiarato che creerà il primo istituto per la sicurezza dell’intelligenza artificiale al mondo è stato seguito dagli Stati Uniti che nella prima giornata del vertice hanno annunciato una decisione simile. La segretaria alla tecnologia britannica Michelle Donelan ha aperto l’AI Safety Summit dicendo ai presenti che l’evento mira ad «affrontare una sfida tecnica sociale che trascende i confini nazionali». Ha detto ai delegati presenti all’evento a Bletchley Park che «questi sistemi potrebbero liberare le persone ovunque dal lavoro noioso e amplificare le nostre capacità creative». 

La vicepresidente americana Kamala Harris ha parlato di timori “esistenziali”: essere esclusi dal piano sanitario a causa di un algoritmo difettoso, essere minacciati da un partner violento con fotografie esplicite e false, essere incarcerati a causa di un riconoscimento facciale distorto, disinformazione legata all’intelligenza artificiale esistenziale per la democrazia. Il primo ministro dell’intelligenza artificiale al mondo, Sua Eccellenza Omar Sultan Al Olama degli Emirati Arabi Uniti ha parlato di etica e trasparenza come principi guida, dichiarando l’intenzione di rendere l’intelligenza artificiale un «faro per il progresso, la sicurezza e l’inclusione». 

Alla seconda giornata del summit è intervenuta anche la presidente della Commissione Europea Ursula von der Leyen che durante la prima sessione di lavori ha dichiarato: «Stiamo entrando in un’era completamente diversa. Data la complessità di queste macchine intelligenti, la sicurezza dell’IA è di conseguenza molto più complessa. L’esperienza derivante da altre tecnologie può quindi essere la nostra guida. Prendiamo la storia dell’energia atomica e della bomba nucleare. Gli scienziati hanno scoperto la fisica quantistica che ha portato all’energia nucleare – buona – ma anche con rischi per la società, e anche alla bomba atomica. Ciò insegna una prima importante lezione: l’indipendenza della comunità scientifica è essenziale. Abbiamo bisogno di un sistema di controlli ed equilibri scientifici oggettivi». 

Il tema dell’intelligenza artificiale è prioritario nell’agenda del Governo italiano tanto che Roma ospiterà nel 2024 una conferenza internazionale a riguardo, considerando che questa tecnologia è destinata ad incidere marcatamente sugli scenari geopolitici e sugli equilibri attuali.

 
Pubblicato : 4 Novembre 2023 04:45