- Intelligenza artificiale: parola dell'anno e i suoi rischi
- Le tematiche affrontate nell'AI Safety Summit
- Contenuto della dichiarazione
Intelligenza artificiale: parola dell'anno e i suoi rischi
[Torna su]
Il Collins Dictionary, l'autorevole dizionario inglese, ha nominato Intelligenza Artificiale (AI) parola dell'anno 2023 e tale scelta dà ancor più valore all'enorme impressione che la tecnologia sta avendo nella società. L'apice dell'ascesa della AI è stato sicuramente raggiunto con l'emergere di modelli di apprendimento automatico come ChatGPT, che ha dimostrato la capacità di scrivere testi dettagliati e rispondere a domande in modo convincente.
Se, dunque, da un lato l'intelligenza artificiale ha compiuto molti passi in avanti, dall'altro ha sollevato molti interrogativi su come potrebbe rimodellare il mondo del lavoro, l'istruzione ed interferire con la vita quotidiana.
L'uso del termine "AI", sempre secondo il dizionario inglese Collins, è quadruplicato nell'ultimo anno, riflettendo quanto sia diventato mainstream.
Questo entrare a gamba tesa dell' AI, in ogni ambito della vita umana, ha sollevato anche preoccupazioni. Molti sono i critici che mettono in guardia sui potenziali rischi della delega di compiti sensibili alle macchine, come il pregiudizio negli algoritmi o effetti imprevisti.
Ed è proprio nel momento in cui arriva la nomina a parola dell'anno, che arriva l'occasione per mettere sul tavolo un tema che diventa ogni giorno più urgente: leader mondiali, CEO di aziende tecnologiche e accademici si sono riuniti a Londra per l'AI Safety Summit, svoltosi l'1 e 2 novembre 2023 a Bletchley Park, la tenuta nella campagna londinese dove Alan Turing, durante la Seconda guerra mondiale, decifrò il codice Enigma contribuendo alla sconfitta dei nazisti, per discutere di come gestire in modo responsabile gli sviluppi nel campo dell'intelligenza artificiale. Il summit è stato una grande opportunità per discutere sull'impatto profondo che l'AI potrebbe avere sulla società nei prossimi anni, sia sotto il profilo degli eventuali pericoli che delle potenzialità.
Le tematiche affrontate nell'AI Safety Summit
[Torna su]
Obiettivo primario dell' AI Safety summit è quello di dare delle regole e mettere dei paletti al crescente sviluppo dell'intelligenza artificiale prima che essa possa creare danni irreversibili.
L'intelligenza artificiale dovrebbe essere progettata sviluppate ed utilizzata in modo sicuro, così da essere incentrata sull'uomo, ma poiché essa oggi è utilizzata in molti ambiti della vita quotidiana (ad esempio istruzione sanità e giustizia) ed il suo utilizzo è destinato ad aumentare, ciò comporta dei rischi significativi. In particolare nell' AI Safety Summit si è parlato di:
- Sicurezza: si ci è focalizzati sul degrado dell'informazione e della diffusione di Deep fake, sempre più indistinguibili dalla realtà che sono creati con strumenti di intelligenza artificiale in particolare come i sistemi di LLM;
- Mercato del lavoro: in particolare, queste tecnologie potrebbero portare nel mondo del lavoro mutamenti ,che non per forza dovranno essere peggiorativi ma sicuramente disruptive;
- Rappresentazione di genere: un sistema nutrito da dati di una società storicamente iniqua, basata su discriminazioni e stereotipi, non può dunque che essere anch'esso viziato da tale bias;
- Cyber security: sul tavolo sono stati affrontati anche temi riguardanti l'utilizzo duale della tecnologia che può essere un eccellente acceleratore per la ricerca scientifica, ma che può altrettanto essere utilizzata per scopi dannosi, come ad esempio lo sviluppo di armi chimiche e biologiche;
- Rischio esistenziale: l'argomento sicuramente più inquietante quando si tratta di intelligenza artificiale è la progressiva perdita del controllo umano su una tecnologia ,invece, sempre più autonoma, con capacità di manipolare contenuti o generare contenuti ingannevoli.
Questi sono stati ottimi motivi per non lasciare che lo sviluppo dell' intelligenza artificiale sia dato "al caso all'incuria o in mano ai soliti attori privati", così come ha dichiarato, in apertura dei lavori, Michelle Donelan, segretaria di stato britannica per la scienza l'innovazione e la tecnologia.
Contenuto della dichiarazione
[Torna su]
Il summit londinese ha concluso quello che, il primo ministro Sumak, ha definito "un risultato storico" : il primo accordo a livello mondiale, con il quale si cerca di identificare e di mitigare i pericoli derivanti dall'utilizzo dell'intelligenza artificiale e si cerca di sviluppare delle politiche basate sul rischio in tutti i paesi firmatari.
La dichiarazione (sotto allegata), tuttavia, risente molto delle preoccupazioni circa gli sviluppi dell'intelligenza artificiale, tanto che lo si può definire come un documento di intenti, molto generico. Se è vero che da un lato si enunciano le enormi opportunità globali che sono offerte dalla intelligenza artificiale, la quale, si ritiene, abbia il potenziale per trasformare, migliorare il benessere dell'umanità, la pace e la prosperità, dall'altro però subito si sottolinea, a mo' di monito, che per il bene di tutti, l'intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, lavorando affinché essa sia una tecnologia human centred, affidabile e responsabile.
Problemi più urgenti riguardano la privacy e la protezione dei dati, poiché i sistemi di intelligenza artificiale sono utilizzati in quasi tutti gli ambiti della vita quotidiana e da ciò, quindi, risulta necessario costruire una comprensione scientifica comune e basata sull'evidenza di questi rischi.
L'intelligenza artificiale, però, progredisce e cambia in maniera repentina e incerta e determina pericoli meno prevedibili, che sono legati alle nuove frontiere della AI, cioè a sistemi che hanno capacità sempre più avanzate. E proprio su ciò che si concentra l'attenzione della dichiarazione, poiché i settori, come la sicurezza informatica o la biotecnologia, sono molto a rischio, anche a causa di altre problematiche come la disinformazione.
Alla luce dei molti rischi che possono derivare da un uso improprio intenzionale o da problemi di controllo relativi all'utilizzo di strumenti di intelligenza artificiale e che sono anche intrinsecamente legati al rapido ed improvviso sviluppo dell'intelligenza artificiale, la conclusione del summit è un'esortazione ad essere trasparenti e responsabili, a misurare monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che potrebbero emerge per promuovere delle proprie politiche nazionali sul tema e ci si impegna a sostenere una rete inclusiva a livello internazionale di ricerca scientifica sulla sicurezza dell'AI di frontiera, che comprenda e integri la collaborazione multilaterale, plurilaterale e bilaterale esistente e nuova".
L'intelligenza artificiale non ci ha colti impreparati, non è caduta dal cielo da un giorno all' altro, ma è pericoloso l'utilizzo che l'essere umano può farne ed è per questo che va regolamentata, evitando visioni allarmiste, alla Terminator.
Rishi Sunak ha incoraggiato con parole che possono essere considerate un vero e proprio auspicio, muovendo dalla necessità di una lucida e cauta risoluzione delle problematiche, affidata ai governi che devono agire super partes, svincolati dalle lobbying dei colossi del settore; "Non ci sarà nulla di più trasformativo per il futuro dei nostri figli e nipoti dei progressi tecnologici come l'intelligenza artificiale. Abbiamo perciò il dovere nei loro confronti di garantire che l'AI si sviluppi in modo sicuro e responsabile, affrontando i rischi che comporta ora che siamo ancora all'inizio", le sue parole a conclusione dell'AI Safety Summit.
Scarica pdf dichiarazione AI Safety Summit
• Foto: 123rf.com