Un quadro per valutare il rapido sviluppo delle tecnologie digitali e correlate: intelligenza artificiale, modelli linguistici di grandi dimensioni e oltre

Questo documento di discussione fornisce lo schema di un quadro iniziale per informare le molteplici discussioni globali e nazionali in corso relative all’intelligenza artificiale.

Un quadro per valutare il rapido sviluppo delle tecnologie digitali e correlate: intelligenza artificiale, modelli linguistici di grandi dimensioni e oltre

È stato proposto da un certo numero di accademici ed esperti politici che l’International Science Council – con i suoi membri pluralistici provenienti dalle scienze sociali e naturali – stabilisca un processo per produrre e mantenere un quadro/elenco di controllo commentato dei rischi, dei benefici, delle minacce e delle opportunità associati alle tecnologie digitali in rapida evoluzione, inclusa – ma non limitata a – l’intelligenza artificiale. Lo scopo della lista di controllo sarebbe quello di informare tutte le parti interessate – compresi i governi, i negoziatori commerciali, i regolatori, la società civile e l’industria – dei potenziali scenari futuri e inquadrare il modo in cui potrebbero considerare le opportunità, i benefici, i rischi e altre questioni.

L'ISC è lieto di presentare questo documento di discussione sulla valutazione del rapido sviluppo della tecnologia digitale e correlata. L’intelligenza artificiale, la biologia sintetica e le tecnologie quantistiche sono ottimi esempi di innovazione, informata dalla scienza, che emerge a un ritmo senza precedenti. Può essere difficile anticipare sistematicamente non solo le loro applicazioni, ma anche le loro implicazioni.

La valutazione degli aspetti sociali dell’IA generativa, come i grandi modelli linguistici, che prevedibilmente rappresentano la maggior parte di questo documento di discussione, costituisce un ponte necessario all’interno del discorso attuale – a volte guidato dal panico, altre volte non abbastanza profondo nel pensiero – e i necessari corsi di azione che possiamo intraprendere. L’ISC è convinto che sia necessario un quadro analitico tra l’accettazione sociale di tali nuove tecnologie e la loro possibile regolamentazione per facilitare le discussioni multilaterali necessarie per prendere decisioni informate e responsabili su come ottimizzare i benefici sociali di questa tecnologia in rapida emergenza.

L'ISC è aperto alle reazioni della nostra comunità attraverso questo documento di discussione al fine di valutare il modo migliore per continuare a far parte e contribuire al dibattito sulla tecnologia.

Salvatore Aricò, amministratore delegato

Un documento di discussione dell'ISC

Un quadro per valutare il rapido sviluppo delle tecnologie digitali e correlate: intelligenza artificiale, modelli linguistici di grandi dimensioni e oltre

Questo documento di discussione fornisce lo schema di un quadro iniziale per informare le molteplici discussioni globali e nazionali in corso relative all’intelligenza artificiale.

Leggi il documento online o nella tua lingua preferita

Contenuti

  • Introduzione 
  • sfondo 
  • Lo sviluppo di un quadro analitico 
  • Utilizzando il quadro analitico 
  • Dimensioni da considerare quando si valuta una nuova tecnologia 
  • Una via da seguire 
  • Ringraziamenti

Introduzione

Le tecnologie emergenti in modo rapido presentano problemi impegnativi per quanto riguarda la loro governance e la potenziale regolamentazione. La politica e i dibattiti pubblici sull’intelligenza artificiale (AI) e sul suo utilizzo hanno messo a fuoco queste questioni. Sebbene principi generali per l’intelligenza artificiale siano stati promulgati dall’UNESCO, dall’OCSE e altri, e ci siano discussioni nascenti sulla regolamentazione globale o giurisdizionale della tecnologia, esiste un divario ontologico tra lo sviluppo di principi di alto livello e la loro incorporazione in normative, politiche e politiche. approcci di governance e stewardship. È qui che la comunità scientifica non governativa potrebbe svolgere un ruolo particolare. 

È stato proposto da un certo numero di accademici ed esperti politici che l’International Science Council (ISC) – con i suoi membri pluralistici provenienti dalle scienze sociali e naturali – stabilisca un processo per produrre e mantenere un quadro/lista di controllo commentato dei rischi, benefici, minacce e opportunità associate alle tecnologie digitali in rapida evoluzione, inclusa – ma non limitata a – l’intelligenza artificiale. Lo scopo della lista di controllo sarebbe quello di informare tutte le parti interessate – compresi i governi, i negoziatori commerciali, i regolatori, la società civile e l’industria – dei potenziali scenari futuri e inquadrare il modo in cui potrebbero considerare le opportunità, i benefici, i rischi e altre questioni. 

I risultati non fungerebbero da organismo di valutazione, ma come un quadro analitico adattivo e in evoluzione che potrebbe sostenere qualsiasi processo di valutazione e regolamentazione che potrebbe essere sviluppato dalle parti interessate, compresi i governi e il sistema multilaterale. Qualsiasi quadro analitico dovrebbe idealmente essere sviluppato indipendentemente dalle affermazioni del governo e dell’industria, dati i loro comprensibili interessi. Deve anche essere il più possibile pluralistico nelle sue prospettive, abbracciando così tutti gli aspetti della tecnologia e le sue implicazioni. 

Questo documento di discussione fornisce lo schema di un quadro iniziale per informare le molteplici discussioni globali e nazionali in corso relative all’intelligenza artificiale. 

Background: perché un quadro analitico?

Il rapido emergere di una tecnologia con la complessità e le implicazioni dell’intelligenza artificiale sta facendo avanzare molte affermazioni di grandi vantaggi. Tuttavia, provoca anche timori di rischi significativi, dal livello individuale a quello geostrategico. Gran parte della discussione tende a svolgersi agli estremi dello spettro di opinioni ed è necessario un approccio più pragmatico. La tecnologia dell’intelligenza artificiale continuerà ad evolversi e la storia dimostra che praticamente ogni tecnologia ha usi sia benefici che dannosi. La domanda quindi è: come possiamo ottenere risultati positivi da questa tecnologia, riducendo al tempo stesso il rischio di conseguenze dannose, alcune delle quali potrebbero essere di portata esistenziale? 

Il futuro è sempre incerto, ma ci sono voci credibili ed esperte sufficienti riguardo all’intelligenza artificiale e all’intelligenza artificiale generativa per incoraggiare un approccio relativamente precauzionale. Inoltre, è necessario un approccio sistemico, perché l’intelligenza artificiale è una classe di tecnologie con ampio utilizzo e applicazione da parte di molteplici tipologie di utenti. Ciò significa che è necessario tenere conto dell’intero contesto quando si considerano le implicazioni dell’IA per gli individui, la vita sociale, la vita civica, la vita sociale e nel contesto globale. 

A differenza della maggior parte delle tecnologie del passato, le tecnologie digitali e correlate hanno un periodo di tempo molto breve dallo sviluppo al rilascio, in gran parte guidato dagli interessi delle società o delle agenzie di produzione. L’intelligenza artificiale è rapidamente pervasiva; alcune proprietà potrebbero diventare evidenti solo dopo il rilascio e la tecnologia potrebbe avere applicazioni sia malevole che benevole. Le dimensioni dei valori importanti influenzeranno il modo in cui viene percepito qualsiasi utilizzo. Inoltre, potrebbero esserci interessi geostrategici in gioco. 

Fino ad oggi, la regolamentazione di una tecnologia virtuale è stata in gran parte vista attraverso la lente dei “principi” e della conformità volontaria. Più recentemente, tuttavia, la discussione si è spostata su questioni di governance nazionale e multilaterale, compreso l’uso di strumenti normativi e altri strumenti politici. Le affermazioni avanzate a favore o contro l’IA sono spesso iperboliche e, data la natura della tecnologia, difficili da valutare. Stabilire un efficace sistema di regolamentazione tecnologica globale o nazionale sarà impegnativo e saranno necessari più livelli di processo decisionale informato sul rischio lungo tutta la catena, dall’inventore al produttore, all’utente, al governo e al sistema multilaterale. 

Sebbene principi di alto livello siano stati promulgati dall’UNESCO, dall’OCSE e dalla Commissione Europea, tra gli altri, e siano in corso varie discussioni ad alto livello su questioni di potenziale regolamentazione, esiste un ampio divario ontologico tra tali principi e una governance o un quadro normativo. Qual è la tassonomia delle considerazioni che un regolatore potrebbe dover considerare? Un inquadramento ristretto non sarebbe saggio, date le ampie implicazioni di queste tecnologie. Questo potenziale è stato oggetto di molti commenti, sia positivi che negativi.

Lo sviluppo di un quadro analitico

L’ISC è la principale ONG globale che integra le scienze naturali e sociali. La sua portata globale e disciplinare significa che è ben posizionata per generare consulenza indipendente e rilevante a livello globale per orientare le complesse scelte future, soprattutto perché le voci attuali in quest’arena provengono in gran parte dall’industria o dalle principali potenze tecnologiche. A seguito di un’ampia discussione negli ultimi mesi, inclusa la considerazione di un processo di valutazione non governativo, l’ISC ha concluso che il suo contributo più utile sarebbe quello di produrre e mantenere un quadro analitico adattivo che possa essere utilizzato come base per il discorso e il processo decisionale da parte degli tutte le parti interessate, anche durante qualsiasi processo di valutazione formale che emerga. 

Questo quadro assumerebbe la forma di una lista di controllo generale che potrebbe essere utilizzata sia dalle istituzioni governative che da quelle non governative. Il quadro identifica ed esplora il potenziale di una tecnologia come l’intelligenza artificiale e i suoi derivati ​​attraverso un’ampia prospettiva che comprende il benessere umano e sociale, nonché fattori esterni, come l’economia, la politica, l’ambiente e la sicurezza. Alcuni aspetti della lista di controllo potrebbero essere più rilevanti di altri, a seconda del contesto, ma è più probabile che si decidano meglio se si considerano tutti gli ambiti. Questo è il valore intrinseco di un approccio basato su una lista di controllo. 

Il quadro proposto deriva da lavori e riflessioni precedenti, compreso il rapporto sul benessere digitale dell'International Network for Governmental Science Advice (INGSA)1 e il quadro di classificazione dell'IA dell'OCSE2 presentare la totalità delle potenziali opportunità, rischi e impatti dell’IA. Questi prodotti precedenti avevano intenti più limitati, dato il tempo e il contesto, ed è necessario un quadro generale che presenti l’intera gamma di questioni sia a breve che a lungo termine. 

Sebbene sviluppato tenendo conto dell’intelligenza artificiale, questo quadro analitico potrebbe essere applicato a qualsiasi tecnologia emergente in rapida crescita. Le questioni sono sostanzialmente raggruppate nelle seguenti categorie per un ulteriore esame: 

  • Benessere (compreso quello degli individui o del sé, della società e della vita sociale e della vita civica) 
  • Commercio ed economia 
  • Ambientali 
  • Geostrategica e geopolitica 
  • Tecnologico (caratteristiche del sistema, progettazione e utilizzo) 

È incluso un elenco di considerazioni per ciascuna delle categorie di cui sopra insieme alle rispettive opportunità e conseguenze. Alcuni sono rilevanti per istanze o applicazioni specifiche dell’intelligenza artificiale, mentre altri sono generici e indipendenti dalla piattaforma o dall’utilizzo. Nessuna singola considerazione qui inclusa dovrebbe essere trattata come una priorità e, come tale, dovrebbero essere tutte esaminate. 

Come potrebbe essere utilizzato questo quadro?

Questo framework potrebbe essere utilizzato, ma non limitato a, nei seguenti modi: 

  • Colmare il divario tra principi e valutazione stabilendo una tassonomia comune convalidata della gamma di considerazioni che potrebbero essere utilizzate dalle parti interessate come base per informare e modellare ulteriori riflessioni, compreso qualsiasi quadro di valutazione che potrebbe essere sviluppato dalle autorità. 
  • Per informare le valutazioni di impatto. L’EU AI Act richiede alle organizzazioni che forniscono strumenti di IA o adottano l’IA nei loro processi di intraprendere una valutazione d’impatto per identificare il rischio delle loro iniziative e applicare un approccio adeguato di gestione del rischio. Il quadro qui presentato potrebbe essere utilizzato come base per questo. 
  • Rafforzare i principi etici necessari per guidare e governare l’uso dell’IA. Il quadro può farlo fornendo una base flessibile su cui sviluppare sistemi affidabili e garantendo l’uso legale, etico, solido e responsabile della tecnologia. Questi principi potrebbero essere testati rispetto all’intera gamma di impatti presentati in questo quadro. 
  • Facilitare un bilancio delle misure esistenti (ad esempio, normative, legislative, politiche) e identificare eventuali lacune che necessitano di ulteriore considerazione. 
  • Il quadro è indipendente dalla tecnologia e dal suo utilizzo. Potrebbe quindi essere utilizzato in settori ben distinti come la biologia sintetica. 

La tabella seguente è una prima definizione delle dimensioni di una struttura analitica. A seconda della tecnologia e del suo utilizzo, alcuni componenti saranno più rilevanti di altri. Gli esempi vengono forniti per illustrare perché ciascun dominio può essere importante; nel contesto, il quadro richiederebbe un’espansione contestualmente rilevante. È anche importante distinguere tra gli sviluppi della piattaforma e le problematiche generiche che possono emergere durante applicazioni specifiche.  

Dimensioni da considerare quando si valuta una nuova tecnologia

Bozza iniziale delle dimensioni che potrebbero dover essere prese in considerazione quando si valuta una nuova tecnologia
Dimensioni di impatto Criteri Esempi di come ciò possa riflettersi nell’analisi  
Individuale/sé  Competenza AI degli utenti  Quanto sono competenti e consapevoli delle proprietà del sistema i probabili utenti che interagiranno con il sistema? Come verranno fornite loro le informazioni e le avvertenze pertinenti per l'utente? 
Stakeholder interessati  Chi sono i principali stakeholder che saranno colpiti dal sistema (ad esempio, individui, comunità, lavoratori vulnerabili, settoriali, bambini, decisori politici, professionisti)? 
Opzionalità Agli utenti viene fornita la possibilità di rinunciare al sistema; dovrebbero avere l’opportunità di contestare o correggere i risultati?  
Rischi per i diritti umani e i valori democratici  Il sistema potrebbe avere un impatto (e in quale direzione) sui diritti umani, inclusi, ma non limitati a, privacy, libertà di espressione, equità, rischio di discriminazione, ecc.? 
Potenziali effetti sul benessere delle persone Il sistema potrebbe avere un impatto (e in quale direzione) sul benessere del singolo utente (ad esempio, qualità del lavoro, istruzione, interazioni sociali, salute mentale, identità, ambiente)?  
Potenziale di spostamento del lavoro umano Esiste la possibilità che il sistema automatizzi compiti o funzioni eseguiti da esseri umani? Se sì, quali sono le conseguenze a valle? 
Potenziale di manipolazione dell'identità, dei valori o della conoscenza Il sistema è progettato o potenzialmente in grado di manipolare l'identità o i valori dell'utente o di diffondere disinformazione? Esiste il rischio di affermazioni di competenza false o non verificabili? 
Misure di autostima C’è pressione per ritrarre un sé idealizzato? L’automazione potrebbe sostituire il senso di realizzazione personale? C’è pressione per competere con il sistema sul posto di lavoro? La reputazione individuale è resa più difficile da proteggere dalla disinformazione? 
Privacy Esistono responsabilità diffuse per la tutela della privacy e vengono formulate ipotesi su come vengono utilizzati i dati personali?  
Autonomia Il sistema potrebbe influenzare l’autonomia umana generando un’eccessiva dipendenza dalla tecnologia da parte degli utenti finali? 
Sviluppo umano Esiste un impatto sull’acquisizione di competenze chiave per lo sviluppo umano come funzioni esecutive, abilità interpersonali, cambiamenti nel tempo di attenzione che influenzano l’apprendimento, lo sviluppo della personalità, problemi di salute mentale, ecc.?  
Assistenza sanitaria personale Esistono pretese di soluzioni sanitarie personalizzate? Se sì, sono convalidati rispetto agli standard normativi? 
Salute mentale Esiste il rischio di aumento dell’ansia, della solitudine o di altri problemi di salute mentale, oppure la tecnologia può mitigare tali impatti? 
Evoluzione umana La tecnologia potrebbe portare a cambiamenti nell’evoluzione umana?  
Dimensioni di impatto Criteri Descrizione 
Società/vita sociale Valori sociali  Il sistema cambia radicalmente la natura della società o consente la normalizzazione di idee precedentemente considerate antisociali, oppure viola i valori sociali della cultura in cui viene applicato?  
L'interazione sociale C'è un effetto sul contatto umano significativo, comprese le relazioni emotive?  
Equità L'applicazione/tecnologia è in grado di ridurre o aumentare le disuguaglianze (ad esempio economiche, sociali, educative, geografiche)? 
Salute della popolazione Esiste il potenziale per il sistema di promuovere o indebolire le intenzioni di salute della popolazione? 
Espressione culturale È probabile o più difficile affrontare un aumento dell’appropriazione o della discriminazione culturale? Fare affidamento sul sistema decisionale esclude o emargina potenzialmente settori della società? 
Educazione pubblica C’è un effetto sui ruoli degli insegnanti o sugli istituti scolastici? Il sistema enfatizza o riduce le disuguaglianze tra gli studenti e il divario digitale? Il valore intrinseco della conoscenza o della comprensione critica è avanzato o indebolito?  
Realtà distorte I metodi che utilizziamo per discernere ciò che è vero sono ancora applicabili? La percezione della realtà è compromessa?  
Contesto economico (commercio)        Settore industriale In quale settore industriale è utilizzato il sistema (finanza, agricoltura, sanità, istruzione, difesa)? 
Modello di business In quale funzione aziendale viene impiegato il sistema e a quale titolo? Dove viene utilizzato il sistema (privato, pubblico, no-profit)? 
Impatto sulle attività critiche  Un'interruzione del funzionamento o dell'attività del sistema influenzerebbe i servizi essenziali o le infrastrutture critiche?  
Respiro di schieramento Come viene distribuito il sistema (in modo ristretto all'interno di un'organizzazione o diffuso a livello nazionale/internazionale)? 
Maturità tecnica (TRL) Quanto è tecnicamente maturo il sistema?  
Sovranità tecnologica La tecnologia porta ad una maggiore concentrazione della sovranità tecnologica.  
Redistribuzione del reddito e leve fiscali nazionali I ruoli fondamentali dello Stato sovrano (ad esempio, delle banche di riserva) potrebbero essere compromessi? La capacità dello Stato di soddisfare le aspettative e le implicazioni dei cittadini (ad esempio, sociali, economiche, politiche) sarà migliorata o ridotta?  
Dimensioni di impatto Criteri Descrizione 
Vita civica    Governance e servizio pubblico I meccanismi di governance e i sistemi di governance globale potrebbero essere influenzati positivamente o negativamente? 
Mezzi di informazione È probabile che il discorso pubblico diventi più o meno polarizzato e radicato a livello di popolazione? Ci sarà un effetto sui livelli di fiducia nei media? Gli standard etici e di integrità del giornalismo convenzionale verranno ulteriormente influenzati?  
Norma di legge Ci sarà un effetto sulla capacità di identificare individui o organizzazioni da ritenere responsabili (ad esempio, che tipo di responsabilità assegnare a un algoritmo per risultati avversi)? Ciò crea una perdita di sovranità (ad esempio, ambientale, fiscale, politica sociale, etica)?  
Politica e coesione sociale Esiste la possibilità di opinioni politiche più radicate e di minori opportunità di costruzione del consenso? Esiste la possibilità di ulteriormente emarginare i gruppi? Gli stili politici contraddittori sono resi più o meno probabili? 
Contesto geostrategico/geopolitico    Sorveglianza di precisione I sistemi sono addestrati su dati comportamentali e biologici individuali e, in caso affermativo, potrebbero essere utilizzati per sfruttare individui o gruppi? 
Colonizzazione digitale Gli attori statali e non statali sono in grado di sfruttare sistemi e dati per comprendere e controllare le popolazioni e gli ecosistemi di altri paesi o per minare il controllo giurisdizionale? 
Competizione geopolitica Il sistema incide sulla concorrenza tra nazioni e piattaforme tecnologiche per l’accesso ai dati individuali e collettivi per scopi economici o strategici? 
Commercio e accordi commerciali Il sistema ha implicazioni per gli accordi commerciali internazionali? 
Cambiamento delle potenze globali Lo status degli stati-nazione come principali attori geopolitici del mondo è in pericolo? Le aziende tecnologiche eserciteranno il potere una volta riservato agli stati-nazione e stanno diventando attori sovrani indipendenti?  
Disinformazione È più facile per gli attori statali e non statali produrre e diffondere disinformazione che incide sulla coesione sociale, sulla fiducia e sulla democrazia?  
Ambientali  Consumo di energia e risorse (impronta di carbonio) Il sistema e i requisiti aumentano l’assorbimento di energia e il consumo di risorse oltre ai guadagni di efficienza ottenuti attraverso l’applicazione?  
Dimensioni di impatto Criteri Descrizione 
Dati e input         Rilevazione e raccolta  I dati e gli input vengono raccolti da esseri umani, sensori automatizzati o entrambi?  
Provenienza dei dati  Per quanto riguarda i dati, questi sono forniti, osservati, sintetici o derivati? Esistono protezioni per la filigrana per confermare la provenienza? 
Natura dinamica dei dati I dati sono dinamici, statici, aggiornati di volta in volta o aggiornati in tempo reale? 
Diritti I dati sono proprietari, pubblici o personali (ovvero relativi a individui identificabili)?  
Identificabilità dei dati personali  Se si tratta di dati personali, sono anonimizzati o pseudonimizzati?  
Struttura dei dati I dati sono strutturati, semistrutturati, strutturati complessi o non strutturati? 
Formato dei dati  Il formato dei dati e dei metadati è standardizzato o non standardizzato?  
Scala dei dati  Qual è la scala del set di dati?  
Adeguatezza e qualità dei dati Il set di dati è adatto allo scopo? La dimensione del campione è adeguata? È sufficientemente rappresentativo e completo? Quanto sono rumorosi i dati? È soggetto a errori?  
Modello            Disponibilità delle informazioni  Sono disponibili informazioni sul modello del sistema?  
Tipo di modello di intelligenza artificiale  Il modello è simbolico (regole generate dall’uomo), statistico (utilizza dati) o ibrido?  
Diritti associati al modello  Il modello è open source o proprietario, gestito autonomamente o da terze parti? 
Modelli singoli o multipli  Il sistema è composto da un modello o da più modelli interconnessi?  
Generativo o discriminativo Il modello è generativo, discriminativo o entrambi?  
Modellismo  Il sistema apprende sulla base di regole scritte dall’uomo, dai dati, attraverso l’apprendimento supervisionato o attraverso l’apprendimento per rinforzo?  
Evoluzione del modello (deriva dell'IA) Il modello si evolve e/o acquisisce capacità interagendo con i dati sul campo?  
Apprendimento federato o centrale Il modello viene addestrato centralmente o su diversi server locali o dispositivi “edge”?  
Sviluppo e manutenzione  Il modello è universale, personalizzabile o adattato ai dati dell'attore dell'IA?  
Deterministico o probabilistico  Il modello viene utilizzato in modo deterministico o probabilistico?  
Trasparenza del modello  Sono disponibili informazioni per gli utenti che consentono loro di comprendere i risultati e i limiti del modello o di utilizzare i vincoli?  
Limitazione computazionale Ci sono limitazioni computazionali al sistema? Possiamo prevedere salti di capacità o leggi di scala? 
Dimensioni di impatto Criteri Descrizione 
Compito e risultato      Attività eseguite dal sistema Quali attività esegue il sistema (ad esempio riconoscimento, rilevamento eventi, previsione)?  
Combinare compiti e azioni  Il sistema combina diversi compiti e azioni (ad esempio, sistemi di generazione di contenuti, sistemi autonomi, sistemi di controllo)?  
Livello di autonomia del sistema Quanto sono autonome le azioni del sistema e quale ruolo svolgono gli esseri umani?  
Grado di coinvolgimento umano Esiste un coinvolgimento umano per supervisionare l’attività complessiva del sistema di intelligenza artificiale e la capacità di decidere quando e come utilizzare il sistema in qualsiasi situazione? 
Applicazione principale Il sistema appartiene a un'area di applicazione fondamentale come le tecnologie del linguaggio umano, la visione artificiale, l'automazione e/o l'ottimizzazione o la robotica?  
Valutazione  Sono disponibili standard o metodi per valutare l’output del sistema o gestire proprietà emergenti impreviste?  

Chiave per fonti dei descrittori

Testo normale:
Gluckman, P. e Allen, K. 2018. Comprendere il benessere nel contesto delle rapide trasformazioni digitali e associate. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Testo grassetto:
OCSE. 2022. Quadro OCSE per la classificazione dei sistemi di IA. Documenti sull'economia digitale dell'OCSE, n. 323, Pubblicazione OCSE, Parigi. https://oecd.ai/en/classification 

Testo in corsivo:
Nuovi descrittori (da più fonti) 

Una via da seguire

A seconda della risposta a questo documento di discussione, l’ISC formerebbe un gruppo di lavoro di esperti per sviluppare ulteriormente o modificare il quadro analitico di cui sopra attraverso il quale le parti interessate potrebbero esaminare in modo completo eventuali sviluppi significativi delle piattaforme o delle dimensioni di utilizzo. Il gruppo di lavoro sarebbe diversificato dal punto di vista disciplinare, geografico e demografico, con competenze che spaziano dalla valutazione tecnologica alle politiche pubbliche, dallo sviluppo umano alla sociologia e agli studi sul futuro e sulla tecnologia. 

Per interagire con questo documento di discussione, visitare Council.science/publications/framework-digital-technologies 

Ringraziamenti

Molte persone sono state consultate nello sviluppo di questo documento, che è stato redatto da Sir Peter Gluckman, Presidente, ISC e Hema Sridhar, ex capo scienziato del Ministero della Difesa e ora ricercatore senior presso l’Università di Auckland, Nuova Zelanda. 

In particolare ringraziamo Lord Martin Rees, già Presidente della Royal Society e cofondatore del Centro per lo Studio dei Rischi Esistenziali, Università di Cambridge; il Professor Shivaji Sondhi, Professore di Fisica, Università di Oxford; il professor K Vijay Raghavan, ex principale consigliere scientifico del governo indiano; Amandeep Singh Gill, inviato del Segretario generale delle Nazioni Unite per la tecnologia; Dott. Seán Óh Éigeartaigh, Direttore esecutivo, Centro per lo studio dei rischi esistenziali, Università di Cambridge; Amanda-June Brawner, Consigliere politico senior e Ian Wiggins, Direttore degli affari internazionali, Royal Society UK; Dr Jerome Duberry, Dr Marie-Laure Salles, Direttore, Geneva Graduate Institute; Chor Pharn Lee, Centro per i futuri strategici, Ufficio del Primo Ministro, Singapore; Barend Mons e il dottor Simon Hodson, il Comitato sui dati (CoDATA); Prof. Yuko Harayama, Giappone; Professor Rémi Quirion, Presidente dell'INGSA; Dott.ssa Claire Craig, Università di Oxford ed ex capo del Foresight, Ufficio governativo della scienza; e il professor Yoshua Bengio, comitato consultivo scientifico del Segretario generale delle Nazioni Unite e presso l'Università di Montréal. L'approccio della lista di controllo è stato generalmente approvato ed è stata sottolineata la tempestività di qualsiasi azione da parte dell'ISC. 


Partecipa alla discussione

Immagine: Adamichi su iStock

Salta al contenuto