Un cadru pentru evaluarea tehnologiilor digitale și conexe în dezvoltare rapidă: AI, modele de limbaj mari și nu numai

Acest document de discuție oferă schița unui cadru inițial pentru a informa multiplele discuții globale și naționale care au loc legate de IA.

Un cadru pentru evaluarea tehnologiilor digitale și conexe în dezvoltare rapidă: AI, modele de limbaj mari și nu numai

A fost propus de un număr de academicieni și experți în politici ca Consiliul Internațional de Știință – cu membrii sai pluralist din științele sociale și naturale – să stabilească un proces pentru a produce și menține un cadru/listă de verificare adnotată a riscurilor, beneficiilor, amenințărilor și oportunităților. asociate cu tehnologiile digitale în mișcare rapidă, inclusiv, dar fără a se limita la, AI. Scopul listei de verificare ar fi de a informa toate părțile interesate – inclusiv guvernele, negociatorii comerciali, autoritățile de reglementare, societatea civilă și industria – cu privire la potențialele scenarii viitoare și ar stabili modul în care aceștia ar putea lua în considerare oportunitățile, beneficiile, riscurile și alte probleme.

ISC este încântat să prezinte acest document de discuție privind evaluarea tehnologiei digitale în dezvoltare rapidă și a tehnologiilor conexe. Inteligența artificială, biologia sintetică și tehnologiile cuantice sunt exemple principale de inovație, informată de știință, care a apărut într-un ritm fără precedent. Poate fi o provocare să anticipăm sistematic nu numai aplicațiile lor, ci și implicațiile lor.

Evaluarea aspectelor societale ale IA generativă, cum ar fi modelele mari de limbaj, care reprezintă, în mod previzibil, cea mai mare parte a acestui document de discuție, este o punte necesară în cadrul discursului actual – uneori condus de panică, alteori nu suficient de profund în gândire – și cursurile necesare de măsuri pe care le putem întreprinde. ISC este convins că este necesar un cadru analitic între acceptarea socială a unor astfel de noi tehnologii și posibila reglementare a acestora pentru a facilita discuțiile cu mai multe părți interesate care sunt necesare pentru a lua decizii informate și responsabile cu privire la modul de optimizare a beneficiilor sociale ale acestei tehnologii care se dezvoltă rapid.

ISC este deschis reacțiilor din partea comunității noastre prin intermediul acestui document de discuție pentru a evalua cel mai bun mod de a continua să faceți parte și să contribuiți la dezbaterea despre tehnologie.

Salvatore Aricò, CEO

Un document de discuție ISC

Un cadru pentru evaluarea tehnologiilor digitale și conexe în dezvoltare rapidă: AI, modele de limbaj mari și nu numai

Acest document de discuție oferă schița unui cadru inițial pentru a informa multiplele discuții globale și naționale care au loc legate de IA.

Citiți lucrarea online sau în limba preferată

Cuprins

  • Introducere 
  • Context 
  • Dezvoltarea unui cadru analitic 
  • Utilizarea cadrului analitic 
  • Dimensiuni de luat în considerare la evaluarea unei noi tehnologii 
  • O cale de urmat 
  • Mulţumiri

Introducere

Tehnologiile care apar rapid prezintă probleme provocatoare când vine vorba de guvernanța lor și de reglementarea potențială. Politica și dezbaterile publice privind inteligența artificială (AI) și utilizarea acesteia au adus aceste probleme în atenție. În timp ce principiile largi pentru IA au fost promulgate de UNESCO, OCDE și alții și există discuții în curs de dezvoltare cu privire la reglementarea globală sau jurisdicțională a tehnologiei, există un decalaj ontologic între dezvoltarea principiilor la nivel înalt și încorporarea lor în reglementări, politici, abordări de guvernare și administrare. Aici comunitatea științifică neguvernamentală ar putea avea un rol deosebit. 

A fost propus de un număr de academicieni și experți în politici ca Consiliul Internațional de Știință (ISC) – cu membrii sai pluralist din științele sociale și naturale – să stabilească un proces pentru a produce și menține un cadru/listă de verificare adnotată a riscurilor, beneficiilor, amenințările și oportunitățile asociate cu tehnologiile digitale în mișcare rapidă, inclusiv, dar fără a se limita la, AI. Scopul listei de verificare ar fi de a informa toate părțile interesate – inclusiv guvernele, negociatorii comerciali, autoritățile de reglementare, societatea civilă și industria – cu privire la potențialele scenarii viitoare și ar stabili modul în care aceștia ar putea lua în considerare oportunitățile, beneficiile, riscurile și alte probleme. 

Rezultatele nu ar acționa ca un organism de evaluare, ci ca un cadru analitic adaptativ și în evoluție, care ar putea sta la baza oricăror procese de evaluare și reglementare care ar putea fi dezvoltate de părțile interesate, inclusiv guverne și sistemul multilateral. În mod ideal, orice cadru analitic ar trebui dezvoltat independent de afirmațiile guvernamentale și ale industriei, având în vedere interesele lor inteligibile. De asemenea, trebuie să fie maxim pluralist în perspectivele sale, cuprinzând astfel toate aspectele tehnologiei și implicațiile acesteia. 

Acest document de discuție oferă schița unui cadru inițial pentru a informa multiplele discuții globale și naționale care au loc legate de IA. 

Context: De ce un cadru analitic?

Apariția rapidă a unei tehnologii cu complexitatea și implicațiile inteligenței artificiale generează multe pretenții de mari beneficii. Totuși, provoacă și temeri de riscuri semnificative, de la nivel individual până la nivel geo-strategic. O mare parte a discuțiilor tinde să aibă loc la extremitățile spectrului de opinii și este necesară o abordare mai pragmatică. Tehnologia AI va continua să evolueze, iar istoria arată că practic fiecare tehnologie are atât utilizări benefice, cât și dăunătoare. Întrebarea este, așadar: cum putem obține rezultate benefice din această tehnologie, reducând în același timp riscul unor consecințe dăunătoare, dintre care unele ar putea fi existențiale în magnitudine? 

Viitorul este întotdeauna incert, dar există suficiente voci credibile și experte în ceea ce privește IA și IA generativă pentru a încuraja o abordare relativ precaută. În plus, este necesară o abordare de sistem, deoarece AI este o clasă de tehnologii cu utilizare și aplicare largă de către mai multe tipuri de utilizatori. Aceasta înseamnă că întregul context trebuie luat în considerare atunci când se iau în considerare implicațiile IA pentru indivizi, viața socială, viața civică, viața societală și în contextul global. 

Spre deosebire de majoritatea tehnologiilor anterioare, tehnologiile digitale și cele conexe au o perioadă foarte scurtă de timp de la dezvoltare până la lansare, în mare măsură determinată de interesele companiilor sau agențiilor de producție. IA este rapid omniprezentă; unele proprietăți pot deveni evidente numai după lansare, iar tehnologia ar putea avea atât aplicații răuvoitoare, cât și binevoitoare. Dimensiunile valorilor importante vor influența modul în care este percepută orice utilizare. În plus, pot exista interese geo-strategice în joc. 

Până în prezent, reglementarea unei tehnologii virtuale a fost privită în mare măsură prin prisma „principiilor” și conformității voluntare. Mai recent, însă, discuția s-a îndreptat către problemele guvernanței naționale și multilaterale, inclusiv utilizarea instrumentelor de reglementare și a altor politici. Afirmațiile făcute pentru sau împotriva AI sunt adesea hiperbolice și – având în vedere natura tehnologiei – dificil de evaluat. Stabilirea unui sistem eficient de reglementare a tehnologiei la nivel mondial sau național va fi o provocare și vor fi necesare mai multe straturi de luare a deciziilor bazate pe riscuri de-a lungul lanțului, de la inventator la producător, la utilizator, la guvern și la sistemul multilateral. 

În timp ce principiile la nivel înalt au fost promulgate de UNESCO, OCDE și Comisia Europeană, printre alții, și sunt în desfășurare diferite discuții la nivel înalt cu privire la problemele de reglementare potențială, există un decalaj ontologic mare între astfel de principii și un cadru de guvernare sau de reglementare. Care este taxonomia considerentelor pe care un organism de reglementare ar putea trebui să le ia în considerare? O încadrare îngust concentrată ar fi neînțeleaptă, având în vedere implicațiile largi ale acestor tehnologii. Acest potențial a făcut obiectul multor comentarii, atât pozitive, cât și negative.

Dezvoltarea unui cadru analitic

ISC este principalul ONG global care integrează științele naturale și sociale. Aria sa globală și disciplinară înseamnă că este bine plasată pentru a genera consiliere independentă și relevantă la nivel global pentru a informa alegerile complexe care urmează, mai ales că vocile actuale în acest domeniu sunt în mare parte din industrie sau din marile puteri tehnologice. În urma discuțiilor ample din ultimele luni, inclusiv luarea în considerare a unui proces de evaluare neguvernamentală, ISC a concluzionat că cea mai utilă contribuție a sa ar fi producerea și menținerea unui cadru analitic adaptativ care poate fi folosit ca bază pentru discurs și luarea deciziilor de către toate părțile interesate, inclusiv în timpul oricărui proces formal de evaluare care apare. 

Acest cadru ar lua forma unei liste de verificare globală care ar putea fi utilizată atât de instituțiile guvernamentale, cât și de cele neguvernamentale. Cadrul identifică și explorează potențialul unei tehnologii precum AI și derivatele sale printr-o lentilă largă care cuprinde bunăstarea umană și societală, precum și factori externi, cum ar fi economia, politica, mediul și securitatea. Unele aspecte ale listei de verificare pot fi mai relevante decât altele, în funcție de context, dar deciziile mai bune sunt mai probabile dacă sunt luate în considerare toate domeniile. Aceasta este valoarea inerentă a abordării listei de verificare. 

Cadrul propus este derivat din lucrări și gândire anterioare, inclusiv din raportul privind bunăstarea digitală al Rețelei internaționale pentru consilierea științifică guvernamentală (INGSA).1 și Cadrul de clasificare OCDE AI2 pentru a prezenta totalitatea oportunităților, riscurilor și impacturilor potențiale ale IA. Aceste produse anterioare au fost mai restrânse în intenția lor, având în vedere timpul și contextul lor, este nevoie de un cadru global care să prezinte întreaga gamă de probleme atât pe termen scurt, cât și pe termen lung. 

Deși a fost dezvoltat pentru a lua în considerare IA, acest cadru analitic ar putea fi aplicat oricărei tehnologii care se dezvoltă rapid. Problemele sunt grupate în linii mari în următoarele categorii pentru o examinare ulterioară: 

  • Bunăstarea (inclusiv cea a indivizilor sau a sinelui, a societății și a vieții sociale și a vieții civice) 
  • Comerț și economie 
  • Condiţii de mediu pentru funcţionare  
  • Geo-strategic și geo-politic 
  • Tehnologic (caracteristicile sistemului, proiectare și utilizare) 

Este inclusă o listă de considerații pentru fiecare dintre categoriile de mai sus, împreună cu oportunitățile și consecințele acestora. Unele sunt relevante pentru cazuri sau aplicații specifice ale AI, în timp ce altele sunt generice și agnostice de platformă sau utilizare. Nici o singură considerație inclusă aici nu ar trebui tratată ca o prioritate și, ca atare, toate ar trebui examinate. 

Cum ar putea fi folosit acest cadru?

Acest cadru poate fi utilizat în următoarele moduri, dar fără a se limita la acestea: 

  • Pentru a reduce decalajul dintre principii și evaluare prin stabilirea unei taxonomii comune validate a gamei de considerente care ar putea fi utilizate de părțile interesate relevante ca bază pentru a informa și a modela gândirea ulterioară, inclusiv orice cadru de evaluare care ar putea fi dezvoltat de autorități. 
  • Pentru a informa evaluările de impact. Actul UE AI impune organizațiilor care furnizează instrumente AI sau adoptă IA în procesele lor să efectueze o evaluare a impactului pentru a identifica riscul inițiativelor lor și să aplice o abordare adecvată de gestionare a riscurilor. Cadrul prezentat aici ar putea fi folosit ca bază pentru aceasta. 
  • Pentru a îmbunătăți principiile etice necesare pentru a ghida și guverna utilizarea IA. Cadrul poate face acest lucru oferind o bază flexibilă pe care pot fi dezvoltate sisteme de încredere și asigurând utilizarea legală, etică, robustă și responsabilă a tehnologiei. Aceste principii ar putea fi testate în raport cu întreaga gamă de impacturi prezentate în acest cadru. 
  • Pentru a facilita un bilanț al măsurilor existente (de exemplu, de reglementare, legislative, de politică) și pentru a identifica orice lacune care necesită o analiză suplimentară. 
  • Cadrul este agnostic față de tehnologie și utilizarea acesteia. Prin urmare, ar putea fi utilizat în domenii destul de distincte, cum ar fi biologia sintetică. 

Următorul tabel este o formare timpurie a dimensiunilor unui cadru analitic. În funcție de tehnologie și de utilizarea acesteia, unele componente vor fi mai relevante decât altele. Exemplele sunt oferite pentru a ilustra de ce fiecare domeniu poate conta; în context, cadrul ar necesita o extindere relevantă din punct de vedere contextual. De asemenea, este important să se facă distincția între dezvoltările platformei și problemele generice care pot apărea în timpul aplicațiilor specifice.  

Dimensiuni de luat în considerare la evaluarea unei noi tehnologii

Proiectul inițial al dimensiunilor care ar putea trebui luate în considerare la evaluarea unei noi tehnologii
Dimensiunile impactului Criterii Exemple despre cum acest lucru poate fi reflectat în analiză  
Individ/ sine  Competența AI a utilizatorilor  Cât de competenți și de conștienți de proprietățile sistemului sunt utilizatorii probabili care vor interacționa cu sistemul? Cum li se vor furniza informațiile relevante despre utilizator și avertismentele? 
Părțile interesate afectate  Care sunt principalele părți interesate care vor fi afectate de sistem (adică indivizi, comunități, vulnerabili, lucrători sectoriali, copii, factori de decizie, profesioniști)? 
Opționalitate Utilizatorii au o opțiune de a renunța la sistem; ar trebui să li se ofere oportunități de a contesta sau de a corecta rezultatul?  
Riscuri pentru drepturile omului și valorile democratice  Ar putea sistemul să aibă impact (și în ce direcție) asupra drepturilor omului, inclusiv, dar fără a se limita la, confidențialitatea, libertatea de exprimare, corectitudinea, riscul de discriminare etc.? 
Efecte potențiale asupra bunăstării oamenilor Ar putea sistemul să influențeze (și în ce direcție) bunăstarea utilizatorului individual (adică calitatea locului de muncă, educație, interacțiuni sociale, sănătate mintală, identitate, mediu)?  
Potenţial de deplasare a forţei de muncă umane Există un potențial ca sistemul să automatizeze sarcini sau funcții care au fost executate de oameni? Dacă da, care sunt consecințele în aval? 
Potențial de manipulare a identității, valorilor sau cunoștințelor Sistemul este proiectat sau poate să manipuleze identitatea utilizatorului sau valorile stabilite sau să răspândească dezinformarea? Există un potențial pentru pretenții false sau neverificabile de expertiză? 
Măsuri ale valorii de sine Există presiune pentru a portretiza un sine idealizat? Ar putea automatizarea să înlocuiască sentimentul de împlinire personală? Există presiune pentru a concura cu sistemul la locul de muncă? Reputația individuală este mai greu de protejat împotriva dezinformării? 
Privacy Există responsabilități difuze pentru protejarea confidențialității și se fac ipoteze cu privire la modul în care sunt utilizate datele cu caracter personal?  
Autonomie Ar putea sistemul să afecteze autonomia umană prin generarea unei dependențe excesive de tehnologie de către utilizatorii finali? 
Dezvoltare Umana Există un impact asupra dobândirii abilităților cheie pentru dezvoltarea umană, cum ar fi funcțiile executive, abilitățile interpersonale, schimbările în timpul de atenție care afectează învățarea, dezvoltarea personalității, preocupările de sănătate mintală etc.?  
Îngrijirea personală a sănătății Există pretenții de soluții personalizate de îngrijire a sănătății? Dacă da, sunt validate conform standardelor de reglementare? 
De sănătate mintală Există un risc de creștere a anxietății, a singurătății sau a altor probleme de sănătate mintală sau poate tehnologia să atenueze astfel de impact? 
Evolutia umana Ar putea tehnologia să ducă la schimbări în evoluția umană?  
Dimensiunile impactului Criterii Descriere 
Societate/viață socială Valorile societale  Schimbă sistemul în mod fundamental natura societății sau permite normalizarea ideilor considerate anterior antisociale sau încalcă valorile societale ale culturii în care este aplicat?  
Interacțiune socială Există un efect asupra contactului uman semnificativ, inclusiv asupra relațiilor emoționale?  
Echitate Este probabil ca aplicația/tehnologia să reducă sau să sporească inegalitățile (de exemplu, economice, sociale, educaționale, geografice)? 
Sănătatea populației Există un potențial ca sistemul să avanseze sau să submineze intențiile de sănătate a populației? 
Expresie culturală Este probabilă sau mai dificil de abordat o creștere a însușirii culturale sau a discriminării? Încrederea în sistemul de luare a deciziilor exclude sau marginalizează potențial secțiuni ale societății? 
Educație publică Există vreun efect asupra rolurilor profesorilor sau instituțiilor de învățământ? Sistemul accentuează sau reduce inechitatea în rândul studenților și decalajul digital? Valoarea intrinsecă a cunoștințelor sau a înțelegerii critice este avansată sau subminată?  
Realități distorsionate Mai sunt valabile metodele pe care le folosim pentru a discerne ceea ce este adevărat? Este compromisă percepția realității?  
Context economic (comerț)        Sector industrial În ce sector industrial este implementat sistemul (adică, finanțe, agricultură, sănătate, educație, apărare)? 
Model de afaceri În ce funcție de afaceri este folosit sistemul și în ce calitate? Unde este folosit sistemul (privat, public, non-profit)? 
Impact asupra activităților critice  O întrerupere a funcției sau activității sistemului ar afecta serviciile esențiale sau infrastructurile critice?  
Respirația de desfășurare Cum este implementat sistemul (în cadrul unei organizații vs răspândit la nivel național/internațional)? 
Maturitatea tehnică (TRL) Cât de matur este tehnic sistemul?  
Suveranitatea tehnologică Tehnologia conduce la o concentrare mai mare a suveranității tehnologice?  
Redistribuirea veniturilor și pârghiile fiscale naționale Ar putea fi compromise rolurile de bază ale statului suveran (adică Băncile de Rezervă)? Va fi avansată sau redusă capacitatea statului de a răspunde așteptărilor și implicațiilor cetățenilor (de exemplu, sociale, economice, politice?  
Dimensiunile impactului Criterii Descriere 
Viața civică    Guvernare și serviciu public Ar putea mecanismele de guvernanță și sistemele de guvernanță globală să fie afectate pozitiv sau negativ? 
Știri media Este posibil ca discursul public să devină mai mult sau mai puțin polarizat și înrădăcinat la nivel de populație? Va exista un efect asupra nivelului de încredere în mass-media? Vor fi afectate în continuare etica și standardele de integritate ale jurnalismului convențional?  
Regula legii Va exista un efect asupra capacității de a identifica indivizi sau organizații care să tragă la răspundere (de exemplu, ce fel de responsabilitate să atribuie unui algoritm pentru rezultate adverse)? Creează acest lucru o pierdere a suveranității (de exemplu, de mediu, fiscală, politică socială, etică)?  
Politică și coeziune socială Există posibilitatea unor opinii politice mai înrădăcinate și mai puține oportunități de construire a consensului? Există posibilitatea de a marginaliza în continuare grupurile? Sunt stilurile de politică contradictorii mai mult sau mai puțin probabile? 
Context geo-strategic/ geo-politic    Supraveghere de precizie Sunt sistemele instruite pe date comportamentale și biologice individuale și, dacă da, ar putea fi folosite pentru a exploata indivizi sau grupuri? 
Colonizarea digitală Sunt actorii statali sau nestatali capabili să exploateze sisteme și date pentru a înțelege și controla populațiile și ecosistemele altor țări sau pentru a submina controlul jurisdicțional? 
Concurență geo-politică Afectează sistemul concurența dintre națiuni și platformele tehnologice pentru accesul la date individuale și colective în scopuri economice sau strategice? 
Comerț și acorduri comerciale Are sistemul implicații pentru acordurile comerciale internaționale? 
Schimbarea puterilor globale Este amenințat statutul statelor naționale ca actori geo-politici principali ai lumii? Companiile de tehnologie vor deține puterea cândva rezervată statelor-națiune și vor deveni ei actori suverani independenți?  
Dezinformarea Este mai ușor pentru actorii statali și nestatali să producă și să difuzeze dezinformații care afectează coeziunea socială, încrederea și democrația?  
Condiţii de mediu pentru funcţionare   Consumul de energie și resurse (amprenta de carbon) Sistemul și cerințele cresc absorbția consumului de energie și resurse peste câștigurile de eficiență obținute prin aplicație?  
Dimensiunile impactului Criterii Descriere 
Date și intrare         Detectare și colectare  Datele și intrările sunt colectate de oameni, senzori automatizați sau ambele?  
Proveniența datelor  În ceea ce privește datele, acestea sunt furnizate, observate, sintetice sau derivate? Există protecții filigrane pentru a confirma proveniența? 
Natura dinamică a datelor Datele sunt dinamice, statice, actualizate din când în când sau actualizate în timp real? 
Drepturile Sunt datele proprietare, publice sau personale (adică, legate de persoane identificabile)?  
Identificarea datelor cu caracter personal  Dacă sunt date cu caracter personal, sunt anonimizate sau pseudonimizate?  
Structura datelor Datele sunt structurate, semi-structurate, complexe structurate sau nestructurate? 
Formatul datelor  Formatul datelor și metadatelor este standardizat sau nestandardizat?  
Scara datelor  Care este scara setului de date?  
Adecvarea și calitatea datelor Setul de date este potrivit scopului? Mărimea eșantionului este adecvată? Este suficient de reprezentativ și complet? Cât de zgomotoase sunt datele? Este predispus la erori?  
Model            Disponibilitatea informațiilor  Sunt disponibile informații despre modelul sistemului?  
Tip de model AI  Modelul este simbolic (reguli generate de om), statistic (folosește date) sau hibrid?  
Drepturi asociate modelului  Modelul este open source, sau proprietar, gestionat de la sine sau de la terți? 
Modele simple sau multiple  Sistemul este compus dintr-un model sau mai multe modele interconectate?  
Generativ sau discriminatoriu Este modelul generativ, discriminativ sau ambele?  
Construirea modelului  Învață sistemul pe baza regulilor scrise de om, din date, prin învățare supravegheată sau prin învățare prin întărire?  
Evoluția modelului (derivarea AI) Modelul evoluează și/sau dobândește abilități din interacțiunea cu datele din domeniu?  
Învățare federată sau centrală Modelul este antrenat central sau pe mai multe servere locale sau dispozitive „edge”?  
Dezvoltare și întreținere  Este modelul universal, personalizabil sau adaptat datelor actorului AI?  
Determinist sau probabilist  Este modelul utilizat într-o manieră deterministă sau probabilistică?  
Transparența modelului  Sunt informațiile disponibile utilizatorilor pentru a le permite să înțeleagă rezultatele și limitările modelului sau constrângerile de utilizare?  
Limitare de calcul Există limitări de calcul ale sistemului? Putem prezice salturile de capacitate sau legile de scalare? 
Dimensiunile impactului Criterii Descriere 
Sarcină și rezultat      Sarcinile efectuate de sistem Ce sarcini îndeplinește sistemul (de exemplu, recunoașterea, detectarea evenimentelor, prognoza)?  
Combinarea sarcinilor și acțiunilor  Sistemul combină mai multe sarcini și acțiuni (de exemplu, sisteme de generare de conținut, sisteme autonome, sisteme de control)?  
Nivelul de autonomie al sistemului Cât de autonome sunt acțiunile sistemului și ce rol joacă oamenii?  
Gradul de implicare umană Există o anumită implicare umană pentru a supraveghea activitatea generală a sistemului AI și capacitatea de a decide când și cum să folosească sistemul în orice situație? 
Aplicație de bază Sistemul aparține unui domeniu de aplicare de bază, cum ar fi tehnologiile limbajului uman, viziunea computerizată, automatizarea și/sau optimizarea sau robotica?  
Evaluare  Sunt disponibile standarde sau metode pentru a evalua rezultatele sistemului sau pentru a face față proprietăților emergente neprevăzute?  

Cheia pentru sursele descriptorilor

Text simplu:
Gluckman, P. și Allen, K. 2018. Înțelegerea bunăstării în contextul transformărilor digitale rapide și asociate. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Text îndrăzneț:
OCDE. 2022. Cadrul OCDE pentru clasificarea sistemelor IA. OECD Digital Economy Papers, Nr. 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

Text italic:
Descriptori noi (din mai multe surse) 

O cale de urmat

În funcție de răspunsul la acest document de discuție, ISC va forma un grup de experți pentru a dezvolta sau modifica în continuare cadrul analitic de mai sus, prin care părțile interesate ar putea analiza în mod cuprinzător orice evoluție semnificativă fie a platformelor, fie a dimensiunilor de utilizare. Grupul de lucru ar fi divers din punct de vedere disciplinar, geografic și demografic, cu expertiză care se întinde de la evaluarea tehnologiei la politici publice, de la dezvoltarea umană la sociologie și studii de viitor și tehnologie. 

Pentru a participa cu acest document de discuție, vă rugăm să vizitați consiliu.știință/publicații/cadru-tehnologii-digitale 

Mulţumiri

Mulți oameni au fost consultați în elaborarea acestei lucrări, care a fost redactată de Sir Peter Gluckman, președinte, ISC și Hema Sridhar, fost om de știință șef, Ministerul Apărării, iar acum cercetător senior, Universitatea din Auckland, Noua Zeelandă. 

Îi mulțumim în special lui Lord Martin Rees, fost președinte al Societății Regale și co-fondator al Centrului pentru Studiul Riscurilor Existențiale, Universitatea din Cambridge; profesor Shivaji Sondhi, profesor de fizică, Universitatea din Oxford; Profesorul K Vijay Raghavan, fost consilier științific principal al Guvernului Indiei; Amandeep Singh Gill, trimisul secretarului general al ONU pentru tehnologie; Dr. Seán Óh Éigeartaigh, director executiv, Centrul pentru Studiul Riscurilor Existențiale, Universitatea din Cambridge; Amanda-June Brawner, consilier principal pentru politici și Ian Wiggins, director pentru afaceri internaționale, Royal Society UK; Dr. Jerome Duberry, Dr. Marie-Laure Salles, Director, Institutul Absolvent din Geneva; dl Chor Pharn Lee, Centrul pentru viitor strategic, biroul primului ministru, Singapore; Barend Mons și Dr. Simon Hodson, Comitetul pentru Date (CoDATA); prof. Yuko Harayama, Japonia; Profesor Rémi Quirion, Președinte, INGSA; Dr. Claire Craig, Universitatea din Oxford și fost șef al departamentului de previziune, Oficiul guvernamental pentru știință; și prof. Yoshua Bengio, Consiliul științific consultativ al Secretarului General al ONU și la Université de Montréal. Abordarea listei de verificare a fost în general aprobată și a fost subliniată oportunitatea oricărei acțiuni din partea ISC. 


Alăturați-vă discuției

Imagine: adamichi pe iStock

Salt la conținut