Un ghid pentru factorii de decizie: evaluarea tehnologiilor în dezvoltare rapidă, inclusiv AI, modele lingvistice mari și nu numai

În această lucrare, ISC explorează schița unui cadru pentru a informa factorii de decizie politică cu privire la multiplele discuții globale și naționale care au loc legate de IA.

Un ghid pentru factorii de decizie: evaluarea tehnologiilor în dezvoltare rapidă, inclusiv AI, modele lingvistice mari și nu numai

Ghidul ISC oferă un cadru cuprinzător conceput pentru a reduce decalajul dintre principiile de nivel înalt și politicile practice și aplicabile. Răspunde nevoii urgente de înțelegere comună atât a oportunităților, cât și a riscurilor prezentate de tehnologiile emergente. Acesta este un document esențial pentru cei care lucrează la legătura politică în era digitală în schimbare rapidă.

Cadrul explorează potențialul AI și al derivatelor sale printr-o lentilă cuprinzătoare, cuprinzând bunăstarea umană și societală împreună cu factori externi precum economia, politica, mediul și securitatea. Unele aspecte ale listei de verificare pot fi mai relevante decât altele, în funcție de context, dar deciziile mai bune par mai probabile dacă sunt luate în considerare toate domeniile, chiar dacă unele pot fi identificate rapid ca irelevante în cazuri particulare. Aceasta este valoarea inerentă a abordării listei de verificare.

Peter Gluckman

Președinte ISC

„Într-o eră marcată de inovare tehnologică rapidă și provocări globale complexe, cadrul ISC pentru o analiză cuprinzătoare și multidimensională a impactului potențial dă putere liderilor să ia decizii informate și responsabile. Ne asigură că, pe măsură ce avansăm din punct de vedere tehnologic, facem acest lucru cu o atenție atentă a implicațiilor etice, sociale și economice”.

În timp ce principiile la nivel înalt au fost promulgate de UNESCO, OCDE, Comisia Europeană și ONU, printre altele, și continuă diferite discuții cu privire la probleme de guvernanță potențială, reglementare, etică și siguranță, există un decalaj mare între astfel de principii și un guvernanță sau cadrul de reglementare. ISC abordează această nevoie prin noul său ghid pentru factorii de decizie.

Acest ghid pentru factorii de decizie nu are scopul de a interzice un regim de reglementare, ci mai degrabă de a sugera un cadru analitic adaptabil și în evoluție, care ar putea sta la baza oricăror procese de evaluare și reglementare care ar putea fi dezvoltate de părțile interesate, inclusiv guvernele și sistemul multilateral.

Hema Sridhar

Fost consilier șef științific, Ministerul Apărării, Noua Zeelandă și acum Senior Research Fellow, Universitatea din Auckland, Noua Zeelandă.

„Cadrul este un pas critic în conversația globală despre inteligența artificială, deoarece oferă o bază de la care putem construi un consens cu privire la implicațiile tehnologiei atât pentru acum, cât și pentru viitor”. 

Din octombrie 2023, au existat mai multe inițiative naționale și multilaterale semnificative care au luat în considerare în continuare etica și siguranța IA. Implicațiile inteligenței artificiale asupra integrității unora dintre sistemele noastre critice, inclusiv financiare, guvernamentale, juridice și educaționale, precum și diferite sisteme de cunoștințe (inclusiv cunoștințe științifice și indigene), sunt din ce în ce mai îngrijorătoare. Cadrul reflectă în continuare aceste aspecte.

Feedback-ul primit de la membrii ISC și de la comunitatea internațională de elaborare a politicilor până în prezent este reflectat în versiunea revizuită a cadrului analitic, care este acum lansată ca ghid pentru factorii de decizie.

Un ghid pentru factorii de decizie: evaluarea tehnologiilor în dezvoltare rapidă, inclusiv AI, modele lingvistice mari și nu numai

Acest document de discuție oferă schița unui cadru inițial pentru a informa multiplele discuții globale și naționale care au loc legate de IA.

Descărcați cadrul pentru utilizare în organizația dvs

Aici oferim instrumentul cadru ca o foaie Excel editabilă pentru a fi utilizată în organizația dvs. Dacă preferați un format open source, vă rugăm să contactați secretariat@council.science.

Introducere

Tehnologiile care apar rapid prezintă probleme provocatoare când vine vorba de utilizarea, guvernanța și potențiala reglementare. Politica în curs și dezbaterile publice privind inteligența artificială (AI) și utilizarea acesteia au adus aceste probleme în atenție. Principii largi pentru IA au fost anunțate de UNESCO, OCDE, ONU și alții, inclusiv Declarația Bletchley a Regatului Unit, și există încercări jurisdicționale emergente de reglementare a aspectelor tehnologiei prin, de exemplu, IA a Uniunii Europene (UE) Act sau recentul ordin executiv al Statelor Unite ale Americii.

În timp ce utilizarea inteligenței artificiale este discutată pe larg în aceste și alte foruri, de-a lungul diviziunilor geopolitice și în țări la toate nivelurile de venit, rămâne un decalaj ontologic între dezvoltarea principiilor de nivel înalt și încorporarea lor în practică, fie prin reglementări, politici, guvernanță. sau abordări de administrare. Calea de la principiu la practică este slab definită, dar având în vedere natura și cadența dezvoltării și aplicării AI, varietatea de interese implicate și gama de aplicații posibile, orice abordare nu poate fi prea generică sau prescriptivă.

Din aceste motive, comunitatea științifică neguvernamentală continuă să joace un rol deosebit. Consiliul Internațional de Știință (ISC) – cu apartenența sa pluralistă din științele sociale și naturale – a lansat un document de discuție în octombrie 2023, prezentând un cadru analitic preliminar care a luat în considerare riscurile, beneficiile, amenințările și oportunitățile asociate cu tehnologia digitală în mișcare rapidă. Deși a fost dezvoltat pentru a lua în considerare IA, este în mod inerent agnostic de tehnologie și poate fi aplicat unei game de tehnologii emergente și perturbatoare, cum ar fi biologia sintetică și cuantică. Acest document de discuție a invitat feedback din partea cadrelor universitare și a factorilor de decizie. Feedback-ul copleșitor a făcut ca efectuarea unei astfel de analize să fie necesară și a reprezentat o abordare valoroasă pentru abordarea tehnologiilor emergente precum AI.

Scopul cadrului este de a oferi un instrument care să informeze toate părțile interesate – inclusiv guvernele, negociatorii comerciali, autoritățile de reglementare, societatea civilă și industria – cu privire la evoluția acestor tehnologii pentru a le ajuta să stabilească modul în care ar putea lua în considerare implicațiile, pozitive sau negative, ale tehnologia în sine și, mai precis, aplicația sa particulară. Acest cadru analitic a fost dezvoltat independent de interesele guvernamentale și ale industriei. Este maxim pluralist în perspectivele sale, cuprinzând toate aspectele tehnologiei și implicațiile sale bazate pe consultări și feedback ample.

Acest document de discuție pentru factorii de decizie politică nu are scopul de a interzice un regim de reglementare, ci mai degrabă de a sugera un cadru analitic adaptativ și în evoluție, care ar putea sta la baza oricăror procese de evaluare și reglementare care ar putea fi dezvoltate de părțile interesate, inclusiv guvernele și sistemul multilateral.

Pe măsură ce factorii de decizie la nivel global și național iau în considerare setările și pârghiile de politică adecvate pentru a echilibra riscurile și recompensele unei noi tehnologii, cum ar fi AI, cadrul analitic este conceput ca un instrument complementar pentru a se asigura că întreaga suită de implicații potențiale este reflectată în mod adecvat.

Context: de ce un cadru analitic?

Apariția rapidă a tehnologiilor cu complexitatea și implicațiile AI generează multe afirmații de mare beneficiu. Cu toate acestea, provoacă și temeri de riscuri semnificative, de la nivel individual până la nivel geostrategic.1 O mare parte din discuția de până în prezent a fost considerată într-un sens binar, deoarece opiniile exprimate public tind să aibă loc la extremele extreme ale spectrului. Afirmațiile făcute pentru sau împotriva IA sunt adesea hiperbolice și – având în vedere natura tehnologiei – dificil de evaluat.

Este necesară o abordare mai pragmatică în cazul în care hiperbola este înlocuită cu evaluări calibrate și mai granulare. Tehnologia AI va continua să evolueze, iar istoria arată că practic fiecare tehnologie are utilizări atât benefice, cât și dăunătoare. Întrebarea este, așadar: cum putem obține rezultate benefice din această tehnologie, reducând în același timp riscul unor consecințe dăunătoare, dintre care unele ar putea fi existențiale ca magnitudine?

Viitorul este întotdeauna incert, dar există suficiente voci credibile și experte în ceea ce privește IA și IA generativă pentru a încuraja o abordare relativ precaută. În plus, este necesară o abordare de sistem, deoarece AI este o clasă de tehnologii cu utilizare și aplicare largă de către mai multe tipuri de utilizatori. Aceasta înseamnă că trebuie luat în considerare întregul context atunci când se iau în considerare implicațiile oricărei utilizări a IA pentru indivizi, viața socială, viața civică, viața societală și în contextul global.

Spre deosebire de majoritatea celorlalte tehnologii, pentru tehnologiile digitale și conexe, timpul dintre dezvoltare, lansare și aplicare este extrem de scurt, în mare măsură determinat de interesele companiilor sau agențiilor de producție. Prin însăși natura sa – și având în vedere că se bazează pe coloana vertebrală digitală – AI va avea aplicații care sunt rapid omniprezente, așa cum sa văzut deja odată cu dezvoltarea modelelor de limbaj mari. Ca urmare, unele proprietăți pot deveni evidente numai după eliberare, ceea ce înseamnă că există riscul unor consecințe neprevăzute, atât răuvoitoare, cât și binevoitoare.

Dimensiunile importante ale valorilor societale, în special în diferite regiuni și culturi, vor influența modul în care orice utilizare este percepută și acceptată. În plus, interesele geostrategice domină deja discuțiile, interesele suverane și multilaterale intersectându-se continuu și conducând astfel concurența și diviziunea.

Până în prezent, o mare parte din reglementarea unei tehnologii virtuale a fost văzută în mare parte prin prisma „principiilor” și conformității voluntare, deși cu Actul UE AI.2 și similare, asistăm la o trecere la reglementări mai aplicabile, dar oarecum înguste. Stabilirea unui sistem eficient de guvernanță a tehnologiei și/sau de reglementare la nivel global sau național rămâne o provocare și nu există o soluție evidentă. Va fi nevoie de mai multe straturi de luare a deciziilor bazate pe riscuri de-a lungul lanțului, de la inventator la producător, la utilizator, la guvern și la sistemul multilateral.

În timp ce principiile la nivel înalt au fost promulgate de UNESCO, OCDE, Comisia Europeană și ONU, printre altele, și continuă diferite discuții la nivel înalt cu privire la probleme de guvernanță potențială, reglementare, etică și siguranță, există un decalaj mare între astfel de principii și un cadru de guvernanță sau de reglementare. Acest lucru trebuie abordat.

Ca punct de plecare, ISC are în vedere dezvoltarea unei taxonomii a considerațiilor la care ar putea face referire orice dezvoltator, reglementator, consilier de politici, consumator sau decident. Având în vedere implicațiile largi ale acestor tehnologii, o astfel de taxonomie trebuie să ia în considerare totalitatea implicațiilor, mai degrabă decât o încadrare îngust focalizată. Fragmentarea globală este în creștere datorită influenței intereselor geostrategice asupra luării deciziilor și, având în vedere urgența acestei tehnologii, este esențial ca vocile independente și neutre să susțină în mod persistent o abordare unificată și incluzivă.


1) Hindustan Times. 2023. G20 trebuie să înființeze un panel internațional pentru schimbarea tehnologică.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Actul UE privind inteligența artificială. 2023. https://artificialintelligenceact.eu

Dezvoltarea unui cadru analitic

ISC este principala organizație neguvernamentală globală care integrează științele naturale și sociale. Aria sa globală și disciplinară înseamnă că este bine plasată pentru a genera consiliere independentă și relevantă la nivel global pentru a informa alegerile complexe care urmează, mai ales că vocile actuale în acest domeniu provin în mare parte din industrie sau din comunitățile politice și politice ale marilor puteri tehnologice.

După o perioadă de discuții ample, care a inclus luarea în considerare a unui proces de evaluare neguvernamentală, ISC a concluzionat că cea mai utilă contribuție a sa ar fi producerea unui cadru analitic adaptativ care să poată fi folosit ca bază pentru discurs și pentru luarea deciziilor de către toți. părțile interesate, inclusiv în timpul oricăror procese formale de evaluare care apar.

Cadrul analitic preliminar, care a fost lansat pentru discuții și feedback în octombrie 2023, a luat forma unei liste de verificare globală concepută pentru a fi utilizată atât de instituțiile guvernamentale, cât și de cele neguvernamentale. Cadrul a identificat și explorat potențialul unei tehnologii precum AI și derivatele sale printr-o lentilă largă care cuprinde bunăstarea umană și societală, precum și factori externi precum economia, politica, mediul și securitatea. Unele aspecte ale listei de verificare pot fi mai relevante decât altele, în funcție de context, dar deciziile mai bune par mai probabile dacă sunt luate în considerare toate domeniile, chiar dacă unele pot fi identificate rapid ca irelevante în cazuri particulare. Aceasta este valoarea inerentă a abordării listei de verificare.

Cadrul preliminar a fost derivat din lucrări și gândiri anterioare, inclusiv din raportul Rețelei internaționale de consiliere științifică guvernamentală (INGSA) privind bunăstarea digitală3 și Cadrul OCDE pentru clasificarea sistemelor de inteligență artificială4, pentru a prezenta totalitatea oportunităților, riscurilor și impacturilor potențiale. de AI. Aceste produse anterioare au fost mai restrânse în intenția lor, având în vedere timpul și contextul lor; este nevoie de un cadru global care să prezinte întreaga gamă de probleme atât pe termen scurt, cât și pe termen lung.

De la lansare, documentul de discuție a primit sprijin semnificativ din partea multor experți și factori de decizie. Mulți au susținut în mod special recomandarea de a dezvolta un cadru adaptativ care să permită luarea în considerare deliberată și proactivă a riscurilor și implicațiilor tehnologiei și, în acest sens, ia întotdeauna în considerare totalitatea dimensiunilor de la individ la societate și sisteme.

O observație cheie făcută prin feedback a fost recunoașterea faptului că mai multe dintre implicațiile luate în considerare în cadru sunt în mod inerent cu mai multe fațete și se extind pe mai multe categorii. De exemplu, dezinformarea ar putea fi luată în considerare atât din perspectiva individuală, cât și din perspectiva geostrategică; astfel, consecințele ar fi variate.

De asemenea, a fost sugerată opțiunea de a include studii de caz sau exemple pentru a testa cadrul. Acest lucru ar putea fi folosit pentru a dezvolta linii directoare care să demonstreze cum ar putea fi utilizat în practică în diferite contexte. Cu toate acestea, aceasta ar fi o activitate semnificativă și poate limita modul în care diferite grupuri percep utilizarea acestui cadru. Cel mai bine este făcut de factorii de decizie care lucrează cu experți în jurisdicții sau contexte specifice.

Din octombrie 2023, au existat mai multe inițiative naționale și multilaterale semnificative care au luat în considerare în continuare etica și siguranța IA. Implicațiile inteligenței artificiale asupra integrității unora dintre sistemele noastre critice, inclusiv financiare, guvernamentale, juridice și educaționale, precum și diferite sisteme de cunoștințe (inclusiv cunoștințe științifice și indigene), sunt din ce în ce mai îngrijorătoare. Cadrul revizuit reflectă în continuare aceste aspecte.

Feedback-ul primit până în prezent este reflectat în versiunea revizuită a cadrului analitic, care este acum lansată ca ghid pentru factorii de decizie.

În timp ce cadrul este prezentat în contextul AI și al tehnologiilor conexe, este imediat transferabil în considerațiile altor tehnologii care apar rapid, cum ar fi biologia cuantică și sintetică.


3) Gluckman, P. și Allen, K. 2018. Înțelegerea bunăstării în contextul transformărilor digitale rapide și asociate. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. Cadrul OCDE pentru clasificarea sistemelor IA. Documente OCDE de economie digitală, nr. 323,#. Paris, Editura OECD.
https://oecd.ai/en/classificatio

Cadrul

Următorul tabel prezintă dimensiunile unui presupus cadru analitic. Sunt oferite exemple pentru a ilustra de ce fiecare domeniu poate conta; în context, cadrul ar necesita o extindere relevantă din punct de vedere contextual. De asemenea, este important să se facă distincția între problemele generice care apar în timpul dezvoltării platformei și cele care pot apărea în timpul aplicațiilor specifice. Nici o singură considerație inclusă aici nu ar trebui tratată ca o prioritate și, ca atare, toate ar trebui examinate.

Problemele sunt grupate în linii mari în următoarele categorii, după cum este prezentat mai jos:

  • Bunăstarea (inclusiv cea a indivizilor sau a sinelui, a societății, a vieții sociale și a vieții civice)
  • Comerț și economie
  • Condiţii de mediu pentru funcţionare
  • Geostrategic și geopolitic
  • Tehnologic (caracteristicile sistemului, proiectare și utilizare)

Tabelul detaliază dimensiunile care ar putea trebui luate în considerare atunci când se evaluează o nouă tehnologie.

🔴 INGSA. 2018. Înțelegerea bunăstării în contextul transformărilor digitale rapide și asociate.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Descriptori noi (obținuți din consultarea extinsă și feedback-ul și revizuirea literaturii)

🟡 Cadrul OCDE pentru clasificarea sistemelor IA: un instrument pentru politici eficiente de IA.
https://oecd.ai/en/classification

Dimensiuni de impact: Individ / sine

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟡Competența AI a utilizatorilorCât de competenți și de conștienți de proprietățile sistemului sunt utilizatorii probabili care vor interacționa cu sistemul? Cum li se vor furniza informațiile relevante despre utilizator și avertismentele?
🟡 Părți interesate afectateCare sunt principalele părți interesate care vor fi afectate de sistem (persoane, comunități, vulnerabili, lucrători sectoriali, copii, factori de decizie, profesioniști etc.)?
🟡 OpționalitateLi se oferă utilizatorilor posibilitatea de a renunța la sistem sau li se oferă oportunități de a contesta sau de a corecta rezultatul?
🟡Riscuri la adresa drepturilor omului și a valorilor democraticeAre sistemul un impact fundamental asupra drepturilor omului, inclusiv, dar fără a se limita la intimitate, libertatea de exprimare, corectitudine, nediscriminare etc.?
🟡Efecte potențiale asupra bunăstării oamenilorZonele de impact ale sistemului se referă la bunăstarea utilizatorului individual (calitatea locului de muncă, educație, interacțiuni sociale, sănătate mintală, identitate, mediu etc.)?
🟡 Potențial de deplasare a forței de muncă umaneExistă un potențial ca sistemul să automatizeze sarcini sau funcții care au fost executate de oameni? Dacă da, care sunt consecințele în aval?
🟡 Potențial de manipulare a identității, valorilor sau cunoștințelorSistemul este proiectat sau este posibil să manipuleze identitatea utilizatorului sau
se stabilesc valori sau răspândesc dezinformare?
🔴 Oportunități de autoexprimare și autoactualizareExistă un potențial de artificii și îndoială de sine? Există un potențial de fals sau
pretenții de expertiză neverificabile?
🔴 Măsuri ale valorii de sineExistă presiune pentru a portretiza sinele idealizat? Ar putea automatizarea să înlocuiască un sens
de împlinire personală? Există presiune pentru a concura cu sistemul din
la locul de muncă? Este mai greu de protejat reputația individuală împotriva dezinformării?
🔴 ConfidențialitateExistă responsabilități difuze pentru protejarea confidențialității și există?
se fac ipoteze cu privire la modul în care sunt utilizate datele cu caracter personal?
🔴AutonomieAr putea sistemul AI să afecteze autonomia umană prin generarea unei dependențe excesive prin?
utilizatori finali?
🔴 Dezvoltarea umanăExistă un impact asupra dobândirii competențelor cheie pentru dezvoltarea umană, cum ar fi
funcții executive sau abilități interpersonale, sau modificări ale timpului de atenție care afectează
învățare, dezvoltarea personalității, probleme de sănătate mintală etc.?
🔴 Îngrijirea personală a sănătățiiExistă pretenții de autodiagnosticare sau soluții personalizate de îngrijire a sănătății? Daca da,
sunt validate conform standardelor de reglementare?
🔴 Sănătate mintalăExistă un risc crescut de anxietate, singurătate sau alte probleme de sănătate mintală sau
tehnologia poate ameliora astfel de impacturi?
🟢 Evoluția umanăModelele de limbaj mari și inteligența generală artificială ar putea schimba
cursul evoluției umane?
🟢 Interacțiunea om-mașinăAr putea folosirea să ducă la decalificare și dependență în timp pentru indivizi? Sunt
există impact asupra interacțiunii umane?
5) Criteriile tehnologice luate în considerare în cadru sunt special pentru IA și vor trebui revizuite pentru alte tehnologii, după caz.

Dimensiunile impactului: societate/viață socială

Criterii Exemple despre cum acest lucru poate fi reflectat în analiză
🔴 Valori socialeSchimbă sistemul în mod fundamental natura societății, permite normalizarea ideilor considerate anterior antisociale sau încalcă valorile societale ale culturii în care este aplicat?
🔴 Interacțiuni socialeExistă un efect asupra contactului uman semnificativ, inclusiv asupra relațiilor emoționale?
🔴 Sănătatea populațieiExistă un potențial ca sistemul să avanseze sau să submineze intențiile de sănătate a populației?
🔴 Expresie culturalăEste probabilă sau mai dificil de abordat o creștere a însușirii culturale sau a discriminării? Bazarea pe sistemul de luare a deciziilor exclude sau marginalizează legăturile secționale relevante din punct de vedere cultural ale societății?
🔴 Învățământul publicExistă vreun efect asupra rolurilor profesorilor sau instituțiilor de învățământ? Sistemul accentuează sau reduce decalajul digital și inechitatea în rândul studenților? Valoarea intrinsecă a cunoștințelor sau a înțelegerii critice este avansată sau subminată?
🟢 Realități distorsionateMai sunt aplicabile metodele folosite pentru a discerne ceea ce este adevărat? Este compromisă percepția realității?

Dimensiunile impactului: context economic (comerț)

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟡 Sector industrialÎn ce sector industrial este implementat sistemul (finanțe, agricultură, sănătate, educație, apărare etc.)?
🟡 Model de afaceriÎn ce funcție de afaceri este folosit sistemul și în ce calitate? Unde este folosit sistemul (privat, public, non-profit)?
🟡 Impacturi asupra activităților critice O întrerupere a funcției sau activității sistemului ar afecta serviciile esențiale sau infrastructurile critice?
🟡Amploarea implementăriiCum este implementat sistemul (utilizare restrânsă în cadrul unității vs. răspândită la nivel național/internațional)?
🟡 Maturitate tehnicăCât de matur este tehnic sistemul?
🟢 Interoperabilitate Este probabil să existe silozuri, la nivel național sau global, care să inhibe comerțul liber și să aibă impact asupra cooperării cu partenerii?
🟢 Suveranitatea tehnologicăDorința de suveranitate tehnologică conduce comportamentele, inclusiv controlul asupra întregului lanț de aprovizionare cu IA?
🔴 Redistribuirea veniturilor și pârghiile fiscale naționaleAr putea fi compromise rolurile de bază ale statului suveran (de exemplu, băncile de rezervă)? Capacitatea statului de a răspunde așteptărilor și implicațiilor cetățenilor (sociale, economice, politice etc.) va fi avansată sau redusă?
🟢 Diviziunea digitală (diviziunea AI) Sunt inegalitățile digitale existente exacerbate sau sunt create altele noi?

Dimensiunile impactului: Viața civică

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🔴 Guvernare și serviciu publicAr putea mecanismele de guvernare și sistemul global de guvernare să fie afectate pozitiv sau negativ?
🔴 Presa de știriEste posibil ca discursul public să devină polarizat și înrădăcinat la nivel de populație? Va exista un efect asupra nivelurilor de încredere în a patra stare? Vor fi afectate în continuare standardele de etică și integritate ale jurnaliștilor convenționali?
🔴 Statul de dreptVa exista un efect asupra capacității de a identifica indivizi sau organizații care să tragă la răspundere (de exemplu, ce fel de responsabilitate să atribuie unui algoritm pentru rezultate adverse)? Se creează o pierdere a suveranității (de mediu, fiscală, politică socială, etică etc.)?
🔴Politică și coeziune socialăExistă posibilitatea unor opinii politice mai înrădăcinate și mai puține oportunități de construire a consensului? Există posibilitatea de a marginaliza în continuare grupurile? Sunt stilurile de politică contradictorii mai mult sau mai puțin probabile?
🟢 Licență socialăExistă preocupări legate de confidențialitate, probleme de încredere și preocupări morale care trebuie luate în considerare pentru acceptarea utilizării de către părțile interesate?
🟢 Cunoștințe indigeneAr putea cunoștințele și datele indigene să fie corupte sau deturnate? Există măsuri adecvate de protecție împotriva denaturării, informării greșite și exploatării?
🟢 Sistem științificIntegritatea academică și de cercetare este compromisă? Există o pierdere a încrederii în știință? Există posibilități de utilizare greșită, suprautilizare sau abuz? Care este consecința practicii științei?

Dimensiunile impactului: Context geostrategic/geopolitic

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟢 Supraveghere de precizieSunt sistemele instruite pe date comportamentale și biologice individuale și ar putea fi folosite pentru a exploata indivizi sau grupuri?
🟢 Competiție digitalăAr putea actorii statali sau nestatali (de exemplu marile companii tehnologice) să valorifice sisteme și date pentru a înțelege și controla populațiile și ecosistemele altor țări sau ar putea submina controlul jurisdicțional?
🟢 Concurență geopoliticăAr putea sistemul să stimuleze competiția între națiuni pentru valorificarea datelor individuale și de grup pentru interese economice, medicale și de securitate?
🟢 Schimbarea puterilor globaleEste amenințat statutul statelor-națiune ca actori geopolitici principali ai lumii? Companiile de tehnologie dețin puterea rezervată cândva statelor-națiune și au devenit actori independenți, suverani (ordinea mondială tehnopolară emergentă)?
🟢 DezinformareAr facilita sistemul producerea și diseminarea dezinformarii de către actorii statali și nestatali cu impact asupra coeziunii sociale, încrederii și democrației?
🟢 Aplicații cu dublă utilizareExistă o posibilitate atât pentru aplicare militară, cât și pentru utilizare civilă?
🟢 Fragmentarea ordinii globaleS-ar putea dezvolta silozuri sau grupuri de reglementări și conformitate care să împiedice cooperarea, să conducă la inconsecvențe în aplicare și să creeze spațiu pentru conflicte?

Dimensiuni impact: Mediu

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟢 Consum de energie și resurse (amprenta de carbon)Sistemul și cerințele cresc absorbția de energie și consumul de resurse peste câștigurile de eficiență obținute prin aplicație?
🟢Sursa de energieDe unde provine energia pentru sistem (combustibili din surse regenerabile vs. combustibili fosili etc.)?

Dimensiunile impactului: date și intrare

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟡 Direcție și colectareDatele și intrările sunt colectate de oameni, senzori automatizați sau ambele?
🟡 Proveniența datelorDatele și contribuțiile experților sunt furnizate, observate, sintetice sau derivate? Există protecții filigrane pentru a confirma proveniența?
🟡 Natura dinamică a datelorDatele sunt dinamice, statice, dinamice actualizate din când în când sau în timp real?
🟡 DrepturiDatele sunt proprietate, publice sau personale (referite de persoane identificabile)?
🟡 Identificare și date personaleDacă sunt personale, datele sunt anonimizate sau pseudonimizate?
🟡 Structura datelorDatele sunt structurate, semi-structurate, complexe structurate sau nestructurate?
🟡 Formatul datelorFormatul datelor și metadatelor este standardizat sau nestandardizat?
🟡 Scara datelorCare este scara setului de date?
🟡 Adecvarea și calitatea datelor Setul de date este potrivit scopului? Mărimea eșantionului este adecvată? Este suficient de reprezentativ și complet? Cât de zgomotoase sunt datele? Este predispus la erori?

Dimensiuni impact: Model

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟡 Disponibilitatea informațiilorSunt disponibile informații despre modelul sistemului?
🟡 Tip de model AIModelul este simbolic (reguli generate de om), statistic (folosește date) sau hibrid?
🟡 Drepturi asociate modeluluiModelul este open-source sau proprietar, auto sau de la terți?
🟡 Unic din mai multe modeleSistemul este compus dintr-un model sau mai multe modele interconectate?
🟡 Generative sau discriminatoriiEste modelul generativ, discriminativ sau ambele?
🟡 Construire modelÎnvață sistemul pe baza regulilor scrise de om, din date, prin învățare supravegheată sau prin învățare prin întărire?
🟡 Evoluție model (AI drift)Modelul evoluează și/sau dobândește abilități din interacțiunea cu datele din domeniu?
🟡 Învățare federată sau centralăModelul este antrenat central sau pe mai multe servere locale sau dispozitive „edge”?
🟡 Dezvoltare/întreținereEste modelul universal, personalizabil sau adaptat datelor actorului AI?
🟡 Determinist sau probabilist Este modelul utilizat într-o manieră deterministă sau probabilistică?
🟡 Transparența modelului Sunt informațiile disponibile utilizatorilor pentru a le permite să înțeleagă rezultatele și limitările modelului sau constrângerile de utilizare?
🟢 Limitare computaționalăExistă limitări de calcul ale sistemului? Este posibil să se prezică salturi de capacitate sau legile de scalare?

Dimensiunile impactului: Sarcină și rezultate

CriteriiExemple despre cum acest lucru poate fi reflectat în analiză
🟡 Sarcini(e) efectuat(e) de sistemCe sarcini îndeplinește sistemul (recunoaștere, detectarea evenimentelor, prognoză etc.)?
🟡 Combinând sarcini și acțiuniSistemul combină mai multe sarcini și acțiuni (sisteme de generare de conținut, sisteme autonome, sisteme de control etc.)?
🟡 Nivelul de autonomie al sistemului Cât de autonome sunt acțiunile sistemului și ce rol joacă oamenii?
🟡Grad de implicare umanăExistă o anumită implicare umană pentru a supraveghea activitatea generală a sistemului AI și capacitatea de a decide când și cum să folosească sistemul AI în orice situație?
🟡 Aplicație de bazăSistemul aparține unui domeniu de aplicare de bază, cum ar fi tehnologiile limbajului uman, viziunea computerizată, automatizarea și/sau optimizarea sau robotica?
🟡 EvaluareSunt disponibile standarde sau metode pentru evaluarea rezultatelor sistemului?

Cum ar putea fi folosit acest cadru?

Acest cadru poate fi utilizat în mai multe moduri, inclusiv:

  • Pentru a reduce decalajul dintre principiile la nivel înalt și evaluarea în scopuri de reglementare sau guvernanță. Cadrul poate sprijini acest lucru prin stabilirea unei taxonomii comune validate a gamei de probleme care merită luate în considerare de către părțile interesate relevante ca bază pentru a informa și a modela gândirea ulterioară. De exemplu, la nivel național, cadrul ar putea fi folosit ca instrument de către guvern, deoarece dezvoltă o strategie și politici naționale de IA pentru a stabili o bază comună a riscurilor și oportunităților între grupurile de părți interesate.
  • Pentru a informa evaluările de impact. Actul UE AI impune organizațiilor care furnizează instrumente AI sau adoptă IA în procesele lor să efectueze o evaluare a impactului pentru a identifica riscul inițiativelor lor și să aplice o abordare adecvată de gestionare a riscurilor. Cadrul prezentat aici ar putea fi folosit ca bază pentru aceasta.
  • Pentru a informa scanarea orizontului pentru riscuri și scenarii viitoare. Clasificarea riscurilor din Raportul interimar al organismului consultativ ONU AI6 este în linii mari aliniată cu cadrul prezentat în cadrul de aici. Există o oportunitate ca cadrul să fie folosit pentru a construi un consens și a testa severitatea riscurilor emergente, precum și pentru a le anticipa.
  • Pentru a îmbunătăți principiile etice necesare pentru a ghida și guverna utilizarea IA. Cadrul poate face acest lucru oferind o bază flexibilă pe care pot fi dezvoltate sisteme de încredere și asigurând utilizarea legală, etică, robustă și responsabilă a tehnologiei. Aceste principii ar putea fi testate în raport cu întreaga gamă de impacturi prezentate în acest cadru.
  • Pentru a facilita un bilanț al măsurilor existente și în evoluție (de reglementare, legislative, politici, standarde, guvernanță etc.) și pentru a identifica lacunele care necesită o analiză suplimentară. Acestea ar putea fi comparate cu categoriile-cadru la nivel național sau multinațional pentru a determina lacunele și pentru a identifica măsuri adecvate pentru a atenua riscurile.
  • Pentru a sprijini utilizarea de către guvern a IA. Pe măsură ce multe guverne își determină strategiile respective pentru utilizarea IA în cadrul agențiilor și sistemelor, cadrul ar putea fi utilizat pentru a defini pragurile de risc adecvate și pentru a identifica părțile interesate și responsabilitățile cheie.
  • Pentru a sprijini discursul public și a stabili licența socială cu privire la modul în care este utilizată IA și datele de bază care vor fi utilizate în cadrul serviciilor guvernamentale sau, mai larg, în societate.

O cale de urmat
În rezumat, cadrul analitic este oferit ca bază a unui set de instrumente care ar putea fi utilizat de părțile interesate pentru a analiza în mod cuprinzător orice evoluție semnificativă fie a platformelor, fie a utilizării într-o manieră consecventă și sistematică. Dimensiunile prezentate în acest cadru au relevanță de la evaluarea tehnologiei la politici publice, de la dezvoltarea umană la sociologie și studii de viitor și tehnologie. Deși este dezvoltat pentru AI, acest cadru analitic are o aplicație mult mai largă pentru orice altă tehnologie emergentă.

6 Consiliul consultativ al ONU AI. 2023. Raport intermediar: Guvernarea AI pentru umanitate. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Mulţumiri

Mulți oameni au fost consultați și au oferit feedback atât la elaborarea documentului de discuție inițial, cât și la feedback-ul după lansarea acestuia. Ambele lucrări au fost redactate de Sir Peter Gluckman, președinte, ISC și Hema Sridhar, fost consilier șef științific, Ministerul Apărării, Noua Zeelandă și acum cercetător senior, Universitatea din Auckland, Noua Zeelandă.

În special, ISC Lord Martin Rees, fost președinte al Societății Regale și co-fondator al Centrului pentru Studiul Riscurilor Existențiale, Universitatea din Cambridge; profesor Shivaji Sondhi, profesor de fizică, Universitatea din Oxford; Profesorul K Vijay Raghavan, fost consilier științific principal al Guvernului Indiei; Amandeep Singh Gill, trimisul secretarului general al ONU pentru tehnologie; Seán Ó hÉigeartaigh, director executiv, Centrul pentru Studiul Riscurilor Existențiale, Universitatea din Cambridge; Sir David Spiegelhalter, profesor Winton de Înțelegerea publică a riscului, Universitatea
din Cambridge; Amanda-June Brawner, consilier principal pentru politici și Ian Wiggins, director pentru afaceri internaționale, Royal Society, Regatul Unit; Dr. Jerome Duberry, director general și Dr. Marie-Laure Salles, director, Institutul de absolvenți din Geneva; Chor Pharn Lee, Centrul pentru Viitoare Strategice, Biroul Primului Ministru, Singapore; Barend Mons și Dr. Simon Hodson, Comitetul pentru Date (CoDATA); profesor Yuko Harayama, fost director executiv, RIKEN; Profesor
Rémi Quirion, președinte, INGSA; Dr. Claire Craig, Universitatea din Oxford și fost șef al departamentului de previziune, Oficiul guvernamental pentru știință; prof. Yoshua Bengio, Consiliul științific consultativ al Secretarului General al ONU și la Universitatea din Montréal; și mulți alții care au oferit feedback ISC cu privire la documentul de discuție inițial.


Lecturi suplimentare

Pregătirea ecosistemelor naționale de cercetare pentru IA: strategii și progres în 2024

Acest document de lucru al think tank-ului ISC, Center for Science Futures, oferă informații fundamentale și acces la resurse din țări din toate părțile lumii, la diferite etape ale integrării AI în ecosistemele lor de cercetare: 

Salt la conținut