Juhend poliitikakujundajatele: kiiresti arenevate tehnoloogiate, sealhulgas tehisintellekti, suurte keelemudelite ja muu hindamine

Selles artiklis uurib ISC raamistikku, et teavitada poliitikakujundajaid tehisintellektiga seotud mitmetest ülemaailmsetest ja riiklikest aruteludest.

Juhend poliitikakujundajatele: kiiresti arenevate tehnoloogiate, sealhulgas tehisintellekti, suurte keelemudelite ja muu hindamine

ISC juhend pakub kõikehõlmavat raamistikku, mille eesmärk on ületada lõhe kõrgetasemeliste põhimõtete ja praktilise, rakendatava poliitika vahel. See vastab tungivale vajadusele ühise arusaama järele nii uute tehnoloogiate pakutavatest võimalustest kui ka riskidest. See on oluline dokument neile, kes meie kiiresti muutuval digiajastul poliitikavaldkonnaga tegelevad.

Raamistik uurib tehisintellekti ja selle derivaatide potentsiaali kõikehõlmava objektiivi kaudu, hõlmates inimeste ja ühiskonna heaolu ning väliseid tegureid, nagu majandus, poliitika, keskkond ja julgeolek. Mõned kontrollnimekirja aspektid võivad olenevalt kontekstist olla asjakohasemad kui teised, kuid paremad otsused tunduvad tõenäolisemad, kui kõiki valdkondi arvesse võtta, isegi kui mõne konkreetsel juhul saab kiiresti ebaoluliseks tunnistada. See on kontrollnimekirja lähenemisviisi loomupärane väärtus.

Peter Gluckman

ISC president

„Ajastul, mida iseloomustavad kiire tehnoloogiline innovatsioon ja keerulised globaalsed väljakutsed, annab ISC võimalike mõjude igakülgse ja mitmemõõtmelise analüüsi raamistik juhtidel teha teadlikke ja vastutustundlikke otsuseid. See tagab, et tehnoloogiliselt arenedes teeme seda eetilisi, sotsiaalseid ja majanduslikke tagajärgi hoolikalt kaaludes.

Kuigi kõrgetasemelisi põhimõtteid on välja kuulutanud muu hulgas UNESCO, OECD, Euroopa Komisjon ja ÜRO ning jätkuvad mitmesugused arutelud võimalike juhtimis-, reguleerimis-, eetika- ja ohutusküsimuste üle, on nende põhimõtete ja ohutuse vahel suur lõhe. valitsemis- või reguleeriva raamistikuga. ISC tegeleb selle vajadusega oma uue juhendi kaudu poliitikakujundajatele.

See poliitikakujundajatele mõeldud juhend ei ole mõeldud regulatiivse režiimi keelamiseks, vaid pigem kohaneva ja areneva analüütilise raamistiku soovitamiseks, mis võiks olla aluseks mis tahes hindamis- ja reguleerimisprotsessidele, mida sidusrühmad, sealhulgas valitsused ja mitmepoolne süsteem, võivad välja töötada.

Hema Sridhar

Endine Uus-Meremaa kaitseministeeriumi teaduse peanõunik ja nüüd Uus-Meremaa Aucklandi ülikooli vanemteadur.

"Raamistik on AI-teemalises ülemaailmses vestluses kriitiline samm, kuna see loob aluse, mille alusel saame jõuda üksmeelele tehnoloogia mõjude kohta nii praegu kui ka tulevikus." 

Alates 2023. aasta oktoobrist on tehtud mitmeid olulisi riiklikke ja mitmepoolseid algatusi tehisintellekti eetika ja ohutuse edasiseks käsitlemiseks. Tehisintellekti mõju mõnede meie kriitiliste süsteemide, sealhulgas finants-, valitsus-, õigus- ja haridussüsteemide, aga ka erinevate teadmussüsteemide (sealhulgas teadus- ja põlisrahvaste teadmised) terviklikkusele on üha murettekitav. Raamistik kajastab neid aspekte veelgi.

ISC liikmetelt ja rahvusvaheliselt poliitikakujundajatelt seni saadud tagasiside kajastub analüüsiraamistiku muudetud versioonis, mis on nüüd välja antud juhendina poliitikakujundajatele.

Juhend poliitikakujundajatele: kiiresti arenevate tehnoloogiate, sealhulgas tehisintellekti, suurte keelemudelite ja muu hindamine

See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.

Laadige alla raamistik, mida oma organisatsioonis kasutada

Siin pakume raamistiku tööriista redigeeritava Exceli lehena teie organisatsioonis kasutamiseks. Kui eelistate avatud lähtekoodiga vormingut, võtke ühendust aadressil secretariat@council.science.

Sissejuhatus

Kiiresti arenevad tehnoloogiad esitavad väljakutseid nende kasutamise, juhtimise ja võimaliku reguleerimise osas. Käimasolev poliitika ja avalikud arutelud tehisintellekti (AI) ja selle kasutamise üle on toonud need küsimused terava tähelepanu alla. Tehisintellekti üldpõhimõtted on välja kuulutanud UNESCO, OECD, ÜRO ja teised, sealhulgas Ühendkuningriigi Bletchley deklaratsioon, ning esile kerkivad jurisdiktsioonilised katsed reguleerida tehnoloogia aspekte näiteks Euroopa Liidu (EL) tehisintellekti kaudu. seadus või hiljutine Ameerika Ühendriikide AI Executive Order.

Kuigi tehisintellekti kasutamist arutatakse pikalt nendel ja teistel foorumitel, üle geopoliitiliste lõhede ja kõikide sissetulekutasemetega riikides, jääb kõrgetasemeliste põhimõtete väljatöötamise ja nende praktikasse juurutamise vahel kas regulatiivse, poliitika või valitsemise kaudu endiselt ontoloogiline lõhe. või korrapidaja lähenemisviisid. Tee põhimõttest praktikani on halvasti määratletud, kuid arvestades tehisintellekti arendamise ja rakendamise olemust ja sagedust, huvide mitmekesisust ja võimalike rakenduste valikut, ei saa ükski lähenemisviis olla liiga üldine ega ettekirjutav.

Nendel põhjustel mängib valitsusväline teadusringkond jätkuvalt erilist rolli. Rahvusvaheline Teadusnõukogu (ISC) – selle pluralistliku liikmeskonnaga sotsiaal- ja loodusteaduste esindajatest – avaldas 2023. aasta oktoobris aruteludokumendi, milles tutvustas esialgset analüütilist raamistikku, mis käsitles kiiresti areneva digitehnoloogiaga seotud riske, kasu, ohte ja võimalusi. Kuigi see töötati välja tehisintellekti arvestamiseks, on see oma olemuselt tehnoloogiaagnostiline ja seda saab rakendada paljude uute ja murranguliste tehnoloogiate puhul, nagu sünteetiline bioloogia ja kvant. See aruteludokument kutsus teadlastelt ja poliitikakujundajatelt tagasisidet andma. Valdav tagasiside muutis sellise analüüsi läbiviimise vajalikuks ja oli väärtuslik lähenemisviis selliste esilekerkivate tehnoloogiate, nagu AI, käsitlemisel.

Raamistiku eesmärk on pakkuda vahendit, et teavitada kõiki sidusrühmi – sealhulgas valitsusi, kaubandusläbirääkijaid, reguleerivaid asutusi, kodanikuühiskonda ja tööstust – nende tehnoloogiate arengust, et aidata neil kujundada, kuidas nad võiksid kaaluda selle positiivseid või negatiivseid tagajärgi. tehnoloogia ise ja täpsemalt selle konkreetne rakendus. See analüütiline raamistik on välja töötatud valitsuse ja tööstuse huvidest sõltumatult. See on oma perspektiivides maksimaalselt pluralistlik, hõlmates kõiki tehnoloogia aspekte ja selle mõjusid, mis põhinevad ulatuslikul konsultatsioonil ja tagasisidel.

Selle poliitikakujundajatele mõeldud aruteludokumendi eesmärk ei ole regulatiivse korra keelamine, vaid pigem kohanemisvõimelise ja areneva analüütilise raamistiku soovitamine, mis võiks olla aluseks mis tahes hindamis- ja reguleerimisprotsessidele, mida sidusrühmad, sealhulgas valitsused ja mitmepoolne süsteem, võivad välja töötada.

Kuna otsustajad globaalselt ja riiklikult kaaluvad sobivaid poliitilisi sätteid ja hoobasid, et tasakaalustada uue tehnoloogia, näiteks tehisintellektiga kaasnevaid riske ja hüvesid, on analüütiline raamistik mõeldud täiendavaks vahendiks, et tagada võimalike tagajärgede täielik kajastamine.

Taust: miks analüütiline raamistik?

Tehnoloogia keerukuse ja tagajärgedega tehnoloogiate kiire esilekerkimine toob kaasa palju väiteid suure kasu kohta. Kuid see tekitab ka hirmu oluliste riskide ees, alates üksikisikust kuni geostrateegilise tasemeni.1 Suurt osa senisest arutelust on käsitletud binaarses mõttes, kuna avalikult väljendatud seisukohad kipuvad aset leidma spektri äärmuslikes otstes. Tehisintellekti poolt või vastu esitatud väited on sageli hüperboolsed ja tehnoloogia olemust arvestades raskesti hinnatavad.

Vaja on pragmaatilisemat lähenemist, kui hüperbool asendatakse kalibreeritud ja üksikasjalikumate hinnangutega. AI-tehnoloogia areneb edasi ja ajalugu näitab, et praktiliselt igal tehnoloogial on nii kasulikke kui ka kahjulikke kasutusvõimalusi. Seetõttu on küsimus: kuidas saavutada selle tehnoloogia kasulikke tulemusi, vähendades samal ajal kahjulike tagajärgede ohtu, millest mõned võivad olla eksistentsiaalsed?

Tulevik on alati ebakindel, kuid tehisintellekti ja generatiivse tehisintellekti kohta on piisavalt usaldusväärseid ja asjatundlikke hääli, et julgustada suhteliselt ettevaatust. Lisaks on vajalik süsteemne lähenemine, kuna tehisintellekt on tehnoloogiate klass, mida laialdaselt kasutavad ja rakendavad mitut tüüpi kasutajad. See tähendab, et tehisintellekti kasutamise mõju üksikisikutele, ühiskondlikule elule, kodanikuelule, ühiskonnaelule ja globaalses kontekstis tuleb arvesse võtta kogu konteksti.

Erinevalt enamikust teistest tehnoloogiatest on digitaalsete ja sellega seotud tehnoloogiate puhul arendamise, väljalaske ja rakendamise vaheline aeg äärmiselt lühike, mis on suuresti tingitud tootmisettevõtete või agentuuride huvidest. Oma olemuselt – ja arvestades, et see põhineb digitaalsel selgrool – on AI-l rakendused, mis levivad kiiresti, nagu on juba nähtud suurte keelemudelite väljatöötamisel. Selle tulemusena võivad mõned omadused ilmneda alles pärast vabanemist, mis tähendab, et on oht, et tekivad ettenägematud tagajärjed, nii pahatahtlikud kui ka heatahtlikud.

Olulised ühiskondlike väärtuste mõõtmed, eriti erinevates piirkondades ja kultuurides, mõjutavad seda, kuidas mis tahes kasutamist tajutakse ja aktsepteeritakse. Lisaks domineerivad arutelus juba geostrateegilised huvid, kus suveräänsed ja mitmepoolsed huvid ristuvad pidevalt ning soodustavad seega konkurentsi ja lõhenemist.

Praeguseks on suurt osa virtuaaltehnoloogia reguleerimisest vaadeldud läbi põhimõtete ja vabatahtliku järgimise, kuigi EL-i tehisintellekti seadusega.2 ja sarnaseid me näeme üleminekut jõustatavamatele, kuid mõnevõrra kitsastele eeskirjadele. Tõhusa ülemaailmse või riikliku tehnoloogiajuhtimise ja/või reguleerimissüsteemi loomine on endiselt keeruline ja selget lahendust pole. Kogu ahelas on vaja mitut riskiteadliku otsustamise tasandit leiutajast tootjani, kasutajani, valitsuse ja mitmepoolse süsteemini.

Kuigi kõrgetasemelisi põhimõtteid on välja kuulutanud muuhulgas UNESCO, OECD, Euroopa Komisjon ja ÜRO ning jätkuvad mitmesugused kõrgetasemelised arutelud võimalike valitsemise, reguleerimise, eetika ja ohutuse küsimustes, on nende vahel suur lõhe. põhimõtteid ja juhtimis- või reguleerivat raamistikku. Sellega tuleb tegeleda.

Lähtepunktina kaalub ISC kaalutluste taksonoomia väljatöötamist, millele iga arendaja, reguleerija, poliitikanõustaja, tarbija või otsustaja võiks viidata. Arvestades nende tehnoloogiate laiaulatuslikku mõju, peab selline taksonoomia võtma arvesse mõjude kogumit, mitte kitsalt fokusseeritud raamimist. Ülemaailmne killustatus suureneb tänu geostrateegiliste huvide mõjule otsuste tegemisel ning arvestades selle tehnoloogia kiireloomulisust, on oluline, et sõltumatud ja neutraalsed hääled toetaksid järjekindlalt ühtset ja kaasavat lähenemisviisi.


1) Hindustani ajad. 2023. G20 peab moodustama rahvusvahelise tehnoloogiliste muutuste paneeli.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EL tehisintellekti seadus. 2023. https://artificialintelligenceact.eu

Analüütilise raamistiku väljatöötamine

ISC on esmane ülemaailmne loodus- ja sotsiaalteadusi integreeriv valitsusväline organisatsioon. Selle globaalne ja distsiplinaarne haare tähendab, et tal on head võimalused sõltumatute ja ülemaailmselt asjakohaste nõuannete saamiseks, et anda teavet eelseisvate keerukate valikute tegemiseks, eriti kuna praegused hääled sellel areenil on suures osas tööstustelt või suurte tehnoloogiliste jõudude poliitika- ja poliitilistelt kogukondadelt.

Pärast ulatuslikku arutelu, mis hõlmas valitsusvälise hindamisprotsessi kaalumist, jõudis ISC järeldusele, et selle kõige kasulikum panus oleks luua adaptiivne analüütiline raamistik, mida saaksid kasutada diskursuse ja otsuste tegemise alusena. sidusrühmadega, sealhulgas võimalike ametlike hindamisprotsesside ajal.

Esialgne analüütiline raamistik, mis avaldati aruteluks ja tagasiside andmiseks 2023. aasta oktoobris, oli kõikehõlmav kontrollnimekiri, mis oli mõeldud kasutamiseks nii valitsus- kui ka valitsusvälistele institutsioonidele. Raamistik tuvastas ja uuris sellise tehnoloogia nagu AI ja selle derivaadid potentsiaali laia silmaringi kaudu, mis hõlmab inimeste ja ühiskonna heaolu ning väliseid tegureid, nagu majandus, poliitika, keskkond ja julgeolek. Mõned kontrollnimekirja aspektid võivad olenevalt kontekstist olla asjakohasemad kui teised, kuid paremad otsused tunduvad tõenäolisemad, kui kõiki valdkondi arvesse võtta, isegi kui mõne konkreetsel juhul saab kiiresti ebaoluliseks tunnistada. See on kontrollnimekirja lähenemisviisi loomupärane väärtus.

Esialgne raamistik tuletati varasemast tööst ja mõtteviisist, sealhulgas Rahvusvahelise Valitsuse Teadusnõustamise Võrgustiku (INGSA) digitaalse heaolu aruandest3 ja OECD tehisintellektisüsteemide klassifikatsiooni raamistikust4, et tutvustada võimalike võimaluste, riskide ja mõjude kogumit. AI-st. Nende varasemate toodete eesmärk oli nende aega ja konteksti arvestades piiratum; vaja on kõikehõlmavat raamistikku, mis käsitleks kõiki probleeme nii lühikeses kui ka pikemas perspektiivis.

Alates avaldamisest on aruteludokument pälvinud märkimisväärset toetust paljudelt ekspertidelt ja poliitikakujundajatelt. Paljud on konkreetselt toetanud soovitust töötada välja adaptiivne raamistik, mis võimaldab teadlikult ja ennetavalt kaaluda tehnoloogia riske ja tagajärgi ning seejuures võtab alati arvesse üksikisiku ja ühiskonna ja süsteemide mõõtmete tervikut.

Üks tagasiside kaudu tehtud peamisi tähelepanekuid oli tõdemus, et mitmed raamistikus käsitletud tagajärjed on oma olemuselt mitmetahulised ja ulatuvad mitmesse kategooriasse. Näiteks võib desinformatsiooni käsitleda nii individuaalse kui ka geostrateegilise objektiivi kaudu; seega oleksid tagajärjed laiaulatuslikud.

Soovitati ka võimalust lisada raamistiku testimiseks juhtumiuuringuid või näiteid. Seda saab kasutada juhiste väljatöötamiseks, et näidata, kuidas seda erinevates kontekstides praktikas kasutada. See oleks aga märkimisväärne ettevõtmine ja võib piirata seda, kuidas erinevad rühmad selle raamistiku kasutamist tajuvad. Seda saavad kõige paremini teha poliitikakujundajad, kes töötavad koos ekspertidega konkreetsetes jurisdiktsioonides või kontekstides.

Alates 2023. aasta oktoobrist on tehtud mitmeid olulisi riiklikke ja mitmepoolseid algatusi tehisintellekti eetika ja ohutuse edasiseks käsitlemiseks. Tehisintellekti mõju mõnede meie kriitiliste süsteemide, sealhulgas finants-, valitsus-, õigus- ja haridussüsteemide, aga ka erinevate teadmussüsteemide (sealhulgas teadus- ja põlisrahvaste teadmised) terviklikkusele on üha murettekitav. Läbivaadatud raamistik kajastab neid aspekte veelgi.

Seni saadud tagasiside kajastub analüütilise raamistiku muudetud versioonis, mis on nüüd välja antud juhendina poliitikakujundajatele.

Kuigi raamistik on esitatud tehisintellekti ja sellega seotud tehnoloogiate kontekstis, on see kohe ülekantav muude kiiresti esilekerkivate tehnoloogiate, näiteks kvant- ja sünteetilise bioloogia kaalutlustele.


3) Gluckman, P. ja Allen, K. 2018. Heaolu mõistmine kiirete digitaalsete ja sellega seotud transformatsioonide kontekstis. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD raamistik AI süsteemide klassifitseerimiseks. OECD Digital Economy Papers, nr 323, nr. Pariis, OECD kirjastus.
https://oecd.ai/en/classificatio

Raamistik

Järgmises tabelis on toodud oletatava analüütilise raamistiku mõõtmed. Näited on toodud illustreerimaks, miks iga domeen võib olla oluline; kontekstis vajaks raamistik kontekstuaalselt asjakohast laiendamist. Samuti on oluline teha vahet platvormi arendamise käigus tekkivatel üldistel probleemidel ja nendel, mis võivad ilmneda konkreetsete rakenduste käigus. Ühtegi siin sisalduvat kaalutlust ei tohiks käsitleda prioriteedina ja seetõttu tuleks kõiki uurida.

Probleemid on üldjoontes rühmitatud järgmistesse kategooriatesse, nagu allpool kirjeldatud.

  • Heaolu (sealhulgas üksikisikute või iseenda, ühiskonna, ühiskonnaelu ja kodanikuelu heaolu)
  • Kaubandus ja majandus
  • Keskkonna
  • Geostrateegiline ja geopoliitiline
  • Tehnoloogiline (süsteemi omadused, disain ja kasutamine)

Tabelis kirjeldatakse üksikasjalikult mõõtmeid, mida võib uue tehnoloogia hindamisel arvesse võtta.

🔴 INGSA. 2018. Heaolu mõistmine kiirete digitaalsete ja sellega seotud muutuste kontekstis.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Uued kirjeldused (allikaks on ulatuslik konsultatsioon, tagasiside ja kirjanduse ülevaade)

🟡 OECD tehisintellektisüsteemide klassifitseerimise raamistik: tõhusa tehisintellekti poliitika tööriist.
https://oecd.ai/en/classification

Mõju mõõtmed: individuaalne / ise

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟡Kasutajate tehisintellekti pädevusKui pädevad ja süsteemi omadustest teadlikud on tõenäolised kasutajad, kes süsteemiga suhtlevad? Kuidas antakse neile asjakohane kasutajateave ja hoiatused?
🟡 Mõjutatud huvirühmKes on peamised sidusrühmad, keda süsteem mõjutab (üksikisikud, kogukonnad, haavatavad, sektori töötajad, lapsed, poliitikakujundajad, spetsialistid jne)?
🟡 ValikulineKas kasutajatele antakse võimalus süsteemist loobuda või antakse neile võimalus väljundit vaidlustada või parandada?
🟡Ohud inimõigustele ja demokraatlikele väärtusteleKas süsteem mõjutab põhimõtteliselt inimõigusi, sealhulgas, kuid mitte ainult, eraelu puutumatust, sõnavabadust, õiglust, mittediskrimineerivat jne?
🟡Võimalik mõju inimeste heaoluleKas süsteemi mõjuvaldkonnad on seotud individuaalse kasutaja heaoluga (töö kvaliteet, haridus, sotsiaalne suhtlus, vaimne tervis, identiteet, keskkond jne)?
🟡 Inimese tööjõu ümberpaigutamise potentsiaalKas süsteemil on potentsiaali automatiseerida inimeste poolt täidetavaid ülesandeid või funktsioone? Kui jah, siis millised on allavoolu tagajärjed?
🟡 Identiteedi, väärtuste või teadmistega manipuleerimise potentsiaalKas süsteem on loodud või potentsiaalselt võimeline manipuleerima kasutaja identiteediga või
seatud väärtusi või levitada desinformatsiooni?
🔴 Eneseväljenduse ja -teostuse võimalusedKas on potentsiaali kunstlikuks ja eneses kahtlemiseks? Kas on võimalik vale või
kontrollimatud ekspertiisiväited?
🔴 Eneseväärtuse mõõdikudKas on survet kujutada idealiseeritud mina? Kas automaatika võiks tunde asendada
isiklikust eneseteostusest? Kas on surve konkureerida süsteemiga
töökoht? Kas üksikisiku mainet on desinformatsiooni eest raskem kaitsta?
🔴 PrivaatsusKas privaatsuse kaitsmise kohustused on hajutatud ja kas neid on
oletusi isikuandmete kasutamise kohta?
🔴 AutonoomiaKas AI-süsteem võib mõjutada inimese autonoomiat, tekitades liigset sõltuvust
lõppkasutajad?
🔴 Inimese arengKas see mõjutab inimarengu võtmeoskuste omandamist, nt
täidesaatvad funktsioonid või inimestevahelised oskused või tähelepanuaega mõjutavad muutused
õppimine, isiksuse areng, vaimse tervise probleemid jne?
🔴 Isiklik tervishoidKas on väiteid enesediagnostika või isikupärastatud tervishoiulahenduste kohta? Kui nii,
kas need on regulatiivsete standardite kohaselt kinnitatud?
🔴 Vaimne tervisKas on suurenenud ärevuse, üksinduse või muude vaimse tervise probleemide oht või
Kas tehnoloogia suudab selliseid mõjusid leevendada?
🟢 Inimese evolutsioonKas suured keelemudelid ja tehisintellekt võivad seda muuta
inimese evolutsiooni käigus?
🟢 Inimese ja masina interaktsioonKas kasutamine võib aja jooksul põhjustada inimeste oskuste vähenemist ja sõltuvust? Are
kas see mõjutab inimestevahelist suhtlust?
5) Raamistikus käsitletavad tehnoloogilised kriteeriumid on spetsiaalselt tehisintellekti jaoks ja need tuleb vajaduse korral muude tehnoloogiate jaoks läbi vaadata.

Mõju mõõtmed: Ühiskond/ühiskondlik elu

Kriteeriumid Näited selle kohta, kuidas see võib analüüsis kajastuda
🔴 Ühiskondlikud väärtusedKas süsteem muudab põhimõtteliselt ühiskonna olemust, võimaldab normaliseerida varem antisotsiaalseteks peetud ideid või rikub selle kultuuri ühiskondlikke väärtusi, milles seda rakendatakse?
🔴 Sotsiaalne suhtlusKas see mõjutab sisukaid inimkontakte, sealhulgas emotsionaalseid suhteid?
🔴 Rahvastiku tervisKas süsteemil on potentsiaali rahvastiku tervisega seotud kavatsusi edendada või õõnestada?
🔴 Kultuuriline väljendusKas kultuurilise omastamise või diskrimineerimise suurenemist on tõenäoline või raskem käsitleda? Kas otsustussüsteemile toetumine välistab või marginaliseerib ühiskonna kultuuriliselt olulised osasidemed?
🔴 RahvaharidusKas see mõjutab õpetaja rolle või haridusasutusi? Kas süsteem rõhutab või vähendab digitaalset lõhet ja ebavõrdsust õpilaste seas? Kas teadmiste või kriitilise arusaamise sisemine väärtus on arenenud või õõnestatud?
🟢 Moonutatud tegelikkusKas tõesuse tuvastamiseks kasutatud meetodid on endiselt kehtivad? Kas reaalsustaju on ohus?

Mõju mõõtmed: majanduslik kontekst (kaubandus)

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟡 TööstussektorMillises tööstussektoris süsteem on kasutusel (rahandus, põllumajandus, tervishoid, haridus, kaitse jne)?
🟡 ÄrimudelMillises ärifunktsioonis süsteemi kasutatakse ja millises võimsuses? Kus süsteemi kasutatakse (era, avalik, mittetulunduslik)?
🟡 Mõju kriitilistele tegevustele Kas süsteemi funktsiooni või tegevuse katkemine mõjutaks olulisi teenuseid või kriitilisi infrastruktuure?
🟡Kasutuselevõtu laiusKuidas süsteemi juurutatakse (kitsas kasutus üksuses vs. laialt levinud riiklikult/rahvusvaheliselt)?
🟡 Tehniline küpsusKui küps on süsteem tehniliselt?
🟢 Koostalitlusvõime Kas riiklikul või globaalsel tasandil on tõenäoliselt silohoidlaid, mis pärsivad vabakaubandust ja mõjutavad koostööd partneritega?
🟢 Tehnoloogiline suveräänsusKas soov tehnoloogilise suveräänsuse järele juhib käitumist, sealhulgas kontrolli kogu tehisintellekti tarneahela üle?
🔴 Tulude ümberjaotamine ja riiklikud fiskaalsed hoovadKas suveräänse riigi põhirollid võivad ohtu seada (nt reservpangad)? Kas riigi suutlikkus vastata kodanike ootustele ja mõjudele (sotsiaalsed, majanduslikud, poliitilised jne) paraneb või väheneb?
🟢 Digitaalne lõhe (AI lõhe) Kas olemasolev digitaalne ebavõrdsus süveneb või tekib uusi?

Mõju mõõtmed: Kodanikuelu

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🔴 Juhtimine ja avalik teenistusKas juhtimismehhanisme ja globaalset juhtimissüsteemi võib mõjutada positiivselt või negatiivselt?
🔴 Uudiste meediaKas avalik diskursus muutub tõenäoliselt polariseerituks ja kinnistub elanikkonna tasandil? Kas see mõjutab neljanda kinnisvara usalduse taset? Kas tavapäraseid ajakirjanike eetikat ja aususe standardeid mõjutab veelgi?
🔴 ÕigusriikKas see mõjutab võimet tuvastada üksikisikuid või organisatsioone, keda vastutusele võtta (nt millist vastutust ebasoodsate tulemuste korral algoritmile määrata)? Kas tekib suveräänsuse kaotus (keskkonna-, fiskaal-, sotsiaalpoliitika, eetika jne)?
🔴Poliitika ja sotsiaalne sidususKas on võimalik rohkem juurdunud poliitilisi vaateid ja vähem võimalusi konsensuse saavutamiseks? Kas on võimalik rühmi veelgi marginaliseerida? Kas vastandlikud poliitikastiilid on enam-vähem tõenäolised?
🟢 Sotsiaalne litsentsKas on privaatsusprobleeme, usaldusprobleeme ja moraalseid probleeme, mida tuleb arvesse võtta, et sidusrühmad saaksid kasutust aktsepteerida?
🟢 Põlisrahvaste teadmisedKas põlisrahvaste teadmisi ja andmeid võib rikkuda või omastada? Kas on olemas piisavad meetmed kaitsmaks valeandmete esitamise, valeinformatsiooni ja ärakasutamise eest?
🟢 Teaduslik süsteemKas akadeemiline ja teadustöö terviklikkus on ohus? Kas usaldus teaduse vastu on kadunud? Kas on võimalikud väärkasutamise, ülekasutamise või kuritarvitamise võimalused? Mis on teaduse praktika tagajärg?

Mõju mõõtmed: geostrateegiline/geopoliitiline kontekst

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟢 Täpne valveKas süsteemid on koolitatud individuaalsete käitumis- ja bioloogiliste andmete põhjal ja kas neid saab kasutada üksikisikute või rühmade ärakasutamiseks?
🟢 DigivõistlusKas riiklikud või valitsusvälised osalejad (nt suured tehnoloogiaettevõtted) võivad kasutada süsteeme ja andmeid, et mõista ja kontrollida teiste riikide elanikkonda ja ökosüsteeme, või õõnestada jurisdiktsiooni kontrolli?
🟢 Geopoliitiline konkurentsKas süsteem võib tekitada riikide vahel konkurentsi üksikisikute ja rühmaandmete majanduslikes, meditsiinilistes ja julgeolekuhuvides kasutamises?
🟢 Ülemaailmsete jõudude niheKas rahvusriikide staatus maailma peamiste geopoliitiliste osalejatena on ohus? Kas tehnoloogiaettevõtted kasutavad kunagi rahvusriikidele reserveeritud jõudu ja kas neist on saanud sõltumatud, suveräänsed osalejad (tekkiv tehnopolaarne maailmakord)?
🟢 DesinformatsioonKas süsteem hõlbustaks riiklike ja valitsusväliste osalejate desinformatsiooni tootmist ja levitamist, mis mõjutab sotsiaalset ühtekuuluvust, usaldust ja demokraatiat?
🟢 Kahesuguse kasutusega rakendusedKas on olemas võimalus nii sõjaliseks kui ka tsiviilkasutuseks?
🟢 Globaalse korra killustumineKas võivad tekkida silohoidlad või reguleerimise ja vastavuse klastrid, mis takistavad koostööd, põhjustavad ebakõlasid rakenduses ja loovad ruumi konfliktidele?

Mõju mõõtmed: Keskkonnamõju

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟢 Energia- ja ressursikulu (süsiniku jalajälg)Kas süsteem ja nõuded suurendavad energia- ja ressursitarbimist lisaks rakenduse kaudu saavutatavale tõhususe kasvule?
🟢 EnergiaallikasKust saadakse süsteemi jaoks energiat (taastuvad vs. fossiilsed kütused jne)?

Mõju mõõtmed: andmed ja sisend

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟡 Suund ja kogumineKas andmeid ja sisendit koguvad inimesed, automatiseeritud andurid või mõlemad?
🟡 Andmete päritoluKas ekspertide andmed ja sisend on esitatud, vaadeldud, sünteetilised või tuletatud? Kas päritolu kinnitamiseks on olemas vesimärgikaitsed?
🟡 Andmete dünaamiline olemusKas andmed on dünaamilised, staatilised, dünaamilisi uuendatakse aeg-ajalt või reaalajas?
🟡 ÕigusedKas andmed on omandiõigusega kaitstud, avalikud või isiklikud (seotud tuvastatavate isikutega)?
🟡 Tuvastatavus ja isikuandmedKui andmed on isiklikud, siis kas andmed muudetakse anonüümseks või pseudonüümseks?
🟡 Andmete struktuurKas andmed on struktureeritud, poolstruktureeritud, keeruka struktureeritud või struktureerimata?
🟡 Andmete vormingKas andmete ja metaandmete vorming on standarditud või mittestandardiseeritud?
🟡 Andmete ulatusMis on andmestiku skaala?
🟡 Andmete asjakohasus ja kvaliteet Kas andmekogum sobib eesmärgile? Kas valimi suurus on piisav? Kas see on piisavalt esinduslik ja terviklik? Kui mürarikkad on andmed? Kas see on veaohtlik?

Löögi mõõtmed: mudel

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟡 Info kättesaadavusKas süsteemi mudeli kohta on teavet?
🟡 AI mudeli tüüpKas mudel on sümboolne (inimese loodud reeglid), statistiline (kasutab andmeid) või hübriid?
🟡 Modelliga seotud õigusedKas mudel on avatud lähtekoodiga või patenteeritud, enda või kolmanda osapoole hallatav?
🟡 Üksik mudel mitmest mudelistKas süsteem koosneb ühest mudelist või mitmest omavahel seotud mudelist?
🟡 Generatiivne või diskrimineerivKas mudel on generatiivne, diskrimineeriv või mõlemad?
🟡 Mudeli ehitamineKas süsteem õpib inimeste kirjutatud reeglite alusel, andmete põhjal, juhendatud õppimise või tugevdava õppe kaudu?
🟡 Mudeli areng (AI triiv)Kas mudel areneb ja/või omandab võimeid valdkonna andmetega suhtlemisel?
🟡 Liit- või keskõpeKas mudelit õpetatakse tsentraalselt või mitmes kohalikus serveris või "serva" seadmes?
🟡 Arendus/hooldusKas mudel on universaalne, kohandatav või kohandatud AI-näitleja andmetega?
🟡 Deterministlik või tõenäosuslik Kas mudelit kasutatakse deterministlikul või tõenäosuslikul viisil?
🟡 Mudeli läbipaistvus Kas kasutajatele on kättesaadav teave, mis võimaldab neil mõista mudeli väljundeid ja piiranguid või kasutada piiranguid?
🟢 ArvutuspiirangKas süsteemil on arvutuslikke piiranguid? Kas on võimalik ennustada võimekuse hüppeid või skaleerimisseadusi?

Mõju mõõtmed: ülesanne ja väljund

KriteeriumidNäited selle kohta, kuidas see võib analüüsis kajastuda
🟡 Süsteemi poolt täidetavad ülesandedMilliseid ülesandeid süsteem täidab (tuvastus, sündmuste tuvastamine, prognoosimine jne)?
🟡 Ülesannete ja toimingute kombineerimineKas süsteem ühendab mitu ülesannet ja tegevust (sisu genereerimissüsteemid, autonoomsed süsteemid, juhtimissüsteemid jne)?
🟡 Süsteemi autonoomia tase Kui autonoomsed on süsteemi tegevused ja millist rolli mängivad inimesed?
🟡 Inimese kaasatuse määrKas tehisintellektisüsteemi üldise tegevuse jälgimine ja võime otsustada, millal ja kuidas tehisintellekti süsteemi igas olukorras kasutada, on mingil määral kaasatud?
🟡 PõhirakendusKas süsteem kuulub põhirakenduste valdkonda, nagu inimkeeletehnoloogia, arvutinägemine, automatiseerimine ja/või optimeerimine või robootika?
🟡 HindamineKas süsteemi väljundi hindamiseks on olemas standardid või meetodid?

Kuidas saaks seda raamistikku kasutada?

Seda raamistikku saab kasutada mitmel viisil, sealhulgas:

  • Ületada lõhe kõrgetasemeliste põhimõtete ja regulatiivsetel või juhtimiseesmärkidel toimuva hindamise vahel. Raamistik võib seda toetada, luues valideeritud ühise taksonoomia paljudele küsimustele, mis väärivad asjaomaste sidusrühmade kaalumist, mis on aluseks edasisele mõtlemisele ja kujundamisele. Näiteks riiklikul tasandil võiks valitsus raamistikku kasutada vahendina, kui see töötab välja riikliku tehisintellekti strateegia ja poliitikad, et luua sidusrühmade vahel ühine riskide ja võimaluste alus.
  • Mõjuhinnangute teavitamiseks. ELi tehisintellekti seadus nõuab, et organisatsioonid, kes pakuvad tehisintellekti tööriistu või võtavad tehisintellekti oma protsessides kasutusele, viivad läbi mõjuhinnangu, et teha kindlaks oma algatuste risk ja kohaldada asjakohast riskijuhtimise lähenemisviisi. Siin esitatud raamistikku võiks selle aluseks võtta.
  • Horisondi skannimiseks riskide ja tulevikustsenaariumide teavitamiseks. ÜRO tehisintellekti nõuandeorgani vahearuandes6 toodud riskide liigitamine on üldjoontes kooskõlas siinses raamistikus esitatud raamistikuga. Raamistikku on võimalik kasutada konsensuse saavutamiseks ja tekkivate riskide tõsiduse testimiseks ning nende ennetamiseks.
  • Täiustada eetilisi põhimõtteid, mis on vajalikud tehisintellekti kasutamise suunamiseks ja reguleerimiseks. Raamistik saab seda teha, pakkudes paindlikku alust, millele tuginedes saab välja töötada usaldusväärseid süsteeme, ning tagades tehnoloogia seadusliku, eetilise, jõulise ja vastutustundliku kasutamise. Neid põhimõtteid saab testida kõigi selles raamistikus esitatud mõjude suhtes.
  • Hõlbustada olemasolevate ja arenevate meetmete (regulatiivsed, seadusandlikud, poliitika, standardid, juhtimine jne) kokkuvõtet ja teha kindlaks lüngad, mis vajavad edasist kaalumist. Neid võiks kaardistada riikliku või rahvusvahelise tasandi raamkategooriatega, et teha kindlaks lüngad ja teha kindlaks sobivad meetmed riskide maandamiseks.
  • Toetada tehisintellekti valitsuse kasutamist. Kuna paljud valitsused määravad kindlaks oma vastavad strateegiad tehisintellekti kasutamiseks agentuurides ja süsteemides, võiks raamistikku kasutada sobivate riskilävede määratlemiseks ning peamiste sidusrühmade ja kohustuste kindlaksmääramiseks.
  • Toetada avalikku diskursust ja luua sotsiaalne litsents selle kohta, kuidas tehisintellekti kasutatakse, ja aluseks olevaid andmeid, mida kasutatakse valitsusasutustes või laiemalt ühiskonnas.

Edasine tee
Kokkuvõtteks võib öelda, et analüütiline raamistik on tööriistakomplekti aluseks, mida sidusrühmad saaksid kasutada platvormide või kasutuse oluliste arengute terviklikuks ja järjekindlaks ja süstemaatiliseks vaatamiseks. Selles raamistikus esitatud mõõtmed on olulised tehnoloogia hindamisest avaliku korrani, inimarengust sotsioloogiani ning tuleviku- ja tehnoloogiauuringuteni. Kuigi see analüütiline raamistik on välja töötatud tehisintellekti jaoks, on sellel palju laiem rakendus kõigis teistes uutes tehnoloogiates.

6 ÜRO tehisintellekti nõuandekogu. 2023. Vahearuanne: Governing AI for Humanity. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Tänusõnad

Nii esmase aruteludokumendi väljatöötamisel kui ka selle avaldamisele järgneva tagasiside väljatöötamisel on konsulteeritud paljude inimestega ja andnud neile tagasisidet. Mõlemad dokumendid koostasid ISC president Sir Peter Gluckman ja Uus-Meremaa kaitseministeeriumi endine teaduse peanõunik ja praegu Uus-Meremaa Aucklandi ülikooli vanemteadur Hema Sridhar.

Eelkõige ISC Lord Martin Rees, endine Kuningliku Seltsi president ja Cambridge'i Ülikooli eksistentsiaalsete riskide uurimiskeskuse kaasasutaja; professor Shivaji Sondhi, Oxfordi ülikooli füüsikaprofessor; professor K Vijay Raghavan, endine India valitsuse teaduslik peanõunik; Amandeep Singh Gill, ÜRO peasekretäri tehnoloogiasaadik; Seán Ó hÉigeartaigh, Cambridge'i ülikooli eksistentsiaalsete riskide uurimiskeskuse tegevdirektor; Sir David Spiegelhalter, Wintoni ülikooli riskide avaliku mõistmise professor
Cambridge'ist; Amanda-June Brawner, vanempoliitikanõunik ja Ian Wiggins, rahvusvaheliste suhete direktor, Royal Society, Ühendkuningriik; Dr Jerome Duberry, tegevdirektor ja dr Marie-Laure Salles, direktor, Genfi Graduate Institute; Chor Pharn Lee, strateegiliste futuuride keskus, peaministri büroo, Singapur; Barend Mons ja dr Simon Hodson, andmekomitee (CoDATA); professor Yuko Harayama, endine tegevdirektor, RIKEN; Professor
Rémi Quirion, INGSA president; Dr Claire Craig, Oxfordi ülikool ja endine valitsuse teadusbüroo prognoosijuht; prof Yoshua Bengio, ÜRO peasekretäri teaduslik nõuandekogu ja Université de Montréal; ja paljud teised, kes andsid ISC-le esialgse aruteludokumendi kohta tagasisidet.


Lisalugemist

Riiklike teadusuuringute ökosüsteemide ettevalmistamine tehisintellekti jaoks: strateegiad ja edusammud 2024. aastal

See ISC mõttekoja, Science Futures'i keskuse töödokument pakub põhiteavet ja juurdepääsu ressurssidele kõigist maailma osadest tehisintellekti nende teaduse ökosüsteemidesse integreerimise eri etappides: 

Otse sisu juurde