Raamistik kiiresti arenevate digitaalsete ja sellega seotud tehnoloogiate hindamiseks: AI, suured keelemudelid ja muud

See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.

Raamistik kiiresti arenevate digitaalsete ja sellega seotud tehnoloogiate hindamiseks: AI, suured keelemudelid ja muud

Mitmed akadeemikud ja poliitikaeksperdid on teinud ettepaneku, et Rahvusvaheline Teadusnõukogu – oma pluralistliku liikmeskonnaga sotsiaal- ja loodusteadustest – looks protsessi, mille abil koostada ja säilitada märkustega raamistik/kontrollnimekiri riskide, eeliste, ohtude ja võimaluste kohta. mis on seotud kiiresti liikuvate digitaaltehnoloogiatega, sealhulgas – kuid mitte ainult – tehisintellektiga. Kontrollnimekirja eesmärk on teavitada kõiki sidusrühmi – sealhulgas valitsusi, kaubandusläbirääkijaid, reguleerivaid asutusi, kodanikuühiskonda ja tööstust – võimalikest tulevikustsenaariumidest ning määrata, kuidas nad võiksid kaaluda võimalusi, eeliseid, riske ja muid küsimusi.

ISC-l on hea meel esitleda seda aruteludokumenti kiiresti areneva digitaalse ja sellega seotud tehnoloogia hindamise kohta. Tehisintellekt, sünteetiline bioloogia ja kvanttehnoloogiad on suurepärased näited innovatsioonist, mille aluseks on teadus ja mis arenevad enneolematu kiirusega. Võib olla keeruline süstemaatiliselt ette näha mitte ainult nende rakendusi, vaid ka nende tagajärgi.

Generatiivse tehisintellekti ühiskondlike aspektide hindamine, nagu suured keelemudelid, mis kujutavad ettearvatult suuremat osa sellest aruteludokumendist, on vajalik sild praeguses diskursuses – mõnikord paanikast juhitud, teinekord mitte piisavalt sügava mõttega – ja vajalikke kursusi. meetmed, mida saame teha. ISC on veendunud, et selliste uute tehnoloogiate sotsiaalse aktsepteerimise ja nende võimaliku reguleerimise vahel on vaja analüütilist raamistikku, et hõlbustada sidusrühmadevahelisi arutelusid, mis on vajalikud teadlike ja vastutustundlike otsuste tegemiseks selle kiiresti areneva tehnoloogia sotsiaalse kasu optimeerimise kohta.

ISC on avatud meie kogukonna reaktsioonidele selle aruteludokumendi kaudu, et hinnata, kuidas kõige paremini jätkata tehnoloogiateemalises arutelus osalemist ja sellesse panustamist.

Salvatore Aricò, tegevjuht

ISC aruteludokument

Raamistik kiiresti arenevate digitaalsete ja sellega seotud tehnoloogiate hindamiseks: AI, suured keelemudelid ja muud

See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta.

Lugege paberit veebis või oma eelistatud keeles

Sisu

  • Sissejuhatus 
  • Taust 
  • Analüütilise raamistiku väljatöötamine 
  • Analüütilise raamistiku kasutamine 
  • Mõõtmed, mida uue tehnoloogia hindamisel arvesse võtta 
  • Edasine tee 
  • Tänusõnad

Sissejuhatus

Kiiresti esilekerkivad tehnoloogiad kujutavad endast väljakutseid nende juhtimise ja võimaliku reguleerimise osas. Tehisintellekti (AI) ja selle kasutamise teemalised poliitika ja avalikud arutelud on toonud need küsimused terava tähelepanu alla. Kuigi UNESCO, OECD ja teised on välja kuulutanud tehisintellekti üldpõhimõtted ning tehnoloogia globaalse või jurisdiktsioonilise reguleerimise üle on alles tekkimas arutelud, on kõrgetasemeliste põhimõtete väljatöötamise ja nende regulatiivsesse, poliitikasse kaasamise vahel ontoloogiline lõhe. juhtimis- ja majandamisviisid. Siin võiks valitsusvälistel teadusringkondadel olla eriline roll. 

Mitmed akadeemikud ja poliitikaeksperdid on teinud ettepaneku, et Rahvusvaheline Teadusnõukogu (ISC) – oma pluralistliku liikmeskonnaga sotsiaal- ja loodusteadustest – kehtestaks protsessi, mille abil koostada ja säilitada märkustega raamistik/kontrollnimekiri riskide, eeliste, kiiresti liikuvate digitaaltehnoloogiatega seotud ohud ja võimalused, sealhulgas – kuid mitte ainult – tehisintellekt. Kontrollnimekirja eesmärk on teavitada kõiki sidusrühmi – sealhulgas valitsusi, kaubandusläbirääkijaid, reguleerivaid asutusi, kodanikuühiskonda ja tööstust – võimalikest tulevikustsenaariumidest ning määrata, kuidas nad võiksid kaaluda võimalusi, eeliseid, riske ja muid küsimusi. 

Väljundid ei toimiks hindamisorganina, vaid adaptiivse ja areneva analüütilise raamistikuna, mis võiks olla aluseks hindamis- ja reguleerimisprotsessidele, mida sidusrühmad, sealhulgas valitsused ja mitmepoolne süsteem, võivad välja töötada. Igasugune analüütiline raamistik tuleks ideaaljuhul välja töötada sõltumatult valitsuse ja tööstuse väidetest, arvestades nende arusaadavaid huve. Samuti peab see olema oma perspektiivides maksimaalselt pluralistlik, hõlmates seega kõiki tehnoloogia aspekte ja selle mõjusid. 

See aruteludokument annab ülevaate esialgsest raamistikust, mis annab teavet tehisintellektiga seotud mitmete ülemaailmsete ja riiklike arutelude kohta. 

Taust: Miks analüütiline raamistik?

Tehisintellekti keerukuse ja tagajärgedega tehnoloogia kiire esilekerkimine toob kaasa palju väiteid suure kasu kohta. Kuid see tekitab ka hirmu oluliste riskide ees, alates üksikisikust kuni geostrateegilise tasemeni. Suur osa arutelust kipub toimuma vaadete spektri äärmuslikes otstes ja vaja on pragmaatilisemat lähenemist. AI-tehnoloogia areneb edasi ja ajalugu näitab, et peaaegu igal tehnoloogial on nii kasulik kui ka kahjulik kasutus. Seetõttu on küsimus: kuidas saavutada selle tehnoloogiaga kasulikke tulemusi, vähendades samal ajal kahjulike tagajärgede ohtu, millest mõned võivad olla eksistentsiaalsed? 

Tulevik on alati ebakindel, kuid tehisintellekti ja generatiivse tehisintellekti kohta on piisavalt usaldusväärseid ja asjatundlikke hääli, et julgustada suhteliselt ettevaatust. Lisaks on vaja süsteemset lähenemist, sest tehisintellekt on tehnoloogiate klass, mida kasutavad ja rakendavad laialdaselt mitut tüüpi kasutajad. See tähendab, et tehisintellekti mõju üksikisikutele, ühiskondlikule elule, kodanikuelule, ühiskonnaelule ja globaalses kontekstis tuleb arvesse võtta kogu konteksti. 

Erinevalt enamikust varasematest tehnoloogiatest on digitaalsel ja sellega seotud tehnoloogial väga lühike aeg arendusest avaldamiseni, mis on suuresti ajendatud tootmisettevõtete või agentuuride huvidest. AI levib kiiresti; mõned omadused võivad ilmneda alles pärast vabastamist ja tehnoloogial võib olla nii pahatahtlikke kui ka heatahtlikke rakendusi. Oluliste väärtuste mõõtmed mõjutavad seda, kuidas mis tahes kasutust tajutakse. Lisaks võivad mängus olla geostrateegilised huvid. 

Siiani on virtuaaltehnoloogia reguleerimist vaadeldud suures osas läbi “põhimõtete” ja vabatahtliku järgimise. Viimasel ajal on aga arutelu pöördunud riikliku ja mitmepoolse valitsemise, sealhulgas regulatiivsete ja muude poliitiliste vahendite kasutamise üle. Tehisintellekti poolt või vastu esitatud väited on sageli hüperboolsed ja tehnoloogia olemust arvestades raskesti hinnatavad. Tõhusa ülemaailmse või riikliku tehnoloogia reguleerimise süsteemi loomine on keeruline ja ahelas on vaja mitut riskipõhist otsuste tegemise tasandit, leiutajast tootjani, kasutajani, valitsuseni ja mitmepoolse süsteemini. 

Kuigi kõrgetasemelisi põhimõtteid on välja kuulutanud muuhulgas UNESCO, OECD ja Euroopa Komisjon ning käimas on mitmesugused kõrgetasemelised arutelud võimaliku reguleerimise küsimuste üle, on selliste põhimõtete ja juhtimis- või reguleeriva raamistiku vahel suur ontoloogiline lõhe. Milline on kaalutluste taksonoomia, mida reguleeriv asutus võib kaaluda? Kitsalt fokusseeritud raamimine poleks nende tehnoloogiate laiaulatuslikku mõju arvestades mõistlik. Seda potentsiaali on palju kommenteeritud, nii positiivseid kui ka negatiivseid.

Analüütilise raamistiku väljatöötamine

ISC on peamine ülemaailmne vabaühendus, mis integreerib loodus- ja sotsiaalteadusi. Selle ülemaailmne ja distsiplinaarne haare tähendab, et tal on head võimalused sõltumatute ja ülemaailmselt asjakohaste nõuannete saamiseks, et anda teavet eelseisvate keeruliste valikute tegemiseks, eriti kuna praegused hääled sellel areenil on suures osas tööstustelt või suurematelt tehnoloogilistelt suurriikidelt. Pärast viimastel kuudel toimunud ulatuslikku arutelu, sealhulgas valitsusvälise hindamisprotsessi kaalumist, jõudis ISC järeldusele, et selle kõige kasulikum panus oleks luua ja säilitada adaptiivne analüütiline raamistik, mida saab kasutada diskursuse ja otsuste tegemise alusena. kõik sidusrühmad, sealhulgas mis tahes ametliku hindamisprotsessi käigus. 

See raamistik oleks kõikehõlmava kontrollnimekirja kujul, mida saaksid kasutada nii valitsusasutused kui ka valitsusvälised institutsioonid. Raamistik tuvastab ja uurib tehnoloogia, nagu AI ja selle tuletised, potentsiaali laia silmaringi kaudu, mis hõlmab inimeste ja ühiskonna heaolu, aga ka väliseid tegureid, nagu majandus, poliitika, keskkond ja julgeolek. Mõned kontrollnimekirja aspektid võivad olenevalt kontekstist olla asjakohasemad kui teised, kuid paremad otsused on tõenäolisemad, kui arvestada kõiki domeene. See on kontrollnimekirja lähenemisviisi loomupärane väärtus. 

Kavandatav raamistik tuleneb varasemast tööst ja mõtlemisest, sealhulgas Rahvusvahelise Valitsuse Teadusnõuannete Võrgustiku (INGSA) digitaalse heaolu aruandest1 ja OECD tehisintellekti klassifitseerimise raamistik2 tutvustada tehisintellektiga seotud võimalikke võimalusi, riske ja mõjusid. Nende varasemate toodete eesmärk oli nende aega ja konteksti arvestades piiratum, seetõttu on vaja kõikehõlmavat raamistikku, mis käsitleks kõiki probleeme nii lühi- kui ka pikemas perspektiivis. 

Kuigi see analüütiline raamistik töötati välja tehisintellekti kaalumiseks, saab seda rakendada mis tahes kiiresti areneva tehnoloogia jaoks. Probleemid on edasiseks uurimiseks laias laastus rühmitatud järgmistesse kategooriatesse: 

  • Heaolu (sealhulgas üksikisikute või iseenda, ühiskonna ja ühiskonnaelu ning kodanikuelu heaolu) 
  • Kaubandus ja majandus 
  • Keskkonna 
  • Geostrateegiline ja geopoliitiline 
  • Tehnoloogiline (süsteemi omadused, disain ja kasutamine) 

Iga ülaltoodud kategooria kaalutluste loend on lisatud koos nende võimaluste ja tagajärgedega. Mõned neist on asjakohased AI konkreetsete juhtumite või rakenduste jaoks, samas kui teised on üldised ja platvormi või kasutuse suhtes agnostilised. Ühtegi siin sisalduvat kaalutlust ei tohiks käsitleda prioriteedina ja seetõttu tuleks kõiki uurida. 

Kuidas saaks seda raamistikku kasutada?

Seda raamistikku saab kasutada järgmistel viisidel, kuid mitte ainult: 

  • Ületada lõhe põhimõtete ja hindamise vahel, luues valideeritud ühise taksonoomia mitmesuguste kaalutluste kohta, mida asjaomased sidusrühmad saaksid kasutada edasise mõtlemise teavitamise ja kujundamise alusena, kaasa arvatud mis tahes hindamisraamistik, mida ametiasutused võivad välja töötada. 
  • Mõjuhinnangute teavitamiseks. ELi tehisintellekti seadus nõuab, et organisatsioonid, kes pakuvad tehisintellekti tööriistu või võtavad tehisintellekti oma protsessides kasutusele, viivad läbi mõjuhinnangu, et teha kindlaks oma algatuste risk ja kohaldada asjakohast riskijuhtimise lähenemisviisi. Siin esitatud raamistikku võiks selle aluseks võtta. 
  • Täiustada eetilisi põhimõtteid, mis on vajalikud tehisintellekti kasutamise suunamiseks ja reguleerimiseks. Raamistik saab seda teha, pakkudes paindlikku alust, millele tuginedes saab välja töötada usaldusväärseid süsteeme, ning tagades tehnoloogia seadusliku, eetilise, jõulise ja vastutustundliku kasutamise. Neid põhimõtteid saab testida kõigi selles raamistikus esitatud mõjude suhtes. 
  • Olemasolevate meetmete (st regulatiivsete, seadusandlike, poliitika) ülevaate hõlbustamiseks ja täiendavat kaalumist vajavate lünkade tuvastamiseks. 
  • Raamistik on tehnoloogia ja selle kasutamise suhtes agnostiline. Seetõttu võiks seda kasutada üsna erinevates valdkondades, nagu sünteetiline bioloogia. 

Järgmine tabel on analüütilise raamistiku mõõtmete varajane kujundamine. Sõltuvalt tehnoloogiast ja selle kasutamisest on mõned komponendid olulisemad kui teised. Näited on toodud illustreerimaks, miks iga domeen võib olla oluline; kontekstis vajaks raamistik kontekstuaalselt asjakohast laiendamist. Samuti on oluline teha vahet platvormi arendustel ja üldistel probleemidel, mis võivad ilmneda konkreetsete rakenduste käigus.  

Mõõtmed, mida uue tehnoloogia hindamisel arvesse võtta

Esialgne mustand mõõtmetest, mida võib olla vaja uue tehnoloogia hindamisel arvesse võtta
Löögi mõõtmed Kriteeriumid Näited selle kohta, kuidas see võib analüüsis kajastuda  
Individuaalne/ise  Kasutajate AI pädevus  Kui pädevad ja süsteemi omadustest teadlikud on tõenäolised kasutajad, kes süsteemiga suhtlevad? Kuidas antakse neile asjakohane kasutajateave ja hoiatused? 
Mõjutatud sidusrühmad  Kes on peamised sidusrühmad, keda süsteem mõjutab (st üksikisikud, kogukonnad, haavatavad, sektori töötajad, lapsed, poliitikakujundajad, spetsialistid)? 
Valikulisus Kas kasutajatele on antud võimalus süsteemist loobuda; kas neile tuleks anda võimalus väljundit vaidlustada või parandada?  
Ohud inimõigustele ja demokraatlikele väärtustele  Kas süsteem võib mõjutada (ja millises suunas) inimõigusi, sealhulgas, kuid mitte ainult, eraelu puutumatust, sõnavabadust, õiglust, diskrimineerimise ohtu jne? 
Võimalik mõju inimeste heaolule Kas süsteem võib mõjutada (ja mis suunas) individuaalse kasutaja heaolu (st töö kvaliteet, haridus, sotsiaalne suhtlus, vaimne tervis, identiteet, keskkond)?  
Inimese tööjõu ümberpaigutamise potentsiaal Kas süsteemil on potentsiaali automatiseerida inimeste poolt täidetavaid ülesandeid või funktsioone? Kui jah, siis millised on allavoolu tagajärjed? 
Identiteedi, väärtuste või teadmistega manipuleerimise potentsiaal Kas süsteem on loodud või potentsiaalselt suuteline manipuleerima kasutaja identiteedi või seatud väärtustega või levitama desinformatsiooni? Kas on võimalik esitada valesid või kontrollimatuid ekspertiisi väiteid? 
Eneseväärtuse mõõdikud Kas on survet kujutada idealiseeritud mina? Kas automatiseerimine võiks asendada isikliku eneseteostuse tunnet? Kas töökohal on surve süsteemiga konkureerida? Kas isikliku maine kaitsmine desinformatsiooni eest on raskem? 
Privaatsus Kas eraelu puutumatuse kaitsmise kohustus on hajutatud ja kas tehakse mingeid eeldusi selle kohta, kuidas isikuandmeid kasutatakse?  
Autonoomia Kas süsteem võib mõjutada inimese autonoomiat, tekitades lõppkasutajate liigset sõltuvust tehnoloogiast? 
Inimareng Kas see mõjutab inimarengu võtmeoskuste omandamist, nagu täidesaatvad funktsioonid, inimestevahelised oskused, õppimist mõjutavad tähelepanuaja muutused, isiksuse areng, vaimse tervise probleemid jne?  
Isiklik tervishoid Kas on väiteid personaliseeritud tervishoiulahenduste kohta? Kui jah, siis kas need on regulatiivsete standardite kohaselt valideeritud? 
Vaimse tervise Kas on olemas suurenenud ärevuse, üksinduse või muude vaimse tervise probleemide oht või suudab tehnoloogia selliseid mõjusid leevendada? 
Inimese evolutsioon Kas tehnoloogia võib viia muutusteni inimese evolutsioonis?  
Löögi mõõtmed Kriteeriumid Kirjeldus 
Ühiskond/ühiskondlik elu Ühiskondlikud väärtused  Kas süsteem muudab põhimõtteliselt ühiskonna olemust või võimaldab normaliseerida varem antisotsiaalseteks peetud ideid või rikub see selle kultuuri ühiskondlikke väärtusi, milles seda rakendatakse?  
Sotsiaalne suhtlus Kas see mõjutab sisukaid inimkontakte, sealhulgas emotsionaalseid suhteid?  
Omakapital Kas rakendus/tehnoloogia tõenäoliselt vähendab või suurendab ebavõrdsust (st majanduslikku, sotsiaalset, hariduslikku, geograafilist)? 
Rahvastiku tervis Kas süsteemil on potentsiaali rahvastiku tervisega seotud kavatsusi edendada või õõnestada? 
Kultuuriline väljendus Kas kultuurilise omastamise või diskrimineerimise suurenemist on tõenäoline või raskem käsitleda? Kas otsustussüsteemile toetumine võib ühiskonna osad välja jätta või marginaliseerida? 
Avalik haridus Kas see mõjutab õpetaja rolle või haridusasutusi? Kas süsteem rõhutab või vähendab õpilaste ebavõrdsust ja digitaalset lõhet? Kas teadmiste või kriitilise arusaamise sisemine väärtus on arenenud või õõnestatud?  
Moonutatud tegelikkus Kas meetodid, mida me kasutame tõe väljaselgitamiseks, on endiselt kehtivad? Kas reaalsustaju on ohus?  
Majanduslik kontekst (kaubandus)        Tööstussektor Millises tööstussektoris süsteemi kasutatakse (st rahandus, põllumajandus, tervishoid, haridus, kaitse)? 
Ärimudel Millises ärifunktsioonis süsteemi kasutatakse ja millises võimsuses? Kus süsteemi kasutatakse (era, avalik, mittetulunduslik)? 
Mõju kriitilistele tegevustele  Kas süsteemi funktsiooni või tegevuse katkemine mõjutaks olulisi teenuseid või kriitilisi infrastruktuure?  
Kasutuselevõtu hingamine Kuidas süsteemi juurutatakse (kitsalt organisatsiooni sees vs laialt levinud riiklikult/rahvusvaheliselt)? 
Tehniline küpsus (TRL) Kui küps on süsteem tehniliselt?  
Tehnoloogiline suveräänsus Kas tehnoloogia suurendab tehnoloogilise suveräänsuse kontsentratsiooni?  
Tulude ümberjaotamine ja riiklikud fiskaalhoovad Kas suveräänse riigi põhirollid (st reservpangad) võivad ohtu seada? Kas riigi suutlikkus täita kodanike ootusi ja tagajärgi (st sotsiaalseid, majanduslikke, poliitilisi) paraneb või väheneb?  
Löögi mõõtmed Kriteeriumid Kirjeldus 
Kodanikuelu    Juhtimine ja avalik teenistus Kas juhtimismehhanisme ja globaalseid juhtimissüsteeme võib mõjutada positiivselt või negatiivselt? 
Uudiste meedia Kas avalik diskursus muutub tõenäoliselt enam-vähem polariseerituks ja kinnistub elanikkonna tasandil? Kas see mõjutab meedia usaldusväärsust? Kas tavapärased ajakirjanduseetika ja aususe standardid saavad veelgi mõjutatud?  
Seadus Kas see mõjutab võimet tuvastada üksikisikuid või organisatsioone, keda vastutusele võtta (st millist vastutust ebasoodsate tulemuste eest algoritmile määrata)? Kas see toob kaasa suveräänsuse (st keskkonna-, fiskaal-, sotsiaalpoliitika, eetika) kaotuse?  
Poliitika ja sotsiaalne sidusus Kas on võimalik rohkem juurdunud poliitilisi vaateid ja vähem võimalusi konsensuse saavutamiseks? Kas on võimalik rühmi veelgi marginaliseerida? Kas vastandlikud poliitikastiilid on enam-vähem tõenäolised? 
Geostrateegiline/ geopoliitiline kontekst    Täpne jälgimine Kas süsteemid on koolitatud individuaalsete käitumis- ja bioloogiliste andmete põhjal ja kui jah, siis kas neid saab kasutada üksikisikute või rühmade ärakasutamiseks? 
Digitaalne kolonisatsioon Kas riiklikud või valitsusvälised osalejad suudavad süsteeme ja andmeid kasutada, et mõista ja kontrollida teiste riikide elanikkonda ja ökosüsteeme või kahjustada jurisdiktsiooni kontrolli? 
Geopoliitiline konkurents Kas süsteem mõjutab riikide ja tehnoloogiaplatvormide vahelist konkurentsi individuaalsetele ja kollektiivsetele andmetele juurdepääsu nimel majanduslikel või strateegilistel eesmärkidel? 
Kaubandus ja kaubanduslepingud Kas süsteemil on mõju rahvusvahelistele kaubanduslepingutele? 
Ülemaailmsete jõudude muutus Kas rahvusriikide staatus maailma peamiste geopoliitiliste osalejatena on ohus? Kas tehnoloogiaettevõtted kasutavad kunagi rahvusriikidele reserveeritud võimu ja kas neist saavad iseseisvad suveräänsed osalejad?  
desinformatsiooni Kas riiklikel ja valitsusvälistel osalejatel on lihtsam toota ja levitada desinformatsiooni, mis mõjutab sotsiaalset ühtekuuluvust, usaldust ja demokraatiat?  
Keskkonna  Energia- ja ressursitarbimine (süsiniku jalajälg) Kas süsteem ja nõuded suurendavad energia- ja ressursitarbimist lisaks rakenduse kaudu saavutatavale tõhususe kasvule?  
Löögi mõõtmed Kriteeriumid Kirjeldus 
Andmed ja sisend         Tuvastamine ja kogumine  Kas andmeid ja sisendit koguvad inimesed, automatiseeritud andurid või mõlemad?  
Andmete päritolu  Kas need andmed on esitatud, vaadeldud, sünteetilised või tuletatud? Kas päritolu kinnitamiseks on olemas vesimärgikaitsed? 
Andmete dünaamiline olemus Kas andmed on dünaamilised, staatilised, aeg-ajalt uuendatavad või reaalajas uuendatavad? 
õigus Kas andmed on omandiõigusega kaitstud, avalikud või isiklikud (st seotud tuvastatavate isikutega)?  
Isikuandmete tuvastatavus  Kui isikuandmed on anonüümsed või pseudonüümsed?  
Andmete struktuur Kas andmed on struktureeritud, poolstruktureeritud, keeruka struktureeritud või struktureerimata? 
Andmete vorming  Kas andmete ja metaandmete vorming on standarditud või mittestandardiseeritud?  
Andmete ulatus  Mis on andmestiku skaala?  
Andmete asjakohasus ja kvaliteet Kas andmekogum sobib eesmärgile? Kas valimi suurus on piisav? Kas see on piisavalt esinduslik ja terviklik? Kui mürarikkad on andmed? Kas see on veaohtlik?  
MUDEL            Teabe kättesaadavus  Kas teave süsteemi mudeli kohta on saadaval?  
AI mudeli tüüp  Kas mudel on sümboolne (inimese loodud reeglid), statistiline (kasutab andmeid) või hübriid?  
Modelliga seotud õigused  Kas mudel on avatud lähtekoodiga või patenteeritud, enda või kolmanda osapoole hallatav? 
Üksik või mitu mudelit  Kas süsteem koosneb ühest mudelist või mitmest omavahel seotud mudelist?  
Generatiivne või diskrimineeriv Kas mudel on generatiivne, diskrimineeriv või mõlemad?  
Mudeli ehitamine  Kas süsteem õpib inimeste kirjutatud reeglite alusel, andmete põhjal, juhendatud õppimise või tugevdava õppe kaudu?  
Mudeli areng (AI triiv) Kas mudel areneb ja/või omandab võimeid valdkonna andmetega suhtlemisel?  
Liit- või keskõpe Kas mudelit õpetatakse tsentraalselt või mitmes kohalikus serveris või "servaseadmes"?  
Arendus ja hooldus  Kas mudel on universaalne, kohandatav või kohandatud AI-näitleja andmetega?  
Deterministlik või tõenäosuslik  Kas mudelit kasutatakse deterministlikul või tõenäosuslikul viisil?  
Mudeli läbipaistvus  Kas kasutajatele on kättesaadav teave, mis võimaldab neil mõista mudeli väljundeid ja piiranguid või kasutada piiranguid?  
Arvutuslik piirang Kas süsteemil on arvutuslikke piiranguid? Kas võime ennustada võimekuse hüppeid või skaleerimisseadusi? 
Löögi mõõtmed Kriteeriumid Kirjeldus 
Ülesanne ja väljund      Süsteemi poolt teostatud ülesanne(d). Milliseid ülesandeid süsteem täidab (st tuvastamine, sündmuste tuvastamine, prognoosimine)?  
Ülesannete ja tegevuste kombineerimine  Kas süsteem ühendab mitu ülesannet ja tegevust (st sisu genereerimise süsteemid, autonoomsed süsteemid, juhtimissüsteemid)?  
Süsteemi autonoomia tase Kui autonoomsed on süsteemi tegevused ja millist rolli mängivad inimesed?  
Inimese kaasatuse määr Kas tehisintellektisüsteemi üldise tegevuse ja võime otsustada, millal ja kuidas süsteemi igas olukorras kasutada, on kaasatud ka inimkond? 
Põhirakendus Kas süsteem kuulub põhirakenduste valdkonda, nagu inimkeeletehnoloogia, arvutinägemine, automatiseerimine ja/või optimeerimine või robootika?  
Hindamine  Kas süsteemi väljundi hindamiseks või ettenägematute esilekerkivate omadustega tegelemiseks on olemas standardid või meetodid?  

Võti deskriptorite allikad

tavaline tekst:
Gluckman, P. ja Allen, K. 2018. Heaolu mõistmine kiirete digitaalsete ja sellega seotud muutuste kontekstis. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Halb tekst:
OECD. 2022. aasta. OECD AI süsteemide klassifitseerimise raamistik. OECD Digital Economy Papers, nr 323, OECD Publishing, Pariis. https://oecd.ai/en/classification 

kursiivkirjas:
Uued deskriptorid (mitmest allikast) 

Edasine tee

Olenevalt sellele aruteludokumendile antud vastusest moodustab ISC ekspertide töörühma, et edasi arendada või muuta ülaltoodud analüütilist raamistikku, mille abil sidusrühmad saaksid igakülgselt vaadata platvormide või kasutusmõõtmete olulisi arenguid. Töörühm oleks distsiplinaarselt, geograafiliselt ja demograafiliselt mitmekesine, eksperditeadmised ulatuksid tehnoloogia hindamisest avaliku poliitikani, inimarengust sotsioloogia ning tuleviku- ja tehnoloogiauuringuteni. 

Selle aruteludokumendiga tutvumiseks külastage veebisaiti Council.science/publications/framework-digital-technologies 

Tänusõnad

Selle dokumendi väljatöötamisel on konsulteeritud paljude inimestega, mille koostasid ISC president Sir Peter Gluckman ja Hema Sridhar, endine kaitseministeeriumi juhtivteadur ja nüüdne vanemteadur Aucklandi ülikoolist Uus-Meremaal. 

Eelkõige täname Lord Martin Reesi, endist Kuningliku Seltsi presidenti ja Cambridge'i Ülikooli eksistentsiaalsete riskide uurimise keskuse kaasasutajat; professor Shivaji Sondhi, Oxfordi ülikooli füüsikaprofessor; professor K Vijay Raghavan, India valitsuse endine teaduslik nõunik; Amandeep Singh Gill, ÜRO peasekretäri tehnoloogiasaadik; dr Seán Óh Éigeartaigh, Cambridge'i ülikooli eksistentsiaalsete riskide uurimiskeskuse tegevdirektor; Amanda-June Brawner, vanempoliitikanõunik ja Ian Wiggins, rahvusvaheliste suhete direktor, Royal Society UK; dr Jerome Duberry, dr Marie-Laure Salles, direktor, Genfi Graduate Institute; hr Chor Pharn Lee, strateegiliste futuuride keskus, peaministri büroo, Singapur; Barend Mons ja dr Simon Hodson, andmekomitee (CoDATA); prof Yuko Harayama, Jaapan; professor Rémi Quirion, INGSA president; Dr Claire Craig, Oxfordi ülikool ja endine valitsuse teadusbüroo prognoosijuht; ja prof Yoshua Bengio, ÜRO peasekretäri teaduslik nõuandekogu ja Université de Montréal. Kontrollnimekirja lähenemisviisi üldiselt toetati ja rõhutati ISC mis tahes tegevuse õigeaegsust. 


Liituge aruteluga

Pilt: adamichi iStockis

Otse sisu juurde