Gvidilo por politikofaristoj: Taksi rapide evoluantajn teknologiojn inkluzive de AI, grandaj lingvomodeloj kaj pretere

En ĉi tiu artikolo la ISC esploras la skizon de kadro por informi politikofaristojn pri la multoblaj tutmondaj kaj naciaj diskutoj okazantaj rilate al AI.

Gvidilo por politikofaristoj: Taksi rapide evoluantajn teknologiojn inkluzive de AI, grandaj lingvomodeloj kaj pretere

La gvidilo de la ISC ofertas ampleksan kadron dizajnitan por limigi la interspacon inter altnivelaj principoj kaj praktika, agebla politiko. Ĝi respondas al la urĝa bezono de komuna kompreno de kaj la ŝancoj kaj riskoj prezentitaj de emerĝantaj teknologioj. Ĉi tio estas esenca dokumento por tiuj, kiuj laboras ĉe la politika interligo en nia rapide ŝanĝiĝanta cifereca epoko.

La kadro esploras la potencialon de AI kaj ĝiaj derivaĵoj per ampleksa lenso, ampleksante homan kaj socian bonfarton kune kun eksteraj faktoroj kiel ekonomiko, politiko, medio kaj sekureco. Iuj aspektoj de la kontrola listo povas esti pli signifaj ol aliaj, depende de la kunteksto, sed pli bonaj decidoj ŝajnas pli verŝajnaj se ĉiuj domajnoj estas konsiderataj, eĉ se iuj povas esti rapide identigitaj kiel sensignivaj en apartaj kazoj. Ĉi tio estas la eneca valoro de aliro al kontrola listo.

Peter Gluckman

ISC-prezidanto

"En epoko markita de rapida teknologia novigo kaj kompleksaj tutmondaj defioj, la kadro de la ISC por ampleksa kaj plurdimensia analizo de la eblaj efikoj rajtigas gvidantojn fari informitajn, respondecajn decidojn. Ĝi certigas, ke dum ni progresas teknologie, ni faras tion kun zorgema konsidero de la etikaj, sociaj kaj ekonomiaj implicoj”.

Dum altnivelaj principoj estis promulgataj de Unesko, la OECD, la Eŭropa Komisiono kaj UN, inter aliaj, kaj diversaj diskutoj daŭras koncerne problemojn de ebla regado, reguligo, etiko kaj sekureco, ekzistas granda interspaco inter tiaj principoj kaj regado aŭ reguliga kadro. La ISC traktas ĉi tiun bezonon per sia nova gvidilo por politikofaristoj.

Ĉi tiu gvidilo por politikofaristoj ne celas proskribi reguligan reĝimon, sed prefere sugesti adaptan kaj evoluantan analizan kadron kiu povus subteni ajnan taksadon kaj reguligajn procezojn kiuj povus esti evoluigitaj de koncernatoj, inkluzive de registaroj kaj la plurflanka sistemo.

Hema Sridhar

Iama Ĉefa Scienca Konsilisto, Militministerio, Nov-Zelando kaj nun Ĉefesploristo, Universitato de Auckland, Nov-Zelando.

"La kadro estas kritika paŝo en la tutmonda konversacio pri AI ĉar ĝi provizas bazon el kiu ni povas konstrui konsenton pri la implicoj de la teknologio por nun kaj por la estonteco". 

Ekde oktobro 2023, ekzistas pluraj signifaj naciaj kaj plurflankaj iniciatoj kun plia konsidero de la etiko kaj sekureco de AI. La implicoj de AI sur la integreco de kelkaj el niaj kritikaj sistemoj, inkluzive de financa, registara, jura kaj edukado, same kiel malsamaj sciosistemoj (inkluzive de scienca kaj indiĝena scio), estas de kreskanta zorgo. La kadro plie reflektas ĉi tiujn aspektojn.

La sugestoj ricevitaj de ISC-Membroj kaj la internacia politikofaranta komunumo ĝis nun estas reflektitaj en la reviziita versio de la analiza kadro, kiu nun estas publikigita kiel gvidilo al politikofarantoj.

Gvidilo por politikofaristoj: Taksi rapide evoluantajn teknologiojn inkluzive de AI, grandaj lingvomodeloj kaj pretere

Ĉi tiu diskutdokumento disponigas la skizon de komenca kadro por informi la multoblajn tutmondajn kaj naciajn diskutojn okazantajn rilate al AI.

Elŝutu la kadron por uzi en via organizo

Ĉi tie ni provizas la kadran ilon kiel redakteblan Excel-folion por uzi en via organizo. Se vi preferas malfermfontan formaton, bonvolu kontakti secretariat@council.science.

Enkonduko

Rapide emerĝantaj teknologioj prezentas malfacilajn problemojn kiam temas pri ilia uzo, regado kaj ebla reguligo. La daŭraj politikoj kaj publikaj debatoj pri artefarita inteligenteco (AI) kaj ĝia uzo alportis ĉi tiujn aferojn en akuta fokuso. Larĝaj principoj por AI estis anoncitaj fare de Unesko, la OECD, UN kaj aliaj, inkluzive de la Bletchley Deklaracio de Britio, kaj estas emerĝantaj jurisdikciaj provoj pri reguligo de aspektoj de la teknologio tra, ekzemple, la Eŭropa Unio (EU) AI. Akto aŭ la lastatempa Plenuma Ordo de AI de Usono.

Dum la uzo de AI estas longe diskutita en tiuj kaj aliaj forumoj, trans geopolitikaj dislimoj kaj en landoj je ĉiuj enspezniveloj, restas ontologia interspaco inter la evoluo de altnivelaj principoj kaj ilia enkadrigo en praktikon per aŭ reguliga, politiko, administrado. aŭ intendantado alproksimiĝas. La vojo de principo al praktiko estas malbone difinita, sed konsiderante la naturon kaj kadencon de AI-evoluo kaj aplikado, la vario de intereso implikita kaj la gamo de eblaj aplikoj, ajna aliro ne povas esti tro ĝenerala aŭ preskriba.

Pro ĉi tiuj kialoj, la neregistara scienca komunumo daŭre ludas apartan rolon. La Internacia Scienca Konsilio (ISC) - kun sia plurisma membreco de la sociaj kaj natursciencoj - publikigis diskutdokumenton en oktobro 2023 prezentante preparan analizan kadron kiu konsideris la riskojn, avantaĝojn, minacojn kaj ŝancojn asociitajn kun rapide moviĝanta cifereca teknologio. Dum ĝi estis evoluigita por konsideri AI, ĝi estas esence teknologio agnostika kaj povas esti aplikita al gamo da emerĝantaj kaj interrompaj teknologioj, kiel ekzemple sinteza biologio kaj kvantumo. Tiu diskutdokumento invitis retrosciigon de akademiuloj kaj politikofaristoj. La superforta sugesto igis fari tian analizon necesa kaj staris kiel valora aliro por trakti emerĝantajn teknologiojn kiel AI.

La celo de la kadro estas disponigi ilon por informi ĉiujn koncernatojn - inkluzive de registaroj, komercaj intertraktantoj, reguligistoj, civila socio kaj industrio - pri la evoluo de tiuj teknologioj por helpi ilin enkadrigi kiel ili povus pripensi la implicojn, pozitivajn aŭ negativajn, de la teknologio mem, kaj pli specife ĝia aparta apliko. Ĉi tiu analiza kadro estis evoluigita sendepende de registaraj kaj industriaj interesoj. Ĝi estas maksimume plurisma en siaj perspektivoj, ampleksante ĉiujn aspektojn de la teknologio kaj ĝiajn implicojn bazitajn sur ampleksa konsulto kaj religo.

Ĉi tiu diskutdokumento por politikofaristoj ne celas proskribi reguligan reĝimon, sed prefere sugesti adaptan kaj evoluantan analizan kadron kiu povus subteni ajnan taksadon kaj reguligajn procezojn kiuj povus esti evoluigitaj fare de koncernatoj, inkluzive de registaroj kaj la plurflanka sistemo.

Ĉar deciduloj tutmonde kaj nacie konsideras taŭgajn politikajn agordojn kaj levilojn por ekvilibrigi la riskojn kaj rekompencojn de nova teknologio kiel ekzemple AI, la analiza kadro estas celita kiel komplementa ilo por certigi, ke la plena serio de eblaj implicoj estas adekvate reflektita.

Fono: kial analiza kadro?

La rapida apero de teknologioj kun la komplekseco kaj implicoj de AI movas multajn asertojn de granda profito. Tamen, ĝi ankaŭ provokas timojn pri gravaj riskoj, de individua ĝis geostrategia nivelo.1 Multo de la ĝisnuna diskuto estis konsiderita en binara signifo ĉar publike esprimitaj vidoj tendencas okazi ĉe la ekstremaj finoj de la spektro. La asertoj faritaj por aŭ kontraŭ AI estas ofte hiperbolaj kaj - pro la naturo de la teknologio - malfacile takseblaj.

Pli pragmata aliro estas necesa kie hiperbolo estas anstataŭigita kun kalibraj kaj pli grajnecaj taksadoj. AI-teknologio daŭre evoluas, kaj historio montras, ke preskaŭ ĉiu teknologio havas kaj utilajn kaj damaĝajn uzojn. La demando estas do: kiel ni povas atingi la utilajn rezultojn de ĉi tiu teknologio, reduktante la riskon de malutilaj sekvoj, iuj el kiuj povus esti ekzistecaj en grandeco?

La estonteco ĉiam estas necerta, sed ekzistas sufiĉaj kredindaj kaj spertaj voĉoj pri AI kaj genera AI por kuraĝigi relative antaŭzorgan aliron. Krome, sistema aliro estas necesa ĉar AI estas klaso de teknologioj kun larĝa uzo kaj apliko de multoblaj specoj de uzantoj. Ĉi tio signifas, ke la plena kunteksto devas esti pripensita kiam oni konsideras la implicojn de iu ajn AI-uzo por individuoj, socia vivo, civita vivo, socia vivo kaj en la tutmonda kunteksto.

Male al la plej multaj aliaj teknologioj, por ciferecaj kaj rilataj teknologioj, la tempo inter evoluo, liberigo kaj apliko estas ekstreme mallonga, plejparte movita de la interesoj de la produktentreprenoj aŭ agentejoj. Laŭ sia naturo - kaj ĉar ĝi baziĝas sur la cifereca spino - AI havos aplikojn kiuj estas rapide disvastigitaj, kiel jam estis vidita kun la evoluo de grandaj lingvomodeloj. Kiel rezulto, kelkaj trajtoj povas ŝajni nur post liberigo, signifante ke ekzistas la risko de neantaŭviditaj sekvoj, kaj malbonvolaj kaj bonfaraj.

Gravaj socivaloraj dimensioj, precipe trans malsamaj regionoj kaj kulturoj, influos kiel ajna uzo estas perceptita kaj akceptita. Krome, geostrategiaj interesoj jam regas diskuton, kun suverenaj kaj plurflankaj interesoj senĉese intersekciĝantaj kaj tiel kondukante konkuradon kaj dividon.

Ĝis nun, multe de la reguligo de virtuala teknologio plejparte estis vidita tra la lenso de "principoj" kaj libervola plenumo, kvankam kun la EU AI-Leĝo.2 kaj simile ni vidas ŝanĝon al pli plenumeblaj sed iom malvastaj regularoj. Establi efikan tutmondan aŭ nacian teknologian administradon kaj/aŭ reguligan sistemon restas malfacila kaj ne ekzistas evidenta solvo. Multoblaj tavoloj de risko-informita decidado estos necesaj laŭ la ĉeno, de inventinto ĝis produktanto, ĝis uzanto, ĝis registaro kaj ĝis la plurflanka sistemo.

Dum altnivelaj principoj estis promulgitaj de Unesko, la OECD, la Eŭropa Komisiono kaj UNo, inter aliaj, kaj diversaj altnivelaj diskutoj daŭras koncerne temojn de ebla regado, reguligo, etiko kaj sekureco, ekzistas granda interspaco inter tiaj. principoj kaj regado aŭ reguliga kadro. Ĉi tio devas esti traktita.

Kiel deirpunkto, la ISC pripensas evoluigi taksonomion de konsideroj kiujn ĉiu ellaboranto, reguligisto, politika konsilisto, konsumanto aŭ decidanto povus referenci. Surbaze de la larĝaj implicoj de tiuj teknologioj, tia taksonomio devas pripensi la totalon de implicoj prefere ol mallarĝe fokusita enkadrigo. Tutmonda fragmentiĝo pliiĝas pro la influo de geostrategiaj interesoj sur decidofarado, kaj konsiderante la urĝecon de ĉi tiu teknologio, estas esence por sendependaj kaj neŭtralaj voĉoj persiste pledi unuecan kaj inkluzivan aliron.


1) Hindustan Times. 2023. G20 devas starigi internacian panelon pri teknologia ŝanĝo.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Leĝo pri Artefarita Inteligenteco de EU. 2023. https://artificialintelligenceact.eu

La evoluo de analiza kadro

La ISC estas la primara tutmonda neregistara organizo integranta naturajn kaj sociosciencojn. Ĝia tutmonda kaj disciplina atingo signifas, ke ĝi estas bone lokita por generi sendependajn kaj tutmonde trafajn konsilojn por informi la kompleksajn elektojn antaŭen, precipe ĉar la nunaj voĉoj en ĉi tiu areno estas plejparte de industrio aŭ de la politikaj kaj politikaj komunumoj de la ĉefaj teknologiaj potencoj.

Post periodo de ampleksa diskuto, kiu inkludis la konsideron de neregistara taksadprocezo, la ISC finis ke ĝia plej utila kontribuo estus produkti adaptan analizan kadron kiu povas esti utiligita kiel la bazo por diskurso kaj decidiĝo de ĉiuj. koncernatoj, inkluzive dum iuj formalaj taksaj procezoj kiuj aperas.

La prepara analiza kadro, kiu estis publikigita por diskuto kaj retrosciigo en oktobro 2023, prenis la formon de ĝenerala kontrola listo dizajnita por uzo de kaj registaraj kaj neregistaraj institucioj. La kadro identigis kaj esploris la potencialon de teknologio kiel AI kaj ĝiaj derivaĵoj per larĝa lenso, kiu ampleksas homan kaj socian bonfarton, same kiel eksterajn faktorojn kiel ekonomion, politikon, medion kaj sekurecon. Iuj aspektoj de la kontrola listo povas esti pli signifaj ol aliaj, depende de la kunteksto, sed pli bonaj decidoj ŝajnas pli verŝajnaj se ĉiuj domajnoj estas konsiderataj, eĉ se iuj povas esti rapide identigitaj kiel sensignivaj en apartaj kazoj. Ĉi tio estas la eneca valoro de aliro al kontrola listo.

La prepara kadro estis derivita de antaŭa laboro kaj pensado, inkluzive de la raporto de la Internacia Reto por Registara Scienca Konsilo (INGSA) pri cifereca bonfarto3 kaj la OECD Kadro por la Klasifiko de AI-Sistemoj,4 por prezenti la totalon de la eblaj ŝancoj, riskoj kaj efikoj. de AI. Ĉi tiuj antaŭaj produktoj estis pli limigitaj en sia intenco donita sian tempon kaj kuntekston; necesas ĝenerala kadro, kiu prezentas la plenan gamon de aferoj kaj baldaŭ kaj pli longtempe.

Ekde sia publikigo, la diskutdokumento ricevis gravan subtenon de multaj fakuloj kaj politikofaristoj. Multaj specife aprobis la rekomendon evoluigi adaptan kadron kiu permesas intencan kaj iniciateman konsideron de la riskoj kaj implicoj de la teknologio, kaj farante tion, ĉiam pripensas la totalon de dimensioj de la individuo ĝis socio kaj sistemoj.

Unu ŝlosila observado farita per la sugestoj estis agnosko, ke pluraj el la implicoj pripensitaj en la kadro estas esence multfacetaj kaj etendiĝas tra multoblaj kategorioj. Ekzemple, misinformado povus esti pripensita de kaj la individua kaj geostrategia lenso; tiel, la sekvoj estus vastaj.

La opcio inkluzivi kazesplorojn aŭ ekzemplojn por testi la kadron ankaŭ estis proponita. Ĉi tio povus esti uzata por evoluigi gvidliniojn por montri kiel ĝi povus esti uzata praktike en malsamaj kuntekstoj. Tamen, ĉi tio estus signifa entrepreno kaj povas limigi kiel malsamaj grupoj perceptas la uzon de ĉi tiu kadro. Ĝi estas plej bone farita de politikofaristoj laborantaj kun spertuloj en specifaj jurisdikcioj aŭ kuntekstoj.

Ekde oktobro 2023, ekzistas pluraj signifaj naciaj kaj plurflankaj iniciatoj kun plia konsidero de la etiko kaj sekureco de AI. La implicoj de AI sur la integreco de kelkaj el niaj kritikaj sistemoj, inkluzive de financa, registara, jura kaj edukado, same kiel malsamaj sciosistemoj (inkluzive de scienca kaj indiĝena scio), estas de kreskanta zorgo. La reviziita kadro plie reflektas tiujn aspektojn.

La sugestoj ricevitaj ĝis nun estas reflektitaj en la reviziita versio de la analiza kadro, kiu nun estas publikigita kiel gvidilo al politikofarantoj.

Dum la kadro estas prezentita en la kunteksto de AI kaj rilataj teknologioj, ĝi estas tuj transdonebla al la konsideroj de aliaj rapide emerĝantaj teknologioj kiel kvantuma kaj sinteza biologio.


3) Gluckman, P. kaj Allen, K. 2018. Komprenante bonfarton en la kunteksto de rapidaj ciferecaj kaj rilataj transformoj. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. OECD Kadro por la Klasifiko de AI-sistemoj. OECD Digital Economy Papers, No. 323,#. Parizo, OECD-Eldonejo.
https://oecd.ai/en/classificatio

La Kadro

La sekva tabelo prezentas la dimensiojn de supoza analiza kadro. Ekzemploj estas disponigitaj por ilustri kial ĉiu domajno povas gravas; en kunteksto, la kadro postulus kuntekste signifan vastiĝon. Ankaŭ gravas distingi inter la ĝeneralaj aferoj, kiuj aperas dum platformevoluoj kaj tiuj, kiuj povas aperi dum specifaj aplikoj. Neniu ununura konsidero inkluzivita ĉi tie estu traktata kiel prioritato kaj, kiel tia, ĉio estu ekzamenata.

La temoj estas larĝe grupigitaj en la sekvajn kategoriojn kiel skizite malsupre:

  • Bonfarto (inkluzive tiu de individuoj aŭ memo, socio, socia vivo kaj civita vivo)
  • Komerco kaj ekonomio
  • mediaj
  • Geostrategia kaj geopolitika
  • Teknologia (sistemaj karakterizaĵoj, dezajno kaj uzo)

La tabelo detaligas dimensiojn, kiujn eble necesas konsideri kiam oni taksas novan teknologion.

🔴 INGSA. 2018. Kompreni bonfarton en la kunteksto de rapidaj ciferecaj kaj rilataj transformoj.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Novaj priskribiloj (fontaj tra la ampleksa konsulto kaj sugestoj kaj literaturrecenzo)

🟡 OECD Kadro por Klasifikado de AI-Sistemoj: ilo por efikaj AI-politikoj.
https://oecd.ai/en/classification

Dimensioj de efiko: Individua / mem

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟡Kompetenteco de AI de uzantojKiom kompetentaj kaj konsciaj pri la propraĵoj de la sistemo estas la verŝajnaj uzantoj, kiuj interagos kun la sistemo? Kiel ili estos provizitaj per la koncernaj uzantinformoj kaj avertoj?
🟡 Trafita koncernatoKiuj estas la ĉefaj koncernatoj, kiuj estos trafitaj de la sistemo (individuoj, komunumoj, vundeblaj, sektoraj laboristoj, infanoj, politikofarantoj, profesiuloj ktp.)?
🟡 OpcioĈu uzantoj havas la ŝancon elekti ekster la sistemon aŭ ĉu ili donas ŝancojn defii aŭ korekti la produktaĵon?
🟡Riskoj al homaj rajtoj kaj demokratiaj valorojĈu la sistemo efikas fundamente al homaj rajtoj, inkluzive sed ne limigitaj al privateco, esprimlibereco, justeco, nediskriminacia ktp.?
🟡Eblaj efikoj al la bonfarto de homojĈu la sistemaj efikaj areoj rilatas al la bonfarto de la individua uzanto (laborkvalito, edukado, sociaj interagoj, mensa sano, identeco, medio ktp.)?
🟡 Ebleco por homa labor-delokiĝoĈu ekzistas potencialo por la sistemo aŭtomatigi taskojn aŭ funkciojn, kiuj estis ekzekutitaj de homoj? Se jes, kiaj estas la kontraŭfluaj sekvoj?
🟡 Potencialo por identeco, valoroj aŭ sciomanipuladoĈu la sistemo estas dizajnita aŭ eble kapabla manipuli la identecon de la uzanto aŭ
valoroj starigitaj, aŭ disvastigi misinformadon?
🔴 Ŝancoj por memesprimo kaj mem-realigoĈu ekzistas potencialo por artifiko kaj memdubo? Ĉu ekzistas potencialo por falsa aŭ
nekontroleblaj asertoj de kompetenteco?
🔴 Mezuroj de memvaloroĈu estas premo portreti idealigitan memon? Ĉu aŭtomatigo povus anstataŭigi senton
de persona plenumo? Ĉu estas premo konkuri kun la sistemo en la
laborejo? Ĉu individua reputacio estas pli malfacile protekti kontraŭ misinformado?
🔴 PrivatecoĈu estas disvastigitaj respondecoj por protekti privatecon kaj ĉu ekzistas?
supozoj faritaj pri kiel personaj datumoj estas uzataj?
🔴 AŭtonomoĈu la AI-sistemo povus influi homan aŭtonomion generante troan fidon per
finuzantoj?
🔴 Homa evoluoĈu ekzistas efiko al akiro de ŝlosilaj kapabloj por homa evoluo, kiel ekz
plenumaj funkcioj aŭ interhomaj kapabloj, aŭ ŝanĝoj en atentotempo influanta
lernado, evoluigo de personeco, zorgoj pri mensa sano ktp.?
🔴 Persona sanservoĈu ekzistas asertoj pri mem-diagnozo aŭ personigitaj sanservosolvoj? Okazo,
ĉu ili estas validigitaj laŭ reguligaj normoj?
🔴 Mensa sanoĈu ekzistas risko de pliigita angoro, soleco aŭ aliaj menshigienaj problemoj, aŭ
ĉu la teknologio povas plibonigi tiajn efikojn?
🟢 Homa evoluoĈu grandaj lingvomodeloj kaj artefarita ĝenerala inteligenteco povus ŝanĝi la
kurso de homa evoluo?
🟢 Homo-maŝina interagoĈu la uzo povus konduki al malkapablo kaj dependeco laŭlonge de la tempo por individuoj? Estas
ĉu estas efikoj al homa interago?
5) La teknologiaj kriterioj konsiderataj en la kadro estas specife por AI kaj devos esti reviziitaj por aliaj teknologioj kiel konvene.

Dimensioj de efiko: socio/socia vivo

kriterioj Ekzemploj de kiel tio povas esti reflektita en analizo
🔴 Sociaj valorojĈu la sistemo esence ŝanĝas la naturon de socio, ebligas normaligon de ideoj antaŭe konsiderataj kontraŭsociaj, aŭ rompas sociajn valorojn de la kulturo en kiu ĝi estas aplikata?
🔴 Sociaj interagojĈu estas efiko al signifa homa kontakto, inkluzive de emociaj rilatoj?
🔴 Sano de la loĝantaroĈu ekzistas potencialo por la sistemo antaŭenigi aŭ subfosi popolanajn intencojn?
🔴 Kultura esprimoĈu pliiĝo de kultura alproprigo aŭ diskriminacio estas verŝajna aŭ pli malfacile traktebla? Ĉu dependeco de la sistemo por decidiĝo ekskludas aŭ marĝenigas kulture trafajn sekciajn ligojn de socio?
🔴 Publika edukadoĈu estas efiko al instruistoj aŭ edukaj institucioj? Ĉu la sistemo emfazas aŭ reduktas la ciferecan disiĝon kaj maljustecon inter studentoj? Ĉu la interna valoro de scio aŭ kritika kompreno estas progresinta aŭ subfosita?
🟢 Distorditaj realaĵojĈu la metodoj uzataj por distingi kio estas vera ankoraŭ estas aplikeblaj? Ĉu la percepto de la realo estas kompromitita?

Grandecoj de efiko: Ekonomia kunteksto (komerco)

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟡 Industria sektoroEn kiu industria sektoro estas la sistemo deplojita (financo, agrikulturo, sanservo, edukado, defendo ktp.)?
🟡 Komerca modeloEn kiu komerca funkcio estas uzata la sistemo kaj en kia kapablo? Kie estas uzata la sistemo (privata, publika, senprofita)?
🟡 Efikoj sur kritikaj agadoj Ĉu interrompo de la funkcio aŭ agado de la sistemo influus esencajn servojn aŭ kritikajn infrastrukturojn?
🟡Larĝo de deplojoKiel estas la sistemo deplojita (mallarĝa uzo ene de unuo vs. ĝeneraligita nacie/internacie)?
🟡 Teknika maturecoKiom teknike matura estas la sistemo?
🟢 Kunfunkciebleco Ĉu verŝajne ekzistas siloj, nacie aŭ tutmonde, kiuj malhelpas liberan komercon kaj efikas kunlaboron kun partneroj?
🟢 Teknologia suverenecoĈu deziro al teknologia suvereneco kondukas kondutojn, inkluzive de kontrolo de la tuta AI-provizoĉeno?
🔴 Enspeza redistribuo kaj naciaj fiskaj levilojĈu la kernaj roloj de la suverena ŝtato povus esti kompromititaj (ekz., rezervaj bankoj)? Ĉu la kapablo de la ŝtato renkonti la atendojn kaj implicojn de la civitanoj (sociaj, ekonomiaj, politikaj ktp.) estos progresinta aŭ reduktita?
🟢 Cifereca disigo (AI-divido) Ĉu ekzistantaj ciferecaj malegalecoj pligraviĝas aŭ kreiĝas novaj?

Dimensioj de efiko: Civita vivo

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🔴 Regado kaj publika servoĈu la regado-mekanismoj kaj tutmonda regado-sistemo povus esti tuŝitaj pozitive aŭ negative?
🔴 NovaĵmediojĈu publika diskurso verŝajne polariĝos kaj enradikiĝos ĉe populacionivelo? Ĉu estos efiko sur la niveloj de fido en la Kvara Estado? Ĉu konvencia ĵurnalisma etiko kaj integrecnormoj estos plu tuŝitaj?
🔴 JurŝtatoĈu estos efiko al la kapablo identigi individuojn aŭ organizojn por respondecigi (ekz., kian respondecon atribui al algoritmo por malfavoraj rezultoj)? Ĉu kreiĝas perdo de suvereneco (media, fiska, socia politiko, etiko ktp.)?
🔴Politiko kaj socia kohezioĈu ekzistas ebleco de pli enradikiĝintaj politikaj opinioj kaj malpli da ŝanco por konsentokonstruado? Ĉu ekzistas la ebleco plue marĝenigi grupojn? Ĉu kontraŭaj stiloj de politiko estas pli aŭ malpli verŝajnaj?
🟢 Socia permesiloĈu estas privatecaj zorgoj, fidaj aferoj kaj moralaj zorgoj, kiuj devas esti konsiderataj por akcepto de koncernato de la uzo?
🟢 Indiĝena scioĈu indiĝenaj scioj kaj datumoj povus esti koruptitaj aŭ misproprigitaj? Ĉu ekzistas taŭgaj rimedoj por protekti kontraŭ misprezento, misinformado kaj ekspluatado?
🟢 Scienca sistemoĈu akademia kaj esplora integreco estas kompromitita? Ĉu estas perdo de fido en scienco? Ĉu ekzistas eblecoj de misuzo, trouzo aŭ misuzo? Kio estas la sekvo de la praktiko de scienco?

Grandecoj de efiko: Geostrategia/Geopolitika kunteksto

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟢 Preciza gvatadoĈu la sistemoj estas trejnitaj pri individuaj kondutismaj kaj biologiaj datumoj kaj ĉu ili povus esti uzataj por ekspluati individuojn aŭ grupojn?
🟢 Cifereca konkursoĈu ŝtataj aŭ neŝtataj agantoj (ekz. grandaj teknologiaj kompanioj) povus utiligi sistemojn kaj datumojn por kompreni kaj kontroli loĝantarojn kaj ekosistemojn de aliaj landoj, aŭ subfosi jurisdikcian kontrolon?
🟢 Geopolitika konkuradoĈu la sistemo povus stimuli konkuradon inter nacioj pri utiligado de individuaj kaj grupaj datumoj por ekonomiaj, medicinaj kaj sekurecaj interesoj?
🟢 Ŝanĝo en tutmondaj potencojĈu la statuso de naciaj ŝtatoj kiel la ĉefaj geopolitikaj agantoj de la mondo estas minacata? Ĉu teknologiaj kompanioj havas potencon iam rezervitan por naciaj ŝtatoj kaj ĉu ili fariĝis sendependaj, suverenaj agantoj (emerĝanta teknopolusa monda ordo)?
🟢 MalinformoĈu la sistemo faciligus la produktadon kaj disvastigon de misinformado de ŝtataj kaj neŝtataj agantoj kun efiko al socia kohezio, fido kaj demokratio?
🟢 Duoblaj aplikojĈu ekzistas ebleco por kaj armea apliko same kiel civila uzo?
🟢 Fragmentiĝo de tutmonda ordoĈu siloj aŭ aretoj de reguligo kaj plenumado povus disvolvi, kiuj malhelpas kunlaboron, konduki al nekongruoj en aplikado kaj krei lokon por konflikto?

Dimensioj de efiko: Media

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟢 Energio kaj resursa konsumo (karbona spuro)Ĉu la sistemo kaj postuloj pliigas la konsumon de energio kaj rimedo super la efikecgajnoj akiritaj per la aplikaĵo?
🟢Energia fontoDe kie fontas la energio por la sistemo (renoviĝantaj kontraŭ fosiliaj brulaĵoj ktp.)?

Dimensioj de efiko: Datumoj kaj enigo

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟡 Direkto kaj kolektoĈu la datumoj kaj enigaĵoj estas kolektitaj de homoj, aŭtomatigitaj sensiloj aŭ ambaŭ?
🟡 Deveno de la datumojĈu la datumoj kaj enigaĵoj de spertuloj estas provizitaj, observataj, sintezaj aŭ derivitaj? Ĉu ekzistas akvomarkaj protektoj por konfirmi devenon?
🟡 Dinamika naturo de la datumojĈu la datumoj estas dinamikaj, statikaj, dinamikaj ĝisdatigitaj de tempo al tempo aŭ realtempe?
🟡 RajtojĈu la datumoj estas proprietaj, publikaj aŭ personaj (rilataj al identigeblaj individuoj)?
🟡 Identigebleco kaj personaj datumojSe personaj, ĉu la datumoj estas anonimigitaj aŭ pseŭdonimaj?
🟡 Strukturo de la datumojĈu la datumoj estas strukturitaj, duonstrukturitaj, kompleksaj strukturitaj aŭ nestrukturitaj?
🟡 Formato de la datumojĈu la formato de la datumoj kaj metadatenoj estas normigita aŭ ne-normigita?
🟡 Skalo de la datumojKio estas la skalo de la datumaro?
🟡 Taŭgeco kaj kvalito de la datumoj Ĉu la datumaro taŭgas por celo? Ĉu la specimena grandeco taŭgas? Ĉu ĝi estas sufiĉe reprezenta kaj kompleta? Kiom bruaj estas la datumoj? Ĉu ĝi estas inklina al eraro?

Dimensioj de efiko: Modelo

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟡 Disponebleco de informojĈu ajna informo haveblas pri la modelo de la sistemo?
🟡 Tipo de AI-modeloĈu la modelo estas simbola (hom-generitaj reguloj), statistika (uzas datumojn) aŭ hibrida?
🟡 Rajtoj asociitaj kun modeloĈu la modelo estas malfermfonta aŭ proprieta, mem- aŭ tripartia administrita?
🟡 Unu el pluraj modelojĈu la sistemo konsistas el unu modelo aŭ pluraj interligitaj modeloj?
🟡 Genera aŭ diskriminaciaĈu la modelo estas genera, diskriminacia aŭ ambaŭ?
🟡 ModelkonstruaĵoĈu la sistemo lernas surbaze de homskribitaj reguloj, de datumoj, per kontrolata lernado aŭ per plifortiga lernado?
🟡 Modelevoluo (AI-drivo)Ĉu la modelo evoluas kaj/aŭ akiras kapablojn de interagado kun datumoj en la kampo?
🟡 Federacia aŭ centra lernadoĈu la modelo estas trejnita centre aŭ en pluraj lokaj serviloj aŭ "randaj" aparatoj?
🟡 Disvolviĝo/prizorgadoĈu la modelo estas universala, agordebla aŭ adaptita al la datumoj de la AI-aktoro?
🟡 Determinisma aŭ probabilisma Ĉu la modelo estas uzata en determinisma aŭ probabla maniero?
🟡 Modela travidebleco Ĉu informoj haveblas al uzantoj por permesi al ili kompreni modelproduktojn kaj limigojn aŭ uzi limojn?
🟢 Komputila limigoĈu estas komputilaj limigoj al la sistemo? Ĉu eblas antaŭdiri kapablecsaltojn aŭ grimpi leĝojn?

Dimensioj de efiko: Tasko kaj eligo

kriteriojEkzemploj de kiel tio povas esti reflektita en analizo
🟡 Tasko(j) plenumita(j) per sistemoKiajn taskojn plenumas la sistemo (rekono, evento-detekto, prognozo ktp.)?
🟡 Kombinante taskojn kaj agojnĈu la sistemo kombinas plurajn taskojn kaj agojn (produktaj sistemoj de enhavo, aŭtonomaj sistemoj, kontrolsistemoj ktp.)?
🟡 La nivelo de aŭtonomeco de la sistemo Kiom aŭtonomaj estas la agoj de la sistemo kaj kian rolon ludas homoj?
🟡 Grado de homa implikiĝoĈu ekzistas iu homa implikiĝo por kontroli la ĝeneralan agadon de la AI-sistemo kaj la kapablon decidi kiam kaj kiel uzi la AI-sistemon en iu ajn situacio?
🟡 Kerna aplikaĵoĈu la sistemo apartenas al kerna aplikaĵo kiel homlingvaj teknologioj, komputila vizio, aŭtomatigo kaj/aŭ optimumigo aŭ robotiko?
🟡 TaksadoĈu normoj aŭ metodoj haveblas por taksi sisteman eligon?

Kiel ĉi tiu kadro povus esti uzata?

Ĉi tiu kadro povus esti uzata en multaj manieroj, inkluzive de:

  • Limigi la interspacon inter altnivelaj principoj kaj taksado por reguligaj aŭ administradaj celoj. La kadro povas apogi tion establante konfirmitan komunan taksonomion de la gamo da temoj kiuj meritas konsideron de signifaj koncernatoj kiel bazo por informi kaj formi plian pensadon. Ekzemple, je nacia nivelo, la kadro povus esti uzata kiel ilo de la registaro dum ĝi disvolvas nacian AI-strategion kaj politikojn por establi komunan bazon de la riskoj kaj ŝancoj tra koncernataj grupoj.
  • Por informi taksojn pri efiko. La EU-AI-Leĝo postulas, ke organizoj, kiuj provizas AI-ilojn aŭ adoptas AI en siaj procezoj, faru efikon pri taksado por identigi la riskon de siaj iniciatoj kaj apliki taŭgan riskan administradon. La kadro ĉi tie prezentita povus esti uzata kiel fundamento por tio.
  • Por informi horizontan skanadon por riskoj kaj estontaj scenaroj. La kategoriigo de riskoj en la Provizora Raporto de la UN AI Konsila Organo6 estas larĝe vicigita al la enkadrigo prezentita en la kadro ĉi tie. Estas ŝanco por la kadro esti uzata por konstrui konsenton kaj testi la severecon de emerĝantaj riskoj kaj ankaŭ antaŭvidi ĉi tiujn.
  • Plifortigi la etikajn principojn necesajn por gvidi kaj regi la uzon de AI. La kadro povas fari tion disponigante flekseblan fundamenton sur kiu fidindaj sistemoj povas esti evoluigitaj kaj certigante la laŭleĝan, etikan, fortikan kaj respondecan uzon de la teknologio. Ĉi tiuj principoj povus esti testitaj kontraŭ la plena gamo de efikoj prezentitaj en ĉi tiu kadro.
  • Faciligi bilancon de ekzistantaj kaj evoluantaj iniciatoj (reguligaj, leĝdonaj, politikoj, normoj, regado ktp.) kaj identigi mankojn kiuj bezonas plian konsideron. Ĉi tiuj povus esti mapitaj kontraŭ la kadrokategorioj je nacia aŭ multnacia nivelo por determini mankojn kaj identigi taŭgajn rimedojn por mildigi la riskojn.
  • Por subteni registaran uzon de AI. Ĉar multaj registaroj determinas siajn respektivajn strategiojn por la uzo de AI ene de agentejoj kaj sistemoj, la kadro povus esti uzata por difini taŭgajn riskajn sojlojn kaj identigi ŝlosilajn koncernatojn kaj respondecojn.
  • Subteni publikan diskurson kaj establi socian licencon pri kiel AI estas uzata kaj la subtenaj datumoj, kiuj estos uzataj tra registaraj servoj aŭ pli larĝe en la socio.

Vojo antaŭen
En resumo, la analiza kadro estas disponigita kiel la bazo de ilaro kiu povus esti uzita de koncernatoj por amplekse rigardi la ajnajn signifajn evoluojn aŭ de platformoj aŭ de uzo en konsekvenca kaj sistema maniero. La grandeco prezentitaj en ĉi tiu kadro havas signifon de teknologia taksado ĝis publika politiko, de homa evoluo ĝis sociologio, kaj estontecoj kaj teknologiaj studoj. Dum disvolvite por AI, ĉi tiu analiza kadro havas multe pli larĝan aplikon al iu ajn alia emerĝanta teknologio.

6 UN AI Konsilantaro. 2023. Provizora Raporto: Reganta AI por Homaro. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Dankoj

Multaj homoj estis konsultitaj kaj provizitaj reagoj en la evoluo de kaj la komenca diskutpapero kaj reagoj post ĝia liberigo. Ambaŭ artikoloj estis redaktitaj fare de Sir Peter Gluckman, Prezidanto, la ISC kaj Hema Sridhar, iama Ĉefa Scienca Konsilisto, Ministerio pri Defendo, Nov-Zelando kaj nun Ĉefesploristo, Universitato de Auckland, Nov-Zelando.

Aparte, la ISC Lord Martin Rees, iama Prezidanto de la Reĝa Societo de Londono kaj Kunfondinto de la Centro por la Studo de Ekzistemaj Riskoj, Universitato de Kembriĝo; Profesoro Shivaji Sondhi, Profesoro pri Fiziko, Universitato de Oksfordo; Profesoro K Vijay Raghavan, iama Ĉefa Scienca Konsilisto al la Registaro de Hindio; Amandeep Singh Gill, la sendito de la Ĝenerala Sekretario de UN pri Teknologio; Seán Ó hÉigeartaigh, Plenuma Direktoro, Centro por la Studo de Ekzistecaj Riskoj, Universitato de Kembriĝo; Sir David Spiegelhalter, Winton Profesoro de la Publika Kompreno de Risko, Universitato
de Kembriĝo; Amanda-June Brawner, Senior Policy Adviser kaj Ian Wiggins, Direktoro de Internaciaj Aferoj, Royal Society, Unuiĝinta Reĝlando; Dr Jerome Duberry, Administra Direktoro kaj Dr Marie-Laure Salles, Direktoro, Geneva Graduate Institute; Chor Pharn Lee, Centro por Strategic Futures, Ĉefministroficejo, Singapuro; Barend Mons kaj D-ro Simon Hodson, la Komitato pri Datumoj (CoDATA); Profesoro Yuko Harayama, Iama Administra Direktoro, RIKEN; Profesoro
Rémi Quirion, Prezidanto, INGSA; Dr Claire Craig, Universitato de Oksfordo kaj Iama Kapo de Foresight, Registaro-Oficejo de Scienco; Prof Yoshua Bengio, Scienca Konsilantaro de Ĝenerala Sekretario de UN kaj ĉe Université de Montréal; kaj la multaj aliaj kiuj provizis retrosciigon al la ISC pri la komenca diskutpapero.


plia legado

Preparante Naciajn Esplorajn Ekosistemojn por AI: Strategioj kaj Progreso en 2024

Ĉi tiu laborpapero de la pensfabriko de la ISC, la Centro por Sciencoj-Estontecoj, disponigas fundamentajn informojn kaj aliron al resursoj de landoj de ĉiuj partoj de la mondo, en diversaj stadioj de integriĝo de AI en iliajn esplorajn ekosistemojn: 

Rekte al enhavo