Посібник для політиків: Оцінка технологій, що швидко розвиваються, включаючи ШІ, великі мовні моделі тощо

У цьому документі ISC досліджує структуру для інформування політиків про численні глобальні та національні дискусії, пов’язані з ШІ.

Посібник для політиків: Оцінка технологій, що швидко розвиваються, включаючи ШІ, великі мовні моделі тощо

Посібник ISC пропонує всебічну структуру, розроблену для подолання розриву між принципами високого рівня та практичною, дієвою політикою. Це відповідає нагальній потребі загального розуміння як можливостей, так і ризиків, які представляють нові технології. Це важливий документ для тих, хто працює над політичним зв’язком у нашу цифрову епоху, що швидко змінюється.

Структура досліджує потенціал штучного інтелекту та його похідних через всеосяжну лінзу, охоплюючи добробут людей і суспільства разом із зовнішніми факторами, такими як економіка, політика, навколишнє середовище та безпека. Деякі аспекти контрольного списку можуть бути більш релевантними, ніж інші, залежно від контексту, але кращі рішення здаються більш вірогідними, якщо враховувати всі домени, навіть якщо деякі з них можна швидко визначити як нерелевантні в окремих випадках. Це невід’ємна цінність підходу контрольного списку.

Пітер Глюкман

Президент ISC

«В епоху, позначену стрімкими технологічними інноваціями та складними глобальними викликами, структура ISC для комплексного та багатовимірного аналізу потенційних впливів дає лідерам можливість приймати обґрунтовані та відповідальні рішення. Це гарантує, що, коли ми просуваємося технологічно, ми робимо це з ретельним розглядом етичних, соціальних та економічних наслідків».

Незважаючи на те, що принципи високого рівня були проголошені ЮНЕСКО, ОЕСР, Європейською комісією та ООН, серед інших, і тривають різноманітні дискусії щодо питань потенційного управління, регулювання, етики та безпеки, існує великий розрив між такими принципами та управління або нормативної бази. ISC вирішує цю потребу через свій новий посібник для політиків.

Це керівництво для політиків не має на меті заборонити регуляторний режим, а скоріше запропонувати адаптивну аналітичну структуру, що розвивається, яка може лежати в основі будь-яких процесів оцінки та регулювання, які можуть бути розроблені зацікавленими сторонами, включаючи уряди та багатосторонню систему.

Хема Шрідхар

Колишній головний науковий радник Міністерства оборони Нової Зеландії, а зараз старший науковий співробітник Університету Окленда, Нова Зеландія.

«Фреймворк є критично важливим кроком у глобальній дискусії про ШІ, оскільки він забезпечує основу, на якій ми можемо досягти консенсусу щодо наслідків технології як зараз, так і в майбутньому». 

З жовтня 2023 року було запроваджено кілька важливих національних і багатосторонніх ініціатив із подальшим розглядом етики та безпеки ШІ. Наслідки штучного інтелекту для цілісності деяких наших критично важливих систем, включаючи фінансову, державну, юридичну та освітню, а також різні системи знань (включаючи наукові та місцеві знання), викликають все більше занепокоєння. Структура додатково відображає ці аспекти.

Відгуки, отримані від членів ISC та міжнародної спільноти, що формує політику, відображені в переглянутій версії аналітичної основи, яка зараз випущена як посібник для політиків.

Посібник для політиків: Оцінка технологій, що швидко розвиваються, включаючи ШІ, великі мовні моделі тощо

У цьому дискусійному документі представлено схему початкової основи для численних глобальних і національних дискусій, пов’язаних із ШІ.

Завантажте структуру для використання у вашій організації

Тут ми надаємо фреймворк у вигляді редагованого аркуша Excel для використання у вашій організації. Якщо ви віддаєте перевагу формату з відкритим кодом, будь ласка, зв’яжіться з secretariat@council.science.

Вступ

Технології, що швидко розвиваються, створюють складні проблеми, коли справа стосується їх використання, управління та потенційного регулювання. Поточна політика та публічні дебати щодо штучного інтелекту (ШІ) та його використання привернули ці проблеми до уваги. Широкі принципи ШІ були оголошені ЮНЕСКО, ОЕСР, ООН та іншими, включаючи Декларацію Блетчлі Сполученого Королівства, і з’являються спроби юрисдикції регулювати аспекти технології через, наприклад, ШІ Європейського Союзу (ЄС). Закон або нещодавній виконавчий наказ AI Сполучених Штатів.

У той час як використання штучного інтелекту довго обговорюється на цих та інших форумах, через геополітичні розбіжності та в країнах з усіма рівнями доходу, залишається онтологічний розрив між розробкою принципів високого рівня та їх втіленням на практиці через регулятивні, політичні та керівні органи. або підходи управління. Шлях від принципу до практики погано визначений, але, враховуючи характер і темпи розробки та застосування штучного інтелекту, різноманітність залучених інтересів і діапазон можливих застосувань, будь-який підхід не може бути надто загальним або директивним.

З цих причин особливу роль продовжує відігравати неурядова наукова спільнота. У жовтні 2023 року Міжнародна наукова рада (ISC) із плюралістичним складом представників соціальних і природничих наук опублікувала дискусійний документ, у якому представлено попередню аналітичну структуру, у якій розглядаються ризики, переваги, загрози та можливості, пов’язані зі стрімким розвитком цифрових технологій. Незважаючи на те, що він був розроблений для врахування штучного інтелекту, він за своєю суттю не залежить від технологій і може бути застосований до ряду нових і революційних технологій, таких як синтетична біологія та квантова. Цей дискусійний документ запрошував науковців і політиків до відгуків. Завдяки величезній кількості відгуків проведення такого аналізу стало необхідним і стало цінним підходом до нових технологій, таких як ШІ.

Метою цієї структури є надання інструменту для інформування всіх зацікавлених сторін, включаючи уряди, учасників торгових переговорів, регуляторних органів, громадянське суспільство та промисловість, про еволюцію цих технологій, щоб допомогти їм визначити, як вони можуть розглядати наслідки, позитивні чи негативні, сама технологія, а точніше її конкретне застосування. Ця аналітична основа була розроблена незалежно від інтересів уряду та галузі. Він максимально плюралістичний у своїх перспективах, охоплюючи всі аспекти технології та її наслідки на основі широких консультацій і відгуків.

Цей дискусійний документ для політиків не має на меті заборонити регуляторний режим, а скоріше запропонувати адаптивну аналітичну структуру, що розвивається, яка може лежати в основі будь-яких процесів оцінки та регулювання, які можуть бути розроблені зацікавленими сторонами, включаючи уряди та багатосторонню систему.

Оскільки особи, які приймають рішення в усьому світі та на національному рівні, розглядають відповідні параметри політики та важелі, щоб збалансувати ризики та винагороди нової технології, такої як штучний інтелект, аналітична структура призначена як додатковий інструмент для забезпечення адекватного відображення повного набору потенційних наслідків.

Передумови: навіщо аналітична основа?

Швидка поява технологій зі складністю та наслідками штучного інтелекту спонукає багато заяв про велику користь. Однак це також провокує побоювання значних ризиків, від індивідуального до геостратегічного рівня.1 Значна частина дискусій на сьогоднішній день розглядалася в бінарному сенсі, оскільки публічно висловлені погляди, як правило, мають місце на крайніх кінцях спектру. Твердження на користь або проти штучного інтелекту часто є гіперболічними, і, враховуючи природу технології, їх важко оцінити.

Необхідний більш прагматичний підхід, коли гіпербола замінюється каліброваними та більш детальними оцінками. Технології штучного інтелекту продовжуватимуть розвиватися, і історія показує, що практично кожна технологія має як користь, так і шкоду. Отже, постає питання: як ми можемо досягти корисних результатів від цієї технології, одночасно зменшуючи ризики шкідливих наслідків, деякі з яких можуть мати екзистенціальний масштаб?

Майбутнє завжди невизначене, але щодо ШІ та генеративного ШІ є достатня кількість надійних експертів, які заохочують до відносно обережного підходу. Крім того, необхідний системний підхід, оскільки штучний інтелект – це клас технологій із широким використанням і застосуванням різними типами користувачів. Це означає, що під час розгляду наслідків використання будь-якого штучного інтелекту для окремих осіб, суспільного життя, громадянського життя, суспільного життя та в глобальному контексті необхідно враховувати повний контекст.

На відміну від більшості інших технологій, для цифрових і суміжних технологій проміжок часу між розробкою, випуском і застосуванням надзвичайно короткий, що значною мірою керується інтересами виробничих компаній або агентств. За своєю природою – і враховуючи, що він базується на цифровій магістралі – штучний інтелект матиме програми, які швидко поширюються, як це вже було помічено з розробкою великих мовних моделей. У результаті деякі властивості можуть стати очевидними лише після звільнення, тобто існує ризик непередбачуваних наслідків, як зловмисних, так і доброзичливих.

Важливі аспекти суспільних цінностей, особливо в різних регіонах і культурах, впливатимуть на те, як сприймається та приймається будь-яке використання. Крім того, геостратегічні інтереси вже домінують у дискусіях, де суверенні та багатосторонні інтереси постійно перетинаються, що призводить до конкуренції та розколу.

На сьогоднішній день більша частина регулювання віртуальних технологій в основному розглядалася через призму «принципів» і добровільного дотримання, незважаючи на Закон ЄС про штучний інтелект.2 і схоже, ми спостерігаємо перехід до більш ефективних, але дещо вузьких правил. Створення ефективного глобального чи національного управління технологіями та/або системи регулювання залишається складним завданням, і немає очевидного рішення. У ланцюжку знадобиться кілька рівнів прийняття рішень з урахуванням ризиків, від винахідника до виробника, до користувача, до уряду та багатосторонньої системи.

Незважаючи на те, що ЮНЕСКО, ОЕСР, Європейська комісія та ООН, серед інших, оприлюднили принципи високого рівня, і тривають різноманітні дискусії на високому рівні щодо питань потенційного управління, регулювання, етики та безпеки, існує великий розрив між такими принципи та систему управління або нормативну базу. Це потрібно вирішити.

В якості відправної точки ISC розглядає розробку таксономії міркувань, на яку міг би посилатися будь-який розробник, регулятор, політичний радник, споживач або особа, яка приймає рішення. Враховуючи широкі наслідки цих технологій, така таксономія повинна враховувати сукупність наслідків, а не вузько сфокусований фрейм. Глобальна фрагментація зростає через вплив геостратегічних інтересів на прийняття рішень, і, враховуючи актуальність цієї технології, важливо, щоб незалежні та нейтральні голоси наполегливо відстоювали єдиний та інклюзивний підхід.


1) Hindustan Times. 2023. G20 повинна створити міжнародну групу з питань технологічних змін.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЄС про штучний інтелект. 2023. https://artificialintelligenceact.eu

Розробка аналітичної основи

ISC є основною глобальною неурядовою організацією, що об’єднує природничі та соціальні науки. Його глобальний і дисциплінарний охоплення означає, що він має хороші можливості для створення незалежних і глобально актуальних порад для інформування про складні вибори, які попереду, особливо тому, що нинішні голоси на цій арені в основному походять від промисловості або від політичних і політичних спільнот великих технологічних держав.

Після періоду широкого обговорення, яке включало розгляд процесу неурядової оцінки, ISC дійшов висновку, що його найкориснішим внеском буде створення адаптивної аналітичної структури, яка може бути використана як основа для дискурсу та прийняття рішень усіма зацікавлені сторони, в тому числі під час будь-яких формальних процесів оцінки, що виникають.

Попередня аналітична основа, яку було оприлюднено для обговорення та відгуків у жовтні 2023 року, набула форми загального контрольного списку, призначеного для використання як державними, так і неурядовими установами. Структура визначила та дослідила потенціал таких технологій, як штучний інтелект та його похідних, через широкий об’єктив, який охоплює добробут людини та суспільства, а також зовнішні фактори, такі як економіка, політика, навколишнє середовище та безпека. Деякі аспекти контрольного списку можуть бути більш релевантними, ніж інші, залежно від контексту, але кращі рішення здаються більш вірогідними, якщо враховувати всі домени, навіть якщо деякі з них можна швидко визначити як нерелевантні в окремих випадках. Це невід’ємна цінність підходу контрольного списку.

Попередня структура була виведена на основі попередньої роботи та мислення, включаючи звіт Міжнародної мережі урядових наукових консультацій (INGSA) про цифровий добробут3 та Рамкову систему ОЕСР для класифікації систем штучного інтелекту4, щоб представити сукупність потенційних можливостей, ризиків і наслідків. ШІ. Ці попередні продукти були більш обмеженими за своїм наміром з огляду на час і контекст; існує потреба у всеохоплюючій структурі, яка представляє повний спектр питань як у короткостроковій, так і в довгостроковій перспективі.

З моменту свого випуску дискусійний документ отримав значну підтримку багатьох експертів і політиків. Багато хто спеціально схвалив рекомендацію розробити адаптивну структуру, яка дозволяє свідомо та проактивно розглядати ризики та наслідки технології, і при цьому завжди враховує сукупність вимірів від особистості до суспільства та систем.

Одним із ключових зауважень, зроблених у відгуках, було визнання того, що деякі наслідки, які розглядаються в структурі, за своєю суттю є багатогранними та поширюються на кілька категорій. Наприклад, дезінформацію можна розглядати як з індивідуальної, так і з геостратегічної позиції; таким чином, наслідки будуть різноманітними.

Також було запропоновано можливість включити тематичні дослідження або приклади для тестування структури. Це можна використати для розробки рекомендацій, щоб продемонструвати, як це можна використовувати на практиці в різних контекстах. Однак це було б значним заходом і може обмежити те, як різні групи сприймають використання цієї основи. Найкраще це роблять політики, які працюють з експертами в конкретних юрисдикціях або контекстах.

З жовтня 2023 року було запроваджено кілька важливих національних і багатосторонніх ініціатив із подальшим розглядом етики та безпеки ШІ. Наслідки штучного інтелекту для цілісності деяких наших критично важливих систем, включаючи фінансову, державну, юридичну та освітню, а також різні системи знань (включаючи наукові та місцеві знання), викликають все більше занепокоєння. Переглянута структура додатково відображає ці аспекти.

Відгуки, отримані на сьогоднішній день, відображені в оновленій версії аналітичної основи, яка зараз випущена як посібник для політиків.

Хоча структура представлена ​​в контексті штучного інтелекту та пов’язаних технологій, її можна негайно перенести на розгляд інших технологій, що швидко розвиваються, таких як квантова та синтетична біологія.


3) Глюкман, П. та Аллен, К. 2018. Розуміння добробуту в контексті швидкої цифрової та пов’язаної з нею трансформації. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОЕСР. 2022. Структура ОЕСР для класифікації систем ШІ. Документи ОЕСР з цифрової економіки, № 323, №. Париж, OECD Publishing.
https://oecd.ai/en/classificatio

Основи

У наступній таблиці представлено розміри передбачуваної аналітичної структури. Наведено приклади, щоб проілюструвати, чому кожен домен може мати значення; у контексті структура вимагала б контекстуально відповідного розширення. Також важливо розрізняти загальні проблеми, які виникають під час розробки платформи, і ті, які можуть виникнути під час конкретних програм. Жодне окреме міркування, включене тут, не повинно розглядатися як пріоритетне, і, таким чином, усі повинні бути розглянуті.

Проблеми загалом згруповано в такі категорії, як описано нижче.

  • Благополуччя (включаючи благополуччя окремих осіб або себе, суспільства, соціального та громадянського життя)
  • Торгівля та економіка
  • екологічна
  • Геостратегічні та геополітичні
  • Технологічні (характеристики системи, конструкція та використання)

У таблиці детально описано параметри, які, можливо, слід враховувати при оцінці нової технології.

🔴 INGSA. 2018. Розуміння добробуту в контексті швидкої цифрової та пов’язаної з нею трансформації.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Нові дескриптори (отримані в результаті широких консультацій, відгуків і огляду літератури)

🟡 Структура ОЕСР для класифікації систем штучного інтелекту: інструмент ефективної політики щодо штучного інтелекту.
https://oecd.ai/en/classification

Розміри впливу: Індивід / сам

КритеріїПриклади того, як це може бути відображено в аналізі
🟡Компетентність AI користувачівНаскільки компетентні та обізнані про властивості системи ймовірні користувачі, які взаємодіятимуть із системою? Як їм буде надано відповідну інформацію для користувачів і застереження?
🟡 Зацікавлена ​​сторонаХто є основними зацікавленими сторонами, на яких впливатиме система (окремі особи, громади, уразливі верстви населення, працівники галузі, діти, політики, професіонали тощо)?
🟡 На вибірЧи надається користувачам можливість відмовитися від системи чи їм надається можливість оскаржити або виправити результат?
🟡Ризики для прав людини та демократичних цінностейЧи впливає система принципово на права людини, включаючи, але не обмежуючись цим, приватність, свободу вираження поглядів, справедливість, недискримінацію тощо?
🟡Потенційний вплив на добробут людейЧи пов’язані сфери впливу системи з добробутом окремого користувача (якість роботи, освіта, соціальні взаємодії, психічне здоров’я, особистість, навколишнє середовище тощо)?
🟡 Потенціал трудового переміщення людейЧи є у системи потенціал для автоматизації завдань або функцій, які виконувалися людьми? Якщо так, то які наступні наслідки?
🟡 Можливість маніпулювання ідентичністю, цінностями чи знаннямиЧи система розроблена або потенційно здатна маніпулювати особистістю користувача або
встановити цінності чи поширювати дезінформацію?
🔴 Можливості для самовираження та самореалізаціїЧи є потенціал для хитрощів і сумнівів у собі? Чи існує можливість помилкового або
непідтверджені претензії експертизи?
🔴 Міри власної гідностіЧи існує тиск зображати себе ідеалізованим? Чи може автоматизація замінити відчуття
особистої реалізації? Чи існує тиск конкурувати з системою в
робоче місце? Чи важче захистити індивідуальну репутацію від дезінформації?
🔴 КонфіденційністьЧи є розсіяні обов’язки щодо захисту конфіденційності та чи є такі
зроблені припущення про те, як використовуються персональні дані?
🔴 АвтономністьЧи може система штучного інтелекту впливати на автономію людини, викликаючи надмірну залежність від
кінцеві користувачі?
🔴 Розвиток людиниЧи є вплив на набуття ключових навичок для розвитку людини, як-от
вплив на виконавчі функції чи навички міжособистісного спілкування, або зміни часу уваги
навчання, розвиток особистості, проблеми з психічним здоров’ям тощо?
🔴 Турбота про особисте здоров'яЧи є заяви про самодіагностику чи персоналізовані рішення щодо охорони здоров’я? Якщо так,
чи перевірені вони на відповідність нормативним стандартам?
🔴 Психічне здоров'яЧи існує ризик підвищеної тривоги, самотності чи інших проблем із психічним здоров’ям, або
Чи може технологія зменшити такі наслідки?
🟢 Еволюція людиниЧи можуть великі мовні моделі та штучний загальний інтелект змінити
хід еволюції людини?
🟢 Взаємодія людина-машинаЧи може використання з часом призвести до декваліфікації та залежності людей? Є
чи впливають на взаємодію між людьми?
5) Технологічні критерії, розглянуті в структурі, стосуються спеціально штучного інтелекту, і їх потрібно буде переглянути для інших технологій, якщо це буде доречно.

Розміри впливу: суспільство/соціальне життя

Критерії Приклади того, як це може бути відображено в аналізі
🔴Суспільні цінностіЧи система фундаментально змінює природу суспільства, чи дозволяє нормалізувати ідеї, які раніше вважалися антисоціальними, чи порушує суспільні цінності культури, в якій вона застосовується?
🔴 Соціальні взаємодіїЧи це впливає на значущі людські контакти, включаючи емоційні стосунки?
🔴 Здоров'я населенняЧи існує потенціал для системи просування або підриву намірів щодо здоров’я населення?
🔴 Культурне самовираженняЧи ймовірно чи важче впоратися зі зростанням культурного присвоєння чи дискримінації? Чи опора на систему прийняття рішень виключає або маргіналізує культурно відповідні секційні зв’язки суспільства?
🔴 Народна освітаЧи це впливає на ролі вчителя чи освітні установи? Система підкреслює чи зменшує цифровий розрив і нерівність серед студентів? Внутрішня цінність знань або критичного розуміння підвищена чи занижена?
🟢 Спотворена реальністьЧи методи, які використовуються для визначення правди, досі застосовні? Чи скомпрометовано сприйняття реальності?

Розміри впливу: економічний контекст (торгівля)

КритеріїПриклади того, як це може бути відображено в аналізі
🟡 Промисловий секторУ якому промисловому секторі використовується система (фінанси, сільське господарство, охорона здоров’я, освіта, оборона тощо)?
🟡 Бізнес-модельУ якій бізнес-функції використовується система і в якій якості? Де використовується система (приватна, державна, некомерційна)?
🟡 Вплив на важливі дії Чи вплине збій у функціонування або діяльність системи на основні служби чи критичну інфраструктуру?
🟡Широта розгортанняЯк розгортається система (вузьке використання всередині підрозділу проти широкого національного/міжнародного)?
🟡 Технічна зрілістьНаскільки технічно зріла система?
🟢 Сумісність Чи існує ймовірність того, що на національному чи глобальному рівнях існують обмеження, які перешкоджають вільній торгівлі та впливають на співпрацю з партнерами?
🟢 Технологічний суверенітетЧи прагнення до технологічного суверенітету керує поведінкою, включно з контролем над усім ланцюгом постачання ШІ?
🔴 Перерозподіл доходів і національні фіскальні важеліЧи можуть бути поставлені під загрозу основні ролі суверенної держави (наприклад, резервні банки)? Чи буде здатність держави задовольняти очікування громадян і відповідати наслідкам (соціальним, економічним, політичним тощо) або зменшуватися?
🟢 Цифровий розрив (AI divide) Існуюча цифрова нерівність посилюється чи створюється нова?

Розміри впливу: Громадянське життя

КритеріїПриклади того, як це може бути відображено в аналізі
🔴 Управління та державна службаЧи можна вплинути на механізми управління та глобальну систему управління позитивно чи негативно?
🔴 ЗМІЧи може публічний дискурс поляризуватися та закріпитися на рівні населення? Чи вплине це на рівень довіри до четвертої влади? Чи це вплине на звичайну журналістську етику та стандарти чесності?
🔴 Верховенство праваЧи це вплине на здатність ідентифікувати осіб або організації, яких слід притягнути до відповідальності (наприклад, який тип відповідальності призначити алгоритму для несприятливих результатів)? Чи є втрата суверенітету (екологічна, фіскальна, соціальна політика, етика тощо)?
🔴Політика та соціальна згуртованістьЧи є ймовірність більш укорінених політичних поглядів і менше можливостей для досягнення консенсусу? Чи існує можливість подальшої маргіналізації груп? Змагальні стилі політики більш чи менш вірогідні?
🟢 Соціальна ліцензіяЧи є питання конфіденційності, проблеми довіри та моральні проблеми, які необхідно враховувати, щоб зацікавлені сторони погодилися на використання?
🟢 Корінні знанняЧи можуть знання та дані корінного населення бути пошкоджені або привласнені? Чи існують адекватні заходи для захисту від спотворення, дезінформації та експлуатації?
🟢 Наукова системаЧи порушується академічна та дослідницька доброчесність? Чи є втрата довіри до науки? Чи існують можливості неправильного використання, надмірного використання чи зловживання? Який наслідок практики науки?

Розміри впливу: геостратегічний/геополітичний контекст

КритеріїПриклади того, як це може бути відображено в аналізі
🟢 Точне спостереженняЧи навчаються системи на індивідуальних поведінкових і біологічних даних і чи можуть вони використовуватися для експлуатації окремих осіб або груп?
🟢 Цифровий конкурсЧи можуть державні чи недержавні суб’єкти (наприклад, великі технологічні компанії) використовувати системи та дані для розуміння та контролю населення та екосистем інших країн або підірвати юрисдикційний контроль?
🟢 Геополітична конкуренціяЧи може ця система викликати конкуренцію між країнами щодо використання індивідуальних і групових даних в інтересах економіки, медицини та безпеки?
🟢 Зміна глобальних силЧи статус національних держав як головних геополітичних акторів світу під загрозою? Чи технологічні компанії володіють владою, яка колись була зарезервована для національних держав, і чи стали вони незалежними, суверенними акторами (технополярний світопорядок, що виникає)?
🟢 ДезінформаціяЧи сприятиме ця система виробництву та поширенню дезінформації державними та недержавними суб’єктами, що вплине на соціальну єдність, довіру та демократію?
🟢 Програми подвійного використанняЧи є можливість як для військового, так і для цивільного використання?
🟢 Фрагментація глобального порядкуЧи можуть розвинутися розриви або кластери регулювання та відповідності, які перешкоджають співпраці, призводять до неузгодженості в застосуванні та створюють простір для конфлікту?

Розміри впливу: Екологічні

КритеріїПриклади того, як це може бути відображено в аналізі
🟢 Споживання енергії та ресурсів (вуглецевий слід)Чи система та вимоги збільшують споживання енергії та ресурсів понад підвищення ефективності, отримане завдяки застосуванню?
🟢Джерело енергіїЗвідки береться енергія для системи (відновлювані джерела чи викопне паливо тощо)?

Розміри впливу: дані та вхідні дані

КритеріїПриклади того, як це може бути відображено в аналізі
🟡 Напрямок та колекціяДані та вхідні дані збираються людьми, автоматизованими датчиками чи тим і іншим?
🟡 Походження данихЧи дані та внески експертів надані, спостережувані, синтетичні чи похідні? Чи існують водяні знаки для підтвердження походження?
🟡 Динамічний характер данихДані динамічні, статичні, динамічно оновлюються час від часу чи в режимі реального часу?
🟡 ПраваЧи дані конфіденційні, публічні чи особисті (пов’язані з особами, які можна ідентифікувати)?
🟡 Ідентифікація та персональні даніЯкщо дані особисті, чи є дані анонімними чи псевдонімними?
🟡 Структура данихЧи є дані структурованими, напівструктурованими, складно структурованими чи неструктурованими?
🟡 Формат данихФормат даних і метаданих стандартизований чи нестандартизований?
🟡 Масштаб данихЯкий масштаб набору даних?
🟡 Доречність і якість даних Чи підходить набір даних для цілей? Чи адекватний розмір вибірки? Чи достатньо він репрезентативний і повний? Наскільки зашумлені дані? Це схильне до помилок?

Розміри удару: Модель

КритеріїПриклади того, як це може бути відображено в аналізі
🟡 Доступність інформаціїЧи є якась інформація про модель системи?
🟡 Тип моделі ШІЧи є модель символічною (правила, створені людиною), статистичною (використовує дані) чи гібридною?
🟡 Права, пов’язані з моделлюМодель із відкритим вихідним кодом чи пропрієтарною, самостійно чи третьою стороною керується?
🟡 Одна з кількох моделейСистема складається з однієї моделі чи кількох взаємопов’язаних моделей?
🟡 Породжувальні або дискримінаційніЧи є модель генеративною, дискримінаційною чи обома?
🟡 Побудова моделіЧи навчається система на основі написаних людиною правил, з даних, через контрольоване навчання чи через навчання з підкріпленням?
🟡 Еволюція моделі (дрейф AI)Чи розвивається модель та/або набуває можливостей завдяки взаємодії з даними в полі?
🟡 Федеративне або централізоване навчанняМодель навчена централізовано чи на кількох локальних серверах чи «граничних» пристроях?
🟡 Розробка/обслуговуванняЧи є модель універсальною, настроюваною чи адаптованою до даних актора ШІ?
🟡 Детермінований або імовірнісний Чи використовується модель у детермінований чи ймовірнісний спосіб?
🟡 Прозорість моделі Чи доступна інформація для користувачів, щоб вони могли зрозуміти результати моделі та обмеження чи використовувати обмеження?
🟢 Обмеження обчисленьЧи існують обчислювальні обмеження системи? Чи можливо передбачити стрибки можливостей або закони масштабування?

Розміри впливу: завдання та результат

КритеріїПриклади того, як це може бути відображено в аналізі
🟡 Завдання, які виконує системаЯкі завдання виконує система (розпізнавання, виявлення подій, прогнозування тощо)?
🟡 Поєднання завдань і дійЧи поєднує система кілька завдань і дій (системи генерації контенту, автономні системи, системи керування тощо)?
🟡 Рівень автономності системи Наскільки автономними є дії системи і яку роль відіграють люди?
🟡 Ступінь участі людиниЧи існує певна участь людини для нагляду за загальною діяльністю системи ШІ та здатності вирішувати, коли та як використовувати систему ШІ в будь-якій ситуації?
🟡 Основна програмаЧи належить система до основної сфери застосування, такої як технології людської мови, комп’ютерне зір, автоматизація та/або оптимізація чи робототехніка?
🟡 ОцінкаЧи доступні стандарти або методи для оцінки результатів системи?

Як можна використовувати цю структуру?

Цю структуру можна використовувати багатьма способами, зокрема:

  • Щоб подолати розрив між принципами високого рівня та оцінкою для цілей регулювання чи управління. Концепція може підтримати це, створивши перевірену загальну таксономію низки питань, які заслуговують на розгляд відповідними зацікавленими сторонами як основу для інформування та формування подальшого мислення. Наприклад, на національному рівні структуру можна використовувати як інструмент для уряду, коли він розробляє національну стратегію та політику ШІ для створення спільної основи ризиків і можливостей для груп зацікавлених сторін.
  • Для інформування оцінки впливу. Закон ЄС про штучний інтелект вимагає від організацій, які надають інструменти штучного інтелекту або застосовують штучний інтелект у своїх процесах, проводити оцінку впливу, щоб визначити ризик своїх ініціатив і застосувати відповідний підхід до управління ризиками. Представлену тут структуру можна використовувати як основу для цього.
  • Для інформування горизонту сканування ризиків і майбутніх сценаріїв. Категоризація ризиків у Проміжному звіті Консультативного органу ООН зі штучного інтелекту6 загалом узгоджується з структурою, представленою в цій структурі. Існує можливість використовувати структуру для досягнення консенсусу та тестування серйозності нових ризиків, а також їх попередження.
  • Для посилення етичних принципів, необхідних для керівництва та управління використанням ШІ. Структура може зробити це, забезпечуючи гнучку основу, на якій можна розробляти надійні системи та забезпечуючи законне, етичне, надійне та відповідальне використання технології. Ці принципи можна перевірити на повному спектрі впливів, представлених у цій структурі.
  • Для сприяння аналізу існуючих і змінюваних заходів (регуляторних, законодавчих, політичних, стандартних, управлінських тощо) і визначення прогалин, які потребують подальшого розгляду. Їх можна зіставити з рамковими категоріями на національному чи багатонаціональному рівні, щоб визначити прогалини та визначити відповідні заходи для пом’якшення ризиків.
  • Підтримати державне використання ШІ. Оскільки багато урядів визначають свої відповідні стратегії використання штучного інтелекту в установах і системах, структуру можна використовувати для визначення відповідних порогових значень ризику та визначення ключових зацікавлених сторін і відповідальності.
  • Для підтримки публічного обговорення та створення соціальної ліцензії на те, як використовується штучний інтелект та базові дані, які використовуватимуться державними службами чи ширше в суспільстві.

Шлях вперед
Підводячи підсумок, аналітична структура надається як основа інструментарію, який зацікавлені сторони можуть використовувати для всебічного розгляду будь-яких значних розробок платформ або використання в послідовний і систематичний спосіб. Виміри, представлені в цій структурі, мають відношення від оцінки технологій до державної політики, від розвитку людського потенціалу до соціології та досліджень майбутнього та технологій. Незважаючи на те, що ця аналітична структура розроблена для штучного інтелекту, вона має набагато ширше застосування для будь-якої іншої технології, що розвивається.

6 Консультативна рада АІ ООН. 2023. Проміжний звіт: керуючий ШІ для людства. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Подяки

З багатьма людьми було проведено консультації та надано відгуки під час розробки як початкового документа для обговорення, так і відгуків після його випуску. Обидва документи були підготовлені сером Пітером Глакманом, президентом ISC, і Хемою Срідхаром, колишнім головним науковим радником Міністерства оборони Нової Зеландії, а нині старшим науковим співробітником Оклендського університету Нової Зеландії.

Зокрема, лорд ISC Мартін Ріс, колишній президент Королівського товариства та співзасновник Центру вивчення екзистенційних ризиків Кембриджського університету; Професор Шіваджі Сонді, професор фізики Оксфордського університету; професор К. Віджай Рагхаван, колишній головний науковий радник уряду Індії; Амандіп Сінгх Гілл, посланник Генерального секретаря ООН з питань технологій; Seán Ó hÉigeartaigh, виконавчий директор Центру вивчення екзистенціальних ризиків, Кембриджський університет; Сер Девід Шпігельхальтер, професор Університету громадського розуміння ризику Вінтона
Кембридж; Аманда-Джун Браунер, старший політичний радник, і Ян Віггінс, директор з міжнародних справ, Королівське товариство, Великобританія; д-р Джером Дюбері, керуючий директор, і д-р Марі-Лор Саллес, директор Женевського вищого інституту; Чор Фарн Лі, Центр стратегічного майбутнього, Офіс прем'єр-міністра, Сінгапур; Баренд Монс і доктор Саймон Ходсон, Комітет з даних (CoDATA); професор Юко Хараяма, колишній виконавчий директор RIKEN; професор
Ремі Квіріон, президент INGSA; д-р Клер Крейг, Оксфордський університет і колишній керівник відділу прогнозування, Урядовий офіс науки; Професор Йошуа Бенгіо, Наукова консультативна рада Генерального секретаря ООН та Університет Монреаля; та багато інших, хто надав коментар ISC щодо початкового документа для обговорення.


Подальше читання

Підготовка національних дослідницьких екосистем для штучного інтелекту: стратегії та прогрес у 2024 році

Цей робочий документ аналітичного центру ISC, Center for Science Futures, надає фундаментальну інформацію та доступ до ресурсів з країн з усіх куточків світу на різних етапах інтеграції штучного інтелекту в їхні дослідницькі екосистеми: 

Перейти до вмісту