Регистрирай се

доклад

Ръководство за създателите на политики: Оценяване на бързо развиващите се технологии, включително AI, големи езикови модели и други

В този документ ISC изследва очертанията на рамка за информиране на политиците за множеството глобални и национални дискусии, които се провеждат, свързани с ИИ.

Ръководството на ISC предлага цялостна рамка, предназначена да преодолее празнината между принципите на високо ниво и практичната, действаща политика. Той отговаря на спешната нужда от общо разбиране както на възможностите, така и на рисковете, свързани с нововъзникващите технологии. Това е важен документ за тези, които работят в областта на политиката в нашата бързо променяща се цифрова ера.

Рамката изследва потенциала на ИИ и неговите производни през всеобхватна гледна точка, обхващаща благосъстоянието на хората и обществото заедно с външни фактори като икономика, политика, околна среда и сигурност. Някои аспекти на контролния списък може да са по-уместни от други в зависимост от контекста, но по-добрите решения изглеждат по-вероятни, ако се вземат предвид всички домейни, дори ако някои могат бързо да бъдат идентифицирани като неуместни в конкретни случаи. Това е присъщата стойност на подхода с контролен списък.

„В епоха, белязана от бързи технологични иновации и сложни глобални предизвикателства, рамката на ISC за цялостен и многоизмерен анализ на потенциалните въздействия дава възможност на лидерите да вземат информирани и отговорни решения. Той гарантира, че докато напредваме технологично, правим това с внимателно разглеждане на етичните, социалните и икономическите последици.

Питър Глукман, президент на ISC

Въпреки че принципите на високо ниво бяха обнародвани от ЮНЕСКО, ОИСР, Европейската комисия и ООН, наред с други, и продължават различни дискусии по отношение на въпроси на потенциално управление, регулиране, етика и безопасност, съществува голяма празнина между тези принципи и управление или регулаторна рамка. ISC отговаря на тази необходимост чрез своето ново ръководство за политици.

Това ръководство за политиците няма за цел да забрани регулаторен режим, а по-скоро да предложи адаптивна и развиваща се аналитична рамка, която би могла да подкрепи всяка оценка и регулаторни процеси, които могат да бъдат разработени от заинтересованите страни, включително правителствата и многостранната система.

„Рамката е критична стъпка в глобалния разговор за AI, тъй като осигурява основа, от която можем да изградим консенсус относно последиците от технологията както за сега, така и за бъдещето“. 

Хема Шридхар, бивш главен научен съветник, Министерство на отбраната, Нова Зеландия и сега старши научен сътрудник, Университет на Оукланд, Нова Зеландия.

От октомври 2023 г. имаше няколко значими национални и многостранни инициативи с допълнително разглеждане на етиката и безопасността на ИИ. Последствията от ИИ върху целостта на някои от нашите критични системи, включително финансови, правителствени, правни и образователни, както и различни системи за знания (включително научни и местни знания), будят все по-голяма загриженост. Рамката допълнително отразява тези аспекти.

Обратната връзка, получена от членовете на ISC и международната общност за правене на политики до момента, е отразена в преработената версия на аналитичната рамка, която сега е пусната като ръководство за лицата, създаващи политики.

Ръководство за създателите на политики: Оценяване на бързо развиващите се технологии, включително AI, големи езикови модели и други

Този дискусионен документ предоставя очертанията на първоначална рамка за информиране на множеството глобални и национални дискусии, които се провеждат, свързани с ИИ.

Рамка за използване във вашата организация

Изтеглете рамката за използване във вашата организация

Тук предоставяме инструмента за рамка като редактируем Excel лист за използване във вашата организация. Ако предпочитате формат с отворен код, моля, свържете се с secretariat@council.science.

Въведение

Бързо развиващите се технологии поставят предизвикателства, когато става въпрос за тяхното използване, управление и потенциално регулиране. Продължаващите политически и обществени дебати относно изкуствения интелект (AI) и неговото използване поставиха тези въпроси в остър фокус. Широки принципи за ИИ бяха обявени от ЮНЕСКО, ОИСР, ООН и други, включително Декларацията от Блечли на Обединеното кралство, и има нововъзникващи юрисдикционни опити за регулиране на аспекти на технологията чрез, например, ИИ на Европейския съюз (ЕС). Закон или скорошната изпълнителна заповед за AI на Съединените щати.

Въпреки че използването на AI се обсъжда надълго и нашироко в тези и други форуми, през геополитическите разделения и в държави с всички нива на доходи, остава онтологична празнина между разработването на принципи на високо ниво и тяхното включване в практиката чрез регулаторни, политически, управленски или подходи за управление. Пътят от принципа към практиката е слабо дефиниран, но като се има предвид естеството и ритъма на разработването и прилагането на ИИ, разнообразието от включени интереси и диапазонът от възможни приложения, всеки подход не може да бъде прекалено общ или предписващ.

По тези причини неправителствената научна общност продължава да играе особена роля. Международният научен съвет (ISC) – със своето плуралистично членство от социалните и природните науки – публикува дискусионен документ през октомври 2023 г., представящ предварителна аналитична рамка, която разглежда рисковете, ползите, заплахите и възможностите, свързани с бързо развиващите се цифрови технологии. Въпреки че е разработен, за да вземе предвид ИИ, той по своята същност е технологичен агностик и може да се прилага към редица нововъзникващи и разрушителни технологии, като синтетична биология и квантова. Този дискусионен документ прикани обратна връзка от учени и политици. Огромната обратна връзка направи провеждането на такъв анализ необходимо и се оказа ценен подход за справяне с нововъзникващите технологии като AI.

Целта на рамката е да предостави инструмент за информиране на всички заинтересовани страни – включително правителства, търговски преговарящи, регулатори, гражданско общество и промишленост – за еволюцията на тези технологии, за да им помогне да формулират как биха могли да обмислят последиците, положителни или отрицателни, от самата технология и по-конкретно конкретното й приложение. Тази аналитична рамка е разработена независимо от интересите на правителството и индустрията. Той е максимално плуралистичен в своите перспективи, обхващащ всички аспекти на технологията и нейните последици въз основа на обширни консултации и обратна връзка.

Този дискусионен документ за политиците няма за цел да забрани регулаторен режим, а по-скоро да предложи адаптивна и развиваща се аналитична рамка, която би могла да подкрепи всяка оценка и регулаторни процеси, които могат да бъдат разработени от заинтересованите страни, включително правителствата и многостранната система.

Тъй като лицата, вземащи решения в световен и национален мащаб, обмислят подходящи настройки на политиката и лостове за балансиране на рисковете и ползите от нова технология като AI, аналитичната рамка е предназначена като допълнителен инструмент, за да се гарантира, че пълният набор от потенциални последици са адекватно отразени.

Предистория: защо аналитична рамка?

Бързото появяване на технологии със сложността и последиците от AI води до много твърдения за голяма полза. Но също така провокира страхове от значителни рискове, от индивидуално до геостратегическо ниво.1 Голяма част от дискусията до момента се разглежда в бинарен смисъл, тъй като публично изразените възгледи са склонни да се провеждат в крайните краища на спектъра. Твърденията за или против ИИ често са хиперболични и – предвид естеството на технологията – трудни за оценка.

Необходим е по-прагматичен подход, когато хиперболата се заменя с калибрирани и по-подробни оценки. AI технологията ще продължи да се развива и историята показва, че почти всяка технология има както полезни, така и вредни приложения. Следователно въпросът е: как можем да постигнем полезните резултати от тази технология, като същевременно намалим риска от вредни последици, някои от които биха могли да бъдат екзистенциални по мащаб?

Бъдещето винаги е несигурно, но има достатъчно надеждни и експертни гласове по отношение на ИИ и генеративния ИИ, за да се насърчи сравнително предпазлив подход. Освен това е необходим системен подход, тъй като AI е клас технологии с широко използване и приложение от множество типове потребители. Това означава, че трябва да се вземе предвид пълният контекст, когато се разглеждат последиците от употребата на ИИ за индивидите, социалния живот, гражданския живот, социалния живот и в глобалния контекст.

За разлика от повечето други технологии, за цифровите и свързаните с тях технологии, времето между разработката, пускането и прилагането е изключително кратко, до голяма степен водено от интересите на продуцентските компании или агенции. По самото си естество – и като се има предвид, че се основава на дигиталната основа – AI ще има приложения, които бързо се разпространяват, както вече се видя при разработването на големи езикови модели. В резултат на това някои свойства могат да станат очевидни едва след освобождаване, което означава, че съществува риск от непредвидени последици, както злонамерени, така и добронамерени.

Важни измерения на обществените ценности, особено в различните региони и култури, ще повлияят на начина, по който всяка употреба се възприема и приема. Освен това геостратегическите интереси вече доминират дискусията, като суверенните и многостранните интереси непрекъснато се пресичат и по този начин водят до конкуренция и разделение.

Към днешна дата голяма част от регулирането на виртуална технология до голяма степен се разглежда през призмата на „принципи“ и доброволно спазване, въпреки че със Закона за изкуствен интелект на ЕС2 и подобно виждаме преминаване към по-изпълними, но донякъде тесни разпоредби. Установяването на ефективно глобално или национално технологично управление и/или регулаторна система остава предизвикателство и няма очевидно решение. По веригата ще са необходими множество нива на вземане на решения, информирани за риска, от изобретател до производител, до потребител, до правителството и до многостранната система.

Въпреки че принципите на високо ниво бяха обнародвани от ЮНЕСКО, ОИСР, Европейската комисия и ООН, наред с други, и различни дискусии на високо ниво продължават по отношение на въпроси на потенциално управление, регулиране, етика и безопасност, съществува голяма празнина между такива принципи и управленска или регулаторна рамка. На това трябва да се обърне внимание.

Като отправна точка ISC обмисля разработването на таксономия от съображения, на които всеки разработчик, регулатор, политически съветник, потребител или вземащ решения би могъл да се позове. Като се имат предвид широките последици от тези технологии, такава таксономия трябва да вземе предвид съвкупността от последици, а не тясно фокусирано рамкиране. Глобалната фрагментация се увеличава поради влиянието на геостратегическите интереси върху вземането на решения и като се има предвид неотложността на тази технология, от съществено значение е независимите и неутрални гласове да поддържат упорито единен и приобщаващ подход.


1) Hindustan Times. 2023 г. Г-20 трябва да създаде международен панел за технологични промени.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Законът за изкуствения интелект на ЕС. 2023. https://artificialintelligenceact.eu

Разработване на аналитична рамка

ISC е основната глобална неправителствена организация, интегрираща естествени и социални науки. Неговият глобален и дисциплинарен обхват означава, че е в добра позиция да генерира независими и глобално приложими съвети, които да информират за предстоящите сложни избори, особено след като настоящите гласове на тази арена са до голяма степен от индустрията или от политическите и политически общности на големите технологични сили.

След период на обширна дискусия, която включва разглеждане на неправителствен процес на оценка, ISC заключи, че неговият най-полезен принос би бил създаването на адаптивна аналитична рамка, която може да се използва като основа за дискурс и вземане на решения от всички заинтересованите страни, включително по време на всякакви формални процеси на оценка, които възникват.

Предварителната аналитична рамка, която беше пусната за обсъждане и обратна връзка през октомври 2023 г., прие формата на всеобхватен контролен списък, предназначен за използване както от правителствени, така и от неправителствени институции. Рамката идентифицира и изследва потенциала на технология като AI и нейните производни през широк обектив, който обхваща благосъстоянието на хората и обществото, както и външни фактори като икономика, политика, околна среда и сигурност. Някои аспекти на контролния списък може да са по-уместни от други в зависимост от контекста, но по-добрите решения изглеждат по-вероятни, ако се вземат предвид всички домейни, дори ако някои могат бързо да бъдат идентифицирани като неуместни в конкретни случаи. Това е присъщата стойност на подхода с контролен списък.

Предварителната рамка е извлечена от предишна работа и мислене, включително доклада на Международната мрежа за правителствени научни съвети (INGSA) относно цифровото благополучие3 и Рамката на ОИСР за класификация на системите с изкуствен интелект4, за да представи съвкупността от потенциални възможности, рискове и въздействия на AI. Тези предишни продукти бяха по-ограничени в своето намерение предвид времето и контекста им; има нужда от всеобхватна рамка, която представя пълния набор от проблеми както в краткосрочен, така и в дългосрочен план.

След публикуването си дискусионният документ получи значителна подкрепа от много експерти и политици. Мнозина изрично одобриха препоръката за разработване на адаптивна рамка, която позволява преднамерено и проактивно разглеждане на рисковете и последиците от технологията, като по този начин винаги взема предвид съвкупността от измерения от индивида до обществото и системите.

Едно ключово наблюдение, направено чрез обратната връзка, беше потвърждението, че няколко от последиците, разгледани в рамката, по своята същност са многостранни и се простират в множество категории. Например, дезинформацията може да се разглежда както от индивидуална, така и от геостратегическа гледна точка; следователно последствията биха били широкообхватни.

Беше предложена и възможност за включване на казуси или примери за тестване на рамката. Това може да се използва за разработване на насоки, които да демонстрират как може да се използва на практика в различни контексти. Това обаче би било значително начинание и може да ограничи начина, по който различните групи възприемат използването на тази рамка. Това се прави най-добре от политици, работещи с експерти в конкретни юрисдикции или контексти.

От октомври 2023 г. имаше няколко значими национални и многостранни инициативи с допълнително разглеждане на етиката и безопасността на ИИ. Последствията от ИИ върху целостта на някои от нашите критични системи, включително финансови, правителствени, правни и образователни, както и различни системи за знания (включително научни и местни знания), будят все по-голяма загриженост. Ревизираната рамка допълнително отразява тези аспекти.

Обратната връзка, получена до момента, е отразена в ревизираната версия на аналитичната рамка, която сега е публикувана като ръководство за лицата, създаващи политики.

Въпреки че рамката е представена в контекста на AI и свързаните с него технологии, тя може незабавно да се прехвърли към съображенията на други бързо развиващи се технологии като квантовата и синтетичната биология.


3) Gluckman, P. и Allen, K. 2018. Разбиране на благосъстоянието в контекста на бързите цифрови и свързаните с тях трансформации. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОИСР. 2022. Рамка на ОИСР за класификация на AI системи. OECD Digital Economy Papers, № 323, #. Париж, OECD Publishing.
https://oecd.ai/en/classificatio

Рамката

Следващата таблица представя размерите на предполагаема аналитична рамка. Дадени са примери, които илюстрират защо всеки домейн може да има значение; в контекст рамката би изисквала контекстно релевантно разширяване. Също така е важно да се прави разлика между общите проблеми, които възникват по време на разработките на платформата, и тези, които могат да възникнат по време на конкретни приложения. Нито едно съображение, включено тук, не трябва да се третира като приоритетно и като такова всички трябва да бъдат разгледани.

Проблемите са общо групирани в следните категории, както е посочено по-долу:

  • Благосъстояние (включително това на индивидите или себе си, обществото, социалния живот и гражданския живот)
  • Търговия и икономика
  • На околната среда
  • Геостратегически и геополитически
  • Технологични (системни характеристики, дизайн и използване)

Таблицата описва измеренията, които може да се наложи да се вземат предвид при оценката на нова технология.

🔴 INGSA. 2018. Разбиране на благосъстоянието в контекста на бързите цифрови и свързаните с тях трансформации.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Нови дескриптори (получени чрез обширни консултации и обратна връзка и преглед на литературата)

🟡 Рамка на ОИСР за класификация на AI системи: инструмент за ефективни политики за AI.
https://oecd.ai/en/classification

Размери на въздействието: Индивид / себе си

КритерииПримери как това може да бъде отразено в анализа
🟡Компетентност на AI на потребителитеКолко компетентни и запознати със свойствата на системата са вероятните потребители, които ще взаимодействат със системата? Как ще им бъде предоставена съответната потребителска информация и предупреждения?
🟡 Засегнати заинтересовани страниКои са основните заинтересовани страни, които ще бъдат засегнати от системата (индивиди, общности, уязвими, секторни работници, деца, политици, специалисти и т.н.)?
🟡 По желаниеПредоставя ли се на потребителите възможност да се откажат от системата или им се дава възможност да оспорват или коригират резултата?
🟡Рискове за правата на човека и демократичните ценностиВлияе ли системата основно върху човешките права, включително, но не само, неприкосновеността на личния живот, свободата на изразяване, справедливостта, недискриминацията и т.н.?
🟡Потенциални ефекти върху благосъстоянието на хоратаСвързани ли са областите на въздействие на системата с благосъстоянието на отделния потребител (качество на работата, образование, социални взаимодействия, психично здраве, идентичност, среда и т.н.)?
🟡 Потенциал за изместване на човешкия трудИма ли потенциал системата да автоматизира задачи или функции, които са били изпълнявани от хора? Ако е така, какви са последствията надолу по веригата?
🟡 Потенциал за манипулиране на идентичност, ценности или знанияДали системата е проектирана или потенциално способна да манипулира самоличността на потребителя или
определят ценности или разпространяват дезинформация?
🔴 Възможности за себеизява и самореализацияИма ли потенциал за хитрост и съмнение в себе си? Има ли потенциал за фалшиви или
непроверими твърдения за експертиза?
🔴 Мерки за самооценкаИма ли натиск да се изобразява идеализирано аз? Може ли автоматизацията да замени усета
на лична реализация? Има ли натиск да се конкурира със системата в
работно място? По-трудно ли се защитава личната репутация срещу дезинформация?
🔴 ПоверителностИма ли разпръснати отговорности за опазване на личния живот и има ли такива
правят ли се предположения за това как се използват личните данни?
🔴 АвтономияМоже ли AI системата да повлияе на човешката автономност, като генерира прекомерно разчитане от
крайни потребители?
🔴 Човешко развитиеИма ли влияние върху придобиването на ключови умения за човешкото развитие, като напр
изпълнителни функции или междуличностни умения, или промени във времето на вниманието, което засяга
обучение, развитие на личността, проблеми с психичното здраве и т.н.?
🔴 Лична грижа за здраветоИма ли твърдения за самодиагностика или персонализирани решения за здравеопазване? Ако е така,
валидирани ли са според регулаторните стандарти?
🔴 Психично здравеИма ли риск от повишена тревожност, самота или други психични проблеми, или
може ли технологията да облекчи подобни въздействия?
🟢 Човешката еволюцияМогат ли големите езикови модели и изкуственият общ интелект да променят
хода на човешката еволюция?
🟢 Взаимодействие човек-машинаМоже ли употребата да доведе до деквалификация и зависимост с течение на времето за хората? са
има ли въздействие върху човешкото взаимодействие?
5) Технологичните критерии, разгледани в рамката, са специално за ИИ и ще трябва да бъдат преразгледани за други технологии, ако е подходящо.

Размери на въздействие: Общество/социален живот

Критерии Примери как това може да бъде отразено в анализа
🔴 Обществени ценностиСистемата променя ли фундаментално природата на обществото, позволява ли нормализиране на идеи, считани преди за антисоциални, или нарушава обществените ценности на културата, в която се прилага?
🔴 Социални взаимодействияИма ли ефект върху смисления човешки контакт, включително емоционалните взаимоотношения?
🔴 Здраве на населениетоИма ли потенциал системата да напредне или да подкопае здравните намерения на населението?
🔴 Културно изразяванеВероятно или по-трудно ли е да се преодолее увеличаването на културното присвояване или дискриминация? Дали разчитането на системата за вземане на решения изключва или маргинализира културно значимите секторни връзки на обществото?
🔴 Обществено образованиеИма ли ефект върху ролите на учителите или образователните институции? Системата подчертава ли или намалява цифровото разделение и неравенството между учениците? Напреднала или подкопана ли е присъщата стойност на знанието или критичното разбиране?
🟢 Изкривена реалностПриложими ли са все още методите, използвани за разпознаване на истината? Нарушено ли е възприемането на реалността?

Размери на въздействието: Икономически контекст (търговия)

КритерииПримери как това може да бъде отразено в анализа
🟡 Индустриален секторВ кой индустриален сектор е разгърната системата (финанси, селско стопанство, здравеопазване, образование, отбрана и т.н.)?
🟡 Бизнес моделВ коя бизнес функция се използва системата и в какво качество? Къде се използва системата (частно, публично, с нестопанска цел)?
🟡 Въздействие върху критични дейности Дали нарушаването на функцията или дейността на системата ще засегне основни услуги или критични инфраструктури?
🟡Широчина на внедряванеКак се внедрява системата (тясно използване в рамките на единица срещу широко разпространено национално/международно)?
🟡 Техническа зрялостКолко технически зряла е системата?
🟢 Оперативна съвместимост Има ли вероятност да има силози, национални или глобални, които възпрепятстват свободната търговия и оказват влияние върху сътрудничеството с партньорите?
🟢 Технологичен суверенитетДали желанието за технологичен суверенитет води до поведение, включително контрол върху цялата верига на доставки на ИИ?
🔴 Преразпределение на доходите и национални фискални лостовеМогат ли основните роли на суверенната държава да бъдат компрометирани (напр. резервни банки)? Ще бъде ли подобрена или намалена способността на държавата да отговори на очакванията на гражданите и последиците (социални, икономически, политически и т.н.)?
🟢 Цифрово разделение (AI divide) Изострят ли се съществуващите цифрови неравенства или се създават нови?

Размери на въздействие: Граждански живот

КритерииПримери как това може да бъде отразено в анализа
🔴 Управление и обществена услугаМогат ли механизмите за управление и глобалната система за управление да бъдат повлияни положително или отрицателно?
🔴 Новинарски медииИма ли вероятност публичният дискурс да се поляризира и утвърди на ниво население? Ще има ли ефект върху нивата на доверие в четвъртата власт? Ще бъдат ли допълнително засегнати конвенционалната журналистическа етика и стандарти за почтеност?
🔴 Върховенство на законаЩе има ли ефект върху способността за идентифициране на лица или организации, които да бъдат държани отговорни (напр. какъв вид отчетност да се възложи на алгоритъм за неблагоприятни резултати)? Създава ли се загуба на суверенитет (екологична, фискална, социална политика, етика и т.н.)?
🔴Политика и социално сближаванеИма ли възможност за по-утвърдени политически възгледи и по-малко възможности за изграждане на консенсус? Има ли възможност за по-нататъшно маргинализиране на групите? Дали състезателните стилове на политика са повече или по-малко вероятни?
🟢 Социален лицензИма ли проблеми с поверителността, проблеми с доверието и морални проблеми, които трябва да бъдат взети под внимание, за да може заинтересованите страни да приемат използването?
🟢 Местни знанияВъзможно ли е знанията и данните на местното население да бъдат повредени или присвоени неправомерно? Има ли адекватни мерки за защита срещу невярно представяне, дезинформация и експлоатация?
🟢 Научна системаКомпрометирана ли е академичната и изследователска почтеност? Има ли загуба на доверие в науката? Има ли възможности за злоупотреба, прекомерна употреба или злоупотреба? Какви са последствията от практикуването на науката?

Размери на въздействието: Геостратегически/геополитически контекст

КритерииПримери как това може да бъде отразено в анализа
🟢 Прецизно наблюдениеСистемите обучени ли са на индивидуални поведенчески и биологични данни и могат ли да бъдат използвани за експлоатация на индивиди или групи?
🟢 Дигитално състезаниеМогат ли държавни или недържавни участници (напр. големи технологични компании) да използват системи и данни, за да разберат и контролират населението и екосистемите на други страни или да подкопаят юрисдикционния контрол?
🟢 Геополитическа конкуренцияМоже ли системата да предизвика конкуренция между нациите за използване на индивидуални и групови данни за икономически, медицински интереси и интереси на сигурността?
🟢 Промяна в глобалните силиЗастрашен ли е статутът на националните държави като основни геополитически актьори в света? Притежават ли технологичните компании власт, която някога е била запазена за националните държави и дали са станали независими, суверенни участници (възникващ технополюсен световен ред)?
🟢 ДезинформацияЩе улесни ли системата производството и разпространението на дезинформация от държавни и недържавни участници с въздействие върху социалното сближаване, доверие и демокрация?
🟢 Приложения с двойна употребаИма ли възможност както за военно приложение, така и за цивилна употреба?
🟢 Фрагментиране на глобалния редМогат ли да се развият силози или клъстери от регулиране и съответствие, които възпрепятстват сътрудничеството, водят до несъответствия в прилагането и създават място за конфликт?

Размери на въздействието: Околна среда

КритерииПримери как това може да бъде отразено в анализа
🟢 Консумация на енергия и ресурси (въглероден отпечатък)Системата и изискванията увеличават ли потреблението на енергия и ресурси над и над печалбите в ефективността, получени чрез приложението?
🟢Източник на енергияОткъде идва енергията за системата (възобновяеми срещу изкопаеми горива и т.н.)?

Размери на въздействието: Данни и вход

КритерииПримери как това може да бъде отразено в анализа
🟡 Направление и колекцияДанните и входящите данни събират ли се от хора, автоматизирани сензори или и двете?
🟡 Произход на даннитеПредоставените, наблюдавани, синтетични или производни данни и принос от експерти ли са? Има ли защита на водния знак за потвърждаване на произхода?
🟡 Динамичен характер на даннитеДанните динамични, статични, динамични ли са актуализирани от време на време или в реално време?
🟡 ПраваДанните са частни, публични или лични (свързани с лица, които могат да бъдат идентифицирани)?
🟡 Идентифицируемост и лични данниАко са лични, данните анонимизирани ли са или псевдонимизирани?
🟡 Структура на даннитеДали данните са структурирани, полуструктурирани, сложно структурирани или неструктурирани?
🟡 Формат на даннитеСтандартизиран или нестандартизиран ли е форматът на данните и метаданните?
🟡 Мащаб на даннитеКакъв е мащабът на набора от данни?
🟡 Уместност и качество на данните Подходящ ли е наборът от данни за целта? Подходящ ли е размерът на извадката? Представителен и достатъчно пълен ли е? Колко шумни са данните? Склонен ли е към грешки?

Размери на удара: Модел

КритерииПримери как това може да бъде отразено в анализа
🟡 Наличност на информацияИма ли налична информация за модела на системата?
🟡 Тип AI моделДали моделът е символичен (генерирани от човека правила), статистически (използва данни) или хибриден?
🟡 Права, свързани с моделаМоделът с отворен код ли е или собствен, самостоятелно или от трета страна управляван?
🟡 Един от няколко моделаДали системата се състои от един модел или от няколко взаимосвързани модела?
🟡 Генеративни или дискриминативниДали моделът е генериращ, дискриминиращ или и двете?
🟡 Изграждане на моделСистемата учи ли се въз основа на написани от човека правила, от данни, чрез контролирано обучение или чрез обучение с подсилване?
🟡 Еволюция на модела (AI drift)Моделът развива ли се и/или придобива ли способности от взаимодействие с данни в полето?
🟡 Федерално или централно обучениеМоделът централно ли се обучава или в няколко локални сървъра или „крайни“ устройства?
🟡 Разработка/поддръжкаМоделът универсален ли е, персонализиран или съобразен с данните на AI актьора?
🟡 Детерминистичен или вероятностен Моделът използва ли се по детерминистичен или вероятностен начин?
🟡 Прозрачност на модела Налична ли е информация за потребителите, която да им позволи да разберат резултатите и ограниченията на модела или да използват ограничения?
🟢 Изчислително ограничениеИма ли изчислителни ограничения на системата? Възможно ли е да се предвидят скокове на способности или закони за мащабиране?

Размери на въздействието: Задача и резултат

КритерииПримери как това може да бъде отразено в анализа
🟡 Задачи, изпълнявани от систематаКакви задачи изпълнява системата (разпознаване, откриване на събития, прогнозиране и др.)?
🟡 Комбиниране на задачи и действияСистемата съчетава ли няколко задачи и действия (системи за генериране на съдържание, автономни системи, системи за контрол и др.)?
🟡 Нивото на автономност на системата Колко автономни са действията на системата и каква роля играят хората?
🟡 Степен на човешко участиеИма ли човешко участие, което да наблюдава цялостната дейност на AI системата и способността да се решава кога и как да се използва AI системата във всяка ситуация?
🟡 Основно приложениеСистемата принадлежи ли към основна област на приложение като технологии за човешки език, компютърно зрение, автоматизация и/или оптимизация или роботика?
🟡 ОценкаНалични ли са стандарти или методи за оценка на изхода на системата?

Как може да се използва тази рамка?

Тази рамка може да се използва по много начини, включително:

  • За преодоляване на празнината между принципите на високо ниво и оценката за регулаторни или управленски цели. Рамката може да подкрепи това чрез установяване на валидирана обща таксономия на редица въпроси, които заслужават внимание от съответните заинтересовани страни като основа за информиране и оформяне на по-нататъшно мислене. Например на национално ниво рамката може да се използва като инструмент от правителството, докато разработва национална стратегия и политики за ИИ за установяване на обща основа на рисковете и възможностите между групите заинтересовани страни.
  • За информиране на оценките на въздействието. Законът за ИИ на ЕС изисква от организациите, които предоставят инструменти за ИИ или приемат ИИ в своите процеси, да предприемат оценка на въздействието, за да идентифицират риска от своите инициативи и да приложат подходящ подход за управление на риска. Представената тук рамка може да се използва като основа за това.
  • За информиране на сканирането на хоризонта за рискове и бъдещи сценарии. Категоризацията на рисковете в междинния доклад6 на Консултативния орган на ООН по ИИ е в общи линии съобразена с рамката, представена в рамката тук. Има възможност рамката да се използва за изграждане на консенсус и тестване на сериозността на възникващите рискове, както и за тяхното предотвратяване.
  • За подобряване на етичните принципи, необходими за насочване и управление на използването на AI. Рамката може да направи това, като предостави гъвкава основа, върху която могат да се разработят надеждни системи и гарантира законосъобразно, етично, стабилно и отговорно използване на технологията. Тези принципи могат да бъдат тествани срещу пълния набор от въздействия, представени в тази рамка.
  • За улесняване на инвентаризация на съществуващи и развиващи се мерки (регулаторни, законодателни, политики, стандарти, управление и т.н.) и идентифициране на пропуски, които се нуждаят от допълнително разглеждане. Те могат да бъдат съпоставени с рамковите категории на национално или многонационално ниво, за да се определят пропуските и да се идентифицират подходящи мерки за смекчаване на рисковете.
  • Да подпомогне правителственото използване на AI. Тъй като много правителства определят своите съответни стратегии за използване на AI в рамките на агенции и системи, рамката може да се използва за определяне на подходящи прагове на риска и идентифициране на ключови заинтересовани страни и отговорности.
  • Да подпомогне публичния дискурс и да създаде социален лиценз за това как се използва AI и подкрепящите данни, които ще бъдат използвани в правителствените служби или по-широко в обществото.

Път напред
В обобщение, аналитичната рамка е предоставена като основа на инструментариум, който може да се използва от заинтересованите страни за изчерпателно разглеждане на всяко значимо развитие на платформите или на употребата по последователен и систематичен начин. Измеренията, представени в тази рамка, имат значение от оценката на технологиите до публичната политика, от човешкото развитие до социологията и изследванията на бъдещето и технологиите. Въпреки че е разработена за AI, тази аналитична рамка има много по-широко приложение за всяка друга нововъзникваща технология.

6 Консултативен съвет за ИИ на ООН. 2023. Междинен доклад: Управляващ ИИ за човечеството. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Благодарности

Много хора бяха консултирани и предоставиха обратна връзка при разработването както на първоначалния дискусионен документ, така и на обратната връзка след публикуването му. И двата документа са изготвени от сър Питър Глукман, президент на ISC и Хема Шридхар, бивш главен научен съветник, Министерство на отбраната, Нова Зеландия и сега старши научен сътрудник, Университет на Оукланд, Нова Зеландия.

По-специално, ISC лорд Мартин Рийс, бивш президент на Кралското общество и съосновател на Центъра за изследване на екзистенциалните рискове, Университет в Кеймбридж; Професор Шиваджи Сонди, професор по физика, Оксфордски университет; Професор K Vijay Raghavan, бивш главен научен съветник на правителството на Индия; Амандип Сингх Гил, пратеник на генералния секретар на ООН по технологиите; Seán Ó hÉigeartaigh, изпълнителен директор, Център за изследване на екзистенциалните рискове, Университет в Кеймбридж; Сър Дейвид Шпигелхалтер, Уинтън, професор по обществено разбиране на риска, университет
на Кеймбридж; Аманда-Джун Браунър, старши политически съветник и Иън Уигинс, директор по международните въпроси, Кралско общество, Обединено кралство; д-р Jerome Duberry, управляващ директор и д-р Marie-Laure Salles, директор, Geneva Graduate Institute; Chor Pharn Lee, Център за стратегическо бъдеще, Кабинет на министър-председателя, Сингапур; Баренд Монс и д-р Саймън Ходсън, Комитетът по данни (CoDATA); Професор Юко Хараяма, бивш изпълнителен директор, RIKEN; професор
Rémi Quirion, президент, INGSA; Д-р Клеър Крейг, Оксфордски университет и бивш ръководител на Форсайт, Правителствена служба по наука; проф. Йошуа Бенгио, Научен консултативен съвет на генералния секретар на ООН и в Монреалския университет; и много други, които предоставиха обратна връзка на ISC относно първоначалния дискусионен документ.


Допълнителна информация

Подготовка на национални изследователски екосистеми за ИИ: Стратегии и напредък през 2024 г

Този работен документ от мозъчния тръст на ISC, Center for Science Futures, предоставя фундаментална информация и достъп до ресурси от страни от всички части на света, на различни етапи от интегрирането на AI в техните изследователски екосистеми.

Напред към съдържание