ユーザー登録

レポート

政策立案者向けガイド: AI、大規模言語モデルなど、急速に発展するテクノロジーの評価

この文書では、ISC は、AI に関連して行われている複数の世界的および国家的議論について政策立案者に情報を提供するための枠組みの概要を検討します。

ISC のガイドは、高レベルの原則と実践的で実行可能な政策との間のギャップを埋めるために設計された包括的なフレームワークを提供します。これは、新興テクノロジーによってもたらされる機会とリスクの両方について共通の理解を求める緊急のニーズに応えます。これは、急速に変化するデジタル時代の政策関連分野で働く人々にとって不可欠な文書です。

このフレームワークは、経済、政治、環境、安全保障などの外部要因とともに、人間と社会の幸福を包括する包括的なレンズを通して、AI とその派生製品の可能性を探求します。コンテキストによっては、チェックリストの一部の側面が他の側面よりも関連性が高い場合がありますが、特定のケースでは無関係であることがすぐに特定できる場合でも、すべての領域を考慮した場合、より適切な決定が行われる可能性が高くなります。これは、チェックリスト アプローチの固有の価値です。

「急速な技術革新と複雑な世界的課題が特徴的な時代において、潜在的な影響を包括的かつ多次元的に分析するための ISC のフレームワークは、リーダーが十分な情報に基づいて責任ある意思決定を行えるようにします。これにより、私たちが技術的に進歩する際に、倫理的、社会的、経済的な影響を慎重に考慮して進歩することが保証されます。」

ISCプレジデント、ピーター・グラックマン

とりわけ、ユネスコ、OECD、欧州委員会、国連によってハイレベルの原則が公布され、潜在的なガバナンス、規制、倫理、安全性の問題に関してさまざまな議論が続けられているが、そのような原則と世界的な原則との間には大きな隔たりがある。ガバナンスまたは規制の枠組み。 ISC は政策立案者向けの新しいガイドを通じてこのニーズに取り組んでいます。

政策立案者向けのこのガイドは、規制体制を禁止することを目的としたものではなく、政府や多国間システムを含む利害関係者によって開発される可能性のある評価および規制プロセスを支える可能性のある、適応的かつ進化する分析フレームワークを提案することを目的としています。

「このフレームワークは、AIに関する世界的な議論における重要なステップです。なぜなら、このフレームワークは、現在と将来にわたるテクノロジーの影響についての合意を構築できる基盤を提供するからです。」 

ヘマ・スリダール、ニュージーランド国防省元主席科学顧問、現在はニュージーランドのオークランド大学上級研究員。

2023 年 XNUMX 月以降、AI の倫理と安全性をさらに考慮したいくつかの重要な国家的および多国間取り組みが行われています。金融、政府、法律、教育などの一部の重要なシステムや、さまざまな知識システム (科学的知識や先住民族の知識を含む) の完全性に対する AI の影響について、懸念が高まっています。このフレームワークはこれらの側面をさらに反映しています。

これまでに ISC メンバーおよび国際的な政策立案コミュニティから受け取ったフィードバックは、分析フレームワークの改訂版に反映されており、政策立案者向けのガイドとして現在リリースされています。

政策立案者向けガイド: AI、大規模言語モデルなど、急速に発展するテクノロジーの評価

このディスカッション ペーパーは、AI に関連して行われている複数の世界的および国家的議論に情報を提供するための初期フレームワークの概要を提供します。

組織で使用するためのフレームワーク

組織で使用するフレームワークをダウンロードする

ここでは、組織で使用できる編集可能な Excel シートとしてフレームワーク ツールを提供します。オープンソース形式をご希望の場合は、secretariat@council.science までご連絡ください。

概要

急速に出現しているテクノロジーは、その使用、ガバナンス、潜在的な規制に関して困難な問題を引き起こしています。人工知能 (AI) とその利用に関する政策や公的な議論が進行しており、これらの問題が深刻な焦点となっています。 AI に関する広範な原則は、英国のブレッチリー宣言を含むユネスコ、OECD、国連などによって発表されており、たとえば欧州連合 (EU) の AI を通じてテクノロジーの側面を規制しようとする管轄区域の試みが新たに生まれています。法律または最近の米国 AI 大統領令。

AI の使用は、地政学的な分断を越えて、あらゆる所得水準の国々で、これらのフォーラムやその他のフォーラムで詳しく議論されていますが、高レベルの原則の策定と、規制、政策、ガバナンスのいずれかを通じた実践への導入との間には、存在論的なギャップが依然として存在します。または管理アプローチ。原理から実践への道は明確に定義されていませんが、AI の開発と応用の性質とペース、関与する関心の多様性、および考えられる応用の範囲を考慮すると、どのアプローチも過度に一般的または規範的になることはできません。

こうした理由から、非政府科学コミュニティは引き続き特別な役割を果たしています。社会科学と自然科学の多元的メンバーを擁する国際科学会議(ISC)は、急速に変化するデジタルテクノロジーに関連するリスク、利益、脅威、機会を考慮した予備的な分析枠組みを提示するディスカッションペーパーを2023年XNUMX月に発表した。 AI を考慮するために開発されましたが、本質的にテクノロジーに依存せず、合成生物学や量子など、さまざまな新興テクノロジーや破壊的テクノロジーに適用できます。このディスカッションペーパーでは、学者や政策立案者からのフィードバックを募集しました。圧倒的なフィードバックにより、このような分析の実施が必要となり、AI などの新興テクノロジーに対処するための貴重なアプローチとなりました。

このフレームワークの目的は、政府、貿易​​交渉者、規制当局、市民社会、業界を含むすべての利害関係者にこれらのテクノロジーの進化について知らせ、プラスまたはマイナスの影響をどのように考慮するかを決定するのに役立つツールを提供することです。テクノロジー自体、より具体的にはその特定のアプリケーションです。この分析フレームワークは、政府や業界の利益とは独立して開発されました。それはその視点において最大限に多元的であり、広範な協議とフィードバックに基づいてテクノロジーとその影響のあらゆる側面を網羅しています。

政策立案者向けのこのディスカッションペーパーは、規制体制を禁止することを目的としたものではなく、むしろ、政府や多国間システムを含む利害関係者によって開発される可能性のある評価および規制プロセスを支えることができる、適応的かつ進化する分析フレームワークを提案することを目的としています。

世界的および国内的な意思決定者が、AI などの新しいテクノロジーのリスクと利益のバランスをとるための適切な政策設定と手段を検討する際、分析フレームワークは、潜在的な影響のすべてが適切に反映されていることを確認するための補完ツールとして意図されています。

背景: なぜ分析フレームワークなのか?

AI の複雑さと影響を伴うテクノロジーの急速な出現により、大きなメリットがあるという多くの主張が生まれています。しかし、それはまた、個人レベルから戦略地政学的レベルに至るまで、重大なリスクに対する不安も引き起こします。1 公的に表明された見解はスペクトルの両端で行われる傾向があるため、これまでの議論の多くは二元的な意味で考慮されてきました。 AI に賛成または反対する主張は誇張的なものが多く、テクノロジーの性質を考慮すると評価が困難です。

誇張表現を調整されたより詳細な評価に置き換える、より実用的なアプローチが必要です。 AI テクノロジーは今後も進化し続け、事実上すべてのテクノロジーが有益な用途と有害な用途の両方を持っていることは歴史が示しています。したがって、問題は、有害な結果のリスクを軽減しながら、このテクノロジーから有益な結果をどのように達成できるかということです。そのうちのいくつかは重大な影響を与える可能性があります。

将来は常に不確実ですが、AI と生成 AI に関しては、比較的予防的なアプローチを奨励する十分な信頼できる専門家の意見があります。さらに、AI はさまざまなタイプのユーザーによって広範に使用および適用されるテクノロジーの一種であるため、システム アプローチが必要です。これは、個人、社会生活、市民生活、社会生活、そして地球規模の状況における AI の使用の影響を検討する際に、完全な状況を考慮する必要があることを意味します。

他のほとんどのテクノロジーとは異なり、デジタルおよび関連テクノロジーの場合、開発、リリース、適用までの時間は非常に短く、主に制作会社または代理店の利益によって左右されます。 AI はその性質上、またデジタル バックボーンに基づいているため、大規模な言語モデルの開発ですでに見られたように、急速に普及するアプリケーションを持つことになります。その結果、一部の特性はリリース後に初めて明らかになる可能性があり、悪意と善意の両方で予期せぬ結果が生じるリスクがあることを意味します。

社会的価値観の重要な側面は、特にさまざまな地域や文化にわたって、使用がどのように認識され、受け入れられるかに影響を与えます。さらに、主権と多国間の利益が継続的に交差し、それによって競争と分裂を促進しており、地政学上の利益がすでに議論の大半を占めている。

これまで、仮想テクノロジーの規制の多くは主に「原則」と自主的な遵守というレンズを通して見られてきましたが、EU AI 法も同様です。2 同様に、より強制力があるがやや狭い規制への移行が見られます。効果的な世界的または国家的な技術ガバナンスおよび/または規制システムを確立することは依然として困難であり、明確な解決策はありません。発明者から生産者、ユーザー、政府、そして多国間システムに至るまで、リスクを考慮した複数の層の意思決定が連鎖的に必要となります。

とりわけユネスコ、OECD、欧州委員会、国連によってハイレベルの原則が公布され、潜在的なガバナンス、規制、倫理、安全性の問題に関してさまざまなハイレベルの議論が続いているが、これらの間には大きな隔たりがある。原則とガバナンスまたは規制の枠組み。これに対処する必要があります。

ISC は出発点として、開発者、規制当局、政策顧問、消費者、意思決定者が参照できる考慮事項の分類を開発することを検討しています。これらのテクノロジーの広範な影響を考慮すると、そのような分類では、狭い範囲に焦点を当てた枠組みではなく、全体的な影響を考慮する必要があります。意思決定における戦略地政学的利益の影響により、世界的な断片化が増加しており、このテクノロジーの緊急性を考えると、独立した中立的な意見が統一的で包括的なアプローチを粘り強く擁護することが不可欠です。


1) ヒンドゥスタン・タイムズ。 2023. G20 は技術変革に関する国際パネルを設置しなければならない。
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU 人工知能法。 2023年。 https://artificialintelligenceact.eu

分析フレームワークの開発

ISC は、自然科学と社会科学を統合する主要な世界的な非政府組織です。その世界的かつ専門的な範囲は、特にこの分野における現在の声の大部分が産業界や主要技術大国の政策コミュニティや政治コミュニティからのものであるため、今後の複雑な選択に情報を提供するための独立した世界的に関連性のあるアドバイスを生成するのに適した立場にあることを意味します。

非政府評価プロセスの検討を含む広範な議論の期間を経て、ISC は、その最も有用な貢献は、すべての人による議論と意思決定の基礎として使用できる適応分析フレームワークを作成することであると結論付けました。発生する正式な評価プロセス中も含めて、利害関係者。

2023 年 XNUMX 月に議論とフィードバックのために公開された予備的な分析フレームワークは、政府機関と非政府機関の両方が使用できるように設計された包括的なチェックリストの形をとっています。このフレームワークは、人間と社会の幸福、および経済、政治、環境、セキュリティなどの外部要因を網羅する幅広いレンズを通して、AI とその派生技術などのテクノロジーの可能性を特定し、調査しました。チェックリストの一部の側面は、状況に応じて他の側面よりも関連性が高い場合がありますが、特定のケースでは一部の領域がすぐに無関係であると特定できたとしても、すべての領域を考慮すれば、より適切な決定を下せる可能性が高くなります。これがチェックリスト アプローチの本質的な価値です。

暫定的な枠組みは、潜在的な機会、リスク、影響の全体像を示すために、政府科学助言国際ネットワーク (INGSA) のデジタル ウェルビーイングに関する報告書 3 や OECD の AI システム分類フレームワーク 4 など、これまでの研究や考え方から導き出されました。 AIの。これらの以前の製品は、時代と背景を考慮すると、その目的がより制限されていました。短期および長期の両方であらゆる問題を提示する包括的な枠組みが必要です。

この討論ペーパーは発表以来、多くの専門家や政策立案者から多大な支持を得ています。特に、技術のリスクと影響について慎重かつ積極的に検討し、その際に常に個人から社会やシステムまであらゆる側面を総合的に考慮する適応型フレームワークを開発するという勧告を、多くの人が支持しています。

フィードバックを通じて得られた重要な観察の 1 つは、フレームワークで考慮された影響のいくつかは本質的に多面的であり、複数のカテゴリーにまたがっているという認識でした。たとえば、偽情報は個人と地理戦略の両方の視点から検討することができます。したがって、その影響は広範囲に及びます。

フレームワークをテストするためにケーススタディやサンプルを含めるオプションも提案されました。これは、さまざまな状況で実際にどのように使用できるかを示すガイドラインを作成するために使用できます。ただし、これは重要な取り組みであり、さまざまなグループがこのフレームワークの使用をどのように認識するかを制限する可能性があります。これは、政策立案者が特定の管轄区域または状況の専門家と協力して行うのが最も効果的です。

2023 年 XNUMX 月以降、AI の倫理と安全性をさらに考慮したいくつかの重要な国家的および多国間取り組みが行われています。金融、政府、法律、教育などの一部の重要なシステムや、さまざまな知識システム (科学的知識や先住民族の知識を含む) の完全性に対する AI の影響について、懸念が高まっています。改訂された枠組みはこれらの側面をさらに反映しています。

これまでに受け取ったフィードバックは分析フレームワークの改訂版に反映され、政策立案者向けのガイドとして現在リリースされています。

このフレームワークは AI および関連テクノロジーの文脈で提示されていますが、量子生物学や合成生物学などの他の急速に出現しているテクノロジーの考察にすぐに移すことができます。


3) Gluckman, P. and Allen, K. 2018. 急速なデジタルとそれに伴う変革の文脈におけるウェルビーイングの理解。イングサ。
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD。 2022. AI システムの分類に関する OECD フレームワーク。 OECD デジタル エコノミー ペーパー、No. 323、#。パリ、OECD出版。
https://oecd.ai/en/classificatio

枠組み

次の表は、推定上の分析フレームワークの次元を示しています。各ドメインがなぜ重要であるかを説明するために例が提供されています。状況に応じて、フレームワークには状況に応じた拡張が必要になります。プラットフォーム開発中に発生する一般的な問題と、特定のアプリケーション中に発生する可能性のある問題を区別することも重要です。ここに含まれる単一の考慮事項を優先事項として扱うべきではないため、すべてを検討する必要があります。

問題は、以下に概説するように、次のカテゴリに大まかに分類されます。

  • 幸福(個人または自己、社会、社会生活、市民生活の幸福を含む)
  • 貿易と経済
  • 環境
  • 地戦略的および地政学的
  • 技術(システムの特性、設計、使用)

この表は、新しいテクノロジーを評価する際に考慮する必要がある可能性のある寸法を詳細に示しています。

🔴イングサ。 2018. 急速なデジタルとそれに伴う変革の文脈におけるウェルビーイングを理解する。
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 新しい記述子 (広範な相談、フィードバック、文献レビューを通じて得られたもの)

🟡 AI システム分類のための OECD フレームワーク: 効果的な AI 政策のためのツール。
https://oecd.ai/en/classification

影響の次元: 個人/自分自身

基準これが分析にどのように反映されるかの例
🟡ユーザーの AI コンピテンシーシステムと対話する可能性のあるユーザーは、システムの特性をどの程度有能で認識しているでしょうか? 関連するユーザー情報や注意事項はどのように提供されるのでしょうか?
🟡 影響を受けるステークホルダーこのシステムの影響を受ける主な利害関係者は誰ですか (個人、コミュニティ、弱い立場にある部門の労働者、子供、政策立案者、専門家など)?
🟡 オプションユーザーにはシステムからオプトアウトする機会が与えられていますか、それとも出力に異議を申し立てたり修正したりする機会が与えられていますか?
🟡人権と民主主義的価値観に対するリスクこのシステムは、プライバシー、表現の自由、公平性、非差別などを含むがこれらに限定されない人権に根本的な影響を及ぼしますか?
🟡人々の健康に対する潜在的な影響システムに影響を与える領域は、個々のユーザーの幸福 (仕事の質、教育、社会的交流、精神的健康、アイデンティティ、環境など) に関連していますか?
🟡 人間の労働力の移転の可能性人間が実行していたタスクや機能をシステムが自動化できる可能性はありますか? もしそうなら、下流にどのような影響があるでしょうか?
🟡 アイデンティティ、価値観、知識操作の可能性システムはユーザーの ID を操作できるように設計されているか、あるいは
価値観を設定するのか、それとも偽情報を広めるのか?
🔴 自己表現と自己実現の機会人為的行為や自信喪失の可能性はありますか?虚偽の可能性はあるのか、
専門知識に関する検証不能な主張?
🔴 自尊心の尺度理想的な自分を描くというプレッシャーはありますか?自動化は感覚に取って代わる可能性がある
個人的な充実感?システムと競争しなければならないというプレッシャーはありますか?
職場?個人の評判を偽情報から守るのは難しいでしょうか?
🔴プライバシープライバシーを保護するための責任は分散されていますか?
個人データがどのように使用されるかについての仮定が行われていますか?
🔴 自律性AI システムは、次のような過剰な依存を生み出し、人間の自律性に影響を与える可能性があります。
利用者?
🔴人間開発などの人間開発のための重要なスキルの習得に影響はありますか?
実行機能や対人スキル、または影響を与える注意時間の変化
学習、人格形成、精神的健康上の懸念など?
🔴 個人の健康管理自己診断や個別化されたヘルスケア ソリューションについての主張はありますか?もしそうなら、
規制基準に基づいて検証されていますか?
🔴メンタルヘルス不安、孤独、その他の精神的健康上の問題が増大するリスクはありますか、または
このテクノロジーはそのような影響を改善できるでしょうか?
🟢 人類の進化大規模な言語モデルと汎用人工知能は世界を変える可能性がある
人類の進化の流れ?
🟢 人間と機械のインタラクションこの使用は、時間の経過とともに個人のスキル低下や依存につながる可能性がありますか?は
人間関係に影響はありますか?
5) フレームワークで検討される技術基準は AI に特化したものであり、他の技術については必要に応じて修正する必要があります。

影響の次元: 社会/社会生活

基準 これが分析にどのように反映されるかの例
🔴社会的価値観このシステムは社会の性質を根本的に変えるのでしょうか、これまで反社会的だと考えられていた考え方の正常化を可能にするのでしょうか、それともそれが適用されている文化の社会的価値観を侵害するのでしょうか?
🔴 社会的交流感情的な関係を含む有意義な人間関係に影響はありますか?
🔴 集団の健康このシステムが人々の健康への意図を促進したり、損なったりする可能性はありますか?
🔴 文化的表現文化の盗用や差別が増加する可能性はありますか、それとも対処するのはより困難ですか?意思決定システムへの依存は、社会の文化的に関連する部門間のつながりを排除したり疎外したりするのでしょうか?
🔴公教育教師の役割や教育機関に影響はありますか?このシステムは学生間の情報格差や不公平を強調または軽減しますか?知識や批判的理解の本質的な価値は進歩しているのでしょうか、それとも損なわれているのでしょうか?
🟢 歪んだ現実何が真実かを識別するために使用される方法は今でも適用可能ですか?現実の認識が損なわれていませんか?

影響の次元: 経済的背景 (貿易)

基準これが分析にどのように反映されるかの例
🟡 産業部門このシステムはどの産業分野 (金融、農業、医療、教育、防衛など) に導入されていますか?
🟡 ビジネスモデルシステムはどのビジネス機能で、どのような役割で使用されますか?システムはどこで使用されていますか (民間、公的、非営利)?
🟡 重要な活動への影響 システムの機能や活動が中断されると、不可欠なサービスや重要なインフラストラクチャに影響が及ぶでしょうか?
🟡展開の幅広さシステムはどのように導入されていますか (部隊内での狭い使用と国内/国際的に広く使用)?
🟡 技術的な成熟度システムは技術的にどの程度成熟していますか?
🟢 相互運用性 国内または世界的に、自由貿易を阻害し、パートナーとの協力に影響を与えるサイロが存在する可能性はありますか?
🟢 技術主権技術主権への欲求が、AI サプライチェーン全体の制御を含む行動を促進しているのでしょうか?
🔴 所得の再分配と国家財政の手段主権国家の中核となる役割(準備銀行など)が侵害される可能性はあるでしょうか?国民の期待や影響(社会的、経済的、政治的など)に応える国家の能力は向上するのでしょうか、それとも低下するのでしょうか?
🟢 デジタルデバイド(AIデバイド) 既存のデジタル不平等は悪化しているのでしょうか、それとも新たな不平等が生じているのでしょうか?

影響の次元: 市民生活

基準これが分析にどのように反映されるかの例
🔴 ガバナンスと公共サービスガバナンスメカニズムとグローバルガバナンスシステムはプラスまたはマイナスの影響を受ける可能性がありますか?
🔴ニュースメディア公共の議論は人口レベルで二極化し、固定化する可能性がありますか?第四身分の信頼レベルに影響はありますか?従来のジャーナリストの倫理と誠実さの基準はさらに影響を受けるのでしょうか?
🔴法の支配責任を負う個人または組織を特定する能力(たとえば、不利な結果に対してアルゴリズムにどのような責任を割り当てるか)に影響はありますか?主権の喪失(環境、財政、社会政策、倫理など)は生じていますか?
🔴政治と社会的結合政治的見解がより固定化し、合意形成の機会が減少する可能性はありますか? グループがさらに疎外される可能性はありますか? 敵対的なスタイルの政治が起こる可能性は多かれ少なかれあるのでしょうか?
🟢 ソーシャルライセンス利害関係者が使用を受け入れるために考慮する必要があるプライバシー上の懸念、信頼の問題、道徳上の懸念はありますか?
🟢 先住民族の知識先住民族の知識やデータが破損したり、悪用されたりする可能性はありますか?不実表示、誤った情報、搾取を防ぐための適切な対策はありますか?
🟢 科学システム学術および研究の公正性は損なわれていますか?科学に対する信頼は失われていますか?誤用、過剰使用、乱用の可能性はありますか?科学の実践の結果は何ですか?

影響の次元: 地政学的/地政学的な背景

基準これが分析にどのように反映されるかの例
🟢 精密な監視システムは個人の行動データや生物学データに基づいてトレーニングされていますか?また、個人やグループを悪用するために使用される可能性がありますか?
🟢 デジタル競争国家または非国家主体(例えば、大手テクノロジー企業)は、システムやデータを利用して、他国の人口や生態系を理解して制御したり、管轄区域の制御を弱体化したりできるでしょうか?
🟢 地政学的競争このシステムは、経済、医療、安全保障上の利益のために個人やグループのデータを利用することをめぐって国家間の競争を引き起こす可能性があるでしょうか?
🟢 世界的な権力の変遷世界の主要な地政学的主体としての国民国家の地位は脅威にさらされているのでしょうか?テクノロジー企業はかつて国民国家に独占されていた権力を行使し、独立した主権主体となったのだろうか(テクノ極の世界秩序の出現)?
🟢 偽情報このシステムは、国家および非国家主体による偽情報の作成と拡散を促進し、社会の結束、信頼、民主主義に影響を与えるでしょうか?
🟢 両用アプリケーション軍事利用だけでなく民生利用の可能性はあるのでしょうか?
🟢 世界秩序の分断規制やコンプライアンスのサイロ化やクラスターが形成され、協力が妨げられ、適用の不一致が生じ、紛争の余地が生じる可能性はありますか?

影響の次元: 環境

基準これが分析にどのように反映されるかの例
🟢 エネルギーと資源の消費(二酸化炭素排出量)システムと要件は、アプリケーションを通じて得られる効率向上を超えて、エネルギーとリソースの消費量を増加させますか?
🟢エネルギー源システムのエネルギーはどこから供給されていますか (再生可能エネルギー vs 化石燃料など)?

影響の次元: データとインプット

基準これが分析にどのように反映されるかの例
🟡 ディレクションとコレクションデータと入力は人間によって収集されたものですか、自動センサーによって収集されたものですか、あるいはその両方ですか?
🟡 データの出所専門家からのデータとインプットは提供されたもの、観察されたもの、合成されたもの、または派生したものですか?出所を確認するための透かし保護はありますか?
🟡 データの動的な性質データは動的ですか、静的ですか、時々動的に更新されますか、それともリアルタイムですか?
🟡 権利データは専有的なもの、公開されたもの、または個人的なもの(識別可能な個人に関連するもの)ですか?
🟡 識別可能性と個人データ個人的なデータの場合、データは匿名化または仮名化されますか?
🟡 データの構造データは構造化されていますか、半構造化されていますか、複雑な構造化されていますか、それとも非構造化されていますか?
🟡 データの形式データとメタデータの形式は標準化されていますか?または非標準化されていますか?
🟡 データの規模データセットの規模はどれくらいですか?
🟡 データの適切性と品質 データセットは目的に適合していますか?サンプルサイズは適切ですか?それは十分に代表的で完全なものですか?データにはどの程度ノイズが含まれていますか?間違いが起こりやすいですか?

衝撃の寸法:モデル

基準これが分析にどのように反映されるかの例
🟡 入手可能な情報システムのモデルに関する情報はありますか?
🟡 AIモデルの種類モデルは記号的 (人間が生成したルール) ですか、統計的 (データを使用) ですか、それともハイブリッドですか?
🟡 モデルに関連付けられた権利モデルはオープンソースですか、それともプロプライエタリですか、自社またはサードパーティが管理していますか?
🟡 複数のモデルのうちの 1 つシステムは XNUMX つのモデルで構成されていますか? それとも複数の相互リンクされたモデルで構成されていますか?
🟡 生成的または差別的モデルは生成的ですか、識別的ですか、あるいはその両方ですか?
🟡 モデルの構築システムは、人間が作成したルールに基づいて、データから、教師あり学習または強化学習を通じて学習しますか?
🟡 モデルの進化 (AI ドリフト)モデルは現場でデータと対話することで進化したり、能力を獲得したりするのでしょうか?
🟡 連合学習または中央学習モデルは中央でトレーニングされていますか、それとも複数のローカル サーバーまたは「エッジ」デバイスでトレーニングされていますか?
🟡 開発・保守モデルは普遍的ですか、カスタマイズ可能ですか、または AI アクターのデータに合わせて調整されますか?
🟡 決定論的または確率論的 モデルは決定論的な方法で使用されますか? それとも確率論的な方法で使用されますか?
🟡 モデルの透明性 ユーザーがモデルの出力と制限を理解したり、制約を使用したりするための情報はユーザーに提供されていますか?
🟢 計算上の制限システムに計算上の制限はありますか?能力の飛躍や拡大の法則を予測することは可能ですか?

影響の次元: タスクと成果

基準これが分析にどのように反映されるかの例
🟡 システムによって実行されるタスクシステムはどのようなタスク (認識、イベント検出、予測など) を実行しますか?
🟡 タスクとアクションを組み合わせるシステムは複数のタスクとアクション (コンテンツ生成システム、自律システム、制御システムなど) を組み合わせていますか?
🟡 システムの自律性レベル システムの動作はどの程度自律的であり、人間はどのような役割を果たしますか?
🟡 人間の関与の程度AI システムの全体的な活動を監督し、どのような状況でも AI システムをいつどのように使用するかを決定する能力を人間が関与しているか?
🟡 コ​​アアプリケーションそのシステムは、人間の言語技術、コンピュータ ビジョン、自動化や最適化、ロボット工学などの中核となるアプリケーション分野に属していますか?
🟡評価システム出力を評価するために利用できる標準または方法はありますか?

このフレームワークはどのように使用できるのでしょうか?

このフレームワークは、次のようなさまざまな方法で使用できます。

  • 規制またはガバナンスを目的とした、高レベルの原則と評価の間のギャップを埋めるため。このフレームワークは、関連する利害関係者による検討に値する、検証済みの共通の分類法を確立し、さらなる考え方を形成するための基礎としてこれをサポートできます。たとえば、国家レベルでは、このフレームワークは、政府が国家 AI 戦略と政策を策定する際に、ステークホルダー グループ全体にわたるリスクと機会の共通基盤を確立するためのツールとして使用できます。
  • 影響評価を通知するため。 EU AI 法では、AI ツールを提供する組織、またはプロセスに AI を導入する組織に対し、影響評価を実施して取り組みのリスクを特定し、適切なリスク管理アプローチを適用することが義務付けられています。 ここで紹介したフレームワークは、その基盤として使用できます。
  • リスクと将来のシナリオについてホライズン・スキャニングに情報を提供します。国連 AI 諮問機関の中間報告書 6 におけるリスクの分類は、ここでの枠組みで示されている枠組みとほぼ一致しています。このフレームワークを使用して、コンセンサスを構築し、新たなリスクの重大度をテストし、これらを事前に回避する機会があります。
  • AI の使用を指導し管理するために必要な倫理原則を強化する。 このフレームワークは、信頼できるシステムを開発できる柔軟な基盤を提供し、テクノロジーの合法的、倫理的、堅牢かつ責任ある使用を保証することでこれを実現します。 これらの原則は、このフレームワークで示されるあらゆる影響に対してテストすることができます。
  • 既存および進化中の対策 (規制、立法、政策、基準、ガバナンスなど) の棚卸しを促進し、さらなる検討が必要なギャップを特定します。これらを国または多国籍レベルで枠組みカテゴリーにマッピングして、ギャップを特定し、リスクを軽減するための適切な措置を特定することができます。
  • 政府による AI の使用をサポートする。多くの政府が政府機関やシステム内で AI を使用するためのそれぞれの戦略を決定する際、このフレームワークを使用して、適切なリスクしきい値を定義し、主要な利害関係者と責任を特定することができます。
  • 公共の議論をサポートし、AI の使用方法と、政府サービス全体または社会でより広範に使用される基礎となるデータに関する社会的ライセンスを確立する。

前進する方法
要約すると、分析フレームワークは、プラットフォームまたは使用の重要な開発を一貫した体系的な方法で包括的に調査するために利害関係者が使用できるツールキットの基礎として提供されます。この枠組みで提示される側面は、技術評価から公共政策、人間開発から社会学、未来と技術研究に至るまで関連性を持っています。この分析フレームワークは AI 用に開発されましたが、他の新興テクノロジーにもより広範囲に応用できます。

6 国連 AI 諮問委員会。 2023. 中間報告書: 人類のための AI の統治。 https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

謝辞

最初のディスカッションペーパーの作成とリリース後のフィードバックの両方において、多くの人が相談を受け、フィードバックを提供してきました。両方の論文は、ISC会長のピーター・グラックマン卿と、元ニュージーランド国防省首席科学顧問で現在はニュージーランドのオークランド大学上級研究員であるヘマ・スリダール氏によって起草された。

特に、ISC のマーティン・リース卿は、英国王立協会の元会長であり、ケンブリッジ大学存在リスク研究センターの共同創設者です。シヴァージ・ソンディ教授、オックスフォード大学物理学教授。 K Vijay Raghavan 教授、元インド政府首席科学顧問。アマンディープ・シン・ギル国連事務総長技術特使。 Sean Ó heigeartaigh、ケンブリッジ大学存在リスク研究センター事務局長、デイビッド・シュピーゲルハルター卿、ウィントン大学リスク社会理解教授
ケンブリッジの。アマンダ・ジューン・ブラウナー氏、英国王立協会上級政策顧問およびイアン・ウィギンズ氏、国際問題部長。ジェローム・デュベリー博士(マネージング・ディレクター)およびマリー・ロール・サレス博士(ジュネーブ大学院所長)。 Chor Pharn Lee、シンガポール首相官邸戦略的未来センター、 Barend Mons 氏と Simon Hodson 博士、データ委員会 (CoDATA)。原山祐子教授(元理化学研究所理事)教授
レミ・キリオン、INGSA会長、クレア・クレイグ博士、オックスフォード大学、元政府科学局先見責任者。国連事務総長科学諮問委員会、モントリオール大学のヨシュア・ベンジオ教授。そして、最初のディスカッションペーパーに関して ISC にフィードバックを提供してくれた他の多くの方々。


参考文献

AI のための国家研究エコシステムの準備: 2024 年の戦略と進捗状況

ISC のシンクタンクである科学未来センターのこのワーキング ペーパーでは、AI を研究エコシステムに統合するさまざまな段階にある世界各地の国々からの基本情報とリソースへのアクセスが提供されています。

コンテンツにスキップ