Conceptual illustration of a government building symbolizing regulation of artificial intelligence, merging classic architecture with futuristic digital elements like binary code and AI symbols, in dignified blues, greys, and metallic tones, reflecting a serious approach to AI governance.

連邦政府機関に対するAIシステムのテスト義務化は今後のAI産業にどのような影響を与えるか?

昨年10月30日に発布された「安全で信頼性の高い人工知能の開発と利用に関する大統領令」は、AIの責任ある利用と連邦法の遵守を保証するための、政府機関に対する広範囲にわたる指針を提供します。この指令は、AIの開発と導入に関する包括的な原則と具体的な行動を定め、連邦政府各機関が適切なガイダンスと監督フレームワークを開発することを求めています。法律専門家は、この新しいガバナンスメカニズムがAIのテスト要件や法的責任にどのような影響を及ぼすかに注目する必要があります。このブログでは、AIの使用と開発、特にAIモデルのテスト要件にどのような影響を与えるかについて説明します。

8つの原則

命令はまず、連邦政府によるAIの開発と利用を規定する8つの原則を説明し、同時に民間セクターで活動する事業体の監督を指導しています。8つの原則とは

  1. AI技術の安全性とセキュリティの確保
  2. イノベーションと競争の促進
  3. 労働者の支援
  4. 公平性と公民権の促進
  5. 消費者、患者、乗客、学生の保護
  6. プライバシーの保護
  7. 連邦政府によるAI利用の促進
  8. 海外における米国のリーダーシップ強化

そして、あらゆる種類のAIを対象とする多数の行政機関への広範な指示配分に続きます。特に注目されるのは「デュアルユース基礎モデル」(“dual-use foundation models”)です。命令で定義されているように、デュアルユース基礎モデルとは、「広範なデータで学習され、一般的に自己監視を使用し、少なくとも数百億のパラメータを含み、広範な文脈に適用可能であり、安全保障、国家経済安全保障、国家公衆衛生もしくは安全、またはそれらの組み合わせに重大なリスクをもたらすタスクにおいて高レベルのパフォーマンスを示すか、または示すように容易に修正できる」AIモデルのことです。

命令書の大部分は、AIの使用と開発によってもたらされる社会的危害を軽減することを目的とした命令書の配布に充てられており、特にAIやその他のアルゴリズム・システムの使用によって生じる可能性のある意図しない偏見や差別に焦点が当てられています。AIは、それを構築する人々、それを使用する人々、そしてそれが構築されるデータの原則を反映するものです。つまり、AIが緊急の課題の解決に役立つと期待されているにもかかわらず、「無責任に導入されたAIシステムは、既存の不公平を再生産し、激化させ、新たな種類の有害な差別を引き起こし、オンラインや物理的な被害を悪化させている」ということです。

この命令では、米国におけるAIの開発とガバナンスの推進に関連するさまざまなタスクを完了するために、各省庁にいくつかの期限を定めています。

命令から90日以内に

  • 商務長官は、基礎モデルの開発者に対し、関連するAIのレッドチームテストにおけるモデルのパフォーマンスを含め、その活動について連邦政府に報告するよう要求すること。
  • 保健福祉長官は、HHS AIタスクフォースを設置すること。
  • 運輸省長官が、運輸におけるAIの安全かつ責任ある利用について助言を提供するよう、運輸省の適切な連邦諮問委員会に指示すること。
  • 公民権部門を担当する司法次官補が連邦公民権事務所の責任者会議を招集し、アルゴリズムによる差別を含む自動化システムの使用における差別の防止について一部議論し、AIを含む自動化システムに関連する公民権侵害や差別の調査・起訴のベストプラクティスに関する指針を提供すること。

180日以内に

  • 農務長官は、給付プログラムで使用されているアルゴリズム・システムが公平な結果を達成しているかどうかの分析を含め、給付プログラムにおけるAIの使用に関するガイダンスを発行すること。
  • 国防長官と国土安全保障長官は、米国政府の重要なソフトウェア、システム、ネットワークにおける脆弱性の発見と是正を支援するために、大規模言語モデルなどのAI機能を特定、開発、テスト、評価、導入するための運用試験プロジェクトを完了すること。
  • 保健福祉長官は、長官が管理する公的給付およびサービスにおけるアルゴリズム・システムの使用に対処する計画を公表し、給付プログラムで使用されているアルゴリズム・システムが公平かつ公正な結果を達成しているかどうかの分析を促進し、保健福祉サービス部門におけるAI対応技術が適切な品質レベルを維持しているかどうかを判断するための戦略を策定するようHHSの各部門に指示し、連邦財政援助を受ける保健福祉サービス提供者による連邦無差別法の速やかな理解と遵守を促進し、それらがAIとどのように関連しているかを明らかにすること。
  • 住宅都市開発長官および消費者金融保護局は、犯罪記録、立ち退き記録、信用情報などのデータの使用が、連邦法に違反する差別的な結果につながる可能性があることを含め、連邦法に違反する可能性がある方法での入居者審査システムの使用、および広告配信を促進するためにアルゴリズムを使用するものを含むデジタルプラットフォームを通じた不動産関連取引の広告に、公正住宅法などの連邦法がどのように適用されるか、また連邦法違反を回避するためのベストプラクティスに関するガイダンスを発行すること。
  • 労働長官は、従業員の福利に対するAIの潜在的な害を軽減し、その潜在的な利益を最大化するために使用できる雇用者のための原則とベストプラクティスを開発し、公表する。

240日以内に、商務長官に対し、電子透かしやその他の方法で合成コンテンツを検出するための既存および潜在的な技術とそのテスト方法を特定する報告書をOMB長官および国家安全保障問題担当大統領補佐官に提出するよう命令。

270日以内に

  • 商務長官は、NIST長官を通じて、安全、安心、信頼できるAIシステムを開発、展開するための業界標準のコンセンサスを促進し、AIの開発者、特にデュアルユースの基礎モデルの開発者がAIのレッドチームテストを実施できるよう、適切なガイドラインを確立すること(国家安全保障システムの構成要素として使用されるAIを除く)。
  • エネルギー省長官が、他のセクター・リスク管理機関の長と連携して、エネルギー省のAIモデル評価ツールとAIテストベッドの開発計画を実施すること。

365日以内に

  • 教育省長官は、AIシステムが社会的弱者や十分な教育を受けていないコミュニティに与える影響を含め、教育におけるAIの安全で責任ある差別のない利用について、関連する利害関係者とリソースを開発すること。
  • 労働長官は、AIやその他のテクノロジーに基づく雇用システムに関わる雇用における無差別に関して、連邦契約業者向けのガイダンスを公表すること。
  • 国務長官と米国国際開発庁長官は、「グローバル開発におけるAIプレイブック」を発行すること。
  • 保健福祉長官は、AI安全プログラムを確立すること。このプログラムでは、特に、医療現場で導入されたAIに起因する臨床エラーを特定・把握するためのアプローチに関する共通の枠組みを確立するとともに、患者、介護者、またはその他の関係者に偏見や差別を含む危害を与える関連インシデントの中央追跡リポジトリの仕様を確立することが求められている。

AIモデルとシステムのテスト

特筆すべきは、AIモデルやシステムのテストをAI政策の要としていることで、従来のAIとジェネレーティブAIシステムの両方のテストに関するガイダンスの策定において、複数の機関が役割を果たすよう求めています。

ホワイトハウスのAI政策におけるAIシステムのテストの重要性は明らかです。テストと評価は、AIシステムが意図したとおりに機能し、誤用や危険な改変に強く、倫理的に開発され、安全な方法で運用され、適用される連邦法や政策に準拠していることを保証するのに役立ちます。特に、司法長官(AG)、保健福祉省(HHS)、消費者金融保護局(CFPB)、商務省と国立標準技術研究所(NIST)、労働省(DOL)、エネルギー省(DOE)に対して、AIシステムのテストに関するガイダンスの作成と実施に関する具体的な指針が示されています。

特定の行政機関に対し、AIシステムに有害なバイアスがないかテストするよう具体的に指示するだけでなく、司法長官は一般的に「AIによって悪化する可能性のある不法な差別やその他の被害」に対処することを任務としており、「AIに関連する公民権侵害や差別に対処するため、既存の連邦法の実施と執行において各省庁を支援する」ことが義務付けられています。さらに、「アルゴリズムによる差別を含む、自動化されたシステムの使用における差別を防止し、対処する」という、すべての連邦公民権局にわたる包括的な指令もあります。

上述したように、ホワイトハウスのこれらの指令には、有害な偏見を暴き、緩和し、適用される連邦法や政策に沿うようにするために、アルゴリズムシステムをテストすることが暗黙のうちに期待されています。

ヘルスケア

ヘルスケア分野では、医療と給付管理におけるAIの責任ある利用を促進するようHHSに指示。これには、HHS AIタスクフォースの設置が含まれ、その責任は「医療・福祉分野におけるAIおよびAI対応技術の責任ある展開と使用に関する方針と枠組みを含む戦略的計画を策定すること(AI対応技術の長期的な安全性と実世界での性能監視を含む)」となっています。

この命令はまた、HHSに対し、「医療現場で導入されたAIに起因する臨床エラーを特定・把握するためのアプローチに関する共通の枠組みや、患者・介護者・その他の関係者に偏見や差別を含む危害を与える関連インシデントの中央追跡リポジトリの仕様」を確立するためのAI安全プログラムの作成を義務付けています。

金融サービス

連邦住宅金融庁(Federal Housing Finance Agency)とCFPBはまた、「連邦法の遵守を確保するために、それぞれの規制対象事業体にAIツールを含む適切な方法論の使用を求めるために、その権限の使用を検討することが奨励されます。これには、保護グループに影響を与える偏りや格差がないか引受モデルをテスト・評価することや、偏りを最小限に抑える方法で担保評価や鑑定処理を自動化することが含まれます。

さらに、CFPBと住宅都市開発省は、入居者審査システムと、公正住宅法(FHA)および公正信用報告法(FCRA)を含む既存の連邦法に違反する可能性のある入居者審査システムに関する追加ガイダンスを提供することにも関与しています。さらに、FHAや信用機会均等法などの他の連邦法が、「デジタルプラットフォームを通じて住宅、クレジット、その他の不動産関連取引の広告にどのように適用されるか」についてもガイダンスを提供することになっています。

雇用

AIシステムのテストによる偏見の緩和は、雇用部門に関する命令の指示にも関係しています。この命令では、DOLは「雇用に使用されるAIによる違法な差別を防止」し、「AIやその他のテクノロジーベースの雇用システムに関わる雇用における無差別に関して、連邦政府請負業者向けのガイダンスを公表」する責任を負っています。意図しないバイアスがないかAIシステムをテストすることは、AIを含む無差別採用に関するDOLのガイダンスの不可欠な部分になると予想されます。

生成AI

生成AIとデュアルユース基礎モデルのテストもまた、この命令で概説されたAI政策の中心的役割を担っています。AIテストベッドとは、「AIやプライバシーを強化する技術を含むツールや技術の機能性、使いやすさ、性能を評価するために、厳密で透明性が高く、再現可能なテストを実施するための設備や仕組み」です。これらのテストベッドは、AIシステムの能力を評価し、基礎モデルを構築するために使用されます。

DOEだけでなく、商務省も基礎モデルを開発している企業から、「NISTが開発した関連するAIレッドチーム・テスト・ガイダンスにおけるモデルのパフォーマンス、およびレッドチーム・テストのパフォーマンスを向上させ、モデル全体のセキュリティを強化するための緩和策など、安全目標を達成するために企業が講じた関連措置の説明」を含む、モデルとそのコンピューティングの多くの側面に関する報告書を収集することが義務付けられています。

参考記事: How the mandate for federal agencies to test AI systems may impact wider AI model testing requirements

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

こちらもおすすめ