コロラド州が全米初の本格的なAI規制法を制定

コロラド州が全米初の本格的なAI規制法を制定

2024年5月17日、コロラド州知事のジャレッド・ポリス氏は、米国で初となる包括的な州レベルの人工知能(AI)規制法である「SB 24-205」に署名しました。この法律は、「人工知能システムとの相互作用における消費者保護に関する法律」(Concerning consumer protections in interactions with artificial intelligence systems)と題され、高リスクAIシステムの開発者と利用者に新たな義務を課すことを目的としています。

今回のコロラドAI法は、AIシステムの開発と利用に関する包括的な規制枠組みを導入する米国初の州法です。この法律は、高リスクAIシステムの定義を定め、そのようなシステムの開発者と利用者に対して、リスク管理、影響評価、消費者通知などの義務を課しています。また、アルゴリズム差別の防止に重点を置き、AIシステムの透明性と説明責任の確保を目指しています。

SB 24-205は、2024年5月17日に知事が署名したことで正式に制定されましたが、実際の施行は2026年2月1日からとなります。この施行までの期間は、事業者がコンプライアンスの準備を整え、州政府が法律の実施に必要な規則やガイダンスを策定するために設けられています。ポリス知事は署名時の声明で、法律の規定についてさらなる改善が必要であると述べ、連邦レベルでの統一的なAI規制の必要性を訴えました。

コロラドAI法の制定は、直接知的財産に関わるものではないものの、米国におけるAI規制の重要な一歩であり、他の州や連邦政府の取り組みに影響を与える可能性があります。この法律の施行により、コロラド州で事業を行う企業は、AIシステムの開発と利用に関する新たな義務への対応が求められることになります。

コロラドAI法の主要な規定

重大な意思決定を下す「高リスク」AIシステムを規制

コロラドAI法は、リスクベースのアプローチを採用しており、特に「高リスク」AIシステムに焦点を当てています。高リスクAIシステムとは、重大な意思決定を下す、または下す際の実質的な要因となるシステムを指します。

高リスクAIシステムによる意思決定には、雇用や雇用機会、教育の登録や機会、金融サービス、重要な政府サービス、医療サービス、住宅、保険、法的サービスの提供や拒否に重大な影響を与えるものが含まれます。

その一方で、狭義の手続き的タスクを実行するAIシステムや、意思決定パターンやそれからの逸脱を検出するだけで、人間の評価や判断に取って代わることを意図していないシステムは、高リスクAIシステムの定義から除外されています。

保護された特性に基づく「アルゴリズム差別」を対象

コロラドAI法は、「アルゴリズム差別」を防止することを目的としています。アルゴリズム差別とは、年齢、肌の色、障害、民族性、遺伝情報、言語能力、出身国、人種、宗教、性別、退役軍人のステータスなどの保護された特性に基づいて、個人やグループに不利な影響を与える差別的な取り扱いを指します。

コロラド州で事業を行うAI開発者とAI利用者が対象

この法律は、コロラド州で事業を行うAIシステムの開発者と利用者に新たな義務を課します。

「開発者」:AIシステムを開発または実質的に変更する者と定義。開発者とは、コロラド州で事業を行う個人または組織で、AIシステムを開発したり、意図的かつ実質的に変更したりする者を指します。

「利用者」:高リスクAIシステムを使用する者と定義。利用者とは、コロラド州で事業を行う個人または組織で、高リスクAIシステムを使用する者を指します。

要件を満たした場合、「合理的な注意」の反証可能な推定を確立

コロラドAI法は、開発者と利用者に対して、アルゴリズム差別のリスクから消費者を保護するために「合理的な注意」(“reasonable care”)を払うことを求めています。開発者と利用者が法律の要件を満たしている場合、合理的な注意を払ったと推定されますが、この推定は反証可能です。

AI開発者の義務

コロラドAI法は、高リスクAIシステムの開発者に対して、リスク管理、透明性、説明責任に関する新たな義務を課しています。

AI利用者に文書と開示を提供

開発者は、高リスクAIシステムのAI利用者に対して、システムに関する重要な情報を文書化し、開示する必要があります。

  1. トレーニングデータ、制限事項、目的、利点、用途の要約:  提供すべき情報には、高リスクAIシステムのトレーニングデータの種類、既知または合理的に予見可能な制限事項、システムの目的、意図された利点と用途の要約が含まれます。
  2. AI利用者が影響評価を実施するために必要な情報: 開発者は、AI利用者が高リスクAIシステムの影響評価を完了するために必要な情報も提供しなければなりません。これには、システムの性能評価、アルゴリズム差別の可能性、リスク管理方法などが含まれます。

公開ウェブサイトで声明を発表

開発者は、自社のウェブサイトまたは公開されたユースケースインベントリで、高リスクAIシステムに関する情報を公開する必要があります。

  1. 提供する高リスクAIシステムの種類とリスク管理方法: 公開すべき情報には、開発者が開発、実質的に変更し、AI利用者に提供している高リスクAIシステムの種類と、アルゴリズム差別のリスクをどのように管理しているかが含まれます。
  2. 実質的な変更があった場合、90日以内に更新:  開発者は、高リスクAIシステムに実質的な変更を加えた場合、90日以内に公開情報を更新しなければなりません。

差別的な影響が判明した場合、司法長官とAI利用者に報告

開発者は、高リスクAIシステムがアルゴリズム差別を引き起こしたこと、または引き起こす可能性が高いことを発見した場合、コロラド州司法長官と既知のAI利用者に報告する義務があります。この報告は、発見から90日以内に行わなければなりません。

これらの義務は、高リスクAIシステムの開発におけるリスク管理、透明性、説明責任を促進し、アルゴリズム差別を防止することを目的としています。開発者は、これらの要件を遵守し、AI利用者や消費者との効果的なコミュニケーションを確保することが求められます。

AI利用者の義務

コロラドAI法は、高リスクAIシステムの利用者に対して、リスク管理、影響評価、消費者保護に関する新たな義務を課しています。

リスク管理方針とプログラムを実施

高リスクAIシステムの利用者は、リスク管理方針とプログラムを実施しなければなりません。

  1. 反復的なプロセスで、定期的に見直しと更新: リスク管理方針とプログラムは、反復的なプロセスであり、高リスクAIシステムのライフサイクルを通じて定期的に見直しと更新が必要です。これにより、ベストプラクティスと進化する基準に適合することができます。
  2. NISTやその他のAIリスク管理フレームワークを考慮: リスク管理方針とプログラムを策定する際には、米国国立標準技術研究所(NIST)のAIリスク管理フレームワークや、その他の認知されたフレームワークを考慮する必要があります。

高リスクAIの年次影響評価を実施

利用者は、高リスクAIシステムの年次影響評価を実施しなければなりません。

  1. 差別的リスクと緩和措置を分析: 影響評価では、高リスクAIシステムの利用によるアルゴリズム差別のリスクを分析し、そのリスクを緩和するために取られた措置を記載する必要があります。
  2. データ入力、出力、カスタマイズ、制限事項を説明: 影響評価には、高リスクAIシステムが処理する入力データのカテゴリー、生成する出力、システムのカスタマイズに使用されたデータ、既知の制限事項などの説明が含まれます。
  3. 透明性対策とモニタリング保護措置を説明: 影響評価では、高リスクAIシステムの使用における透明性確保のために取られた措置と、システムの監視とユーザー保護のための措置についても説明する必要があります。

消費者に通知を提供

高リスクAIシステムの利用者は、消費者に対して適切な通知を提供しなければなりません。

  1. 高リスクAIを使用して重大な意思決定を下す場合は開示:  高リスクAIシステムを使用して消費者に関する重大な意思決定を下す場合、または下す際の実質的な要因となる場合、利用者は消費者にその旨を通知する必要があります。
  2. データを修正し、不利な決定に異議を唱える手段を提供:  利用者は、消費者に対して、高リスクAIシステムが処理した不正確な個人データを修正する機会と、不利な決定に異議を唱える機会を提供しなければなりません。
  3. AIの使用とリスク管理に関するウェブサイトでの声明を作成: 利用者は、自社のウェブサイトで、使用している高リスクAIシステムの種類とアルゴリズム差別のリスク管理方法を要約した声明を公開する必要があります。

発見されたアルゴリズム差別を司法長官に報告

利用者は、高リスクAIシステムがアルゴリズム差別を引き起こしたことを発見した場合、発見から90日以内にコロラド州司法長官に報告しなければなりません。

特定の基準を満たす小規模なAI利用者に限定的な免除

従業員が50人未満で、自社のデータを使用してAIシステムをトレーニングしておらず、開発者が開示した使用目的でのみシステムを使用している小規模なAI利用者は、リスク管理と影響評価の要件が免除されます。ただし、合理的な注意義務と消費者通知の要件は引き続き適用されます。

これらの義務は、高リスクAIシステムの利用におけるリスク管理、透明性、説明責任、消費者保護を促進することを目的としています。利用者は、これらの要件を遵守し、AIシステムの責任ある利用を確保することが求められます。

適用範囲と定義

コロラドAI法は、AIシステムの開発と利用に関して広範な適用範囲を持ち、いくつかの重要な定義を提供しています。

「AIシステム」の広義の定義(EU AI法と類似)

コロラドAI法におけるAIシステムの定義は、EU AI法と類似しており、非常に広義です。AIシステムとは、「明示的または暗黙的な目的のために、受け取る入力からコンテンツ、決定、予測、推奨事項を生成する方法を推論し、物理的または仮想的な環境に影響を与える可能性のある、自律性のレベルを変えて動作するように設計された機械ベースのシステム」を指します。この定義は、技術的に中立であり、AIの急速な発展に対応できるように意図的に広く設定されています。

コロラド州で事業を行う事業体に適用

コロラドAI法は、コロラド州で事業を行うすべての事業体に適用されます。これには、高リスクAIシステムの開発者(AIシステムを開発または実質的に変更する者)と利用者(高リスクAIシステムを使用する者)が含まれます。事業体の規模や業種に関係なく、高リスクAIシステムに関与する事業体は、この法律の対象となります。

従業員データとGLBA対象金融機関は免除されない

コロラドAI法は、他の一部の州法とは異なり、従業員データや金融機関に対する免除を提供していません。2023年のコロラドプライバシー法は、従業員データと「グラム・リーチ・ブライリー法(GLBA)」の対象となる金融機関を適用除外としていますが、コロラドAI法にはそのような除外規定はありません。したがって、雇用決定や金融サービスの提供に高リスクAIシステムを使用する事業体は、この法律の要件を遵守する必要があります。

コロラドAI法の広範な適用範囲は、AIシステムの開発と利用における責任あるガバナンスを促進し、アルゴリズム差別から個人を保護することを目的としています。コロラド州で事業を行う事業体は、自社のAIシステムがこの法律の対象となるかどうかを評価し、必要に応じてコンプライアンス対策を講じる必要があります。

執行とコンプライアンス

コロラドAI法は、執行メカニズムとコンプライアンスの要件に関するいくつかの重要な規定を含んでいます。

私的訴権なし、司法長官による排他的執行

コロラドAI法は、私的訴権を認めておらず、法律の執行はコロラド州司法長官に排他的に委ねられています。つまり、個人や団体は、この法律に基づいて直接訴訟を提起することはできません。司法長官は、違反の疑いがある事業体を調査し、必要に応じて執行措置を講じる権限を持っています。また、司法長官は、法律の実施に必要な追加の規則を制定する裁量を有しています。

違反の是正やNIST/その他のフレームワークに従うことによる積極的抗弁

コロラドAI法は、事業体が特定の条件を満たす場合、積極的抗弁を提供しています。事業体が違反を発見し、フィードバック、敵対的テスト、内部レビュープロセスを通じてそれを是正した場合、または、NISTのAIリスク管理フレームワークや司法長官が指定するその他の認知されたフレームワークに準拠している場合、法律違反に対する抗弁となり得ます。これらの規定は、事業体がベストプラクティスに従い、コンプライアンスの取り組みを促進することを奨励しています。

2026年の発効日前に修正の可能性

コロラドAI法は、2024年5月に制定されましたが、実際の発効日は2026年2月1日です。この期間は、利害関係者がフィードバックを提供し、法律の規定を改善するための時間として設けられています。ポリス知事は、法律への署名に際して、発効日前に法律の修正が必要であると述べました。したがって、事業体は法律の最終的な形式を注視し、適切に対応することが重要です。

ポリス知事がイノベーションへの影響に懸念を表明

コロラドAI法への署名に際して、ポリス知事は、法律がイノベーションに与える影響について懸念を表明しました。知事は、法律の複雑なコンプライアンス体制と、意図に関係なく広範に適用されることを指摘し、法律がイノベーションを阻害する可能性があると述べました。知事はまた、連邦レベルでの統一的なアプローチの必要性を訴えました。これらの懸念は、AIの規制とイノベーションのバランスをとる上での課題を浮き彫りにしています。

コロラドAI法の執行とコンプライアンスの規定は、法律の実効性を確保し、事業体に明確な指針を提供することを目的としています。事業体は、法律の要件を注意深く評価し、適切なコンプライアンス対策を講じる必要があります。同時に、法律の影響を監視し、必要に応じて修正を提案することも重要です。

今後の展望

コロラドAI法の制定は、米国におけるAI規制の重要な転換点であり、今後のAI規制の動向に大きな影響を与える可能性があります。

州レベルの米国AI規制に大きな転換点

コロラドAI法は、州レベルで包括的なAI規制を導入する初めての事例であり、米国におけるAI規制の重要な一歩となります。この法律は、AIシステムの開発と利用に関する法的枠組みを提供し、アルゴリズム差別のリスクに対処するための具体的な要件を定めています。コロラドAI法の成功は、他の州や連邦政府のAI規制の取り組みに影響を与える可能性があります。

同様の法律を検討している他の州のモデルとなる可能性

コロラドAI法は、他の州が同様の法律を検討する際のモデルとなる可能性があります。カリフォルニア州、コネチカット州、バージニア州など、いくつかの州が包括的なAI規制法案を検討しています。これらの州は、コロラドAI法の規定や実施経験から学び、自州の法律を策定する際に参考にすることができます。コロラドAI法の成功は、他の州のAI規制の取り組みを後押しする可能性があります。

事業者は2026年までにコンプライアンスのロードマップを計画すべき

コロラドAI法が2026年2月に発効することを考えると、事業者は今からコンプライアンスの準備を始める必要があります。

  1. 使用中の高リスクAIシステムを棚卸し:  事業者は、現在使用しているAIシステムを評価し、高リスクAIシステムに該当するかどうかを判断する必要があります。高リスクAIシステムに該当する場合、法律の要件を満たすために必要な措置を特定することが重要です。
  2. 方針を策定し、監査と影響評価を実施: 事業者は、高リスクAIシステムの利用に関する方針を策定し、定期的な監査と影響評価を実施する必要があります。これには、リスク管理方針の策定、影響評価の実施、透明性とモニタリングの措置の導入などが含まれます。
  3. AIベンダー契約とドキュメントを見直し: 事業者は、AIベンダーとの契約を見直し、法律の要件を満たすために必要な条項を盛り込む必要があります。また、AIシステムに関する文書を整理し、法律で要求される情報開示に備える必要があります。

コロラド州司法長官のガイダンスやその他の法的動向を継続的にモニタリング

コロラドAI法の実施に向けて、事業者はコロラド州司法長官が発行するガイダンスや規則に注意を払う必要があります。また、連邦レベルでのAI規制の動向や、他の州のAI関連法案の進展についても注視することが重要です。AIの規制環境は急速に進化しているため、事業者は最新の動向を把握し、適切に対応することが求められます。

まとめ

コロラド州が全米で初めて包括的なAI規制法を制定したことは、米国におけるAI規制の重要な一歩であり、他の州や連邦政府の取り組みに大きな影響を与える可能性があります。事業者は、2026年の法律施行に向けて、高リスクAIシステムの特定、リスク管理方針の策定、影響評価の実施、AIベンダー契約の見直しなどのコンプライアンス準備を始める必要があります。同時に、法律の影響を監視し、必要に応じて修正を提案することも重要です。コロラドAI法は、AIの責任ある利用とイノベーションのバランスをとる上での課題を浮き彫りにしており、この点についても継続的な議論が必要とされています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

こちらもおすすめ