職場におけるAI導入のために雇用主が知っておくべき規制とリスク

職場でのAI導入には明確なポリシーが必要不可欠です。職場という枠組みでは雇用やプライバシーに関する規制が活発になっていますが、知財問題も重要な点です。そこで今回はそこで今回は雇用主の観点から、AIの利用を規制する明確なポリシーを制定する上で検討すべき点をまとめました。

ーーー

人工知能(AI)はChatGPTの登場もあり、一般の人々も容易に利用できるようになりつつあります。しかし、その一方で、政府がAIを規制するための適切なアプローチに取り組む中、偏見や差別、著作権侵害、不正確なデータ、プライバシーに関する懸念から生じる雇用主の潜在的な危険など、法的リスクはすでに存在しており、その観点からAIの導入に慎重になっている企業も多くあります。

今後、生産性が高めるためにAIを賢く利用することが求められる中、企業内でAIを使うためのポリシーの枠組みが重要になってきます。会社にとって効果的なポリシーを作るにはまずAI利用のおける規制やその動向、必ず含まれるべき知財問題への対処とプライバシーへの配慮など、職場での利用を念頭に置いたAIと関連する様々な法的なリスクを学ぶ必要があります。

知っておくべきAI利用に関する規制とその動向

以下にまとめるように、企業のAI利用に影響を与える法律、ガイダンス、自主的なコミットメントが点在しているのが現状です:

AIリーダーによる自主的コミットメント:2023年7月21日、大手企業7社がAI開発の安全性、セキュリティ、透明性をさらに高めることを約束しました。特に雇用者に関連することとして、同グループは偏見、差別、消費者のプライバシー権に関連するAIの成果を研究するために多額の投資を行うと発表しています。

米国雇用機会均等委員会(U.S. Equal Employment Opportunity Commission、EEOC): EEOCは2023年1月10日、AIに関連する雇用差別を優先事項とした戦略的執行計画案を発表し、AIが「保護される集団を意図的に排除したり、悪影響を与えたりする」リスクを強調しました。また、2023年8月9日、EEOCはAIを利用した差別訴訟で初の和解を発表。EEOCは36万5,000ドルの和解金で、ある企業が採用ソフトにプログラムし、高齢の応募者を自動的に不採用にしたという申し立てを解決しました。

ニューヨーク市による規制: 2023年7月5日、ニューヨーク市は 「雇用判断」におけるAIの使用を規制する新法の施行を開始しました。ニューヨーク市では、雇用主や人事部門が候補者の評価や査定に 「自動雇用判断ツール」 を使用する前に、以下のことが義務付けられています: (1)バイアス監査を実施すること、(2)バイアス監査結果の概要を自社のウェブサイト、またはウェブサイトにリンクして公開し、性別や人種・民族のカテゴリーごとの選考率や採点率を開示すること、(3)そのツールの使用について候補者に事前に通知し、「代替選考プロセスまたは便宜」を要求する機会を提供すること。

イリノイ州による規制: 2020年、イリノイ州は求職者の評価にAIを使用することを規定する人工知能ビデオ面接法を制定しました。イリノイ州内で採用する雇用主には、以下のことが義務付けられています: (1)ビデオ面接でAIを使用する前に、AIの仕組みと評価基準を説明した上で、応募者から同意を得ること、(2)要求があれば録画を削除すること、(3)候補者が対面面接に進むかどうかを判断するのにAIのみに頼る場合、AI評価の下で異なる人口統計学的カテゴリーの候補者がどのように評価されたかを示すデータをイリノイ州商業経済開発局に報告すること。

メリーランド州による規制: 同じく2020年、メリーランド州はイリノイ州と同様の法律を制定し、応募者が同意しない限り、雇用主がAIの顔認識技術を使用することを禁止しました。応募者は、(1)応募者の氏名、(2)面接日、(3)応募者が面接時の顔認識使用に同意した事実、(4)応募者が同意書を読んだかどうかを記載した権利放棄書に署名すれば、面接時の顔認識使用に同意することができます。

欧州連合:  2021年4月、欧州委員会は人工知能法(Artificial Intelligence Act)を提案しました。この法律でカバーすることが提案されているトピックには、AIの使用がAI技術を含むプラットフォームを利用するすべての人々にとって透明であることを保証することや、AIが無差別的に適用されることを保証することなどが含まれています。

州ベースのタスクフォースの動き:  ニューヨーク州、コネチカット州、コロラド州、バージニア州、ミネソタ州の州議会議員は、2023年秋にモデル法案を作成するためのタスクフォースを結成しています。初期の報告によると、議論には「広範なガードレール」が含まれ、製造物責任やAIシステムの影響評価の義務付けといった事項に焦点が当てられています。

知的財産(IP)に関する懸念

政府関係の規制は雇用に集中していますが、注意する点は新しい規制だけに留まりません。既存の法律の枠組み内で言うと、良いAI利用ポリシーを作る上で、AIの利用に関する様々な知的財産関連の問題に言及することは必須です。

AIに関する知財問題には以下のようなものがあります:

  • 企業がAIを使って作品を創作した場合、その作品は誰のものか?: 2023年8月18日、コロンビア特別区連邦地方裁判所は、「人間が著作者であることは、著作権の根幹をなす要件である」とし、著作物の著作者は人間でなければならず、機械が作成した著作物は除外されると判示しました。したがって、AIの利用者は、組織の知的財産の一部としてAIのアウトプットに依存することを計画している場合、慎重に行動する必要があります。

関連記事:AI時代の不透明な著作権と特許保護であっても今からやれること

  • AIツールが結果を生成する際にライセンスを受けていない著作物を使用した場合、または結果がライセンスを受けていない著作物を組み込んだ場合、著作権侵害の責任を負う可能性があるのか?: 今のところ、AI企業は、AIツールが取り込む大規模なデータセットの一部として著作物を使用する許可を著作権者に求めてはいません。このため、さまざまな分野の著作者やアーティスト、主要な権利者が、AI企業が著作権を侵害していると主張する訴訟が起こっています。ジェネレーティブAIは、最近起こったアメリカ脚本家組合ストライキにおける交渉のポイントにさえなっています。これまでのところ、著作権侵害の疑いのある素材を受け取ったAIプラットフォームの第三者ユーザーを対象とした訴訟は行われていませんが、結果が明らかに著作権侵害であれば、その可能性は変わる可能性があります。

関連記事:AI自動生成ツールは「侵害」するのか?3つの訴訟に注目

プライバシーに関する懸念

ジェネレーティブAIツールの急速な増加を背景に、米国各州のプライバシー法の大幅な拡大が行われています。雇用主は、従業員に関するあらゆるデータをAIツールに開示することに伴う固有のリスクを認識し、以下の点を検討する必要があります:

AIツールへの個人データの開示に伴うリスクは?: 個人データをAIツールに入力することで、雇用主はデータのコントロールを失い、それが一般に公開されたり、データ侵害の結果として開示されたことに気づくかもしれません。従業員データは機密性が高いことが多いため、不注意による開示の影響は大きいです。このリスクを軽減するために、AIツールにデータを送信する前にデータを非識別化することができますが、企業は適用される法律の下で何が「非識別化」を構成するかに関する要件を遵守するよう注意しなければなりません。企業はまた、AIツールに入力されたデータがどのように使用されるのか、またデータが提出された後、企業がどのような権利を有するのかを理解するために、AIツールを使用する前に、AIツールの利用規約とプライバシーポリシーを理解し、確認する必要があります。

データがAIツールに入力された場合でも、会社は適用法で義務付けられているデータ権利行使の要求に応じることができるのか?: 従業員がどこに居住しているかによって、従業員は個人データにアクセス、訂正、削除、または処理を停止する権利を有する場合があります。その個人データがAIツールに提出された場合、個人データの削除が問題となる可能性があります。 

職場におけるAI利用におけるリスク

各国政府が規制の枠組みを設計するための最初の一歩を踏み出す中、職場におけるAIの利用は以下のように急増しています:

ジェネレーティブAI: ジェネレーティブAIは、非常に大規模な情報セットを処理して、AIツールが作成したフォーマット(画像、文章、音声出力など)で、新しいコンテンツを生成することができます。ジェネレーティブAIツールからの高品質な出力に関する初期の報告は、様々な産業における作業をサポートするために、その使用がブームを巻き起こしました。しかし、最近の例では、特にファクトセットの分析や基本的な計算機能の実行を要求された場合、AIの出力の信頼性は大きく変動し、確実とは言い難いことが示されています。例えば、2023年3月、ある一般的な生成AIツールは、比較的簡単な数学の質問に98%の確率で正しく答えることができました。しかし、2023年7月に同じ問題を解かせると、正解率はわずか2%でした。同様に、最近、法律事務所の弁護士が準備書面のドラフトにAIを利用したところ、AIツールが存在しない法的見解を作成するなど、法的権威を捏造していたことが発覚し、制裁を受けました。このように、AIが普及するにつれて、従業員が業務を遂行する過程でAIを活用する頻度や方法はますます増えていくでしょう。

関連記事:連邦訴訟における不用意なChatGPTの活用で弁護士が非難される事態に

AIを使った求人や採用: AI製品は、求人に応募していないが必要なスキルや資格を持っている潜在的な候補者を特定したり、大量の履歴書をスクリーニングし、求人要件と候補者の資格や経験をマッチングさせたり、予測分析を使って履歴書やソーシャルメディアのプロフィールなどの候補者データを分析し、どの候補者がその職務で成功する可能性が最も高いかを予測したりするなど、採用活動をより効率的かつ効果的にするために進化しています。このような本質的に「ブラックボックス」な候補者の評価は、危険と隣り合わせで多くの潜在的なリスクがあります。

不祥事の予測: 市場に出回っているさまざまなツールは、潜在的な不祥事の「ホットスポット」を特定し、問題が発生する前に経営陣や人事が対策を講じることができると主張しているものもあります。AIは、職場のコミュニケーションのトーン、仕事のスケジュールや量など、大量の情報を分析することで、人事が積極的に関与する必要のある問題のある領域を特定するのに役立つと謳っている企業もいます。しかし、仮に予測的な評価の精度を可視化できる可能性があるとしても限定的であるため、雇用主は特に、予測ツールの使用がプライバシーや公平性に関連する従業員の重大な懸念を引き起こす可能性があることを考慮し、慎重に進める必要があります。

人材の確保: 企業はまた、機械学習を使って従業員が退職する可能性があるかどうかを予測することで、優秀な人材を維持する取り組みにAIを活用しています。一部のAIプログラムは、従業員を離職に導く可能性のある主な要因を予測することで、従業員が留まる理由や離職のリスクを特定するために使用できると主張してます。

雇用主への提言

雇用主が職場でAIに取り組む必要があるかどうかは問題ではありません。それはすでに前提になっており、むしろ、いつ、どのように取り組むべきかというのが問題の本質です。

AIの急速な普及を考えると、今がその時だと思われます。雇用主は機敏に行動し、規制の動向を注視して、この急速に変化するAIの状況において、自社のポリシーが常に最新のものであるようにしなければなりません。短期的には、雇用主は以下のステップを踏むことが賢明でしょう:

  • 一般的にAIとは何か、自社がすでに使用しているAIとは何か、近い将来使用する可能性のあるAIとは何かについて熟知する
  • 職場におけるAIの使用を管理する適切な方針を議論するために、適切なステークホルダーを集める。最高技術責任者、ビジネスリーダー、最高人事責任者など、誰がそのテーブルにつく必要があるのかを議論する
  • どのようなAIの使い方が職場に適しているか、そして同様に重要なのは、どのような使い方が適切でないかということを決める
  • 方針を策定する際には、以下のような法令遵守の考慮事項を盛り込むこと:
    • 保護された特性に基づく集団に悪影響を与えるような方法でAIが使用されないようにすること。この問題に対処するために、AIが適切に導入されていることを確認するバイアス監査の実施を検討する。
    • 会社のAI使用に関して、候補者及び/又は従業員に適切な通知を行い、適用法に基づいて要求される可能性のある同意を得ること。
    • AIの使用が、候補者、従業員、またはコンサルタントが有するプライバシーに関する法令上または契約上の権利に抵触しないようにすること。
  • 職場におけるAIの使用を規定する従業員向けの方針を策定し、実施すること。ポリシーには、どのAIツールの使用が許可されているか、また、そのようなAIツールにどのような情報を提出することが許可されているかを明記する。従業員全体が明確に理解できるよう、AIの適切な使用方法に関する従業員向け研修の実施を検討する。
  • 該当する場合は、ベンダーおよび/またはコントラクターが組織のために行う業務においてAIをどのように使用することができるかについても、同様の方針を策定し、実施する。さらに、ベンダーがAIアプリケーションで自社のデータを使用することを許可されるかどうか、またどのように許可されるかを管理するために、ベンダーとの契約を更新する必要があるかどうかを検討する。
  • データがどのように収集され、使用されているかを理解する。AIは何を収集し、組織レベルや個人レベルでデータをどのように収集し、利用しているのか。
  • データが削除されたとしても、将来の分析でAIのキャリブレーションに組み込まれているかもしれない可能性を調べる。
  • 組織内でAI活用のあらゆる側面について責任を割り当て、役割を明確に理解し、説明責任を果たすようにする。

AIは画期的な技術で新しい機会を提供する反面、リスクや不確実性も伴います。組織内でのAIの使用方法、機能、最終的な結果を確実に理解することで、雇用主は法的リスクを最小限に抑えながら、このツールを効果的に活用することが求められます。

参考記事:AI in the Workplace: A Roadmap for Employers

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

追加記事

特許において、クレームの限定事項が明確に記述されているかどうかは、特許の有効性を左右する重要な要素です。今回、Maxell, Ltd.対Amperex Technology Limitedの判決は、特許クレームの解釈において、限定事項間の表面上の矛盾をどのように扱うべきかという問題を浮き彫りにしました。本文では、この重要な判決を深堀りし、一見矛盾すると思われる限定事項が、実際には特許の不明瞭性(Indefiniteness)を生じさせない理由について探求します。特に、連邦巡回控訴裁判所(CAFC)がどのようにこれらの限定事項を同時に満たすことが可能であると見做したか、その解釈の根拠と、特許クレームを起草する際の実務上の教訓に焦点を当てて考察します。
特許法における「組み合わせの動機」(Motivation to Combin)の概念は、発明が発明された時点でその分野の通常の技術者(PHOSITA)にとって自明であったかどうかを判断する上で不可欠な要素です。自明性の問題は、新しい発明が既知の技術要素の単純な組み合わせに過ぎないのか、それとも特許に値する独自の技術的進歩を表しているのかを区別するために重要です。このブログ記事では、特許請求の自明性を評価する際に中心となる「組み合わせの動機」の概念と最高裁判決であるKSR判例を解説し、Virtek Vision 対 Assembly Guidance Systemsの事件を例に、実際の訴訟におけるこの概念の適用方法について掘り下げます。
先月、米国特許商標庁(USPTO)が「Means-Plus-Function」に関するメモランダムを発行し、審査官に最新ガイダンスを提供しました。その内容は実務における大きな変更を意味するものではなく、既存の法的枠組みの下でより明確な指針を提供することを目的としています。しかし、このタイミングにおけるガイドラインの発行は、35U.S.C.112条(f)に基づく一風変わったクレームの形式であるMeans-Plus-FunctionがUSPTOにおける特許審査で注目されていることを示しており、改めてガイドラインに沿った適切なクレームドラフティングが求められることを意味します。