MENU

ヒューライツ大阪は
国際人権情報の
交流ハブをめざします

  1. TOP
  2. 国際人権基準の動向
  3. ニュース・イン・ブリーフ
  4. AI開発・導入における国連「ビジネスと人権に関する指導原則」適用に関する報告書を国連人権高等弁務官事務所が発表

ニュース・イン・ブリーフ サイト内検索

 

Powered by Google


ニュース・イン・ブリーフ Archives


AI開発・導入における国連「ビジネスと人権に関する指導原則」適用に関する報告書を国連人権高等弁務官事務所が発表

 AI(人工知能)は社会に前例のない進歩をもたらす一方で、人権に対するリスクを伴います。AIの開発・導入においては、国の人権保護義務および企業の人権尊重責任を明確にし、AIの発展を責任あるものにしていく必要があります。2023年7月、国連人権理事会はAIを含む新たな技術における国連「ビジネスと人権に関する指導原則」(以下、指導原則)の適用を求める決議を採択しました。これに基づき、国連人権高等弁務官事務所(OHCHR)は、2025年6月にテクノロジー企業のAIに関連する活動に対する指導原則の適用についてまとめた報告書を発表しました。以下はその概要です。

●AIに関わる企業の人権尊重責任
 AIの開発・導入に関わる企業は、指導原則に基づき、事業全体を通じて人権を侵害しないよう、製品の設計、開発から導入に至るまで、一貫して予防措置を講じる必要があります。事業活動やAI製品・サービスが与える潜在的または実際の人権への負の影響を防止・軽減するための人権デュー・ディリジェンスを実施することが期待されます。
 AI製品・サービスに対する懸念を理解し対応するためには、幅広いステークホルダーとの対話・協議が欠かせません。そのためには、①社外ステークホルダーの人権デュー・ディリジェンスと救済への関与、②ステークホルダーの意見の反映とそのプロセスの説明、③ステークホルダーとの継続的な関係性の構築、④グローバル・サウスの人々の声を聞くための協働、⑤ステークホルダーが関与するために必要な支援の提供といった対応が必要となります。
 AIの開発・導入において人権影響評価を取り入れている企業はまだ少数です。その背景には、人権リスクを管理・監督するガバナンスの国際的な枠組みが統一されていないこと、AI製品・サービスの利用といったバリューチェーンの後半でしか人権が考慮されないこと、中小企業における人権リスクの認識の不足、企業による情報開示の不十分さなどの課題があります。AI技術の利用が人権に深刻な影響を与える可能性がある市民監視、軍事、出入国管理といった分野では、特に懸念が高まっています。

●AIの時代における国家の人権保護義務
 人権保護および政策の一貫性をグローバルに確保するためには、国際的な人権保障の枠組みに基づいたAI規制が重要となります。規制においては、AI製品・サービスの技術的な性能・機能に関するリスクではなく、人々の権利に対するリスクを中心に据えるべきであり、公共・民間のどちらのセクターにも公平に適用される必要があります。透明性、行動や結果に対する責任 、強固なデータガバナンスを確保し、設計から導入までのAI製品・サービスのライフサイクル全体に人権デュー・ディリジェンスを組み込むべきです。
 バリューチェーンを対象とする全体的な規制と、個別の介入が必要となる特定の被害に対する規制を組み合わせることが望ましく、実効性を高めるためには、インセンティブに基づく政策、規制や罰則等の執行、企業への支援を含む包括的な枠組みが必要です。EUのAI法、韓国のAI基本法、ブラジルのAI法案などの最近の動きを見ると、指導原則に沿った、人権デュー・ディリジェンスの義務化と人権に対するリスクベースの規制の傾向が強まっています。
 規制と並行して、責任あるAIの開発とデジタルインフラの整備を推進する産業政策が重要です。国はAI製品の調達者の立場や開発金融機関としての役割を活かし、人権への影響に対応することができます。また、各国政府は国際電気通信連合(ITU)などの機関を通じた技術標準の策定に際して、人権の考え方を組み込むことができます。

●AIの利用による人権侵害に対する責任と救済
 AIを含む技術の利用によって生じる被害に対しては、救済のためのグリーバンス(苦情処理)・メカニズムの仕組みや運用、関連する取り組みに人権の視点を統合することが不可欠です。指導原則では、国家は実効的な救済へのアクセスを提供する義務があり、企業は自社が人権への負の影響を引き起こした、または助長した場合には、救済を提供する、または協力する責任があります。しかし、デジタル環境の複雑さ、責任主体の特定の難しさ、AIシステムの技術的性質などにより、被害者が適切な救済にアクセスすることが困難であるという課題があります。
 AI技術がもたらす人権リスクは、偏見、差別、プライバシーの侵害にとどまらず、健康や福祉へのアクセスなど、広範な権利に影響を及ぼす可能性があります。救済へのアクセスに関する検討課題としては、AIの判断プロセスにおける①透明性と行動や結果に対する責任と②判断根拠の説明、③技術的専門知識の確保、④被害者のプライバシーとデータの保護、⑤AIによる差別を受けやすい人々が直面する障壁があげられます。

●AI技術に関連する女性と少女の権利および企業の責任
 女性や少女は、ジェンダー、出身、国籍、人種・民族、障害の有無などのマイノリティ性の重なりによる複合差別を受けやすく、また、STEM分野(科学・技術・工学・数学)において少数であることから意見が反映されにくいことで教育や雇用の機会から取り残されるなど、人権に対するリスクが高くなっています。AIは女性や少女の教育や雇用へのアクセスを改善する一方で、採用や融資、監視における差別、ジェンダーに基づく暴力、ディープフェイクの悪用といった人権への負の影響を生み出すリスクがあります。
 テクノロジー企業は、ジェンダーの公平性を考慮し、定期的に影響評価を行って、女性団体や市民社会と連携することでリスクを軽減するべきです。すでに一部の企業や政府は、SNS等のコンテンツの監視・管理ツールやアルゴリズムの監査といった対策を始めていますが、ジェンダーに関連する被害に対して責任を果たし、救済を確保するためには、法的保護の強化やグリーバンス・メカニズムの改善など、より包括的な対応が求められます。

●テクノロジー分野における企業の人権尊重を促す投資家の役割
 投資家は、上場・非上場のテクノロジー企業に対する影響力を持っており 、企業の事業構造に人権尊重を組み込むよう促すことができます。人権への負の影響を防止・軽減するために積極的に声を上げる投資家は増えつつありますが、特にAI関連の投資家の認識はまだ低く、より多くの投資家がこうした考え方を意思決定プロセスに含めることが重要です。AI製品やサービスを開発・導入している企業に対する投資前の適正性・信頼性調査に人権の視点を取り入れ、人権に基づいて投資先から除外する基準を設けるべきです。

<出典>

<参照>

<参考>


(2025年12月04日 掲載)