MENU

ヒューライツ大阪は
国際人権情報の
交流ハブをめざします

  1. TOP
  2. 資料館
  3. ニュース・イン・ブリーフ
  4. 国連人権高等弁務官、人権を基盤とするAI(人工知能)の開発と利用を提唱

ニュース・イン・ブリーフ サイト内検索

 

Powered by Google


ニュース・イン・ブリーフ Archives


国連人権高等弁務官、人権を基盤とするAI(人工知能)の開発と利用を提唱

 2023年7月に開催された第53回人権理事会のハイレベル・サイドイベントで、国連のトゥルク人権高等弁務官が人権を基盤とするAI(人工知能)の開発と利用に関する声明を発表しました。以下はその声明の概要です。

 生成AIが目覚ましい発展を遂げて、チャットGPTのような対話型AI等のサービスに誰もがアクセスできるようになりつつあります。AIは人類に大きな利益をもたらす可能性がありますが、その可能性を活かすには、AIの利用によって人々が受ける恩恵が負の影響を受けるリスクを上回ることが前提となります。リスクに対する解決策も規制も人権を基盤とするものでなければなりません。

●AIがもたらすリスク
 国家による権威主義的な統治をAIが助長することが懸念されています。AIの利用によって、社会統制や監視、検閲を強化したり、殺傷能力がある自律型兵器を無人で操作したりすることが可能になり、こうしたリスクは現実のものとなっています。
 顔認識システムを使えば、公共空間において国家が市民を監視することができ、プライバシー保護の権利がないがしろにされます。犯罪につながる行動を予測するために刑事司法制度で利用されているAI搭載のシステムは、差別を助長し、推定無罪等の権利を損なうことがすでに示されています。
 こうした懸念に対して、政府やAIを開発する企業は十分に対応しておらず、政府と企業による行動が急務となっています。国際レベルでは、政府や企業等の主なステークホルダーを招集し、対応の進捗状況を確認するという中心的な役割を国連が担うことができます。

●AI規制の方向性
 AIの規制に関する議論においては、現在、2つの方向性があります。AIを開発する企業による自主規制とリスク評価に任せるというのが1つ目の方向性です。企業が対応すべき詳細な基準を設定するのではなく、リスクを特定・軽減して成果を達成することを重視する考え方です。これに対しては、大きすぎる責任が企業に課されることになるという声が上がっています。
 2つ目は、AIのライフサイクル全体に人権を組み込むという方向性です。AIの学習のためのデータ収集と選択、AIを使ったモデルやツール、サービスのデザイン、開発、導入、利用のライフサイクル全体に人権の原則を反映するということです。

  1. 脆弱な立場に置かれやすい人々の声を聞く
     AIの規制を考えるには、まず、AIに潜む偏見の影響を特に受けてきた女性や社会的少数者、社会から疎外されてきた人々の声を聞く必要があります。こうした人々がAI規制に関する議論に参加できるよう努めなければなりません。権力の乱用やプライバシー侵害につながりやすい司法、法の執行、移住、社会保障、金融サービス等の公共・民間サービスにおけるAIの利用には注意が必要です。
  2. AIの人権リスク評価と影響評価を義務付ける
     AI搭載システムの使用前、使用中、使用後に人権リスクとその影響を評価することを規制によって義務付けるべきです。特に国家がAIを使用する場合には、透明性の確保、第三者による監視、効果的な救済へのアクセスの保障が必要となります。国際人権法に沿った運用ができないAIは、適切な措置が整備されるまで、禁止または停止されなければなりません。
  3. 既存の規制や保護措置を適用する
     AIの開発や利用の規制においては、データ保護や競争法の枠組み、医療・技術・金融を含む分野別規制といった既存の規制や保護措置が適用されるべきです。AI開発や利用において人権の視点を入れ込むために、さらに広範な規制や制度の枠組みに人権尊重の考え方を含めるべきです。
  4. AI規制を法律として導入する
     AIの開発や利用の規制はAI業界による自主規制で十分である、適用される法的枠組みを定義するのはAI業界である、という企業の主張には抗すべきです。企業の声は重要であるものの、すべての人々があらゆる場所で将来まで影響を受けるこうした問題については、すべてのステークホルダーが関与して法律を形成するという民主的なプロセスが不可欠となります。
     同時に、企業は「ビジネスと人権に関する指導原則」に則り、人権尊重責任を果たさなければなりません。企業は、市場に出す製品に責任があるのです。国連人権高等弁務官事務所(OHCHR)では、企業、市民社会組織、AIの専門家と協力し、生成AIに関するガイダンスを作成しているところです。それに沿ってさらに取り組みを進めていくことが必要となります。
  5. 国際的な諮問機関の設立を検討する
     即効性のある解決策ではありませんが、リスクが特に高い技術について、規制基準を人権や法の支配の枠組みに整合させるために、AIのガバナンスに関する勧告を行う国際的な諮問機関の設立を検討することを提案します。こうした機関の設立は、グテーレス事務総長が2024年9月開催の国連「未来サミット」に向けて提唱している、人を中心としたデジタルの未来に向けた原則を示す「グローバル・デジタル・コンパクト」でも言及されています。

<出典>

<参考>


(2023年10月06日 掲載)