HRN通信 ~「今」知りたい、私たちの人権問題~

日本発の国際人権NGOヒューマンライツ・ナウが、人権に関する学べるコラムやイベントレポートを更新します!

【イベント報告】3/7ビジネスと人権ダイアローグ第5弾「デジタル時代のAI倫理」

ヒューマンライツ・ナウ(HRN)は2022年3月7日(月) に、ビジネスと人権ダイアローグ第5弾「デジタル時代のAI倫理」を開催いたしました。
 


当イベントでは、経済産業省 商務情報政策局 情報経済課 情報政策企画調整官の泉 卓也氏、NEC日本電気株式会社) AI・アナリティクス事業部 事業部長代理 兼 データサイエンス研究所研究員の本橋 洋介氏、日本国・カリフォルニア州弁護士の長島 匡克氏をゲストスピーカーとしてお迎えし、ビジネスと人権とAI倫理の関連性についての基礎的な点から、国内外の法律の動きや、企業の実際の取り組みなどを議論しました。

 

 

 

泉卓也氏「AIガバナンスの観点からの話題提供」

泉卓也氏からは 「AIガバナンスの観点からの話題提供」というテーマで、AIの開発/活用に対しどのように規制をかけるべきかの論点を提示いただきました。
現在日本では「アジャイル(迅速な)なガバナンス」方法が選択されていることを示されました。これは、市場に完全に任せてしまう「規制緩和型」と、広範にわたって規制を強くかける「予防原則(規制強化)」型のいいところ取りを目指した方法であると言えます。

また、マルチ・ステークホルダーによる(企業、コミュニティ・個人の各主体が一同に参加)AIガバナンスの議論は、ガバナンス・イノベーション報告書※1)が提示するフレームワークに基づいた層構造(下記画像)を用いることで円滑に進めることができると述べました。

 

f:id:humanrightsnow:20220323123642p:plain

※1:governance innovation: Society5.0の実現に向けた法とアーキテクチャのリ・デザイン報告書

 

長島匡克氏「ビジネスと人権の枠組みからのAI倫理」

長島匡克氏は弁護士の立場から、「ビジネスと人権」の枠組み、AI倫理についてお話しくださいました。

f:id:humanrightsnow:20220323123617p:plain

 

AI倫理は人権を一つの考慮要素にしている点を強調されました。AIを開発したり利用したりする際は、人権デュー・ディリジェンスの観点を含めた人権への負の影響について特定・対処・公開する必要があることについても触れています。
また、AIガバナンスを行う際には、法律・ソフトローの規制対応だけではなく、人権を中心に据えた思考のガバナンス/イノベーションガバナンス(※2)が必要だとお話しくださいました。

 

本橋 洋介氏「AIの品質管理(倫理を含む)に関する実践」

本橋 洋介氏はメーカーの視点から「AIの品質管理(倫理を含む)に関する実践」というテーマで、AIや生体認証が生み出す人権リスクを低減するためのNECの取り組みを説明してくださいました。

f:id:humanrightsnow:20220323123550p:plain

 

具体的には、AIと人権に関するポリシーやガイドラインを策定し、AIを企画・設計、開発、導入、運用する各段階で、人権に対するリスクチェックや対策を実施しているとのことです。またポリシーやガイドラインの内容は継続的に改善しているそうです。

 

本イベントに参加したことで得られたもの

ここからはイベントに出席した筆者の考えなどをまとめています。

 

AIとは悪いものなのか? 

昨今、AIは取り扱いが難しく、人間に悪影響をもたらすといった考えに焦点が当てられる傾向があると思います。しかし、今回のイベントに登壇された3名は、一貫して「AI技術、それ自身は生活に役に立つものである」という視点を大切にされていました。
 
また、イベントの中で出てきた以下のフレーズが印象的でした。

「AIはいわば包丁やナイフと同じものです。包丁やナイフも価値中立ですが、使い方によっては人を傷つけてしまいます。」 

このフレーズが示すように、悪いAIが存在するというよりは、AI自体は価値中立である。そして使い手次第で善悪が分かれることに留意するべきだと感じます。
 
同様に、以下のフレーズも印象的でした。

「AIが包丁やナイフと異なる点は、不利益が目に見えにいということです。」 

包丁の場合目に見えやすい傷をつけますが、AIの場合は目に見えにくい傷をつけます。
 
またAIの場合は、たとえ不利益な結果であったとしても、AIが結論づけた結果だから合理的であると、人が無意識な偏見から判断してしまう可能性を孕んでいます。
 
(自分の考えと反する情報は見落としがちである「確証バイアス」、自動化された判断を過信してしまう「自動化バイアス」、そして無意識の偏見が含まれてしまう「アンコンシアスバイアス」がかかることが原因です(長島氏コメント)。)
 
AI自身には善悪はないこと、しかし、悪意がないAIの開発者や使い手がAIを用いて人権問題を生じさせてしまう可能性があること、そして、AIがもたらす人権問題は人に気づかれにくいということに留意しなければなりません。

 

AIと人権に関わる負の影響

以前、HRNのSNSにおいてもAI技術に関わる人権問題について投稿しているので、是非参考にご覧ください。

 
 
 
 
 
View this post on Instagram
 
 
 
 
 
 
 
 
 
 
 

A post shared by 認定NPO法人ヒューマンライツ・ナウ (@humanrightsnow_japan)

www.instagram.com

 

 

■偏見や差別にもとづいたサービスの提供

例えば、AI技術に関わる人権問題に関して、偏見や差別にもとづいたサービスが提供されてしまう問題があります。過去のSNS投稿でも強調している通り、AIが差別的であるというよりも、社会に存在する無意識の偏見が知らず知らずのうちにAIに反映されてしまうことが問題になっています。
 登壇者によると、これはAIを開発する際に、共通項を取り出して異常値を排除する傾向があることにも起因するとのことでした。つまり、AIを開発、利活用する際に、社会の大多数(マジョリティ)の共通項がベースとなったサービスが提供されてしまう可能性があるといえます。このことから、社会に存在する少数派(マイノリティ)の権利を保証する方法を考えなくてはなりません。

 

ケンブリッジアナリティカ事件

実際に、AIによるデータ分析が、民主主義の結果を左右したのではないのかと言われている事件もあります。ケンブリッジ・アナリティカ社は、選挙のコンサルティング会社です。2016年のイギリスの国民投票EU離脱アメリカ合衆国でのトランプが当選した大統領の選挙の際に、ケンブリッジ・アナリティカ社が違法に収集した有権者の個人データが使われ、選挙結果が操られたのではと言われています。
 
この事件についてフォーカスしたドキュメンタリーが制作されており、動画配信サービスのNetflixで公開されています。

以上の2つのケースからも、AIそのものは価値中立であるものの、AIが人間の無意識な差別意識を映し出したり、技術が正しく活用されなかったりすることがわかります。故に、AI技術がどのように企画・設計、開発、導入、運用されているのか、私たちは注意を払う必要があるのではないでしょうか。
 
またAIを効果的にガバナンスする方法も今後の焦点になると感じました。イベントの情報をもとに私が調べた内容を共有します。

 

AIをどのようにガバナンスするか?

AI技術のような技術革新に対して、どのようにガバナンスの構造を構築するかは、日本だけではなく、世界各国が抱える課題といえます。例えば、EUにおいては、ETHICS GUIDELINES FOR TRUSTWORTHYといったガイドラインが発行されています。
 
日本においては現在、法的拘束力があるハードローを用いた規制ではなく、法的拘束力のない分野横断的なガイドラインを用いた規制が取られています。この規制方法は合理的だと思います。
 
AIの技術革新のように変化が速く、画期的なイノベーションの必要性が高まっている現代においては、事前にルールを設定することにより、社会のスピードや複雑さに法が追い付けない問題が生じてしまう可能性があるからです。
 
また、イベントでも触れられましたが、日本は「間違いのない形で立法や法改正をおこなうという意識が強いためか、どうしても(法)改正に時間がかかりがち」だそうです。
総合的に判断し、「技術革新に法が追いつかない!」という弊害が生じることを防ぐため、日本ではガイドラインを用いたゴールベースの規制が基本的な方針として取られています。 

 

「人間中心のAI社会原則」 

上で説明したように日本はゴールベースの規制方式をとっています。そのゴールとして設定されているのが、「人間中心のAI社会原則」 (平成31年(2019年)3月決定)です。原文は以下からダウンロードできます。
 

  1. 人間中心の原則
  2. 教育・リテラシーの原則
  3. プライバシー確保の原則
  4. セキュリティ確保の原則
  5. 公正競争確保の原則
  6. 公平性、説明責任及び透明性の原則
  7. イノベーションの原則

が定められています。

 

マルチステークホルダーによる「アジャイル・ガバナンス」のモデル

このゴールを具体的な言葉で参照できるように、経済産業省ガイドラインを作成しています。
 
そのうちの1つが、経済産業省「Society5.0における新たなガバナンスモデル検討会」から2020年7月にだされた報告書、「GOVERNANCE INNOVATION:Society5.0の実現に向けた法とアーキテクチャのリ・デザイン」です。この報告書では、ゴールベースの法規制や、企業による説明責任の重視、インセンティブを重視したエンフォースメントなど、横断的かつマルチステークホルダーによる(企業、コミュニティ・個人の各主体も参加する)ガバナンスの在り方が描かれています。
 
2021年7月にも「GOVERNANCE INNOVATION Ver.2: アジャイル・ガバナンスのデザインと実装に向けて」報告書がとりまとめられています。ここでは、産・官・学共同で、政策ツールを作成することの重要性が述べられています。企業のガバナンスの適正性を監視するのは、政府だけでなく、多くのステークホルダーもガバナンスの担い手であり、そのエンパワメントのための方策も本報告書の中で検討されています。
 
最後に「AI 原則実践のためのガバナンス・ガイドライン Ver. 1.1」を紹介します。
本イベントでは、泉氏がAI システム開発者・運用者がとるべき「行動目標」としてこのガイドラインで示された枠組みを紹介してくださいました。企業やその影響を受けるコミュニティ・個人などのマルチ・ステークホルダーが、この「行動目標」が示すステップに沿って行動することで、継続的に政府が主導するAIの「アジャイル・ガバナンス」に関与できます。

 

AI システム開発者・運用者がとるべき「行動目標」のサイクル

以下の要素で構成されています

 

1「環境・リスク分析」:現状の理解、インパクト分析

1.1. AI システムがもたらしうる正負のインパクトを理解する

1.2.  AI システムの開発や運用に関する社会的受容を理解する

1.3. 自社の AI 習熟度を理解する

 

2「ゴール設定」

2.1. AI ガバナンス・ゴールの設定を検討する

 

3「システムデザイン」(AI マネジメントシステムの構築)

3.1. AI ガバナンス・ゴールからの乖離の評価と乖離への対応を必須プロセスとする

3.2.  AI マネジメントシステムを担う人材のリテラシーを向上させる

3.3.  適切な情報共有等の事業者間・部門間の協力により AI マネジメントを強化する

3.4. インシデントの予防と早期対応により利用者のインシデント関連の負担を軽減する

 

4「運 用」

4.1. AI マネジメントシステムの運用状況について説明可能な状態を確保する

4.2. 個々の AI システムの運用状況について説明可能な状態を確保する

4.3. AI ガバナンスの実践状況を非財務情報に位置づけて積極的な開示を検討する

 

5「評価」

5.1. AI マネジメントシステムが適切に機能しているかを検証する

5.2. 社外ステークホルダーから意見を求めることを検討する

5.3. 社外ステークホルダーから意見を求めることを検討する

 

6 環境・リスクの再分析

行動目標1-1から1-3を適時に再実施する

 

f:id:humanrightsnow:20220323155700p:plain

AI 原則実践のためのガバナンス・ガイドライン Ver. 1.1 P8より借用

 

メーカーの事例

今回のイベントで登壇いただいた本橋さんの話からは、NECがこの日本政府がガイドライン上で示しているプロセスに沿って、ゴール設定、リスク分析のサイクルを回していることがわかりました。
AI、ICT分野という開発スピードが非常に早い分野では、上で述べたように政府だけでなく企業やコミュニティ・個人もガバナンスの担い手として動かなければなりません。NECが取り組まれている責任ある企業活動は他の企業も参考にできるのではないでしょうか。
 
(参考)

 

人権デュー・ディリジェンスの考え方が大切

前述の「AI 原則実践のためのガバナンス・ガイドライン Ver. 1.1」で述べられている、AI システム開発者・運用者がとるべき「行動目標」(アジャイル・ガバナンス)は、「国連ビジネスと人権に関する指導原則」、またそれを元に改訂された「責任ある企業行動のためのOECDデュー・ディリジェンスガイダンス」で定められている人権デュー・ディリジェンスの実施ステップと重なる部分があります。現状の把握から、人権方針の策定、人権に対する負の影響の特定、その予防、軽減、そしてユーザーの人権に影響が生じた場合の救済、一連の取り組みの情報開示を求めているデュー・ディリジェンスの実施は、AI システム開発者・運用者にとっても重要な観点となると感じます。

f:id:humanrightsnow:20220323160439p:plain

責任ある企業行動のためのOECDデュー・ディリジェンスガイダンス」より借用

 

人権デュー・ディリジェンスのプロセスも、現状の把握から、人権方針の策定、人権に対する負の影響の特定、その予防、軽減、そしてユーザーの人権に影響が生じた場合の救済、一連の取り組みの情報開示を求めています。このサイクルを回して、改善を続けていくプロセスが、AI システム開発者・運用者がとるべき「行動目標」のステップと似ていると思いました。

 

おわりに

包丁やナイフの例に限らず、これまでに人間はたくさんの便利な技術を生み出し、それを利用して誰もが生活をしやすい社会を作る努力をしてきています。それらと同様、AI技術やICT技術も、人を中心に据えて倫理的に正しい(=人権に負の影響をもたらさない)開発、使用方法を守る努力をしていくべきだと思います。その際に、国連「ビジネスと人権に関する指導原則」で定められている人権デュー・ディリジェンスの考え方が役に立つと思います。
今後もヒューマンライツ・ナウは、ビジネスと人権に関するダイアローグの開催、調査報告や政策提言を続けてまいります。ぜひこれからもご支援、ご協力のほどよろしくお願いいたします。
 
(文責:羽星有紗