※本稿は、WAICF 2024で開催された「AI Ethics in Action: From Principles to Practice」というパネルディスカッションの内容を要約したものです。
1. はじめに
1.1 パネリストの紹介
WAICF 2024で開催された「AI Ethics in Action: From Principles to Practice」というパネルディスカッションは、AI倫理の実践に焦点を当てたものでした。モデレーターを務めたのは、ヨーロッパ第一位の科学技術パークであるソフィア・アンティポリスの国際関係責任者、フィリップ・マラーニ氏です。
パネリストには以下の3名の専門家が参加しました:
- フランチェスカ・ロッシ氏:
- イタリア出身のコンピューターサイエンティスト
- 22年間の学術キャリアの頂点で、パドヴァ大学のコンピューターサイエンス分野の正教授職を休職
- ハーバード大学ラドクリフ研究所で1年間過ごした後、IBMに加入
- 国際人工知能合同会議(IJCAI)の会長
- 人工知能研究ジャーナルの編集主幹
- IBMフェローおよびIBMのAI倫理グローバルリーダー
- ニューヨークのTJワトソンIBM研究所で勤務
- 「AIの進歩を通じて人間をより良くすることが究極の目標」という信念を持つ
- ヨハニ・オトナム氏:
- Credo AIの事業戦略・開発責任者
- Credo AIは、全業界にわたる責任あるAIの実用化において世界をリードする企業
- 最近まで、イケア(IKEA)のアルゴリズムおよびAI倫理のグローバル責任者を務めた
- EU AI法への企業の対応支援と、AIへの継続的な投資を自信を持って行えるよう支援することに尽力
- フロリアン・マルティン=バリエール氏:
- ハーバード大学バークマン・クライン・インターネット&ソサエティセンターの教員連携研究員
- オタワ大学の技術社会学研究教授
- オタワ大学のAI社会イニシアチブの責任者
- 法学・技術・社会センターの所長
- 技術政策の分野で国際的に認められた思想的リーダー
- デジタル時代における権利と自由を保護し、より安全で包括的な社会を構築するためのフレームワーク形成に取り組む
1.2 AI倫理の実践の重要性
このパネルディスカッションの主題である「AI Ethics in Action: From Principles to Practice」は、AI倫理の原則を実際の行動に移すことの重要性を強調しています。パネリストたちの多様な経歴と専門性は、AI倫理が技術、ビジネス、法律、社会など多岐にわたる分野に深く関わっていることを示しています。
フランチェスカ・ロッシ氏の「AIの進歩を通じて人間をより良くすることが究極の目標」という信念は、AI倫理が単なる技術的な問題ではなく、人間社会の改善を目指すものであることを示唆しています。
ヨハニ・オトナム氏のキャリアは、AI倫理が企業戦略の重要な一部となっていることを反映しています。特に、EU AI法への対応支援という役割は、AI倫理が法的コンプライアンスと密接に関連していることを示しています。
フロリアン・マルティン=バリエール氏の研究分野は、AI倫理が技術政策、法律、社会学など広範な分野と深く結びついていることを示唆しています。デジタル時代における権利と自由の保護という視点は、AI倫理が社会の根本的な価値観と直結していることを強調しています。
このパネルディスカッションは、AI倫理の原則を実践に移す過程での課題や具体的な取り組みについて議論を深めることを目的としています。AI技術の急速な発展とそれに伴う倫理的問題の複雑化が進む中、企業、政府、学術界、市民社会など、多様なステークホルダーの協力が不可欠であることが示唆されています。
2. AI倫理の原則から実践へ:フランチェスカ・ロッシ氏
2.1 企業におけるAI倫理の実装
2.1.1 IBMの事例: AI倫理ボードの設立と運営
IBMでのAI倫理の実装プロセスは、一朝一夕には進まない長期的な取り組みです。私が25年以上のアカデミアでの経験を経てIBMに加わってから8年が経ちましたが、この間、企業文化の変革、開発者の意識改革、既存のプロセスとの統合など、多くの課題に直面してきました。
我々の取り組みは、AI倫理に関する議論グループから始まりました。これが進化して、現在ではAI倫理ボードと呼ばれる中央集権的なガバナンス機関となっています。このボードは、企業全体のAI倫理に関する分散型ガバナンスを担当しており、その役割は多岐にわたります。
高レベルの原則の定義から始まり、それを実現するためのフレームワークの構築、焦点を当てるトピックの構造化、そして企業が行うその他のすべての活動までカバーしています。具体的には、教育資料の作成、開発者向けのプレイブック、技術的なツール、リスク評価フレームワーク、他のステークホルダーとのパートナーシップなどを行っています。
AI倫理ボードの進化過程で学んだ重要な教訓の一つは、中央集権的なガバナンス機関の重要性です。当初、このボードは単なる助言機関でしたが、企業内での影響力が限られていることがわかり、完全な意思決定機関に変更されました。現在では、ボードがある取引をAI倫理の観点から承認しない場合、その取引は締結できないという強い権限を持っています。
また、ガバナンス機関のメンバーを企業の階層の高いレベルに位置付けることも重要です。これにより、コスト削減だけでなく、社会的影響、クライアントへの価値提供、クライアントの信頼、ブランド価値など、より広範な観点からAI倫理を考慮することができます。
我々のAI倫理ボードは内部のみで構成されており、研究部門、製品部門、ソフトウェア部門、コンサルティング部門、マーケティング部門、政府関係部門、コミュニケーション部門など、企業のすべての部門の代表者が含まれています。外部の諮問委員会は設置せず、代わりにパートナーシップを通じて外部のエコシステムと交流しています。
2.1.2 倫理原則の策定プロセス
倫理原則の策定プロセスにおいて、技術的解決策と文化的変革のバランスを取ることが重要です。技術企業としては、AIの問題をより多くのAIやソフトウェアツールで解決しようとする傾向がありますが、これは容易な部分にすぎません。
我々は定期的にデータやアルゴリズムのバイアスを検出し軽減するツールを使用していますが、最も重要なのは開発チームの文化を変えることです。開発者チームを多様化し、互いのバイアスを発見できるようにすることが重要です。つまり、ツールを正しく使用するには文化の変革が必要なのです。
また、IBMのB2Bビジネスモデルにおいては、クライアントからの圧力も倫理原則の策定に重要な役割を果たしています。銀行、金融機関、政府、病院、空港など、規制の厳しい環境で運営される大企業が我々のクライアントです。これらのクライアントは、提供される技術が差別を生み出さないこと、適切にプライバシーを保護していることなどを要求します。
このような外部からの圧力は、AI倫理への注力が利益や事業価値と相反するものではなく、むしろ同じ方向に向かっていることを企業に理解させる助けとなっています。
倫理原則の策定は、既存の企業価値を基盤としつつ、AI特有の課題に対応するよう進化させていく継続的なプロセスです。我々は、自律型兵器や大規模監視システム、人々の自由を制限するようなアプリケーションには技術を使用しないなど、具体的な声明を発表しています。
これらの原則は、教育、実際の意思決定プロセス、リスク評価フレームワークなどに組み込まれ、日々の業務の中で実践されています。また、新しい技術の出現や社会の期待の変化に応じて、常に見直しと更新を行っています。
2.2 AI倫理の課題と解決策
2.2.1 技術的解決vs文化的変革
技術企業の視点から見ると、AIに関連する問題が発生した場合、その解決策としてより多くのAIやソフトウェアツールを導入しようとする傾向があります。これは、少なくとも当初は自然な反応です。例えば、AIが差別を引き起こしたり、プライバシーを適切に尊重しないなどの問題が発生した場合、技術的な解決策を探ろうとします。
私たちIBMでは、確かにソフトウェアツールは非常に重要だと考えています。データやアルゴリズムのバイアスを検出し軽減するためのツールを定期的に使用しています。しかし、これらは比較的容易に実装できる部分に過ぎません。
最も重要なのは、開発チームの文化を本当に変えることです。開発者チームを多様化し、互いのバイアスを発見できるようにすることが重要です。つまり、ツールを正しく使用するためには、文化の変革が必要なのです。
この文化的変革の一例として、私たちが直面した課題をお話しします。私たちは「AI倫理バイデザイン」というプロセスを定義しました。これは、AI解決策の生成の各段階でAI倫理を統合することを意味します。しかし、当初はこのプロセスが企業内で100%採用されることはなく、50%にも満たない状況でした。
なぜこのようなことが起こったのでしょうか。私たちは、開発者たちが既存のプロセス、例えば「プライバシーバイデザイン」や「セキュリティバイデザイン」には慣れているものの、日々の業務でこれらのプロセスを使用する際に、新たに「AI倫理バイデザイン」を追加するよう求められると、それを余分な負担と感じてしまうことに気づきました。
そこで、私たちはこれらのプロセスを完全に統合することにしました。プライバシー、セキュリティ、AI倫理に関するすべての指示を、私たちの指示と共に一つの統合されたプロセスにまとめたのです。この統合なしには、ボードの指示を全チームに実際に実装させることに苦労していたでしょう。これが、私たちが直面した一つの大きな課題でした。
2.2.2 開発者教育の重要性
開発者教育は、AI倫理を実践する上で極めて重要な要素です。IBMでは、すべての従業員向けの内部教育モジュールを用意しています。開発者向けにはより詳細なモジュールがありますが、実はAI倫理教育はすべてのIBM従業員を対象としています。
例えば、毎年必須で受講する「ビジネス行動ガイドライン」コースの中に、AI倫理に関するセクションを設けています。これは比較的軽量な内容ですが、AI倫理の基本的な考え方を全従業員に浸透させる上で重要な役割を果たしています。
さらに、私たちは外部向けの教育にも取り組んでいます。例えば、Courseraと協力してAI倫理に関するコースを作成しました。
しかし、私が強調したいのは、AI倫理教育は企業内だけでなく、より広範な教育システム全体で行われるべきだということです。規制当局や企業は重要な役割を果たしますが、大学などの教育機関も同様に重要です。
新世代、つまり将来の開発者やAIの専門家となる人々が、AI倫理を付随的なものではなく、AIの不可欠な一部として学ぶことが重要です。AIはもはや単なる科学技術ではなく、社会技術的な科学分野となっています。この認識が次世代のAI教育に反映されるべきです。
つまり、AI倫理はAIとは別個のものではなく、AIに内在するものとして教育されるべきなのです。時間があれば括弧書きで付け加えるような付随的なものではなく、AIを学ぶ際の不可欠な一部として扱われるべきです。次世代のAI教育には、この社会技術的な科学分野としてのAIの性質が反映されるべきだと考えています。
3. AI倫理の規制と法的枠組み
3.1 EU AI法の概要と影響:フランチェスカ・ロッシ氏
EU AI法は、2021年4月に最初の草案が発表されて以来、大きな変革を遂げてきました。この法案は、いわば「地震」のような変化を経験しました。特に、2年半にわたる議論の中で生成AIが登場したことが大きな影響を与えています。
当初のEU AI法は、非常にクリーンで明確なアプローチを取っていました。これは製品規制に似たアプローチで、AIの使用事例、つまり目的を持つAIシステムに焦点を当てていました。法案では、これらの使用事例やドメインに4つのリスクレベルを設定していました。
一部の使用は受け入れがたいリスクとされ、欧州では許可されません。高リスクとされる多くの使用事例には多くの義務が課され、特にこれらの高リスク状況で使用されるAIは「信頼できるAI」と呼ばれます。この「信頼できるAI」には7つの要件があり、これらは私も参加していた高レベル専門家グループが2年前に定義したものです。さらに、一部の低リスクな使用事例には透明性の義務が課されています。
しかし、生成AIの出現により、この明確なアプローチに変化が生じました。現在のAI法案では生成AI(法案では「汎用AI」と呼ばれています)が含まれており、これにより法案の焦点が若干シフトしました。従来は、リスクは一般的に使用事例に関連付けられていましたが、生成AIのような非常に強力なシステムについては、将来的には技術そのものにリスクが関連付けられる可能性があるとされています。
これは「システミックリスク」と呼ばれ、その技術をどのように使用するかに関わらず、リスクがあると考えられています。私個人としては、これはあまりクリーンなアプローチではないと考えています。なぜなら、この技術を展開しようとする企業に多くの不確実性をもたらすからです。
さらに、システミックリスクをどのように定義するかも明確ではありません。EU AI法では、計算能力の閾値(FLOPSの数)を超えるシステムはシステミックリスクを持つとされていますが、これはバイデン大統領の行政命令でも同様の基準が使われています。しかし、私の見解では、これは適切な定義ではありません。
現在のシステムでも、ある面では危険な可能性がありますが、将来的にはより強力なシステムが使用される技術によってはるかに安全になる可能性もあるからです。
全体として、我々は規制を支持し、EU AI法を支持していますが、私の個人的な見解としては、生成AIの導入によってこの法案はややハイブリッドな性質を帯び、当初のクリーンなアプローチが失われた面があります。しかし、この規制に生成AIを含める必要があったことは理解しています。
3.2 AI規制の地域間差異:フロリアン・マルティン=バリエール氏
AI規制に関しては、世界中で一様なアプローチを期待することはできません。例えば、欧州と米国の間でさえ、アプローチは全く異なります。GDPRの例を見てみましょう。人々はGDPRがデータ保護とデータ処理に関するゴールドスタンダードになったと考えがちですが、これは原則的には真実です。EUとビジネスを行いたい人々は基準を引き上げざるを得なませんでした。
しかし、GDPRにはもう一つの側面があります。これはAI法にも当てはまる可能性がありますが、GDPRは主にコンプライアンスのフレームワークとなっています。大企業やスタートアップの人々と話すと、ほとんどの場合、チェックボックスのついたフォームを埋めることに終始しています。
フランチェスカが言及したような、AIシステムや今日のあらゆる技術を開発する際に必要な会話が行われていません。開発の初期段階から、ユーザー、マーケットプレイス開発者、社会科学者、倫理学者などが参加して議論を行う必要があります。IBMではそうしているようですが、多くの場合、製品を市場に出す直前になって初めてこのような議論が行われ、問題が発生してしまいます。
スタートアップにとっては、このような情報を持つことが非常に重要です。彼らはシステムやツールを調達するだけの顧客であり、AI法が最終的に施行された際には、必要な文書や責任のフレームワークを提供することで、このような安全策が確保されることになります。
3.3 技術進化と法規制のギャップ:フランチェスカ・ロッシ氏
EU AI法の不完全さについて言及する必要があります。世界で初めて、一つの国ではなく地域全体がAIを規制しようとしている試みです。常に進化し続ける技術に対して法律を作ることは非常に困難です。
EU AI法の議論は、たとえまだ承認されていなくても、欧州の境界を越えて影響を与えています。米国やその他の地域でも議論を喚起しています。何が適切なアプローチなのか、草案に何が書かれているのかなどについて議論が行われています。
AIに関する法律を作ることが非常に困難である理由は主に二つあります。一つは、AIが急速に進化しているのに対し、法律はそれほど迅速に進化しないからです。もう一つの理由は、生成AIや基盤モデルの出現により、AIの価値チェーンが大幅に長くなったことです。
基盤モデルのためのデータ収集から最終的なソリューションまで、多くのアクターが関与するようになりました。そのため、誰が責任を負うべきか、誰が全体的なパスの信頼性と安全な適用を確保する義務を負うべきかを理解することが非常に困難になっています。
以前は、AIシステムのプロバイダーとユーザーがいるだけでした。しかし今では、次々と異なるものを提供する一連の異なるアクターが存在し、最終的なソリューションに到達します。そのため、EU AI法では、上流の段階から下流の段階まで、開示と透明性の義務が課されています。高リスクな使用の場合、これらの義務が適用されます。
フロリアン・マルティン=バリエール氏:EU AI法の新バージョンでは、特定の技術に焦点を当てすぎているという問題があります。通常、新しい技術を規制する際のグローバルな慣行は、使用事例に焦点を当てることでした。データ保護の場合も同様です。
しかし、AI法では特定の技術に焦点を当てるというシフトが見られます。法案の中で、これらの技術がどのように定義されているかについて多くの議論があります。ある時点で、市民からのスキャンダルや懸念が多く寄せられたため、政府はAI法にこれらの技術を含めることで市民を保護していることを示そうとしたのだと思います。
AI法の大きな目的は、EU内部市場を開放し規制することです。市民と人権を保護することが主目的ではありません。しかし、政策立案者たちは公衆に対して、これが市民を保護するためのものだというメッセージを伝えています。
そのため、非常に具体的な内容が含まれていますが、法案が適用される頃には時代遅れになっている可能性があります。このような複雑な枠組みを読むと、法学の教授である私でさえ、正確に何を意味しているのか理解するのが難しい文章があります。
すべての加盟国がこれを解釈し、独自のツールを開発しなければならないと考えると、スタートアップにとっては非常に不確実な状況です。さらに、欧州委員会から得られる最初の情報によると、有名な「AI事務所」は完全な規制当局ではなく、ある種の権限を委譲された事務所になるようです。欧州委員会内のAIに関する異なる部署を統合することもないでしょう。
したがって、イノベーションにとってはあまり好ましくありません。EU AI法の実施について、欧州委員会から10の異なるアプローチが出てくる可能性があるからです。これは、スタートアップにとって大きな課題となるでしょう。
4. AI倫理の実践における具体的事例
4.1 IBMの取り組み:フランチェスカ・ロッシ氏
4.1.1 AI倫理バイデザインの導入とその課題
IBMでのAI倫理の実践について、具体的な事例をお話しします。私たちは「AI倫理バイデザイン」というプロセスを定義しました。これは、AI解決策の生成の各段階でAI倫理を統合することを意味します。しかし、このプロセスの導入には大きな課題がありました。
当初、このプロセスの採用率は非常に低く、企業全体で100%どころか50%にも満たない状況でした。なぜこのようなことが起こったのか、私たちは深く分析しました。その結果、開発者たちが既存のプロセス、例えば「プライバシーバイデザイン」や「セキュリティバイデザイン」には慣れているものの、日々の業務でこれらのプロセスを使用する際に、新たに「AI倫理バイデザイン」を追加するよう求められると、それを余分な負担と感じてしまうことがわかりました。
この問題に対処するため、私たちは大きな変更を行いました。プライバシー、セキュリティ、AI倫理に関するすべての指示を、私たちの指示と共に一つの統合されたプロセスにまとめたのです。この統合なしには、ボードの指示を全チームに実際に実装させることに苦労していたでしょう。これが、私たちが直面した一つの大きな課題でした。
この統合プロセスの導入は、AI倫理の実践において重要な転換点となりました。開発者たちは、AI倫理を別個の追加タスクとしてではなく、日常的な開発プロセスの自然な一部として捉えるようになりました。例えば、アルゴリズムの設計段階で、公平性や透明性といった倫理的考慮事項を自動的に組み込むようになりました。
また、この統合プロセスにより、チーム間のコミュニケーションも改善されました。AI開発者、プライバシー専門家、セキュリティ専門家が、プロジェクトの初期段階から協力して作業を行うようになりました。これにより、潜在的な倫理的問題をより早い段階で特定し、対処することが可能になりました。
4.1.2 社内教育プログラムの展開
AI倫理の実践において、社内教育は極めて重要な役割を果たしています。IBMでは、すべての従業員を対象とした包括的な教育プログラムを展開しています。
まず、全従業員向けの内部教育モジュールがあります。開発者向けにはより詳細なモジュールがありますが、AI倫理教育はすべてのIBM従業員を対象としています。これは、AI倫理が技術部門だけの問題ではなく、企業全体で取り組むべき課題であるという認識に基づいています。
例えば、毎年必須で受講する「ビジネス行動ガイドライン」コースの中に、AI倫理に関するセクションを設けています。これは比較的軽量な内容ですが、AI倫理の基本的な考え方を全従業員に浸透させる上で重要な役割を果たしています。このコースでは、AI倫理の基本原則、IBMのAI倫理に関する立場、そして日々の業務でAI倫理を考慮することの重要性について学びます。
開発者向けには、より詳細で技術的な教育プログラムを用意しています。このプログラムでは、データのバイアス検出と軽減、公平なアルゴリズムの設計、AI決定の説明可能性の確保など、具体的なスキルの習得に焦点を当てています。また、倫理的ジレンマに直面した際の意思決定プロセスについても学びます。
さらに、私たちは外部向けの教育にも取り組んでいます。例えば、Courseraと協力してAI倫理に関するコースを作成しました。このコースは、IBMの従業員だけでなく、世界中の学生や専門家が利用できるようになっています。これは、AI倫理の重要性を広く社会に浸透させるための取り組みの一環です。
しかし、私が強調したいのは、AI倫理教育は企業内だけでなく、より広範な教育システム全体で行われるべきだということです。規制当局や企業は重要な役割を果たしますが、大学などの教育機関も同様に重要です。
新世代、つまり将来の開発者やAIの専門家となる人々が、AI倫理を付随的なものではなく、AIの不可欠な一部として学ぶことが重要です。AIはもはや単なる科学技術ではなく、社会技術的な科学分野となっています。この認識が次世代のAI教育に反映されるべきです。
つまり、AI倫理はAIとは別個のものではなく、AIに内在するものとして教育されるべきなのです。時間があれば括弧書きで付け加えるような付随的なものではなく、AIを学ぶ際の不可欠な一部として扱われるべきです。次世代のAI教育には、この社会技術的な科学分野としてのAIの性質が反映されるべきだと考えています。
この包括的なアプローチにより、IBMではAI倫理が企業文化の一部となり、日々の意思決定に自然に組み込まれるようになっています。これは長期的なプロセスですが、AI技術が社会に与える影響の大きさを考えると、避けて通れない重要な取り組みだと確信しています。
4.2 他企業の事例:ヨハニ・オトナム氏
4.2.1 Ikeaのデジタル倫理ポリシー策定プロセス
Ikeaでのデジタル倫理ポリシー策定プロセスについて、私の経験を詳しく共有させていただきます。このプロセスは、組織の深い理解と現代的な課題への適応を両立させる取り組みでした。
まず、Ikeaグループのデジタル倫理ポリシーを設計する際、私たちは組織の既存の価値観から出発しました。Ikeaは80年以上の歴史を持つ組織であり、その価値観は長年にわたって形成され、深く根付いています。これらの価値観は、単なる言葉ではなく、組織の DNA の一部となっています。
私たちのアプローチは、まずこれらの既存の価値観を深く理解することから始まりました。Ikeaの創業以来の理念、例えば「より多くの人々のためによりよい暮らしを創造する」というビジョンや、「民主的なデザイン」の概念などを、デジタル時代においてどのように解釈し、適用できるかを検討しました。
具体的には、デジタル時代における価値観の意味を探り、どの程度まで既存の価値観を前進させ、どの部分を新たに付け加える必要があるかを慎重に検討しました。例えば、Ikeaの「資源の効率的な利用」という価値観は、データの収集と使用に関する方針にどのように反映させるべきか、議論を重ねました。
このプロセスでは、組織の80年の歴史を持つ価値観を出発点としながらも、それらを現代的で関連性のあるものにする必要がありました。既存の価値観の一部を微調整するだけで十分な場合もありましたが、AIやビッグデータの倫理的使用など、完全に新しい要素を導入する必要がある場合もありました。
私たちは、様々なステークホルダーを巻き込んだ包括的なアプローチを採用しました。経営陣、IT部門、法務部門、人事部門、さらには店舗スタッフなど、組織の様々なレベルの従業員との対話を通じて、デジタル倫理に関する彼らの懸念や期待を聞き取りました。
また、外部の専門家や倫理学者との協議も行いました。彼らの知見は、私たちの内部的な視点を補完し、より包括的なポリシーの形成に貢献しました。さらに、顧客との対話セッションも開催し、Ikeaのデジタルサービスに対する彼らの期待や不安を直接聞く機会を設けました。
私たちの目標は、組織の基本的な価値観に基づきながらも、現代の課題に対応できるデジタル倫理ポリシーを作成することでした。このアプローチにより、ポリシーが組織文化に深く根ざしたものとなり、従業員にとっても理解しやすく、適用しやすいものになりました。
最終的に策定されたデジタル倫理ポリシーには、プライバシーの尊重、データの透明性、アルゴリズムの公平性、持続可能なデジタル実践など、具体的な指針が含まれています。例えば、顧客データの収集と使用に関しては、必要最小限のデータのみを収集し、その目的を明確に説明することを義務付けました。
ポリシーの実装においては、段階的なアプローチを採用しました。まず、パイロットプロジェクトを通じてポリシーの実効性を検証し、その結果に基づいて必要な調整を行いました。その後、全社的な展開を進め、各部門でのポリシーの解釈と適用をサポートするためのガイドラインを作成しました。
また、このポリシーを単なる文書に終わらせないために、継続的な教育とモニタリングのプログラムも導入しました。全従業員を対象としたデジタル倫理研修を実施し、特にAIやデータ分析に携わる従業員には、より詳細な倫理トレーニングを提供しています。
このプロセスを通じて、私たちは単に外部のベストプラクティスを採用するのではなく、組織の独自性を反映したポリシーを作成することの重要性を学びました。また、このアプローチは、デジタル倫理ポリシーを組織全体に浸透させる上でも効果的でした。
Ikeaの事例は、伝統的な企業がどのようにデジタル時代の倫理的課題に対応できるかを示しています。既存の価値観を基盤としつつ、新しい技術やビジネスモデルがもたらす課題に適応することが可能であることを実証しました。この経験は、他の企業にとっても、自社の価値観に基づいたデジタル倫理ポリシーを策定する際の参考になるのではないかと考えています。
5. AI倫理の将来展望
5.1 教育システムの変革の必要性:フランチェスカ・ロッシ氏
AI倫理の将来を考える上で、教育システムの変革は避けて通れない重要な課題です。私たちIBMでの経験から、AI倫理教育は企業内だけでなく、より広範な教育システム全体で行われるべきだと強く感じています。
規制当局や企業は重要な役割を果たしていますが、大学などの教育機関も同様に重要です。新世代、つまり将来の開発者やAIの専門家となる人々が、AI倫理を付随的なものではなく、AIの不可欠な一部として学ぶことが重要です。
AIはもはや単なる科学技術ではなく、社会技術的な科学分野となっています。この認識が次世代のAI教育に反映されるべきです。具体的には、AI倫理はAIとは別個のものではなく、AIに内在するものとして教育されるべきです。時間があれば括弧書きで付け加えるような付随的なものではなく、AIを学ぶ際の不可欠な一部として扱われるべきです。
私たちIBMでは、全従業員向けの内部教育モジュールを用意しています。開発者向けにはより詳細なモジュールがありますが、AI倫理教育はすべてのIBM従業員を対象としています。例えば、毎年必須で受講する「ビジネス行動ガイドライン」コースの中に、AI倫理に関するセクションを設けています。
さらに、私たちは外部向けの教育にも取り組んでいます。例えば、Courseraと協力してAI倫理に関するコースを作成しました。これらの取り組みは、AI倫理教育の重要性を広く社会に浸透させるための一歩です。
次世代のAI教育には、この社会技術的な科学分野としてのAIの性質が反映されるべきだと考えています。これは、技術的なスキルだけでなく、倫理的思考力や社会的影響の理解も含めた包括的な教育アプローチを意味します。
5.2 多様なステークホルダーの関与:ヨハニ・オトナム氏
AI倫理の実践において、多様なステークホルダーの関与は不可欠です。EUのAI規制は、単独で存在しているわけではありません。より大きな動きの一部であり、デジタル社会における欧州の価値観を守るための取り組みの一環です。
GDPR、EU AI法、データ法、DSA、DMA、データガバナンス法など、一連の法律が社会を正しい方向に導くために制定されています。これらの規制は、単なる遵守のためのものではなく、技術を良い意図で使用するという精神を植え付けるためのものです。
規制は一定のステップを踏むだけですが、その先には基準や最良の実践があります。これらの層を包含するまでには何年もかかるでしょうが、最小限の要求を満たすことではなく、良い実践とは何かを考えることが重要です。
私たちは、上向きのスパイラルを作り出すことを目指すべきです。つまり、単にコンプライアンス機能として最小限の要求を満たすのではなく、常により良い方向を目指し、倫理的な実践を継続的に改善していく必要があります。
この過程では、技術開発者、企業、政策立案者、学術機関、市民社会組織など、様々なステークホルダーの協力が不可欠です。各ステークホルダーが持つ独自の視点や専門知識を共有し、互いに学び合うことで、より包括的で効果的なAI倫理の枠組みを構築できるでしょう。
また、AI倫理の議論は継続的なプロセスであるべきです。技術の急速な進化に伴い、新たな倫理的課題が常に生まれるため、定期的に対話の場を設け、ポリシーや実践を見直し、更新していく必要があります。
5.3 市民のAIリテラシー向上の重要性:フロリアン・マルティン=バリエール氏
AI倫理の将来を考える上で、市民のAIリテラシー向上は極めて重要な課題です。私たちの研究から、社会全体でAIに関する理解を深めることが、責任あるAI開発と利用の基盤となることがわかっています。
特に重要なのは、AI技術が選挙や世論形成に与える影響を理解することです。これは健全な民主主義の維持に不可欠です。2024年に予定されている多くの選挙を控え、AIによる偽情報の拡散やマイクロターゲティングの影響を理解し、それに対抗する能力を市民が持つことが重要です。
AIリテラシー向上は、単に技術的な知識を広めることではありません。それは、AIが社会にもたらす機会とリスクを批判的に評価し、個人と社会全体の利益のためにAIを賢明に活用する能力を育成することです。
具体的には、AIシステムの基本的な仕組みや可能性、そして限界を理解する能力が必要です。これには、AIが日常生活にどのように影響を与えているかを認識し、AIの決定や推奨に対して批判的に考える能力も含まれます。
また、AIリテラシーには、プライバシーと個人データの保護に関する理解も含まれます。市民が自身のデータがどのように収集され、使用されているかを理解し、適切に管理できるようになることが重要です。
さらに、AIが雇用市場に与える影響についての理解も必要です。多くの職業が変化しつつある中で、市民がこれらの変化に適応し、新たなスキルを習得する必要性を理解できるようになることが重要です。
AIリテラシー向上のためには、学校教育、成人教育、メディアを通じた啓発活動など、多面的なアプローチが必要です。また、企業や技術開発者の側も、AIシステムの透明性を高め、その仕組みや影響をわかりやすく説明する責任があります。
この取り組みは、AI倫理の実践を社会全体で支える基盤となり、より公正で包括的なAIの発展につながるでしょう。市民がAIについて十分な知識を持ち、批判的に評価できるようになることで、AIの開発と利用に関する社会的な対話がより豊かになり、結果として、より責任あるAIの発展につながると考えています。
6. AI倫理における課題と懸念事項
6.1 技術の急速な進化と倫理的考慮のバランス:フランチェスカ・ロッシ氏
AI技術の急速な進化は、倫理的考慮とのバランスを取る上で大きな課題を生み出しています。特に生成AIの出現により、この課題はより顕著になりました。EU AI法の策定過程を例に取ると、生成AIの登場により、当初の明確なアプローチに大きな変化が生じました。
EU AI法は2021年4月に最初の草案が発表されて以来、いわば「地震」のような変化を経験しました。当初のバージョンでは、現在「汎用AI」と呼ばれている生成AIについては言及されていませんでした。しかし、その後の2年半の議論の中で、生成AIが法案に含まれるようになりました。
従来は、リスクは一般的に使用事例に関連付けられていましたが、生成AIのような非常に強力なシステムについては、将来的には技術そのものにリスクが関連付けられる可能性が出てきました。これは「システミックリスク」と呼ばれ、その技術をどのように使用するかに関わらず、リスクがあると考えられています。
しかし、私個人としては、これはあまりクリーンなアプローチではないと考えています。なぜなら、この技術を展開しようとする企業に多くの不確実性をもたらすからです。
さらに、システミックリスクをどのように定義するかも明確ではありません。EU AI法では、計算能力の閾値(FLOPSの数)を超えるシステムはシステミックリスクを持つとされていますが、これはバイデン大統領の行政命令でも同様の基準が使われています。しかし、私の見解では、これは適切な定義ではありません。
現在のシステムでも、ある面では危険な可能性がありますが、将来的にはより強力なシステムが使用される技術によってはるかに安全になる可能性もあるからです。つまり、単純に計算能力だけでリスクを判断することは適切ではないと考えています。
全体として、我々は規制を支持し、EU AI法を支持していますが、私の個人的な見解としては、生成AIの導入によってこの法案はややハイブリッドな性質を帯び、当初のクリーンなアプローチが失われた面があります。しかし、この規制に生成AIを含める必要があったことは理解しています。
6.2 文化的差異とグローバルな倫理基準の調和:フロリアン・マルティン=バリエール氏
AI倫理におけるもう一つの重要な課題は、文化的差異とグローバルな倫理基準の調和です。倫理観は文化によって大きく異なり、これがAI倫理の統一的なアプローチを困難にしています。
例えば、プライバシーの概念一つをとっても、欧州と北米では大きく異なります。GDPRの例を見てみると、人々はGDPRがデータ保護とデータ処理に関するゴールドスタンダードになったと考えがちですが、これは原則的には真実です。EUとビジネスを行いたい人々は基準を引き上げざるを得ませんでした。
しかし、GDPRにはもう一つの側面があります。これはAI法にも当てはまる可能性がありますが、GDPRは主にコンプライアンスのフレームワークとなっています。大企業やスタートアップの人々と話すと、ほとんどの場合、チェックボックスのついたフォームを埋めることに終始しています。
さらに、表現の自由の概念も欧州内の国々の間でさえ異なります。これらの差異は、AI倫理に関するグローバルな基準を設定する際に大きな障害となっています。
また、AI倫理原則の多くが北半球、特に欧州や北米から発信されているという事実も無視できません。アフリカ、アジア、ラテンアメリカなどの地域の視点が十分に反映されていない可能性があります。
これらの課題に対処するためには、より包括的で多様な視点を取り入れたAI倫理の議論が必要です。異なる文化圏の倫理専門家、政策立案者、技術者が対話を重ね、共通点を見出しつつ、文化的差異を尊重する方法を模索する必要があります。
6.3 AI倫理の「ダークサイド」への対応:フィリップ・マラーニ氏(モデレーター)
AI倫理の議論において、しばしば見過ごされがちなのが、いわゆる「ダークサイド」への対応です。AI技術は善意で開発されても、悪用される可能性があることを常に念頭に置く必要があります。
例えば、自律型兵器や大規模監視システムなど、人々の自由を制限するようなアプリケーションへのAI技術の応用は、倫理的に大きな懸念事項です。IBMのフランチェスカ・ロッシ氏が言及したように、IBMは数年前に、自律型兵器や大規模監視システム、人々の自由を制限するようなアプリケーションには自社の技術を使用しないという明確な声明を出しました。
これらの「ダークサイド」への対応は、技術的な解決策だけでは不十分で、社会的、法的、倫理的な対応が必要です。例えば、技術の悪用を防ぐための法規制の整備や、技術者の倫理教育の強化などが考えられます。
また、AI技術の開発者や企業は、自社の技術が悪用される可能性を常に考慮し、そのリスクを最小限に抑えるための対策を講じる責任があります。これには、技術的な安全措置の導入だけでなく、技術の使用に関する明確なガイドラインの策定や、ユーザーへの倫理的な使用の啓発なども含まれます。
AI倫理の実践において、これらの課題に継続的に取り組むことが重要です。技術の進化、文化的差異、悪用の可能性といった複雑な要因を考慮しながら、バランスの取れたアプローチを模索し続ける必要があります。これは容易な課題ではありませんが、AI技術が社会に与える影響の大きさを考えると、避けて通れない重要な取り組みです。
特に、2024年に予定されている多くの選挙を控え、AIによる偽情報の拡散やマイクロターゲティングの影響など、民主主義への潜在的な脅威に対処することが急務となっています。これらの課題に対応するためには、技術的な対策だけでなく、市民のAIリテラシー向上や、政策立案者、技術者、倫理学者などの多様なステークホルダーによる継続的な対話と協力が不可欠です。