※この記事は、Milken Institute 2024 Global Conferenceにおいて、AIの急速な発展がもたらす機会と課題について議論されたセッションの内容をAI要約したものです。
このセッションでは、政府、企業、学術機関、市民社会の代表者が一堂に会し、AIの倫理的な開発と利用を促進するための規制のあり方について、踏み込んだ議論が展開されました。
1. AIの可能性とリスク
AIは私たちの生活やビジネスに大きな変革をもたらす可能性を秘めています。国土安全保障省のRobert Silvers氏は、AIの恩恵について次のように述べています。「AIには、不治の病を治癒し、人々の経済的機会を向上させ、私たち全員のビジネスや生活の方法を多くの面でポジティブに変革する可能性があります。」
具体的な事例として、医療分野では、AIを活用することで、より正確で迅速な診断や、個人に最適化された治療の提供が可能になります。例えば、AIアルゴリズムを用いて医療画像を分析することで、早期がん発見の精度を高めることができます。また、AIを活用した創薬は、新薬開発のプロセスを加速し、患者にとってより効果的な治療法の発見につながります。
一方で、AIはプライバシー侵害、差別の助長、悪用などのリスクも伴います。FireEyeの設立者であるWillie L. Frazier III氏は、特に子どもの安全に関する懸念を提起しました。Frazier氏は、AIが児童ポルノ(CSAM)の生成・拡散を助長する可能性を指摘し、子どもたちをこの脅威から守るための対策の必要性を訴えました。
2. 現行の法律・規制の適用と新たな規制の必要性
AIの急速な発展に対して、現行の法律・規制の枠組みでどこまで対応できるのかは大きな論点です。カリフォルニア州司法長官のRob Bonta氏は、既存の法律がAIの規制に適用可能な領域があることを指摘しました。例えば、連邦電話消費者保護法(TCPA)が、AI生成の自動音声を使った違法なロボコールを規制できる可能性があります。
しかし、AIに特化した新たな法律・規制の必要性についても多くのパネリストが言及しました。Microsoft CorporationのJohn Frank氏は、AIの急速な進化とその複雑性ゆえに、従来の規制アプローチでは対応が難しいと指摘しました。例えば、自律走行車の事故の際の責任の所在を明確にする必要性を指摘し、AIに特化した法律で明確にする必要があると主張しました。
3. EUのAI規制の動向
EUにおけるAI規制の動向として注目されているのが、現在策定中の「EU AI Act」です。AI倫理の専門家であるFrankie Boyle氏は、EU AI Actの基本的な枠組みについて説明しました。EU AI Actは、AIシステムのリスクレベルに応じて規制の要件を設定するリスクベースアプローチを採用しています。
具体的には、AIシステムを高リスク、限定リスク、最小リスクの3つのカテゴリーに分類し、それぞれのリスクレベルに応じた規制の要件を設定しています。例えば、高リスクに分類される健康、安全、基本的権利に重大な影響を及ぼす可能性のあるAIシステムには、厳格な要件が課され、リスク管理システムの導入、人間の監視、高品質のデータの使用などが求められます。
4. 連邦政府・州政府の役割
AIガバナンスにおける連邦政府と州政府の役割についても活発な議論が行われました。Robert Silvers氏は、連邦レベルでのAI規制の必要性について言及し、エネルギー、交通、ヘルスケアなどの重要インフラを管轄する各連邦規制当局が、AI安全性を確保するための規制を導入すべきだと主張しました。
一方、Rob Bonta氏は、州レベルでのAI規制の重要性を強調しました。カリフォルニア州では、プライバシー保護と児童保護の分野でAI規制を進める法案が議論されていることを明らかにしました。例えば、法執行機関による顔認識AIの使用を規制する法案が検討されています。
5. 多様なステークホルダーの関与
AIガバナンスにおいて、多様なステークホルダーの関与が不可欠であるという認識が共有されました。Robert Silvers氏は、国土安全保障省が設立する「AI Safety and Security board」について説明しました。このボードには、OpenAIのCEOであるSam Altman氏、GoogleのCEOであるSundar Pichai氏など、AIの主要企業の経営者が参加しています。また、市民社会からは、消費者保護団体や市民権団体の代表者が参加しています。
6. 企業の責任
AIの倫理的な開発と利用における企業、特に大手テック企業の責任についても議論が行われました。John Frank氏は、大手テック企業がAIシステムの安全性とセキュリティを確保するために、多くのリソースを投入していると述べました。例えば、専門のチームを設置し、AIシステムのモニタリングや監査を行っています。
一方で、Willie L. Frazier III氏は、大手テック企業の取り組みの限界を指摘しました。特に、オープンソースのAIシステムの悪用に対しては、企業の取り組みだけでは限界があるとの認識を示しました。
7. データ規制の重要性
AIとデータの不可分の関係が強調され、AIガバナンスにおけるデータ規制の重要性が指摘されました。Willie L. Frazier III氏は、現在のデータ規制が大手テック企業によるデータ独占を許容していると批判しました。例えば、GoogleやMeta(旧Facebook)などの企業が膨大な量の個人データを収集・利用することで、AIの開発において圧倒的な優位性を持っています。
データ主権の確立に向けた取り組みとして、パーソナルデータストアの事例が紹介されました。パーソナルデータストアは、個人が自分のデータを安全に保管し、制御することを可能にする技術です。個人は、自分のデータをどの企業に提供するか、どのような目的で利用を許可するかを選択できます。
8. 倫理的AIの実現に向けて
AIシステムの多様性・包括性の確保、ユーザー中心のAIの設計、AIの倫理的基盤の構築など、倫理的AIの実現に向けた議論が行われました。
Frankie Boyle氏は、医療診断支援システムの開発を例に挙げ、ユーザー中心のAIの設計の重要性を説明しました。患者の症状や心理状態、生活環境などを理解し、それを反映したシステムを設計することで、より効果的で患者に寄り添った医療を実現できます。
また、AIの倫理的基盤の構築においては、IEEE(電気電子学会)が策定した「倫理的に調和のとれた設計」やNISTの「AI倫理枠組み」などの取り組みが紹介されました。これらの枠組みは、AIシステムの設計・開発・導入における倫理的配慮事項を整理したものであり、AIの倫理的基盤を構築する上での重要な指針となります。
結論として、AIの健全な発展と倫理的な利用のためには、技術的、社会的、倫理的な課題に総合的に取り組む必要があることが確認されました。イノベーションと規制のバランスを取り、多様なステークホルダーの協働を通じて、包括的なAIガバナンスの枠組みを構築していくことが求められています。具体的な事例や取り組みを参考にしながら、AIがもたらす恩恵を最大限に引き出しつつ、リスクを最小化するための努力を続けていくことが重要です。