※本稿は、2024年7月22日に開催されたJIPDECセミナーのAISI副所長 平本健二氏による「AI規制について 欧米の動向と日本の状況」という講演の内容を要約したものです。
1. はじめに
1.1 セミナーの概要と背景
本日は、「AI規制について 欧米の動向と日本の状況」というテーマでお話しさせていただきます。私は、独立行政法人情報処理推進機構でデジタル基盤センター長、AIセーフティインスティチュート(AISI)で副所長・事務局長を務めております平本健二と申します。
このセミナーでは、AIの規制に関する世界の動向と日本の状況について、できる限り最新の情報をお伝えしたいと思います。しかし、AIの分野は技術の変化が非常に速く、世界中がその変化に追いつこうとしている状況です。そのため、今日お話しできる内容は、どちらかというと全体的な動向や考え方が中心になります。具体的な規制の内容や細かい検討状況までは、まだ世界的にも議論の途中であることをご了承ください。
1.2 AIセーフティインスティチュート(AISI)の位置づけ
AISIは、2024年2月に設立された組織です。我々の位置づけについて説明させていただきますと、AISIは規制担当部局というよりも、規制を作っている内閣府や政府側に対して技術的な支援を行う組織です。つまり、我々は情報のハブとして機能し、世界各国の動きと国内の動きを把握し、それを政府の規制作りに活かす役割を担っています。
AISIの事務局は情報処理推進機構(IPA)の中に置かれており、実質的な活動は2024年4月以降に本格化しました。現在の体制は約256人で、フルタイムの職員と非常勤の職員が混在しています。フルタイムの職員がやや多い構成となっています。
この規模は、世界の他のAIセーフティ関連組織と比較しても相応のものです。例えば、EUのAIオフィスが約60人、他の国々も30人から60人程度の規模で運営されています。しかし、EUのAIオフィスは法律からAIの利活用の促進、セーフティまで幅広い領域を60人程度でカバーしていることを考えると、各国ともにまだ組織の立ち上げ段階であると言えます。
1.3 AISIの主な役割
AISIの役割は主に3つあります:
- AIセーフティに関する調査評価手法の検討や基準の作成等の支援を行うこと。これには、政府が発行する正式なガイドラインの作成支援や、より技術的な内容についてAISIから直接発信することも含まれます。
- 日本におけるAIセーフティのハブとして機能すること。現在、AIに関連する団体が40以上あり、産業別の委員会も含めると100程度の団体が活動していると推測されます。これらの団体間の連携を促進し、情報を集約することが我々の役割です。
- 他国のAIセーフティ関連機関との連携。毎週のように各国の政府機関やビッグテック企業と相談しながら、AIセーフティの確保方法やルール作りについて議論しています。
1.4 AISIのスコープ
AISIのスコープについては、柔軟に対応していく方針を取っています。社会への影響やバランス、AIシステム、コンテンツ、データなど、広範囲にわたる領域を対象としていますが、技術の変化が激しいこと、世界中で議論が進んでいることを踏まえ、海外の動向や皆さまのニーズを聞きながら、対象範囲を決めていく予定です。
このように、AISIは日本のAI規制の技術的支援とグローバルな情報収集・連携のハブとして機能しています。今後も急速に変化するAI技術と規制の動向に柔軟に対応しながら、日本のAIセーフティの確保に貢献していきたいと考えています。
2. AIのリスクと規制の必要性
2.1 AIに関する想定されるリスク
AIのリスクについて説明する前に、まず2019年に日本が世界に先駆けて策定した「人間中心のAI社会原則」について触れたいと思います。この原則では、人間中心や教育・リテラシーなどいくつかの原則を定めており、これを基にAI事業者ガイドラインが作成されています。
AI事業者ガイドラインでは、AIの開発と活用の流れを全体像として整理しています。この流れは、AI開発者、AI提供者、AI利用者(ユーザー企業)の3つの領域に分けられます。AI開発者はデータの収集、前処理、AIモデルの学習・作成、検証を行います。AI提供者はAIシステムの実装と提供を担当し、AI利用者はそれを利用します。
これらの流れの中で、様々なリスクが想定されます。例えば、データ収集の段階では、データの品質や欠損値の問題、データの出所(プロビナンス)の管理などが重要です。前処理の段階では、どのような処理を行ったかの記録が必要です。
AIに関する想定されるリスクは、大きく分けて以下の4つのカテゴリーに分類できます:
- フィジカルリスク:例えば、AIを搭載した車両が暴走して事故を起こすなど、物理的に人体に被害を及ぼすリスク。
- ソーシャルリスク:偽情報によって社会が予想外の方向に進むリスク。
- エコノミカルリスク:AIの判断が株価に影響を与え、大きな財政的損失をもたらすリスク。
- サイコロジカルリスク:AIが生成した画像や提供した情報によって心理的なショックを受けるリスク。
これらのリスクをさらに詳細に見ていくと、以下のようなリスクが考えられます:
- 人間の尊厳及び個人の自立を損なうリスク:例えば、本人の同意なしにプロファイリングが行われ、不当な差別につながるリスク。
- AIによる意思決定や感情の操作のリスク:AIの判断に過度に依存し、自分で判断する機会を失うリスク。
- 偽情報生成のリスク:文書データや画像データにおいて偽の情報が作成されるリスク。
- 多様性や包摂性が確保されないリスク:学習データのバイアスにより、特定の群に不利な結果が出るリスク。
- 地球環境への悪影響のリスク:AIの使用による過剰な電力消費や、環境に配慮していない判断をAIが提示するリスク。
- 安全性に関するリスク:AIシステムの動作停止やパフォーマンス低下、意図しない動作のリスク。
- ステークホルダーがリスクを知らないリスク:AIの潜在的な問題点が利用者に十分に伝わっていないリスク。
- 目的外利用のリスク:高性能なAIが本来の目的以外(例えばハッキング)に使用されるリスク。
- 学習データの品質や遵守性に関するリスク:不適切なデータでAIが学習してしまうリスク。
- プライバシー侵害のリスク:個人情報の不適切な取り扱いによるリスク。
- セキュリティに関するリスク:AIシステムへの不正アクセスや改ざんのリスク。
- 透明性とアカウンタビリティに関するリスク:AIの判断過程が不透明で説明責任を果たせないリスク。
- 教育・リテラシーに関するリスク:AI利用者が適切な判断能力を持たないリスク、AIによる雇用喪失のリスク。
- イノベーション阻害のリスク:過度な規制によってAI技術の革新が妨げられるリスク。
2.2 リスクの定義とレベル
リスクの定義については、日本では一般的にネガティブな事象を指す傾向がありますが、国際的な定義ではポジティブな側面も含まれます。例えば、ISO 31000では、リスクは「目的に対する不確実性の影響」と定義されています。
リスクのレベルについては、一般的に以下の4段階で考えられています:
- 受け入れがたいリスク:人命に関わるような非常に深刻なリスク。
- ハイリスク:社会が麻痺するような重大なリスク。
- 限定的リスク:特定の業界や地域に限定されたリスク。
- ミニマムリスク:スパムフィルターのような、影響が小さいリスク。
2.3 リスクへの対応アプローチ
AIのリスクに対応するためには、従来のコンプライアンス型アプローチではなく、リスクベースアプローチが世界的に採用されつつあります。リスクベースアプローチでは、低リスク分野に必要以上にリソースを割くことを避け、高リスク領域により多くの注意を払います。
規制のアプローチとしては、ソフトローとハードローの2つがあります:
- ソフトロー:ガイドラインなど、強制力を伴わない規制。制定や変更が迅速に行える。
- ハードロー:法律など、強制力を伴う規制。制定や変更に時間がかかる。
最近では、これらを組み合わせた「アジャイルガバナンス」という考え方も出てきています。これは、基本的な部分をハードローで定め、詳細な運用をソフトローで行うアプローチです。
規制の対象としては、組織やプロセス全体を対象とするアプローチと、特定のプロダクトやサービスを対象とするアプローチがあります。技術の急速な変化に対応するため、どのタイミングで、どの対象に対して確認を行うかを慎重に検討する必要があります。
3. 各国・地域のAI規制への取り組み
AI規制に関する世界各国の取り組みは、それぞれの国や地域の特性を反映しつつ、共通点も見られます。ここでは、EU、米国、G7、そして日本の取り組みについて詳しく見ていきたいと思います。
3.1 EU
EUは、AI規制において最も積極的な姿勢を示しています。EUのアプローチの特徴は、ハードローを中心としつつ、ソフトローで補完するという方針です。
具体的には、EU AI法案の策定が進められています。この法案では、AIのリスクを4段階に分類し、それぞれのリスクレベルに応じた規制を設けています。特に注目すべき点は以下の通りです:
- 偏見や差別を重大リスクとして捉え、厳しい規制を設けています。
- 製品事故のリスクが高いAIシステムについては、リスク評価(インパクトアセスメント)の実施を義務付けています。
- 汎用AIモデルに対しては、透明性要件の遵守義務を課しています。
- 義務違反に対しては、高額な課徴金を設定しています。
ただし、この法案は制定後2年後に施行される予定であり、現在も詳細な内容の検討が続いています。また、一部の分野については例外規定も設けられる可能性があります。
EUの取り組みの特徴として、AI規制だけでなく、データに関する包括的な法整備も進めている点が挙げられます。例えば、データアクト、データガバナンスアクトなどのデータ関連法、そして2024年3月には行政データの活用を促進するインターオペラブルヨーロッパアクトが制定されました。これらの法律がセットとなって、AI社会に向けた法的基盤を形成しています。
3.2 米国
米国のアプローチは、EUとは対照的に、主にソフトローを中心としています。具体的には以下のような取り組みが行われています:
- ボランタリーコミットメント:大手AI企業が自主的に遵守すべき事項を定めています。
- 大統領令:既存の法令を活用し、大規模汎用AIモデルの開発者に報告を求めるなどの対応を行っています。
- 各省庁への指示:大統領令を通じて、各省庁にAIに関する取り組みの見直しを指示しています。
米国の特徴は、法律による強制的な規制ではなく、企業の自主的な取り組みを促す点にあります。これにより、イノベーションを阻害せずに、AIの安全性を確保しようとしています。
3.3 G7
G7では、日本が議長国として主導し、2023年に広島AIプロセスを開始しました。ここでは、以下の2つの重要な指針が示されました:
- 高度なAIシステムに関する国際指針
- AI開発に関する国際行動規範
これらの指針では、AIの開発と利用において人間の尊厳を尊重すること、セキュリティに配慮することなどの基本的な規範が示されています。G7の取り組みは、国際的な協調を促進し、AIガバナンスの共通基盤を形成することを目指しています。
3.4 日本
日本のアプローチは、主にソフトロー対応を中心としています。具体的な取り組みとしては、以下が挙げられます:
- AI事業者ガイドライン:2024年4月に公表されました。このガイドラインは、1月にパブリックドラフトを出した後、速やかに正式版を発表しています。
- アジャイルガバナンス:ガイドラインを定期的に見直し、技術の進歩や社会の変化に柔軟に対応することを目指しています。
- 国際協調:日本のガイドラインは、世界の動向を踏まえつつ作成されています。将来的には、各国のガイドラインや規制の相互運用性を高めることを目指しています。
日本の特徴は、民間企業が困らないよう、早期にガイドラインを策定し、その後も柔軟に見直していく点にあります。また、国際的な整合性も重視しており、将来的には各国の規制やガイドラインの相互運用性を高めることを目指しています。
これらの各国・地域の取り組みを見ると、リスクベースアプローチを採用し、ソフトローとハードローを組み合わせるという共通点が見られます。一方で、規制の強度や手法については、各国・地域の特性や状況に応じて異なるアプローチが取られています。
今後は、これらの取り組みがどのように収束していくか、また国際的な協調がどのように進むかが注目されます。特に、各国の規制やガイドラインの相互運用性をどのように確保するかが重要な課題となるでしょう。例えば、ある国の認証を取得すれば他国でも認められるようなシステムや、共通の基準に基づく相互認証制度の構築などが考えられます。
これらの国際的な動向を踏まえつつ、日本としても独自の視点を持ちながら、AIの安全性確保とイノベーション促進のバランスを取った規制の枠組みを構築していく必要があります。
4. 日本のAI規制に関する考え方
4.1 AI事業者ガイドライン
日本のAI規制に関する考え方の中心となるのが、AI事業者ガイドラインです。このガイドラインは、2024年4月に正式に公表されました。私たちは、民間企業が困惑しないよう、できるだけ早く指針を示す必要があると考え、比較的早いペースで策定を進めました。具体的には、2024年1月にパブリックドラフトを公開し、その後わずか3ヶ月で正式版を発表しています。
このAI事業者ガイドラインは、2019年に日本が世界に先駆けて策定した「人間中心のAI社会原則」を基礎としています。ガイドラインでは、AI開発と活用の流れを全体像として整理しており、主に以下の3つの領域に分けて考えています:
- AI開発者の領域:データ収集、前処理、AIモデルの学習・作成、検証などを行います。
- AI提供者の領域:AIシステムの実装と提供を担当します。
- AI利用者(ユーザー企業)の領域:AIシステムを実際に利用します。
このガイドラインの特徴は、アジャイルガバナンスの考え方を採用していることです。つまり、技術の急速な変化に対応するため、定期的にガイドラインを見直し、必要に応じて更新していく方針を取っています。
AI事業者ガイドラインでは、以下のような原則に基づいて、AI事業者が考慮すべき点を詳細に記述しています:
- 人間中心
- 安全性
- 公平性
- プライバシー保護
- セキュリティ確保
- 透明性
- アカウンタビリティ
- 教育・リテラシー
これらの原則は、AI開発と活用の各段階で考慮されるべきものです。例えば、データ収集の段階では、データの品質やプロビナンス(出所)の管理が重要です。前処理の段階では、どのような処理を行ったかの記録が必要になります。AIモデルの学習・作成段階では、バイアスの問題に注意を払う必要があります。
また、このガイドラインは、国際的な整合性も考慮して作成されています。将来的には、各国のガイドラインや規制との相互運用性を高めることを目指しています。例えば、ある国の認証を取得すれば他国でも認められるような仕組みの構築も検討されています。
ただし、現時点ではまだ各国が自国のミニマムなガイドラインの策定に注力している段階です。そのため、国際的な相互運用性の確保については、今後の課題となっています。
AI事業者ガイドラインは、ソフトローアプローチの一環として位置づけられています。つまり、法的強制力はありませんが、AI開発や利用に関する指針として機能することを目指しています。このアプローチにより、急速に進化するAI技術に柔軟に対応しつつ、安全性とイノベーションのバランスを取ることを目指しています。
今後は、このガイドラインの実効性を高めるため、具体的な評価方法や基準の策定、さらには業界別のガイドラインの作成支援なども検討していく予定です。AI技術の進展や社会のニーズの変化に応じて、継続的にガイドラインを更新し、より実効性の高いものにしていく方針です。
4.2 影響度とリスクに応じた規制の考え方
日本のAI規制に関する考え方の特徴は、AIの影響度とリスクに応じて異なるアプローチを取ることです。この考え方は、AI事業の特性及びリスクの程度に応じた規制を行うことを目指しています。
具体的には、以下のような5つのカテゴリーに分けて考えています:
- 影響が大きくて高リスクなAI開発者
- 影響が大きくて高リスクなAIの提供者や利用者
- 個別規制法の対象となるAI
- 政府によるAIの調達と利用
- プロバイダー
まず、影響が大きくて高リスクなAI開発者については、国の安全保障や国民の安全・安心、犯罪行為の防止などに関わる領域が該当すると考えられます。これらの領域については、ハードローとソフトローを組み合わせた規制アプローチが検討されています。また、国外の事業者も含めて、日本国内でサービスを提供する場合には規制の対象とすることを考えています。
次に、影響が大きくて高リスクなAIの提供者や利用者については、既存の業法規制法で対応できる部分もありますが、新たな規制の必要性も検討されています。特に、重要インフラのように既存の規制がカバーしていない領域については、議論を進めていく必要があります。
個別規制法の対象となるAIについては、各省庁が所管する法律の中でAIに関する規定を設けることが検討されています。例えば、交通機関や金融機関に関する法律の中でAIの利用に関する規定を追加するなどの対応が考えられます。
政府によるAIの調達と利用については、政府自身がAIを適切に利用し、その経験を社会に還元することが重要だと考えています。そのため、AIの調達方法や、技術変化のスピードに合わせた更新方法、適切な情報管理などについて、政府内で検討が進められています。
最後に、プロバイダーについては、既存のプロバイダー責任制限法などを参考に、AIに関連する不適切なコンテンツの削除などについて対応を検討しています。
このような影響度とリスクに応じた規制の考え方は、リスクベースアプローチの一環と言えます。高リスクな領域には厳格な規制を設け、低リスクな領域には柔軟な対応を取ることで、AIの安全性を確保しつつイノベーションを促進することを目指しています。
また、この考え方は国際的な動向とも整合性を持たせています。例えば、G7での広島AIプロセスで示された国際指針や国際行動規範を基礎としつつ、日本の状況に適した形で具体化を図っています。
しかし、こうした規制の枠組みはまだ検討段階にあり、具体的な制度設計については今後さらなる議論が必要です。特に、AIの技術進歩のスピードに規制がどのように追いついていくか、国際的な整合性をどのように確保していくかなどが今後の課題となっています。
我々AISIとしては、こうした規制の枠組みづくりに技術的な観点から貢献していくとともに、国際的な動向も注視しながら、バランスの取れたAI規制の実現に向けて取り組んでいきたいと考えています。
4.3 具体的な規制の検討状況
現在、日本におけるAI規制の具体的な検討状況について説明いたします。まず、重要なポイントとして、AI規制に関する議論はまだ初期段階にあることを強調したいと思います。
2024年5月に内閣府のAI戦略チームが「AI制度に関する考え方について」という文書を作成しました。この文書は、AI戦略会議のサイトで公開されており、より詳細な文章版も閲覧可能です。この文書の作成背景には、AIに関する法制度を作るべきだという意見と、ソフトローだけで十分だという意見が存在することがあります。そのため、まずは考え方について整理を始めようという趣旨で作成されました。
この文書を基に、2024年7月19日のAI戦略会議で、今後AI制度研究会を立ち上げることが承認されました。この研究会では、AI規制の必要性や対象範囲などについて議論を進めていく予定です。つまり、これから本格的な議論が始まるという段階にあります。
具体的な規制の検討状況としては、以下のような点が挙げられます:
- 偽情報・誤情報対策: 総務省が「デジタル空間における情報流通の健全性確保のあり方に関する検討会」を設置し、AI生成コンテンツに関する対策を検討しています。例えば、AI生成物への電子透かしの挿入や、コンテンツの出所・来歴情報の付加、オンラインプラットフォーマーによるAI生成コンテンツの表示ラベル付けなどが議論されています。同時に、偽情報・誤情報を検知するシステムの開発も、独立行政法人などを含めて進められています。
- 知的財産権との関係: 2024年4月に「AIと知的財産に関する検討の中間取りまとめ」が公表されました。これは、AIが生成した合成コンテンツなど、従来の著作権制度では解決できない問題に対処するためのものです。また、2024年3月には「AIと著作権に関する考え方について」という文書も公開されており、AIと著作権の関係について整理がなされています。
- 安全性の確保: 自動運転車や医療AIなど、人命に直接関わる可能性のあるAIシステムについては、既存の安全規制を活用しつつ、AI特有の問題に対応するための検討が進められています。
- プライバシー保護: 個人情報保護法の枠組みを基本としつつ、AI特有のプライバシー課題に対する対応が検討されています。
- セキュリティ確保: AIシステムへの不正アクセスや改ざんを防ぐための対策が検討されています。内閣サイバーセキュリティセンターとの連携も進められています。
- 教育・リテラシー: AI利用者の能力向上や、AIによる雇用への影響に対する対策が検討されています。
これらの検討は、前述の影響度とリスクに応じた考え方に基づいて進められています。高リスクな領域については法的規制の可能性も含めて検討されており、低リスクな領域についてはガイドラインや自主規制での対応が検討されています。
ただし、現時点ではまだ具体的な規制の内容や形式が決定されているわけではありません。AI技術の急速な進歩や国際的な動向を踏まえつつ、日本の状況に適した規制のあり方を模索している段階です。
今後、AI制度研究会での議論を通じて、より具体的な規制の枠組みが形作られていくことが期待されます。我々AISIとしても、技術的な観点からこの議論に貢献していきたいと考えています。
5. AI評価とテスティングの取り組み
5.1 日米クロスウォーク
AI評価とテスティングの取り組みの一環として、我々は日米クロスウォークという取り組みを進めています。これは、日本のAI事業者ガイドラインと米国のAI Risk Management Framework (AI RMF)との整合性を高めるための作業です。
まず、日米クロスウォーク1について説明します。これは2024年5月に公表されたもので、タクソノミーレベル、つまり用語の定義のレベルで両国のガイドラインを比較・整理したものです。日本のAI事業者ガイドラインと米国のAI RMFは、内容的に非常に近いものとなっています。そのため、両者の用語を揃えることで、ガイドラインの解釈や適用における混乱を避けることができます。
例えば、日本のガイドラインで使用されている「プライバシー保護」という用語が、米国のフレームワークではどのような表現で言及されているかを明確にしています。これにより、日米両国の事業者が互いのガイドラインを参照する際の理解を助けることができます。
次に、日米クロスウォーク2について説明します。これは2024年8月末までに完成を目指して作業を進めているものです。クロスウォーク2では、センテンスバイセンテンス、つまり文章単位での対応関係を整理します。より正確に言えば、各キーワードについて、それぞれのガイドラインのどの部分で言及されているかを示すものです。
この作業の目的は、例えば米国のAI RMFに基づいて開発されたAIシステムが、日本のガイドラインのどの部分をすでに満たしているかを容易に確認できるようにすることです。逆に、日本のガイドラインに従って開発されたシステムが、米国の基準にどの程度適合しているかも確認できるようになります。
このクロスウォークの作成によって、日米両国のAI開発者や事業者は、互いの規制やガイドラインの要求事項をより容易に理解し、遵守することができるようになります。これは、グローバルに活動する企業にとって特に重要です。異なる国の規制に個別に対応する必要がなくなり、開発やコンプライアンスのコストを削減できる可能性があります。
さらに、このクロスウォークは将来的な国際標準化や相互認証の基礎となる可能性があります。例えば、ある国で認証を取得したAIシステムが、他の国でもその認証が認められるような仕組みの構築に向けた第一歩となるかもしれません。
ただし、これらの議論はまだ始まったばかりであり、各国がまずは自国のミニマムなガイドラインの策定に注力している段階です。そのため、完全な相互運用性の確保にはまだ時間がかかると予想されます。
我々AISIは、この日米クロスウォークの作成を通じて、国際的なAI規制の調和に貢献したいと考えています。同時に、日本のAI事業者が国際市場で競争力を維持できるよう支援していきたいと思います。
5.2 評価の観点の公表
我々は現在、AI評価の観点を公表するための準備を進めています。これは、AI事業者ガイドラインを策定した後の重要なステップとなります。
ガイドラインを揃えただけでは、実際のAIサービスやシステムが出てきた時に、どのような観点でチェックすればよいのかが明確ではありません。そこで、具体的な評価の観点を整理し、公表することが重要だと考えています。
例えば、バイアスデータが入っていないかどうかをチェックする際に、どのような点に注目すべきか。こういった具体的な評価の観点を明確にすることで、AI開発者や提供者が自己チェックを行う際の指針となります。
現在、我々は各国のガイドラインや民間の取り組みなどを参考にしながら、こうした評価の観点の整理を進めています。具体的な手順までは落とし込まないものの、「ここは重要ですよ」という評価のポイントをきちんと整理することを目指しています。
この評価の観点を公表することで、AI開発者や提供者の皆様にとっては、「この評価観点で行えば最低限は満たされるのか」といったことが分かるようになります。また、民間からも様々な評価ツールが販売されていますが、我々としては民業圧迫にならないよう、基本的なところの評価方法を示すことを考えています。
ただし、この評価の観点の公表は、まだ検討段階にあります。AI技術の急速な進歩や、各国の規制動向なども考慮しながら、慎重に進めていく必要があります。
我々の目標は、AI開発者や提供者が自主的に安全性を確保できるような環境を整備することです。同時に、イノベーションを阻害しないようなバランスの取れた評価基準を提示することも重要だと考えています。
今後、この評価の観点を公表する際には、産業界や学術界からの意見も広く募り、実効性のある、かつ実践的な内容にしていきたいと思います。また、技術の進歩に合わせて定期的に見直しを行い、常に最新の状況に対応できるようにしていく予定です。
このように、評価の観点の公表は、日本のAI開発・利用の健全な発展を支える重要な取り組みの一つとなります。我々AISIは、この取り組みを通じて、安全で信頼できるAI社会の実現に貢献していきたいと考えています。
5.3 レッドチームの手順書作成
AI評価とテスティングの取り組みの中で、我々が現在力を入れている重要な項目の一つが、レッドチームの手順書作成です。この取り組みについて詳しく説明させていただきます。
レッドチーミングとは、AIシステムの脆弱性や潜在的な問題点を積極的に探し出すためのテスト手法です。我々は、このレッドチーミングを効果的に実施するための手順書を作成しています。
現在、商用のレッドチーミングツールも存在していますが、我々の目的は、最低限このくらいのレッドチーミングは行うべきだという基準を示すことです。つまり、商用ツールの代替を目指しているわけではなく、むしろ基本的な手順を明確にすることで、より効果的なレッドチーミングの実施を支援することを目指しています。
手順書の内容としては、例えばAIシステムにどのような入力を与えて、どのような出力を確認すべきか、どのような状況でシステムの挙動を観察すべきか、といった具体的な指針を含める予定です。また、レッドチーミングを行う際の倫理的配慮や、結果の解釈方法についても言及する予定です。
この手順書は、AI開発者や提供者が自社のシステムの安全性や信頼性を自主的に評価する際の指針となることを期待しています。同時に、AI利用者にとっても、導入を検討しているAIシステムの評価基準として活用できるものになると考えています。
ただし、この手順書の作成にあたっては、いくつかの課題があります。まず、AI技術の急速な進歩に対応するため、定期的に内容を更新する必要があります。また、異なる種類のAIシステムに対して、どの程度汎用的な手順を示せるかという点も検討中です。
さらに、レッドチーミングの結果をどのように解釈し、どのような基準で「合格」とするかについても、慎重に検討を進めています。AIシステムの用途や影響度によって、求められる安全性のレベルが異なることも考慮に入れる必要があります。
我々AISIは、この手順書を通じて、日本のAI開発・利用における安全性と信頼性の向上に貢献したいと考えています。同時に、国際的な動向も注視しながら、グローバルに通用する基準となることも目指しています。
今後、この手順書の草案が完成次第、産業界や学術界からの意見を広く募り、実効性の高いものに仕上げていく予定です。また、実際の使用事例からフィードバックを得て、継続的に改善を図っていきたいと考えています。
レッドチームの手順書作成は、AIの安全性評価における重要な取り組みの一つです。我々は、この取り組みを通じて、より安全で信頼できるAI社会の実現に貢献していきたいと考えています。
6. AIセーフティの推進体制
6.1 政府の体制
AIセーフティの推進体制について、まず政府の体制から説明させていただきます。日本のAIセーフティ推進は、内閣府を中心に複数の省庁が連携する形で進められています。
具体的には、内閣府の下に「AISI関係府省等連絡会議」が設置されています。この会議には、関係府省や団体が参加し、AIセーフティに関する基本的な方針や結果の審査などを行っています。
その下に「AISI運営委員会」があり、ここでは各省庁や独立行政法人の管理職クラスによる会議が行われています。この委員会では、より具体的な戦略の立案や実行計画の策定が行われています。
実際の実務を担当するのが、IPAの中に設置されているAISIの事務局です。ここには企画チーム、ネットワークチーム、技術チーム、セキュリティチーム、標準チームなどが設置されており、それぞれの専門分野で活動を行っています。
今後は、テーマ別小委員会の設置も予定されています。例えば、著作権に関する詳細な議論を行う小委員会などが考えられますが、具体的なテーマはまだ決定されていません。
また、パートナーシップ事業として、独立行政法人間の連携も進めていく予定です。さらに、民間とのコンソーシアム形成も検討されています。
この体制の特徴は、政府全体で一体となってAIセーフティに取り組んでいる点です。各省庁が個別に対応するのではなく、内閣府を中心に統一的な方針のもとで活動を進めています。
6.2 業界ごとの自主ガイドライン
一方で、業界ごとの自主的な取り組みも重要です。現在、様々な業界でAIに関する自主ガイドラインの策定が進められています。
例えば、金融業界では既にAI利活用に関するガイドラインが策定されています。また、医療業界やモビリティ分野でもガイドラインの作成が進んでいます。
これらの業界別ガイドラインは、それぞれの業界特有のAI利用形態やリスクを考慮して作成されています。例えば、金融業界では顧客データの取り扱いや投資判断への影響などが重要なポイントとなります。医療業界では診断支援AIの精度や患者情報の保護が焦点になるでしょう。
我々AISIは、こうした業界ごとの取り組みを支援し、必要に応じて助言を行っています。同時に、これらの業界ガイドラインから得られた知見を、より広範な汎用的ガイドラインに反映させることも検討しています。
業界ごとの自主ガイドラインは、法的拘束力はありませんが、業界内での自主規制として機能することが期待されています。また、これらのガイドラインは、将来的な法規制の基礎となる可能性もあります。
現在、AIに関連する団体は40以上あり、産業別の委員会も含めると100程度の団体が活動していると推測されます。これらの団体間の連携を促進し、情報を集約することも我々の重要な役割の一つです。
今後は、より多くの業界でAIに関する自主ガイドラインが策定されることが予想されます。我々は、これらのガイドラインが整合性を保ちつつ、各業界の特性を反映したものになるよう支援していきたいと考えています。
また、ISO 42000シリーズなどの国際標準に基づく認証制度の検討も進められています。これらの動きとも連携しながら、日本のAI産業全体の健全な発展を支援していく方針です。
7. 今後の課題と展望
AIの規制と安全性確保に関する取り組みは、まだ始まったばかりです。今後、我々が直面する主な課題と展望について、以下の3つの観点から説明いたします。
7.1 技術変化への対応
AIの技術進歩のスピードは非常に速く、我々を含む世界中の関係機関がその変化に追いつこうと努力しています。この急速な技術変化に対応しながら、グローバルな連携を図り、同時に各国の特性も考慮しなければならないという難しい状況に直面しています。
例えば、AIモデルのバージョンアップが頻繁に行われる中で、どのタイミングで評価や認証を行うべきかという問題があります。ある時点でスナップショットを取って評価すれば良いのか、それとも学習後の時点で評価すべきなのか、あるいはバージョンアップごとに全ての評価をやり直す必要があるのかなど、具体的な評価方法についてまだ明確な答えが出ていません。
また、AIの用途や影響範囲が急速に拡大する中で、規制の優先順位をどのように設定すべきかという課題もあります。高リスクな領域に集中すべきか、それとも広く浅く規制をかけるべきかなど、アプローチの選択も重要な検討事項となっています。
我々AISIとしては、このような技術変化に柔軟に対応できるよう、常に最新の技術動向を注視し、必要に応じてガイドラインや評価基準を迅速に更新していく体制を整えていく必要があると考えています。
7.2 グローバル連携
AIの開発と利用はグローバルに行われているため、各国の規制やガイドラインの整合性を取ることが重要な課題となっています。例えば、ある国で認証を受けたAIシステムが他の国でも認められるような相互運用性の確保が求められています。
しかし、現状では各国がそれぞれの事情に応じて独自の規制やガイドラインを策定している段階であり、国際的な調和にはまだ時間がかかると予想されます。我々は、日米クロスウォークなどの取り組みを通じて、まずは主要国との間で規制の整合性を高めていくことを目指しています。
また、G7での広島AIプロセスのような国際的な枠組みを通じて、AI規制に関する共通認識を醸成していくことも重要だと考えています。今後は、これらの国際的な取り組みにも積極的に参加し、日本の立場を反映させつつ、グローバルな協調を推進していく必要があります。
7.3 社会的受容性の考慮
AIの規制を考える上で、法律や技術面だけでなく、社会的な受容性も重要な要素です。日本では特に、法律上は問題がなくても社会的に受け入れられない場合があることに注意を払う必要があります。
例えば、画像解析技術を用いたサービスが個人情報保護法上は問題なくても、メディアから批判を受けて中止に追い込まれるケースがありました。このような事態を避けるためには、技術や法律の専門家だけでなく、倫理学者や社会学者なども交えた幅広い議論が必要です。
一方で、過度に自主規制をすることでイノベーションが阻害されるリスクもあります。AIの利便性と社会的な懸念のバランスを取りながら、健全なAI開発と利用を促進していくことが求められます。
我々AISIとしては、AI開発者や事業者、利用者、そして一般市民も含めた多様なステークホルダーとの対話を通じて、AIに対する社会的理解を深め、受容性を高めていく取り組みを進めていく必要があると考えています。
これらの課題に取り組むことで、技術の進歩と社会の要請の両方に応える形で、AIの健全な発展と安全な利用を実現していきたいと考えています。そのためには、産学官の連携はもちろん、国際的な協調も不可欠です。我々AISIは、これらの課題解決に向けて、引き続き中心的な役割を果たしていく所存です。
8. おわりに
AISIの人材募集について
本日は、AI規制について欧米の動向と日本の状況についてお話しさせていただきました。最後に、AIセーフティインスティチュート(AISI)の人材募集について触れさせていただきたいと思います。
AISIは現在、積極的に人材を募集しています。その理由は、AIの世界が毎日のように変化しており、我々もその変化に追いつくために日々奮闘しているからです。例えば、関連する会議は毎週のように行われており、世界中の最新動向をキャッチアップし、それに対応していく必要があります。
我々は、このような環境で「世界最先端で働きたい人」を大募集しています。AIの分野は日進月歩で、常に新しい課題や機会が生まれています。そのため、技術的な知識だけでなく、柔軟な思考力や先を見通す力も求められます。
具体的には、AI技術の専門家はもちろん、法律や倫理、社会学などの分野の専門家も必要としています。AIの規制や安全性の問題は、技術だけでなく、社会的、法的、倫理的な側面も含む複雑な課題だからです。
また、国際的な連携や交渉の経験がある方も歓迎します。我々の活動は日本国内に留まらず、世界各国の関係機関と協力しながら進めていく必要があるためです。
興味をお持ちの方は、IPAのウェブサイト、具体的にはAISIのページに人材募集の情報が掲載されていますので、ぜひご覧いただければと思います。我々と一緒に、AIの健全な発展と安全な利用を推進する仕事に携わってみませんか?
AISIでの仕事は、単にAIの技術や規制について学ぶだけでなく、世界の最先端の動きに直接触れ、そして日本のAI政策に実際に影響を与える機会にもなります。日々の業務を通じて、自身のスキルや知識を大きく成長させることができるでしょう。
我々は、多様な背景を持つ人材が集まることで、より包括的で効果的なAI規制の枠組みを作り上げることができると信じています。皆様の中に、この挑戦的で刺激的な仕事に興味を持たれた方がいらっしゃいましたら、ぜひ応募をご検討ください。
AIの世界は日々進化し続けています。我々と共に、その最前線で働き、日本のAI政策の形成に貢献する。そんな挑戦的な機会を提供できることを嬉しく思います。皆様のご応募を心よりお待ちしております。
本日のセミナーは以上となります。ご清聴いただき、誠にありがとうございました。