※本稿は、京都で開催されたInternet Governance Forum(IGF) 2023での「生成AIのグローバルガバナンス」をテーマとしたセッション、HIGH LEVEL LEADERS SESSION VのAI要約記事になります。
このセッションでは、各国政府、国際機関、IT企業、研究者、市民社会の代表者が一堂に会し、急速に発展する生成AI技術がもたらす機会とリスクについて、多角的な議論が展開されました。
1. 岸田文雄首相による基調講演:Hiroshima AI processの提唱
岸田文雄日本国首相は基調講演で、生成AIの可能性と課題、そしてグローバルな取り組みの必要性を強調しました。
「生成AIは、インターネットと同様に、人類の歴史を大きく変える可能性を秘めています」と岸田首相は述べ、具体的な例として医療分野での応用を挙げました。「例えば、生成AIは創薬プロセスを大幅に効率化し、新しい治療法の開発を加速させる可能性があります。私が最近訪問した研究施設では、AIが膨大な医療データを分析し、がん治療の個別化に貢献している事例を目の当たりにしました」
一方で、岸田首相はリスクについても言及しました。「高度な偽画像やディスインフォメーションが社会の混乱を引き起こすリスクが指摘されています。例えば、2022年のウクライナ紛争では、AIで生成された偽の動画が拡散し、状況をさらに複雑化させました。このような事態を防ぐためには、情報の発信者を証明・確認できるプロブナンス技術の開発と普及が重要です」
これらの課題に対処するため、岸田首相は「Hiroshima AI process」を提唱しました。「G7広島サミットにおいて、私は信頼できるAIの実現に向けた国際的な議論を進めるため、『Hiroshima AI process』の創設を提唱しました。この取り組みを通じて、生成AIを含む先進的なAIシステムを開発する組織向けの国際的指針と行動規範の策定を目指します」
具体的な取り組みとして、岸田首相は以下の点を強調しました:
- 国際的指針の策定:「全てのAI主体に適用される国際的指針を年内に策定します。これには、AIの透明性確保、説明責任、公平性などの原則が含まれるでしょう」
- 行動規範の策定:「生成AIを含む先進的なAIシステムを開発する組織向けの行動規範を策定します。例えば、市場投入前のリスク評価や、継続的なモニタリングの実施などが盛り込まれる予定です」
- マルチステークホルダーの関与:「IGFの機会を活用し、政府、学術界、市民社会、民間セクターなど、多様なセクターの意見を取り入れていきます。例えば、途上国のAI研究者や市民社会団体との対話セッションを定期的に開催することを検討しています」
- 具体的な支援策:「日本政府は、AI開発の強化に向けた支援策を含む経済政策パッケージをまとめる予定です。例えば、中小企業向けのAI導入支援や、医療分野でのAI応用支援などが含まれます」
岸田首相は、「Hiroshima AI processを通じて、グローバルサウスを含む国際社会全体が、安全・安心・信頼できる生成AIの恩恵を享受できるような国際ルール作りを進めていきます」と締めくくりました。
2. マリア・レッサ氏による警鐘:技術がもたらす社会の分断
2021年ノーベル平和賞受賞者のマリア・レッサ氏は、ソーシャルメディアと生成AIがもたらす社会の分断について警鐘を鳴らしました。
レッサ氏は具体的な事例を挙げながら、問題の深刻さを訴えました。「2016年のフィリピン大統領選挙では、ソーシャルメディア上で大量の偽情報が拡散され、選挙結果に大きな影響を与えました。私たちの調査では、選挙に関連する上位100の偽ニュースサイトの90%が、特定の候補者を支持するものでした」
また、生成AIの登場により、この問題がさらに深刻化する可能性を指摘しました。「今日、生成AIの登場により、誰でも簡単にリアルな偽動画や偽音声を作成できるようになりました。例えば、2023年初頭には、AIで生成されたウクライナ大統領の偽の演説動画が拡散し、一時的に混乱を招きました。このような技術の悪用は、民主主義の根幹を揺るがす可能性があります」
レッサ氏は、この問題に対処するための10項目の行動計画を提案しました。その中でも特に重要な項目として以下を強調しました:
- オンラインでの女性とマイノリティの安全確保:「フィリピンでは、女性ジャーナリストへのオンライン攻撃が深刻化しています。例えば、私自身も1時間に90件もの攻撃的なメッセージを受け取ったことがあります。AIを使った自動検出・削除システムの導入や、プラットフォーム企業の責任強化が必要です」
- ジャーナリストの保護とメディアの自由の促進:「世界各地でジャーナリストへの攻撃が増加しています。例えば、2022年には28カ国で86人のジャーナリストが殺害されました。各国政府は、ジャーナリストの安全を確保するための法整備を急ぐべきです」
- 思想の自由と表現の自由の保護:「中国や香港の事例のように、国家による監視と検閲が強化されています。国際社会は、表現の自由を侵害する法律や政策に対して、より強く声を上げる必要があります」
- インターネットへのアクセスを基本的人権に:「現在、世界人口の約3分の1がインターネットにアクセスできていません。例えば、サハラ以南アフリカでは、インターネット普及率が約30%にとどまっています。各国政府は、インターネットインフラへの投資を優先課題とすべきです」
- 若者のデジタルリテラシー教育の推進:「フィリピンでは、高校のカリキュラムにメディアリテラシー教育を導入し、生徒たちが偽情報を見分ける能力を養成しています。このような取り組みを世界中に広げる必要があります」
レッサ氏は、「私たちは皆、民主主義の最後の2分間を生きている」と表現し、喫緊の行動の必要性を訴えました。「例えば、フィリピンのラプラー社では、ファクトチェッカーとAIを組み合わせた『シャークスポッター』というシステムを開発し、ソーシャルメディア上の偽情報を迅速に検出しています。このような取り組みを、官民が協力して世界中に広げていく必要があります」
3. OECDの取り組み:エビデンスに基づく政策立案
OECD事務次長のウルリック・ヴェスターゴー・クヌッセン氏は、AIの機会とリスク、そしてOECDの具体的な取り組みについて詳細に説明しました。
クヌッセン氏は、AIがもたらす具体的な機会として、以下の事例を挙げました:
- エネルギー効率の改善:「Googleでは、機械学習システムを導入することで、データセンターの冷却に必要な電力を40%削減することができました。この技術を他の産業に応用すれば、大幅なエネルギー効率の改善が期待できます」
- 医療診断の精度向上:「英国のDeepMindが開発したAIシステムは、乳がんのスクリーニングにおいて、放射線科医の診断精度を上回る結果を示しました。これにより、早期発見率の向上と医療コストの削減が期待できます」
- 教育の個別最適化:「カーネギーメロン大学が開発した適応型学習システムでは、AIが学生の理解度を分析し、個々に最適化された学習コンテンツを提供しています。この結果、学習効果が約50%向上したという報告があります」
一方で、クヌッセン氏はAIがもたらすリスクについても言及しました:
- プライバシーの侵害:「顔認識技術の普及により、個人の行動追跡が容易になっています。例えば、中国では公共空間での顔認識システムの導入が進み、市民の監視に利用されているという指摘があります」
- 雇用への影響:「OECDの試算では、今後10〜20年の間に、OECD加盟国の労働者の約14%が自動化によって職を失うリスクがあります。特に、単純作業や定型的な業務に従事する労働者への影響が大きいと予想されています」
- アルゴリズムバイアス:「米国の複数の州で導入された刑事司法システムのAIが、人種によって異なる判断を下すという問題が指摘されています。このようなバイアスは、社会の公平性を損なう可能性があります」
これらの課題に対処するため、OECDは以下のような具体的な取り組みを行っています:
- OECD AI勧告の策定:「2019年に採択されたOECD AI勧告は、AIに関する初めての政府間標準となりました。例えば、AIシステムの頑健性、安全性、公平性に関する原則が含まれており、42カ国が署名しています」
- AI Policy Observatoryの運営:「このプラットフォームでは、各国のAI政策やベストプラクティスを共有しています。例えば、フランスのAI人材育成プログラムや、カナダのAI倫理ガイドラインなどの情報が掲載されています」
- ONE AI expert groupの組織:「400人以上の国際的な専門家が参加するこのグループでは、AIの技術的・倫理的課題について議論しています。例えば、AIシステムの分類フレームワークの策定や、AIインシデントのモニタリング手法の開発などに取り組んでいます」
- Global Forum on Technologyの開催:「このフォーラムでは、AIを含む新興技術に関する政策対話を促進しています。2022年の会合では、30カ国以上から200名以上の参加者が集まり、AIの規制枠組みやイノベーション戦略について議論しました」
クヌッセン氏は、「OECDは、Hiroshima AI processに積極的に貢献していきます。例えば、AI開発組織向けの行動規範の策定において、OECD AI勧告の原則を基礎として活用することを提案しています」と述べ、国際協調の重要性を強調しました。
4. 企業の取り組み:MetaとGoogleの事例
MetaのニッククレッグCPO(グローバルアフェアーズ担当社長)とGoogleのケントウォーカー社長(グローバルアフェアーズ担当)は、それぞれの企業における生成AIの開発状況と社会的責任への取り組みについて説明しました。
Metaの取り組み
クレッグ氏は、Metaの生成AI開発の現状と課題について、以下のような具体例を挙げて説明しました:
- 多言語翻訳モデルの開発:「Metaでは、200以上の言語に対応した機械翻訳モデル『No Language Left Behind』を開発しています。これにより、例えばスワヒリ語やグアラニ語などのマイナー言語話者も、グローバルなコミュニケーションに参加できるようになります」
- コンテンツモデレーションへのAI活用:「AIを活用した有害コンテンツの検知・削除システムにより、Facebookでのヘイトスピーチの割合は、この1〜2年で60%近く減少しました。具体的には、1万件のコンテンツのうち、ヘイトスピーチは1〜2件程度まで減少しています」
- オープンソースAIの推進:「Metaは、大規模言語モデル『LLaMA』をオープンソースで公開しました。これにより、中小企業や研究機関もAI開発に参加できるようになります。例えば、医療分野の研究者がLLaMAを活用して、希少疾患の診断支援システムを開発するといった事例が出てきています」
一方で、クレッグ氏は生成AIがもたらす課題とMetaの対応策についても言及しました:
- ディープフェイク対策:「生成AIによる偽の画像や動画の作成が容易になっています。Metaでは、コンテンツに電子透かしを入れる技術を開発し、AIで生成されたものかどうかを識別できるようにしています。2024年の米国大統領選挙に向けて、この技術の実装を加速させています」
- プライバシー保護:「AIモデルの学習には大量のデータが必要ですが、個人情報の保護も重要です。Metaでは、連合学習(Federated Learning)という手法を採用し、デバイス上でデータを処理することで、個人情報をサーバーに送信せずにAIモデルを学習させる取り組みを行っています」
- 透明性の確保:「AIの判断プロセスをブラックボックス化させないために、説明可能AI(XAI)の研究開発に力を入れています。例えば、Facebookの広告配信システムにおいて、なぜその広告が表示されたのかを利用者に説明する機能を実装しています」
クレッグ氏は、「生成AIの社会実装には、企業の自主的な取り組みだけでなく、政府や市民社会との協力が不可欠です。Metaは、Hiroshima AI processなどの国際的な取り組みに積極的に参加し、責任あるAI開発のためのベストプラクティスを共有していきたいと考えています」と述べました。
Googleの取り組み
ウォーカー氏は、Googleの生成AI開発の事例と社会的影響について、以下のように説明しました:
- 医療分野でのAI活用:「GoogleのAI部門DeepMindが開発したAlphaFoldは、タンパク質の立体構造予測を革新しました。具体的には、科学者が解明したタンパク質の20万種類の立体構造を、数週間で予測することに成功しました。これは、日本の全人口を動員して3年間かかると試算される作業です。現在、この技術は世界中の100万人以上の研究者に利用されており、新薬開発や疾病理解の加速に貢献しています」
- 気候変動対策へのAI活用:「Googleでは、機械学習を活用してデータセンターの冷却効率を40%改善しました。この技術を他の産業に応用することで、大幅なエネルギー削減が期待できます。また、AIを活用した気象予測モデルを開発し、豪雨や洪水の予測精度を向上させています」
- 教育分野でのAI活用:「Google Classroomに導入されたAI機能により、教師の業務効率化と学習者の個別支援が可能になっています。例えば、AIが学生のレポートを自動採点し、個別のフィードバックを生成することで、教師の負担を軽減しつつ、学習者への迅速なフィードバックを実現しています」
ウォーカー氏は、AIがもたらす課題とGoogleの対応策についても言及しました:
- AIモデルの偏見対策:「機械学習モデルに内在する偏見を軽減するために、『AI倫理委員会』を設置し、開発段階から多様性と公平性を考慮したモデル設計を行っています。例えば、画像認識AIの学習データに多様な人種や年齢層の画像を含めることで、特定のグループに対する認識精度の低下を防いでいます」
- AIの透明性と説明可能性の向上:「Google Cloudの『Explainable AI』機能により、AIモデルの判断根拠を可視化しています。例えば、医療診断支援AIが特定の診断を下した理由を、医師が理解しやすい形で提示することが可能になっています」
- AIリテラシーの向上支援:「『AI for Everyone』というオンライン講座を無料で提供し、一般市民のAIリテラシー向上を支援しています。2023年までに、世界中で100万人以上がこの講座を受講しました」
ウォーカー氏は、「AIの開発と利用には、企業だけでなく、政府、学術界、市民社会の関与が不可欠です。例えば、AIの倫理的利用に関するガイドラインの策定や、AI人材育成プログラムの開発などにおいて、マルチステークホルダーでの協力が重要です」と強調しました。
また、「Hiroshima AI processのような国際的な取り組みは、グローバルなAIガバナンスの枠組みを構築する上で非常に重要です。Googleは、自社の経験や知見を共有しつつ、オープンかつ公平なAI開発のエコシステム構築に貢献していきたいと考えています」と述べ、国際協調の重要性を訴えました。
5. 各国の取り組み:インドネシア、ブラジル、シンガポールの事例
インドネシア、ブラジル、シンガポールの代表者が、それぞれの国におけるAIガバナンスの取り組みと課題について報告しました。
インドネシアの取り組み
インドネシアのナザル・パーテリヤ通信情報省次官は、同国のAIガバナンスの現状と今後の展望について以下のように説明しました:
- 国家AI戦略の策定:「2020年に『国家AI戦略2020-2045』を策定しました。この戦略では、医療、教育、食糧安全保障、モビリティ、スマートシティの5分野でのAI活用を重点的に推進しています。例えば、医療分野では、AIを活用した遠隔診断システムの導入により、離島や僻地における医療アクセスの改善を目指しています」
- AI関連ビジネスの分類基準の導入:「AIビジネスの健全な発展を促すため、2022年にAI関連ビジネスの分類基準を導入しました。これにより、例えばAIを利用した金融サービスと医療診断支援では、異なるレベルの規制や監督が適用されるようになりました」
- 個人データ保護法の整備:「2022年に個人データ保護法を制定し、AIシステムにおける個人データの取り扱いに関する規定を盛り込みました。例えば、AIによる自動プロファイリングに対する個人の権利や、AIシステムの決定に対する人間の介入を求める権利などが明記されています」
- AI倫理ガイドラインの策定:「現在、AI倫理に関する通達の作成に取り組んでいます。この通達では、透明性、説明可能性、公平性、プライバシー保護などの原則を定める予定です。例えば、政府機関がAIシステムを導入する際には、その判断プロセスを市民に説明する義務を課すことを検討しています」
パーテリヤ次官は、インドネシアが直面している課題についても言及しました:
- デジタル格差の解消:「インドネシアは17,000以上の島からなる国家であり、地域によってデジタルインフラの整備状況に大きな差があります。AIの恩恵を全国民が享受できるよう、離島や僻地におけるブロードバンド整備を加速させています」
- AI人材の育成:「AIエンジニアの不足が深刻な課題となっています。2024年までに100万人のデジタル人材を育成する目標を掲げ、大学でのAI教育の強化や、オンライン学習プラットフォームの整備を進めています」
- 中小企業のAI導入支援:「インドネシア経済の大部分を占める中小企業のAI導入を支援するため、AI導入補助金制度や技術コンサルティングサービスを提供しています。例えば、地場の織物産業にAIを活用した需要予測システムを導入し、生産効率の向上につながった事例があります」
パーテリヤ次官は、「インドネシアは、AIの成熟度が異なる様々な国の間の『橋渡し役』を果たす用意があります。例えば、ASEAN諸国でのAI政策の調和や、先進国と途上国の間での知見共有などに貢献したいと考えています」と述べ、国際協調の重要性を強調しました。
ブラジルの取り組み
ブラジルのルシアーノ・デ・アンドラーデ外務省科学技術・知的財産局長は、同国のAI政策と国際協調の重要性について以下のように説明しました:
- 国家AI戦略の実施:「2021年に策定した『国家AI戦略』に基づき、研究開発の促進、人材育成、規制環境の整備などを進めています。例えば、ブラジル開発銀行(BNDES)を通じて、AI関連のスタートアップに対する資金援助を行っており、2022年には約1億ドルの投資を実施しました」
- AI規制法案の検討:「現在、議会でAI規制法案の審議が行われています。この法案では、AIシステムのリスクに応じた段階的な規制アプローチを採用しており、例えば高リスクAIシステムに対しては、人間による監視や定期的な監査を義務付けることを検討しています」
- 分野別のAI活用促進:「農業、医療、公共安全などの重点分野でのAI活用を促進しています。例えば、農業分野では、AIを活用した精密農業システムの導入により、肥料や農薬の使用量を最適化し、生産性向上と環境負荷低減の両立を図っています」
アンドラーデ局長は、AIガバナンスにおける途上国の参画の重要性を強調しました:
- 途上国の視点の反映:「AIの議論に途上国の声をもっと反映させる必要があります。例えば、AIによる雇用への影響は、産業構造の異なる途上国では先進国とは異なる形で現れる可能性があります。このような途上国特有の課題をグローバルな議論に反映させることが重要です」
- 能力開発支援の必要性:「AIガバナンスの議論に途上国が参加するためには、AI人材の育成や技術力の向上が不可欠です。例えば、ブラジルでは、国立科学技術開発評議会(CNPq)を通じて、AI分野の若手研究者の海外留学を支援しています。このような取り組みをグローバルに展開する必要があります」
- 地域協力の推進:「南米諸国間でのAI政策の調和と協力を進めています。例えば、メルコスール(南米南部共同市場)の枠組みで、AI倫理ガイドラインの共同策定や、越境データ流通に関する共通ルールの検討を行っています」
アンドラーデ局長は、「AIがもたらす機会とリスクは国境を越えて広がるものです。したがって、Hiroshima AI processのような国際的な取り組みが非常に重要です。ブラジルは、途上国の視点を反映させつつ、グローバルなAIガバナンスの構築に積極的に貢献していきたいと考えています」と述べ、国際協調の重要性を訴えました。
シンガポールの取り組み
シンガポールのデニス・ウォン情報通信メディア開発庁専務理事は、同国のAIガバナンスへの先進的な取り組みについて以下のように説明しました:
- AIガバナンスフレームワークの策定:「2018年に『AI モデル ガバナンス フレームワーク』を導入し、2022年に改訂版を発表しました。このフレームワークでは、透明性、説明可能性、公平性、人間中心のAIなどの原則を定めています。例えば、銀行がAIを用いて融資審査を行う際には、その判断根拠を顧客に説明する義務があります」
- AI Verifyプラットフォームの立ち上げ:「2023年6月に、AIシステムの信頼性を検証するためのオープンソースツールキット『AI Verify』を公開しました。このツールを使用することで、企業は自社のAIシステムのパフォーマンス、堅牢性、公平性などを客観的に評価し、改善につなげることができます」
- AI倫理諮問委員会の設置:「2021年に、産業界、学術界、市民社会の代表者からなるAI倫理諮問委員会を設置しました。この委員会は、AIの倫理的利用に関する提言を行い、政府のAI政策の方向性に影響を与えています」
- 国際協力の推進:「シンガポールは、OECD AI原則の策定に参加するなど、国際的なAIガバナンスの議論に積極的に貢献しています。また、ASEANのAIガバナンスフレームワークの策定においても主導的な役割を果たしています」
ウォン氏は、シンガポールが直面している課題と対応策についても言及しました:
- AI人材の確保:「AIエンジニアの不足に対応するため、『AI Singapore』プログラムを立ち上げ、年間10,000人のAI人材育成を目指しています。例えば、企業の従業員向けにAIスキルアップ研修を提供し、既存の労働力のAI対応能力を高めています」
- 中小企業のAI導入支援:「『SMEs Go Digital』プログラムを通じて、中小企業のAI導入を支援しています。具体的には、業種別のAIソリューションの紹介や、導入費用の補助などを行っています。例えば、小売業向けにAIを活用した在庫管理システムの導入支援を行い、多くの中小企業の業務効率化に貢献しています」
- AIの社会的受容性の向上:「AIに対する市民の理解と信頼を高めるため、『AI for Everyone』プログラムを実施しています。このプログラムでは、一般市民向けにAIの基礎知識や倫理的課題について学ぶ無料のワークショップを提供しています」
ウォン氏は、AIガバナンスにおけるマルチステークホルダーアプローチの重要性を強調しました:
「政策立案者と業界が協力して、モデル開発のライフサイクル全体における各主体の責任と実施すべき措置を明確にする『共同責任フレームワーク』を策定することが重要だと考えています。例えば、AIシステムの開発者、導入企業、エンドユーザーがそれぞれどのような責任を負うべきか、明確にする必要があります」
また、グローバルな協調の必要性についても言及しました:
「シンガポールは小国であり、AIのような急速に発展する技術分野では、国際的な協力が不可欠です。Hiroshima AI processのような取り組みは、グローバルなAIガバナンスの枠組みを構築する上で非常に重要です。シンガポールは、自国の経験や知見を共有しつつ、国際的な議論に積極的に貢献していきたいと考えています」
ウォン氏は最後に、「AIガバナンスは、技術の進化に合わせて常に更新していく必要があります。シンガポールは、アジアのAIハブとしての地位を活かし、実践的かつ柔軟なAIガバナンスのモデルを提示していきたいと考えています」と述べ、同国の今後の方針を示しました。
6. 研究者・技術者の見解:ヴィント・サーフ氏と村井純教授
インターネットの父として知られるヴィント・サーフ氏と、日本のインターネットの父と呼ばれる村井純慶應義塾大学教授が、AIの技術的特性と社会的影響について深い洞察を提供しました。
ヴィント・サーフ氏の見解
サーフ氏は、AIの技術的特性と課題について以下のように説明しました:
- 大規模言語モデルの確率論的性質:「現代のAIシステム、特に大規模言語モデルは、私が若い頃に扱っていた『もし〜なら〜する(if-then)』型のソフトウェアとは根本的に異なります。これらは確率論的なシステムであり、正解である確率と不正解である確率の両方を持っています。例えば、GPT-3のような言語モデルは、与えられた文脈に基づいて最も確率の高い次の単語を予測していますが、その予測は必ずしも正確とは限りません」
- システムの振る舞いの予測困難性:「確率論的な性質により、AIシステムの振る舞いを正確に予測することが非常に難しくなっています。例えば、同じ質問を繰り返し行っても、毎回異なる回答が得られる可能性があります。これは、特に医療診断や自動運転などの重要な意思決定を行うAIシステムにおいて大きな課題となります」
- 説明可能性の問題:「ディープラーニングを用いたAIシステムは、その判断プロセスがブラックボックス化しやすいという問題があります。例えば、AIが特定の画像を『猫』と判断した理由を人間が理解可能な形で説明することは容易ではありません。これは、AIシステムの信頼性や透明性を確保する上で大きな課題となっています」
サーフ氏は、これらの課題に対処するための方策についても言及しました:
- リスク評価と情報共有の仕組み:「私たちは、これらのシステムがどのような条件下で誤動作するかを理解し、利用者に潜在的なリスクを警告できるようにする必要があります。例えば、欧州連合(EU)がアプリケーションのリスク要因を格付けする取り組みを進めていることは評価に値します。医療アドバイスや診断など、高リスクな用途については、より厳格な精査が求められるでしょう」
- 継続的なモニタリングと更新:「AIシステムは、一度開発して終わりではなく、継続的なモニタリングと更新が必要です。例えば、機械学習モデルは新しいデータで定期的に再学習させる必要があります。また、システムの振る舞いを常に監視し、予期せぬ動作や偏見が生じていないかチェックする仕組みが重要です」
- 分野別のガイドライン策定:「AIの応用分野によって求められる精度や説明可能性のレベルは異なります。例えば、エンターテイメント目的のAIと、医療診断支援AIでは求められる基準が大きく異なるはずです。分野ごとに専門家を交えてガイドラインを策定し、それに基づいてAIシステムを評価・認証する仕組みが必要だと考えます」
サーフ氏は最後に、「AIの開発と利用には、技術者だけでなく、法律家、倫理学者、社会学者など、多様な専門家の知見が必要です。Hiroshima AI processのような取り組みを通じて、学際的かつグローバルな対話を促進し、AIの恩恵を最大化しつつリスクを最小化する道筋を見出していく必要があります」と述べ、マルチステークホルダーアプローチの重要性を強調しました。
村井純教授の見解
村井教授は、AIの技術的進化と社会的影響について、以下のように説明しました:
- AIの学習データの変化:「1970年代、ある米国の大学では、哲学書をコンピュータに読み込ませ、人間の思考を分析する研究が行われていました。当時は信頼できる哲学書が教材でしたが、今日の生成AIは、ソーシャルネットワークの投稿やIoTセンサーデータなど、あらゆる情報を学習しています。例えば、GPT-3は約5,700億もの単語から学習しており、その中にはインターネット上の様々な質の情報が含まれています」
- 情報源の信頼性と正確性の課題:「大規模言語モデルが多様な情報源から学習することで、幅広い知識を獲得できる一方、信頼性の低い情報や偏見を含んだデータも学習してしまう可能性があります。例えば、ソーシャルメディア上の偏った意見や誤情報がAIの出力に影響を与える可能性があり、これはAIの信頼性を損なう大きな課題となっています」
村井教授は、日本の文脈におけるAIの応用可能性と課題についても言及しました:
- 自然災害対応へのAI活用:「日本は地震大国であり、災害からの復興が重要な課題となっています。AIを活用することで、被災状況のより正確な把握と、救助活動の最適化が可能になるかもしれません。例えば、衛星画像とAIを組み合わせて被災地の状況を迅速に分析したり、過去の災害データからAIが最適な避難経路を提案したりすることが考えられます」
- 高齢化社会におけるAIの役割:「日本は深刻な高齢化社会に直面しており、医療・介護分野でのAI活用が期待されます。例えば、AIによる健康モニタリングシステムを導入し、高齢者の異常を早期に検知することで、医療・介護の質を向上させつつ、人手不足にも対応できる可能性があります」
- プライバシー保護とデータ利活用のバランス:「医療データの利活用は大きな可能性を秘めていますが、同時に個人のプライバシー保護も重要です。例えば、匿名加工技術や連合学習など、個人情報を保護しつつデータを活用する技術の開発と普及が必要です」
村井教授は、AIガバナンスにおける多層的なチェック体制の必要性を強調しました:
「AIシステムの信頼性を確保するためには、自己評価、第三者評価、政府の関与など、多層的なチェック体制の整備が求められます。例えば、AI開発企業による自主的な倫理審査、独立した第三者機関によるAIシステムの監査、そして政府による法的枠組みの整備など、複数の層でAIの信頼性を担保する仕組みが必要です」
最後に、村井教授は国際協調の重要性を訴えました:
「AIの開発と利用は一国だけの問題ではありません。例えば、AIによる顔認識技術の利用基準や、自動運転車の事故責任の問題など、国境を越えた課題が多数存在します。Hiroshima AI processのような取り組みを通じて、国際的な対話を深め、共通の基準やルールを策定していくことが重要です」
両氏の発言からは、AIの技術的特性を深く理解した上で、社会実装に向けた課題解決の方向性が示されました。特に、AIシステムの確率論的性質や説明可能性の問題、学習データの信頼性など、技術的な課題に対する具体的な対応策の必要性が強調されました。また、自然災害対応や高齢化社会への対応など、日本の文脈に即したAI活用の可能性も示唆されました。
7. 国際機関の役割:ITU事務総長の見解
国際電気通信連合(ITU)のドリーン・ボグダン=マーティン事務総長は、デジタル格差の是正とグローバルな協調の重要性について、具体的な事例を交えながら説明しました。
- デジタル格差の現状:「今日、26億人の人々がオフラインのままです。つまり、デジタル的に排除されているのです。例えば、サハラ以南アフリカでは、インターネット普及率が約30%にとどまっています。これは、AIの恩恵を享受する以前の問題として、基本的なデジタルアクセスさえ得られていない人々が大勢いることを意味します」
- 意味のある普遍的な接続性の重要性:「単にインターネットに接続できるだけでなく、『意味のある普遍的な接続性』を確保することが重要です。これには、十分な帯域幅、デジタルスキル、アフォーダビリティ、サイバーセキュリティなどが含まれます。例えば、遠隔教育や遠隔医療を効果的に利用するためには、安定した高速通信環境が不可欠です」
ボグダン=マーティン事務総長は、ITUの具体的な取り組みについて以下のように説明しました:
- AI for Goodグローバルサミットの開催:「ITUは、『AIフォーグッド グローバルサミット』を通じて、40以上の国連機関や多くのパートナーと協力しています。例えば、2022年のサミットでは、AIを活用した持続可能な開発目標(SDGs)の達成に向けた具体的なプロジェクトが100以上提案されました」
- 教育分野でのAI活用:「ITUは、ユニセフと協力し、AIを使って学校の位置を特定し、接続性の設定を最適化することで、コストを削減しています。具体的には、衛星画像解析にAIを活用し、未接続の学校を特定した上で、最適な接続方法を提案するシステムを開発しました。これにより、2030年までにすべての学校をインターネットに接続するという目標の達成に貢献しています」
- 災害管理分野でのAI活用:「ITUは、『すべての人に早期警報を』イニシアチブに参加し、日本政府やWMO、UNEPと緊密に協力しています。例えば、AIを活用して気象データを分析し、より精度の高い自然災害予測を行うプロジェクトを推進しています。また、災害時の通信インフラの迅速な復旧にAIを活用する取り組みも行っています」
ボグダン=マーティン事務総長は、Hiroshima AI processへの提言として、以下の点を強調しました:
- デジタル格差の是正:「Hiroshima AI processの指針と行動規範には、意味のある普遍的な接続性の役割を盛り込むべきです。例えば、AIシステムの開発者に対し、低帯域環境でも動作するAIアプリケーションの開発を奨励するガイドラインを設けることが考えられます」
- 能力開発支援:「企業による能力開発支援など、ターゲットを絞ったコミットメントも求められます。例えば、大手テクノロジー企業が途上国のAI人材育成プログラムに資金を提供したり、自社のAI技術を途上国の課題解決に応用するプロジェクトを実施したりすることが考えられます」
- ジェンダーギャップへの対応:「AIの分野におけるジェンダーギャップにも焦点を当てる必要があります。例えば、女性のAI研究者や起業家を支援するメンタリングプログラムの実施や、AIを活用した女性のエンパワーメントプロジェクトの推進などが重要です」
- 技術標準の重要性:「技術標準は、ガイドラインの効果的な実施に不可欠です。ITUは他の国連機関と連携し、AIの相互運用性や性能評価に関する国際標準の策定に取り組んでいます。例えば、AIシステムの公平性やプライバシー保護レベルを評価するための標準的な指標の開発を進めています」
- 国連システムの活用:「国連事務総長が言及した予定のAIアドバイザリー・ボディは、グローバルデジタルコンパクトと将来のサミットの文脈で前に進めることができる提言を示すでしょう。例えば、AIの倫理的利用に関する国際的な行動規範の策定や、AIがもたらす社会経済的影響の定期的な評価メカニズムの構築などが考えられます」
ボグダン=マーティン事務総長は最後に、「AIの発展は、人類に大きな機会をもたらす一方で、既存の不平等を拡大するリスクも持っています。ITUは、技術の進歩が真に包摂的で持続可能なものとなるよう、国際社会の協調を促進する触媒としての役割を果たしていきます」と述べ、国際機関としての決意を表明しました。
8. 鈴木直道総務大臣による結語:Hiroshima AI processの今後
鈴木直道総務大臣は、HIGH LEVEL LEADERS SESSION Vの議論を総括し、Hiroshima AI processの今後の方向性について以下のように述べました:
- 議論の成果:「本日の議論は、生成AIのリスクに対する認識を深め、地域・立場・ポジションを超えて生成AIの可能性を共有するための重要な一歩となりました。例えば、MetaやGoogleなどの企業からは最先端のAI開発の現状と課題が共有され、インドネシアやブラジルなどの新興国からは途上国特有の課題や期待が示されました」
- 国際的な指針と行動規範の策定:「G7各国と緊密に連携しながら、生成AIを含む先進的なAIシステムを開発する組織向けの国際的指針と行動規範の策定を進めています。具体的には、AIシステムの透明性、説明可能性、公平性などの原則を定め、開発者や利用者の責任範囲を明確化することを目指しています」
- マルチステークホルダーアプローチの重視:「IGFの機会を活用し、政府、学術界、市民社会、民間セクターなど、多様なセクターの議論を通じて幅広い意見を取り入れていきます。例えば、定期的にオンラインフォーラムを開催し、AIガバナンスに関する意見交換の場を設けることを検討しています」
- グローバルサウスの参画促進:「G7の枠を超えた多様なステークホルダーの意見に耳を傾けることで、グローバルサウスを含む国際社会全体が、安全・安心・信頼できる生成AIの恩恵を享受できるような国際ルール作りを進めていきます。具体的には、途上国のAI専門家や政策立案者を招いたワークショップの開催や、途上国のAI人材育成支援プログラムの立ち上げなどを検討しています」
- プロジェクトベースの取り組み推進:「Global Partnership on AI(GPAI)の下で、AIの課題に取り組み、可能性を広げるために、新たにAI専門家支援センターを設立する予定です。このセンターを通じて、例えば気候変動対策や感染症予測などの分野で、国際的なAI研究プロジェクトを立ち上げ、成果を共有していくことを目指します」
- 継続的な対話の場の確保:「AIガバナンスに関する議論を続けていく上で、様々な関係者の意見に耳を傾けることが重要です。今後も定期的に国際会議やオンラインフォーラムを開催し、AIの技術進化や社会実装の状況に応じて、指針や行動規範を柔軟に更新していく仕組みを構築します」
鈴木大臣は最後に、「Hiroshima AI processは、生成AIという革新的技術がもたらす機会とリスクに対し、国際社会が協調して取り組むための重要なプラットフォームです。日本は、G7議長国としての経験を活かし、透明性、包摂性、実効性を備えたAIガバナンスの枠組み構築に向けて、リーダーシップを発揮していく所存です」と述べ、日本の決意を表明しました。
このHIGH LEVEL LEADERS SESSION Vは、生成AIのグローバルガバナンスという喫緊の課題に対し、多様なステークホルダーが知見を共有し、今後の方向性を議論する貴重な機会となりました。Hiroshima AI processを通じて、AIの可能性を最大限に引き出しつつ、リスクに適切に対処するための国際的な取り組みが加速することが期待されます。