※本記事は、ITU主催・スイス政府共催、世界インターネット会議(WIC)との共同開催による「AI for Good グローバルサミット」内ワークショップ「Developing Responsible AI: Vision and Practice」の動画内容を基に作成されています。動画の詳細情報は https://aiforgood.itu.int/summit26/ でご覧いただけます。本記事では、ワークショップの内容を要約しております。
本ワークショップは、WIC事務次長・Xueli Zhang氏の司会のもと、以下の登壇者により構成されています。開会挨拶にWIC副議長・元WIPO事務局長のFrancis Gurry氏、基調発言にWIC事務局長代理のLiang Hao氏。トピック1「責任あるAI開発のビジョン」では、ITU国際電気通信連合AI for Good戦略・運営部長のFrederic Werner氏、WIC AI専門委員会共同議長・AI安全とガバナンスプログラム共同リーダーで中国科学院教授のYi Zeng氏、サウサンプトン大学名誉教授・Web Science研究所所長のWendy Hall氏、ケンブリッジ大学未来知性センター・プログラムディレクターのSeán Ó hÉigeartaigh氏。トピック2「責任あるAIの実践と経験」では、CAICTのAI研究所長・WIC AI専門委員会副委員長のKai Wei氏、WIC AI専門委員会標準化推進プログラム共同リーダー・国際AIガバナンス協会共同創設者兼議長のJohn Higgins氏、国連難民高等弁務官事務所(UNHCR)データサイエンティスト・イノベーション担当官のMoises Maldonado氏、北京市インターネット情報弁公室副主任のPan Feng氏、ITU SG16議長のLuo Zhong氏、ローザンヌ大学デジタルイノベーション・情報システム学教授のLiudmila Zavolokina氏、WICデータ作業部会副議長のChris Brown氏が登壇しています。
なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。また、AI for Good(@ITU_AIforGood)および世界インターネット会議(@WorldInternetConference)のソーシャルメディアアカウントもご参照ください。
第1部 開会・基調発言
1-1 開会挨拶と本セッションの趣旨(Francis Gori, WIC副議長)
司会: 著名な専門家の皆さん、ご列席の皆さん、WICワークショップ「Developing Responsible AI: Vision and Practice」へようこそ。AIは前例のない速度で社会と経済を変革しており、大きな機会をもたらす一方で新たな課題も生み出しています。AIを安全で信頼性が高く、人間中心のものにすることは、私たち全員が共有する使命です。本日のAI for Goodサミットには世界各地の専門家が集い、責任あるAIの核心的原則、最先端の実装事例、標準化の進展、そしてガバナンスの経路について議論します。開会の挨拶として、WIC副議長であり元WEO事務局長のFrancis Gori氏をご紹介します。
Francis Gori: ありがとうございます。ここに参加し、専門家の皆さんのお話を伺える機会を得たことを大変光栄に思います。私の発言は短くします。皆さんから直接学ぶことこそが本日の本質だからです。
200年前の1818年、Mary Shelleyがここジュネーブの雨の夏に古典的名著『フランケンシュタイン、あるいは近代のプロメテウス』を書いて以来、私たちは「機械の中の怪物」という可能性に魅了され続けてきました。AIそしてAGIは特に、故Stephen HawkingやHenry Kissingerのような著名な科学者・評論家を含む、非常に多くの「破滅の預言者」を生み出してきました。その背景には、AIがこれまで人間だけの領域とされてきた能力を発展させうる芽を持つという事実があります。
もちろん、合理的なリスク評価と脅威・危険の慎重な管理は、まったく適切であり、むしろ必要なことです。しかし、過度な恐怖は、社会的・経済的に多くの恩恵をもたらしている、また将来的にもたらすことが期待されている技術の普及とさらなる発展への現実的な障壁となりかねません。AIの成功と公共の安全、そして社会的信頼と結束のためには、AIが責任ある方法で展開されているという保証を一般市民に提供する手段を持つことが非常に重要です。
この保証を提供するアプローチが、本日のセッションの主題です。残念ながら現在の分断された世界では、この問題への均一なアプローチは存在しません。自主規制、ISO/IEC 42001のような業界標準、技術的解決策の活用、そして強制力を持つ法律など、さまざまな手段が世界各地で用いられています。その理念的な幅は、EUのAI法が試みた包括的・予測的アプローチから、より経験主義的な問題解決型アプローチまで広がっています。
結局のところ、グローバルに展開されたテクノロジーに対して、国際的な解決策は存在しない状況にあります。UNESCOや欧州評議会のような「ソフトな説得」ツールがあるのみで、現在の国際環境の中で共通のアプローチを形成しようとする意志と能力を見出す希望は薄い状況です。だからこそ、今朝の議論は極めて重要です。異なる視点を持つ国際的な専門家たちが集い、一般市民に切実に求められているこの保証を提供するための共通の基盤を見つけていただきたいと思います。私自身、皆さんからお話を聞き、学ぶことを楽しみにしています。
1-2 WICの責任あるAI開発ビジョン:六原則・直面する課題・三つの実践的アプローチ(Liang He, WIC事務次長)
Liang He: 皆さん、AI for GoodサミットでWICを代表してご挨拶できることを大変嬉しく思います。責任あるAI開発に向けた私たちの知見、取り組み、そして長期的ビジョンをお伝えします。
近年、AI技術は驚異的なスピードで進化しており、その応用は私たちの仕事と日常生活のほぼあらゆる側面を急速に変えています。ChatGPT、DeepSeek、Soraのような大規模AIモデルは、テキスト・画像・動画の生成において非常に高度な能力を持つようになりました。AI駆動のエージェントは仕事・教育・医療などの分野に深く統合され、効率的なデジタルパートナーとして私たちのタスク遂行を支援しています。中国の山岳地帯の観光地では、外骨格ロボットが観光客の登山を楽にサポートし、リハビリテーション分野でも大きな可能性を示しています。
しかし同時に、リスクも急速に拡大しています。データ侵害、ディープフェイク詐欺、オンライン上での偽情報拡散が起きています。つい最近には、OpenAIのモデルがシャットダウン命令に応答しなかったという報告があり、業界内で深刻な懸念を呼び起こしました。AIシステムが制御不能になる可能性は、ますます差し迫った問題となっています。だからこそ、責任あるAIの構築は必要なだけでなく、緊急の課題なのです。
WICは2023年の宜興サミットに40名以上の国際的専門家を集め、責任あるAI開発のロードマップを共同で策定しました。その成果である研究報告書と合意文書において、私たちは生成AIに求められる六つの原則を提唱しています。すなわち、①信頼性と制御可能性、②透明性と説明可能性、③データプライバシーの保護、④包摂性と公平性、⑤明確な説明責任、⑥人間的価値との整合性です。これらの原則こそが、真に人類に奉仕するAIの不可欠な基盤だとWICは考えています。
しかし責任あるAIの開発には、依然として多くの課題があります。第一に、安全性と悪用への懸念が高まっています。AIシステムは急速に進化していますが、必ずしも安全ではありません。偏ったデータや欠陥のあるデータで訓練された場合、誤解を招くハルシネーションを生み出し、虚偽の情報を事実として提示してしまいます。第二に、AIが技術との関わり方を再形成し、深刻な倫理的問題を引き起こしています。特定の人間の業務を徐々に代替するにつれ、AIへの過度な依存リスクが高まり、批判的思考や対人関係への影響が懸念されます。実際、若者の中にはAIとの会話を家族や友人と過ごす時間よりも好むケースが生まれています。第三に、AIの急速な発展は人間の発展に新たな課題をもたらしています。世界中でデジタルアクセスは依然として深く不平等であり、その格差は拡大しています。ITUが2024年に発表した報告書によれば、約26億人がまだインターネットにアクセスできていません。これは世界人口の約3人に1人であり、AIが進化する中で取り残されています。さらに、工場のロボットから自動運転車まで、機械が人間の労働者に取って代わり始め、社会的不平等を拡大させています。環境コストも無視できません。GPT-4のような最先端AIモデルのトレーニングには、オリンピック規格のプール約1,000杯分の水を沸騰させるほどの電力が必要とされています。ガバナンスの面では、現在グローバルなAIガバナンスは分断されており、普遍的に受け入れられた枠組みはいまだ存在していません。
これらのリスクと課題に応えるため、WICは三つの実践的アプローチを取っています。第一に、AIの標準・安全・ガバナンス・産業発展に関する対話のプラットフォームを積極的に構築し、ベストプラクティスの共有を促進しています。2024年のWIC宜興サミットは「人間中心でAI for Goodなデジタルな未来を共に」をテーマに開催され、本年4月には香港でアジア太平洋サミットを開催しました。第二に、昨年の宜興サミットでAI専門委員会を設立しました。Wendy Hall教授、John Higgins氏、Seán Ó hÉigeartaigh博士など世界を代表する専門家が参加するこの委員会は、「科学のためのAI」「医療のためのAI」「グローバルAI標準の開発プロセス」などのテーマでワークショップと研究を重ねてきました。香港サミットでは第一の主要研究成果として『善と全てのためにAIを統治する:グローバルな持続可能な発展の促進』報告書を発表しました。この報告書はAIをUNのSDGs達成に貢献させるための実行可能な勧告、AI恩恵の包摂的共有、途上国への持続可能なAI能力構築支援、国際協力メカニズムの強化を提言しています。第三に、2023年にWICはAI for Social Goodプログラムを立ち上げ、社会全体に利益をもたらすAIの活用事例を世界から収集しています。昨年の宜興サミットでは先駆的な科学技術の受賞者20組を発表し、多くが脳型コンピューティング、身体化知能、高性能チップなどAI応用に関わるものでした。
1-3 責任あるAIの実現に向けた国際協調とWICの提言:多国間ガバナンス体制の構築
Liang He: インターネットが世界をより近づけてきたように、AIは私たちをさらに深くつなぎ、全ての人のための共有された未来の構築を助けると信じています。この展望のもと、いくつかの具体的な前進のための道筋を提唱します。
第一に、人間中心のアプローチを採用し、デジタルデバイドとインテリジェンスデバイドを架橋する必要があります。各国の独自の文脈とニーズに合わせたAIソリューションの開発を進め、AI教育においては先進国と途上国の間の人材交流の扉を開き、AI恩恵をより広くアクセス可能にする能力構築イニシアティブを共同で立ち上げるべきです。第二に、AIの恩恵が全ての人によって共有されるよう、オープンで包摂的かつ持続可能なエコシステムを構築しなければなりません。そのためには、研究機関・企業・政府が連携して基盤的なAI研究を推進し、教育・医療・気候変動対策・文化などの重要分野で国際協力を強化し、データ・アルゴリズム・プラットフォーム・アプリケーションにわたるAIの国際標準を積極的に推進して国境を越えた協力の技術的障壁を下げる必要があります。第三に、多国間主義を採用し、協調的で包摂的なガバナンス体制に向けて取り組むべきです。WICは、国連を中心とした多国間協力の枠組みを支持します。リスクの監視と評価、安全管理、倫理的整合性、技術標準の国境を越えた相互運用性といった重要分野での協力を深めていく具体的な措置を取る時が来ています。
WICは今後もグローバルなプラットフォームとして、幅広い協議、共同貢献、共有された恩恵の場であり続けます。そして本年11月には、中国南部の美しい水郷の町・宜興で次のWIC宜興サミットを開催します。AIイノベーション、AIガバナンス、科学のためのAI、医療と教育のためのAIをテーマとしたフォーラムが予定されており、グローバルAI標準に関する報告書や、グローバルAI安全とガバナンスの探索的枠組みに関する報告書も発表される予定です。ぜひご参加いただき、AIの未来に向けた共有のビジョンを共に形作っていただければ幸いです。
第2部 トピック1:ガバナンスの枠組みと技術倫理
2-1 AI for Goodの活動と原則から実装への道:標準化・マルチステークホルダー連携(Warner Fredericks, ITU)
Warner Fredericks: Liang He氏のプレゼンテーションは、AI for Goodの本質と精神をまさに捉えたものでした。私はいつもこう言っています。AI for Goodはサミットを超えたプラットフォームであり、ムーブメントであり、コミュニティであると。そしてWICのような皆さんの支援なしには何もできません。
AI for Goodは2017年に創設されました。当初はAIへの恐怖と可能性、そして世界の最も差し迫った問題の解決という問いを中心に据えたものでした。その後の歩みを振り返ると、ITU本部での400〜500人規模の小さなサミットからスタートし、CICGでは5,000人規模に成長し、COVID-19を経てオンラインプラットフォームへと転換して190か国から4万5,000人のメンバーを擁するコミュニティへと発展しました。そして今回は昨日だけで16,000件の登録がありました。これはAIが私たちの生活に与える影響の大きさと、その関心の高まりを如実に示しています。
この規模を支えているのがマルチステークホルダー協調です。私たちには53の国連姉妹機関、専門機関、各事務局があります。例えばWIPOは、私たちのAI for Healthイニシアティブに深く関わっています。昨晩のメインステージでのディープフェイク、コンテンツの真正性、音楽産業に関する議論は、WIPOが知的財産の観点から提供した情報によって大きく充実しました。これはAI for Goodが人々をつなぐ触媒として機能している数多くの事例のひとつに過ぎません。
こうした取り組みの中で近年特に重要な問いとして浮かび上がっているのが、「原則をいかにして実装へと転換するか」です。倫理原則を技術仕様やプロトコルに変換するにはどうすればよいか。この問いに対して、標準化は唯一ではないが非常に重要なツールです。昨年のAIガバナンスデーでは、中国・英国・米国・EU・韓国・日本といった主要国のガバナンスプロセスを一堂に集めると同時に、途上国もテーブルに着けることを確保しました。その議論から得た一つの結論は、標準化こそが原則を実装に変えるための鍵だということです。現在、ISO/IECとの世界標準協力の枠組みのもとで標準の構築を進めており、多くの地域・国家標準化機関も参加しています。
ITUにおけるAI for Goodの揺るぎないコミットメントは、こうした原則を具体的な行動へと転化させることにあります。私たちのプラットフォームはUN機関・政府・産業界・学術界・市民社会・NGOを結ぶマルチステークホルダー協調の上に成り立っており、メディア・アーティスト・クリエイター・子どもたちにも開かれています。会場の展示ホールで若者の声が届いているのも、その表れです。私たちは健康・気候変動・持続可能な開発といったグローバルな課題に対するAIソリューションの実践的なプロジェクト開発を積極的に支援しており、全ての活動の背後に責任あるAI設計の指針があります。
責任あるAIが孤立した環境では生まれ得ない理由は明確です。狭いデータセット・狭い専門知識・狭いコンテキストの上にAIを構築すれば、世界の多くの地域にとって目的に合わない狭い解決策しか生み出せません。言語だけを見ても、ほとんどのAIソリューションは英語で訓練されています。それは一つの出発点ですが、世界には何千もの言語や方言があります。10月31日に予定しているAI for Good Impact Africaでは、まさにこのテーマが中心的な課題となります。
前進するための行動として、私はWICのような先見性ある組織に対して、ITUとUN파트너と手を携えて相互の強みを最大限に活かすよう呼びかけます。具体的には、取り組みを整合させて重複を避け影響力を最大化すること、規制枠組みと倫理ガイドラインに関する知識と知見を共有すること、特に支援を必要とする地域のための能力構築プログラムを共同で構築すること、そして世界規模で安全で信頼できるAIを支える相互運用可能な標準を推進することです。責任あるAIへの旅は共有された旅です。この結果の未来には、私たち全員が利害を持っています。
2-2 誇大宣伝と破滅論を超えた責任あるAIの現実:地政学的分断・デジタル惑星汚染・多様性の欠如(Dame Wendy Hall, サウサンプトン大学)
Wendy Hall: 私が今日の発表に付けたタイトルは「誇大宣伝と破滅論から責任あるAIの現実へ」です。まず率直に言わせてください。「テクノロジー倫理」という言葉の意味が私には分かりません。テクノロジーに倫理はありません。倫理は私たち人間が持つものです。
AI世界の主要プレイヤーがハイパースケーラー、すなわちインターネットの上で成長した巨大テック企業であることは偶然ではありません。彼らはデータを持ち、エンジニアリング規模のスキルを持ち、生成AIを構築するための資金を持っています。OpenAIはElon Muskから資金を得て、その後Microsoftから資金を得ましたが、これらはすべてインターネットのハイパースケーリングの一部です。私が「テックブロス」と呼ぶ彼らがこの革命を牽引しており、彼らが会社を運営している地域の文化がその思想の全体を支配しています。
私が深刻に懸念しているのは、AIがインターネットそのものを破壊しつつあるということです。インターネットはまだ50年しか経っていない。AIはフィクションを作り出し、それがインターネット上に溢れています。真実はどうなるのか。何を信頼すればよいのか。私たちは物理的な地球を汚染しているのと同じように、デジタル惑星を毒しているかもしれません。これは責任あるAIの議論の中で誰もあまり考えていないことですが、インターネットが永遠に善の力であり続けると仮定することはできないのです。
地政学的な観点から見ると、地域ごとの違いは鮮明です。米国は商業優先で、Trumpは規制不要という姿勢ですが、議会では揺れ動いています。EUはAI規制で先行しましたが、欧州の多くの大企業から「これは大きな損害をもたらす」という書状が届いています。そして中国については、AIの規制という観点で実は中国は先頭を走っていると私は本当に思っています。ただしそれは、中国政府がデータをどのように扱うかという文脈の中で評価しなければなりませんが。
生成AIが依存しているインターネットのデータは枯渇しつつあります。「ではもっとデータを生産すべきか?もっと書くべきか?」という問いに対して、「生成AIを使ってもっと書けばいい」という答えが返ってきます。しかしそれは間違いを犯します。これが問題の核心です。これは悪循環です。これ以上明確には言えません。
AGIについても同様です。DeepMindの友人Demis Hassabisはじめ各社はAGIに到達すると主張しますが、AGIの定義は曖昧で、都合よくゴールポストが動かされています。責任あるAIの定義も同様に曖昧で、非常に軽率に語られています。私が同意するシンプルな方程式があります。「責任あるAI=AI+教育」です。私の友人Sue Blackがドーハのサミットで語ったこの定義をWICにも採用してほしいと思います。AIが急ぎ足で開発・使用される中、政府・産業界・全てのステークホルダーを教育し、害を及ぼさないようにするとはどういうことかを考えさせることが必要です。
私は1987年に計算機科学における女性の欠如について最初の論文を書きましたが、40年経って何が変わったでしょうか。何も変わっていません。地球の50%は女性です。しかし「人間中心のアプローチ」を語る場に女性の声はどこにあるのか。規制について議論するテーブルに女性はどこにいるのか。Googleを最近訪問してGeminiのテスト方法について説明を受けましたが、非常に印象的でした。しかし私たちが推進すべきは、そういった内部の取り組みを可視化するための「軽量な監査」です。航空産業・製薬産業・食品安全産業のような潜在的に危険な産業で行われているように、企業が自社のテスト・評価・レッドチーミングについてオープンで透明であることを政府が求められる仕組みが必要です。
私が提唱するもう一つのマントラは、「多様でなければ倫理的ではない」です。AIを構築するチームに多様性がなければ、設計そのものが非倫理的なのです。企業は多様性を欠いており、女性にとって有害な環境を作り出しています。多様性なしに責任あるAIを語ることはできません。これは物議を醸すかもしれませんが、正直に言わなければなりません。
2-3 AIガバナンスの危機:企業ロビー活動・規制解体の実態と国際合意への道筋(Seán Ó hÉigeartaigh, Cambridge大学)
Seán Ó hÉigeartaigh: Wendyと私は雨のイングランドから来ており、今朝の発表の中で少し悲観的なトーンと若干のパニックを持ち込んでいるかもしれません。しかし、AIを安全に、そして全てのグローバル社会の利益のために開発されるようにするための戦略的対話を立ち上げるにあたって、私たちの眼前にある課題の規模を直視することなしには前に進めません。
私の見解では、AIガバナンスは今や危機的状況にあります。この数年で、AIフロンティアの推進に数千億ドルの投資が流れ込んでいます。OpenAI・Anthropic・DeepMindのCEOたちは、今後18か月から5年以内にAGIを達成すると予測しています。しかしAIシステムの安全性への投資は、それに全く追いついていません。私たちは、より洗練された行動範囲を持つシステムを開発するにつれて、欺瞞・策略・ミスアライメントのますます警戒すべき事例を目にしています。独立した評価・検証のための学術研究への資金提供は、壊滅的リスクに対しても、倫理やガバナンスの問題に対しても、全く追いついていません。一方でテック企業への投資は大幅に増加し、さらにポリシーロビー活動や米国・欧州でのダークマネー広告キャンペーンへの資金も急増しています。これはまさにダビデとゴリアテの状況です。
具体例を挙げましょう。ロビー活動によって、EUのAI法から汎用AIが除外される寸前でした。汎用AIのないEU AI法に何の意味があるのでしょうか。現在もEUはAI法の実施を遅らせ、または骨抜きにしようとする企業から週ごとに猛烈な圧力を受けています。米国では、最大規模のモデルに監視・監督措置を課すはずだった前政権の大統領令が廃止されました。毎週のように企業は「いわゆるAIレース」に勝つ必要性を理由に、自社に直接利益をもたらすことを正当化しています。OpenAIには著作権データへのアクセスと実際の規制の代わりの軽い自主的コミットメントが、AnthropicにはエネルギーインフラとAI調達が、安全が重要な安全保障分野を含む政府全体での自社技術の活用がそれに当たります。MetaはAIの州レベルの規制を阻止するために、数千万ドルのダークマネーを米国の広告キャンペーンに投入し、「米国は中国がAIを規制しないから規制すべきでない」というメッセージを政治家に繰り返し聞かせています。しかしWendyが指摘したように、少し調べれば明らかなように、中国は実際にテック企業に対する包括的な法律と規制を整備しています。
英国では「フロンティアAI法案」が約束されながら、私の成人期のほとんどに感じられるほど遅延に次ぐ遅延が続き、出てきたとしても大幅に骨抜きにされそうです。過去3年間で、XAIとGoogleは責任あるAIチームを解体・資金削減・追放しました。昨晩XAIはGrokのアップデートをリリースしましたが、その振る舞いは著しく反ユダヤ的です。しかしそれに対する結果はありません。Meta・Google・OpenAIは、AIを軍事目的に使用しないというコミットメントを削除するよう方針を改訂しました。それでもこれらの企業の自主的コミットメントが信頼でき、歴史上最も強力で危険な技術のガバナンスとして十分だと信じるよう求められています。これが危機の実態です。
国際的な合意と圧力はどこから生まれうるでしょうか。グローバルAIパートナーシップは、特定の国を含めないよう圧力に屈することで事実上無関係になり、OECDに折り畳まれていると聞きます。AIセーフティサミットシリーズは、もはや安全性についてのものではないようです。パリでの最後のサミットは、私には仏国テック中心部と欧州AIへの投資売り込みのように感じられました。それ以前にソウルで20社がフロンティア安全コミットメントに署名しましたが、1年が経過してもMistral・Zhipu・01.AI・Minimax等の企業はまだ安全フレームワークを提出していません。国連は最も代表的で正統なグローバル合意の場として長い歴史を持ち、ITU・ハイレベル諮問委員会などを通じて素晴らしい活動をしていますが、それ自身の資金危機に直面しており、これは能力に必然的に影響を与えます。学術界は資源不足に苦しみ、市民社会は脅威にさらされ、政府はますます企業の圧力に屈しています。
しかし、楽観的な兆候もあります。Metaのダークマネーは、米国の州レベルでの規制モラトリアムを買えませんでした。先週99対1で否決されました。企業はEU AI法から汎用AIを除外させることに成功しませんでした。パリの「投資ロードショー」の後、シンガポールが国際的な安全対話を軌道に戻すための会議を開催しました。
私が最終的に信じるのは、フロンティアAIガバナンスには国内規制として実施される拘束力のある国際合意が必要であり、そこには外部評価と監査が含まれるべきだということです。ITUはベストプラクティスと標準において重要な実績を持っています。そのベストプラクティスの技術的詳細は、将来の国際合意の不可欠な基盤となり得ます。ここITUで実現している代表性は、グローバルな合意が到達可能だという実証の原理となれます。WICの報告書が包括的に示しているように、AIは善の力となり得ます。しかしそれは自動的には起きません。私たちは政府に対し、私たちが関心を持つ唯一のレースは安全性において、AI for Goodにおいて、そして意義ある権限を持つグローバルガバナンスにおける「頂点への競争」だと示すことができます。ITU・WIC、そして個人の専門家としての皆さんの仕事は、今これほど不可欠で、緊急で、重要だったことはありません。AIガバナンスは危機にあると私は信じています。しかしあらゆる危機は変化を成し遂げる機会です。
2-4 AIと持続可能な開発目標:SDGs貢献の偏り・LLM安全評価の実証分析・安全性向上実験の成果(Jing Yi, 中国科学院)
Jing Yi: Wendy Hallと共にWICのAI専門委員会の共同議長を務め、Seán Ó hÉigeartaighとAI安全とガバナンスプログラムで協働できることを嬉しく思います。同僚たちの発言を補完する形で、私からは現在の状況と私たちが共に実際に何ができるかについてお話しします。
私が問い続けているのは、「中国のAIはどこへ向かうのか」という問いです。中国のAI国家開発計画の出発点として、中国のAIはグローバルな持続可能な開発と共有された未来のためのものだと語られています。これは非常に重要なことです。ここで「グローバルな持続可能な開発・共有された未来」とは何を意味するのか。新たな定義を作る必要はありません。国連の場で合意した定義がすでにあります。
現在のAIは、数十年前の伝統的なAIとは異なり、SDGsの全ての柱と繋がる包括的な概念です。AIを統治するということは、科学的なAIの取り組みだけを統治するのではなく、全ての柱に関わる包括的な概念を統治することを意味します。このことの重要性は、ある柱の失敗が他の柱の失敗につながるという相互依存性にあります。私たちはWICの取り組みとして、国連ウェブサイト上の全てのウェブページを分析し、それらがSDGsの各柱にどのように関連しているかを調べました。その結果、これらは孤立しておらず、ある柱の成功が他の柱にも貢献し、ある柱のテーマの失敗が他のテーマの失敗にもつながることが分かりました。
私たちが用意した報告書を見ると、AIがどの柱に最も貢献しているかが分かります。最大の貢献は教育・医療・産業イノベーションの分野に集中しており、他の柱への貢献は限定的です。例えばジェンダーに基づく暴力への対応、気候変動対策、生物多様性保全に対してはほとんど貢献していません。これは失望的な現状です。Wendyが言ったように包摂性が必要だとするなら、AIは本当に貢献しているのでしょうか。医療・気候・教育への現在の集中には理由があります。その分野では多くのお金を稼げるし、企業が短期的な恩恵を得られるからです。長期的なテーマを気にかけている組織はあまり多くありません。これは変えなければなりません。
AIガバナンスの国際評価インデックスの新バージョンに取り組んでいます。ガバナンス環境・ガバナンス手段・ガバナンス有効性の観点からAIガバナンスを評価しています。初期の知見をお伝えします。AIガバナンスはAI開発レベルと関連しています。ガバナンス環境の柱について見ると、AIリスクを最も多く露出させているのは実は米国の産業界です。中国も産業AIのリスク露出という点で2番目に位置しています。ただし中国は他の柱ではより良い成果を示している可能性があります。総合的な評価では、中国・米国・ドイツ・英国・シンガポールが上位に来ています。しかし現在のAIガバナンスの根本的な問題は、ガバナンスの準備状況が一人当たりGDPと正の相関を持っているという深刻な不均衡です。これは非常に問題です。AI開発レベルは一人当たりGDPによって変わるかもしれませんが、安全とガバナンスへの準備がそれと同様であってはならないのです。取り残されている国々ほど、安全とガバナンスのレベルをより高く引き上げなければ、被害を受けるリスクが高まります。これは重要な問題です。
実証的な観点から、私たちが分析した最近リリースされた大規模言語モデルの安全評価の結果をお伝えします。米国からのモデルも中国からのモデルも含め、最近リリースされたモデルは安全評価において有意な改善を示していません。これは非常に重要な事実です。それだけでなく、最良のモデルと最悪のモデルの間の安全評価結果の差は20倍以上に達しています。この状況は変えなければなりません。しかし変える動因が存在しないのです。
企業は「安全とガバナンスに資金を投じる余裕がない、まず高度なモデルを作って開発を加速させなければならない」と主張するでしょう。しかしそれは事実ではありません。私たちの研究結果は、安全性と性能を同時に達成できることを示しています。私たちは「ジェイルブレーク解毒剤(jailbreak antidote)」という手法を開発し、各大規模言語モデルに適用しました。その結果、モデルの性能に悪影響を与えることなく、各言語モデルの安全レベルを40%以上向上させることができました。私は科学者として、安全性と性能が同時に達成できるという科学的な結果を示しています。モデルを再トレーニングする必要もなく、はるかに安全なモデルを得ることができます。科学者として、そして産業の実務者として率直に言わせてください。AIモデルを倫理的かつ安全に保つことは、第一原則として私たちの義務です。そしてそれはAIの性能に対して有意な悪影響を与えません。
グローバルガバナンスの複雑な現状についても強調したいと思います。AIを統治するためのグローバルネットワークを作り、織り成すという中心的な役割を国連が担うべきだという点には同意します。しかし国連のさまざまな機関が緊密に協力して、現在の混乱した取り組みの状況を解決し、そのウェブの中の他の全ての点をつなぐ中心的な役割を果たす必要があります。G20・G7・BRICSの役割は国連とは異なりますが、互いを補完しています。ISO・WICの役割も、国連・BRICS・G20・G7の取り組みをうまく補完しています。私はこれらが競合しているとは見ていません。全ての取り組みが織り合わさることが、AIのグローバルガバナンスの正しいあり方です。
最後に申し上げます。私は「AIをどこにでも」というスローガンは好みません。私が言いたいのは、これは依然として人間社会であり生態系の世界であるということです。AIによって補助されることはできますが、AIによって駆動されるべきではありません。AIをどこにでも置く必要はないのです。責任ある着実なAIの発展と適切な活用、それが近い将来にも長期的にも、人間と生態系の両方にとって善をもたらすAIへの道です。
第3部 トピック2:グローバル協調と産業実践
3-1 中国産業界のAIガバナンス実践:能力向上ベンチマーク・セキュリティリスクの現実化・包括的ガバナンス体系(Wikai, CAICT)
Wikai: 中国の産業的視点と現実世界での実践についてお話しします。私はJohn Higginsと共にWICの標準化プログラムのコリーダーも務めており、グローバルなAIガバナンスのイニシアティブと標準化の分析に取り組んでいます。本日は、中国のAIガバナンスの産業実践に焦点を当てます。
まず現状から確認します。中国ではAI能力が極めて急速に進化・反復しています。私の所属機関であるCAICT(中国情報通信研究院)が設計した大規模モデルベンチマークによれば、基盤となる大規模言語モデルの総合スコアは昨年から35%向上しました。たった1年で35%です。推論モデルのスコアについては昨年末から55%増加しており、半年だけで35%の伸びを示しています。マルチモーダルモデルの能力、特にマルチモーダルコンテンツの推論と理解においても昨年比で19%増加しています。この進歩を駆動する主要因は、高品質なトレーニングデータの増加、大規模な計算能力、そして強化学習を含む新しいトレーニングアルゴリズムです。
OpenAIが昨年提示したAGIロードマップによれば、汎用人工知能の達成には5段階を経る必要があるとされています。現在のAI技術はレベル1のチャットボットからレベル3のエージェントへと進化しており、Manus・Deep Research・Cursor for Codingのようなスーパーエージェントがますます強い自律性を示し、今日のAI能力の最前線を体現しています。次のステップはレベル4、すなわちイノベーション支援者へと進化することです。このマイルストーンを達成すれば、知性の転換点となる可能性があります。こうした進展を受けて、私たちはどのようなAIシステムを開発すべきか、目標とビジョンをいかに定義するか、どのような技術的経路を追求すべきか、という根本的な問いが浮かび上がっています。Stuart Russell教授が強調するように、将来の優れた知性を持つ機械が人類に証明可能な形で有益であることを確保することが、私たちが取り組むべき緊急の課題です。
AIのセキュリティとリスクはもはや理論上のものではありません。現実世界で具体的な結果が現れています。AIチャットボットへの感情的依存の末に自殺した十代の若者の事例が実際に起きています。AIを使って政治指導者の声を偽造し人々を騙した詐欺も発生しています。自動運転車が、特に高速道路での事故を引き起こしています。さらに技術的な脆弱性も表面化しています。LLM推論のための非常に普及したオープンソースインフラであるLlama.cppに、今年初頭、ハッカーが世界中の何千ものデバイスから計算能力を乗っ取ることを可能にする脆弱性が発見されました。この問題はユーザーが気付かないうちにグローバルに影響を及ぼしました。これらの事例が示すように、AIリスクは単一の問題ではなく、技術・システムリスクから個人・組織・国家・社会レベルにまたがる複合的な課題です。プライバシー・倫理・政治・経済といった多様な領域に及んでいます。
こうした認識のもと、中国の産業界の視点からすると、AIガバナンスは全体的な視点から取り組まなければならない複雑なシステム設計です。AI統治には複数の次元にわたる協調した発展が必要です。具体的には、倫理原則をAIガバナンスの中心に据えること、規制指導・学術研究・標準設定・公共リテラシー・企業自律規制・テスト検証などを統合的に進めることが求められます。例えば公共リテラシーは非常に重要です。一般市民のAI安全意識を高め、責任ある使用を奨励する必要があるからです。各柱はどれも等しく重要です。
標準化の観点からは、2025年3月に中国の工業情報化部が二つの重要なステップを踏みました。一つはAI技術委員会の標準化技術委員会の設置、もう一つは産業情報技術分野におけるAI安全ガバナンス標準システムの構築に向けたガイダンスの発出です。この標準化イニシアティブは、標準を使って技術の信頼性を支援し、企業発展を促進し、産業におけるAIの安全で安心な使用を確保することを目的としています。私とJohn Higginsが共同で率いる標準化推進グループでは、各標準化機関からグローバルなイニシアティブを募り、グローバルなAIガバナンス標準化における重複と空白を把握する作業を進めており、年末にWIC標準化グループの名義で報告書を公表する予定です。
産業界の自主規制という観点では、2024年12月に1,000社以上の会員を持つ人工知能産業アライアンスが17社の企業に対し、中国初のAI安全コミットメントへの署名を呼びかけました。これらの企業は、安全・セキュリティリスクの最低基準の設定、データセキュリティの保護、モデルの透明性向上など六つのコミットメントを表明しました。この取り組みは産業の自主規制と政府の指導を結びつけ、AIガバナンスの強固な枠組み構築に貢献しています。次のステップとして、各企業のコミットメントの開示情報を間もなく中国で公開し、その後、この開示の信頼性を高めるために第三者による検証を推進していきます。開示から第三者検証へという好循環こそが、コミットメントを現実の世界に根付かせるための重要なサイクルです。
研究面では、CAICTが中国企業と協働してAIガバナンス研究を継続的に強化しており、AIを開発・使用する各主体においてAIリスク管理メカニズムをいかに導入するかについてのビジョン・フレームワーク・方法論を複数のホワイトペーパーで発表しています。AIセーフティベンチマークについては、LLMの安全ベンチマークが安全基準のモニタリング、脅威情報の共有、第三者テストサンプルの組み込みを通じて産業の防御能力を強化しています。AIAが主導するこの活動は数四半期にわたってベンチマーク結果を定期的に公開しており、グローバルなAI安全コミュニティと情報・実践を共有しています。さらに中国はBRICS人工知能開発・協力センターを設立し、グローバルなAI能力構築を促進しています。AI能力は開発とガバナンスの両方を包含しており、このセンターを通じて中国と世界各国の企業の実践的経験を結びつけることを目指しています。真に人々に奉仕し、誰も取り残さないAIガバナンスを共に形成していきましょう。
3-2 人道的支援における責任あるAI設計:UNHCR難民ターゲティングシステムの構築・実験・バイアス発見(Moisés Maldonado / Prof. Leo Ferreira da Noina)
Moisés Maldonado: 本日はUNHCR(国連難民高等弁務官事務所)での経験をお伝えします。具体的には、メキシコおよび中米という特定の文脈における人道的支援のターゲティングという課題に対して、責任あるAIシステムをいかに設計するかについてです。ローザンヌ大学との共同研究としてデータイノベーションファンドの支援を受けて実施したものです。
Leo Ferreira da Noina: ガバナンス全般を語るのではなく、特定のシステムを実装し、それが実際にどうなったかを詳しく観察した事例をお話しします。現在、世界では1億2,300万人もの人々が紛争・暴力・生命を脅かす状況によって国を追われています。特にメキシコは最も多くの亡命申請を受ける国の一つであり、この大規模な流入は、多様な理由で逃れながらも同じルートを移動するいわゆる「混合移動」という形で特徴づけられ、保護ニーズの複雑性が高い状況です。こうした人々への支援として、一時的な現金支援が人道支援組織において有効な手段として確立されています。しかし人道的ニーズは常に利用可能なリソースを上回っており、限られた資源を最大化することが求められます。
UNHCRのような人道支援組織が直面しているのが、ターゲティングという課題です。ターゲティングとは、適切な人物を特定・選別して適切な支援を提供する活動です。現在最も広く用いられているアプローチの一つがスコアカードですが、これは人材集約的でコストがかかり、難民申請者のケースを一件一件スタッフが面接・評価するものです。各インタビューには30〜45分かかり、部屋には多くの申請者が順番を待つという環境の中で、登録インタビュー・脆弱性分析・資源配分という三つのプロセスが行われています。登録インタビューは複雑なデータ収集プロセスであり、AIエージェントが文字起こしを担いながらスタッフが本人に集中するという形でのAI活用が有望な用途の一つです。脆弱性分析はスタッフの専門知識に基づくケースの深刻度評価ですが、この判断自体が人間のバイアスを含む可能性があります。資源配分においても判断に遅延が生じており、AIがリアルタイムに近い形での意思決定を最適化できる余地があります。
しかしAIをこの高リスクの文脈に単純に導入することは問題です。特定の集団を他より優遇したり、主に多数派のケースを学習したシステムが少数派のケースを見逃したりすることでバイアスが生まれ、差別的な実践につながる可能性があります。AIをブラックボックスとして扱ってはなりません。
Leo Ferreira da Noina: 責任あるAI設計の一般的なアプローチは、まず責任の原則を理解することから始めます。しかしテクノロジストは機能の構築から始める傾向があります。どちらにも特有のリスクがあります。私たちが採用した比喩は「トンネル」です。トンネルは両側から掘ることが最も安全です。技術だけから始めるべきではないし、原則だけから始めるべきでもない。両側から同時に始めて、中間地点に解決策を置く。これが私たちのアプローチの出発点でした。
Moisés Maldonado: 実践への変換として、私たちはAI技術の定義的特性(自律的・不透明・動的・適応的)とUN AI倫理原則との間の緊張関係を整理しました。例えばAIはエージェント的であり環境に影響を与えますが、これは「危害を与えない」原則と衝突します。そこで私たちはエージェントを予測生成のみに絞り込むという判断をしました。AIの自律性は人間の自律性と監視との衝突を生みます。解決策として、エージェントは予測を行うが最終決定は人間が下す、という役割分担を採用しました。システムが動的で学習・進化するという特性は、責任の帰属を困難にします。そこでシステムを新たなリスクに適応できるものにするアプローチを取りました。不透明性と透明性・説明可能性の原則との衝突に対しては、データのトレーサビリティを高めることで、データがどこから来てどのようにアウトカムに影響するかを信頼性高く把握できるシステムを目指しました。単純な公平性指標では不十分であり、文脈を認識したガバナンス要素が必要です。
これらを踏まえた六つの特性(エージェントは予測を行う・人間が決定を下す・レジリエントで信頼性が高い、など)を具体化するために、四つの設計原則を定めました。第一に、生成パラダイムによる定性分析として、インタビューを処理して生成的な分析を作成し、ユーザーが情報を分析・処理できるよう提供します。第二に、LLMと自動機械学習を組み合わせた定量分析による予測を提供します。この二つの技術は異なる責任を持つため、責任の割り当て方が重要な設計課題です。第三に、技術を設計する人々と意思決定を行う人々の明確な役割分担を設けます。AIが誤った助言を提供した場合に、ユーザーがそれを覆せる仕組みも組み込んでいます。第四に、インタビュー処理においてバイアス検出と不正検出を行います。スタッフ自身が対象集団に対して偏見を持つ場合もあり、また申請者が虚偽・不正確・誤解を招く情報を提供することもあるため、これらの不一致を検出できるようにしています。
このシステムは「Kashi」と呼ばれるプルーフオブコンセプトとして構築されました。バリューセンシティブデザイン方法論に基づき、三つの主要なイテレーションで構成されています。概念的調査として、フォーカスグループ討議とステークホルダーインタビューを実施しました。技術的調査として、2020年以来4年分のインタビューコーパスを自動機械学習とLLMを統合して処理しました。そして評価として、サンドボックス環境でUNHCRスタッフを対象にオンライン実験を行いました。このサンドボックス環境はツールのアウトカムや影響をコントロールしながら、より広範な展開前に安全にテストできる仕組みです。
実験は二つのグループに分けて行いました。一方は「プレーンAI」として、登録インタビューを処理するだけのAIを使用するグループ。もう一方は「責任あるAI」版を使用するグループです。ここで重要な設計上の判断として、責任あるAI版には意図的にバイアスを導入しました。ツールの効果性だけでなく、システムに導入されたバイアスがUNHCRスタッフの意思決定にも影響するかどうかを検証するためです。両グループへの推奨内容は同一であり、ユーザーがシステムのバイアスを検出できるかどうかを確認することが目的でした。最後に、責任あるAIの五つの原則に基づいてツールを評価するよう求めました。
Leo Ferreira da Noina: 結果として予想通り、スタッフは責任あるAI版の方が責任あるAIの原則により沿っていると評価しました。5基準中4基準でより高い評価を受けました。また、ターゲティングシステムはAIなしの従来の手法よりも優れた成果を示し、スタッフからも活用のメリットが広く認められました。しかし最も重要かつ驚くべき発見は、「責任ある」というラベルを付けることで、スタッフがバイアスを検出できなくなったことです。プレーンAI版では、スタッフは誤った助言の90%を正しく拒否しました。しかし責任あるAI版では、拒否率は65%に低下しました。何かを「責任ある」と名付けることで、ユーザーは信頼感を持ち、誤った助言を排除する意欲が下がるのです。
Moisés Maldonado: この結果は重大な示唆をもたらします。プラトンの有名な言葉に倣えば、「最悪の形の不正義は、見せかけの正義だ」、つまり責任の最悪の形は見せかけの責任です。私たちUNAgenは、ツールの構築の専門家ではありません。だからこそ、単に責任あると主張する製品ではなく、真に責任あるシステムを確保することが極めて重要なのです。
Leo Ferreira da Noina: 「ハロー効果」とも呼べるこのリスクは極めて深刻です。システムに責任あるというラベルを付けることで、ユーザーや人道支援スタッフ、そして組織全体が過度にあるいは盲目的にそれに依存するリスクが生まれます。こうしたシステムを業務全体に展開しようとする場合、人道支援組織はこの点を深刻に受け止め、対処する必要があります。その解決策の一部は教育です。過信のリスクは非常に大きい。またこの研究は現在進行中であり、結果はかなり文脈固有なものである可能性もあります。実務家の皆さんへの私からの励ましとして、AIをブラックボックスとして見るのではなく、特定の文脈と特定の結果を丁寧に見ていただきたいと思います。
3-3 人民中心型AI推進政策(Panong, 北京サイバースペース管理局)
司会: 次に、北京市インターネット情報弁公室副主任のPanong氏に、人民中心型AIの推進についてご発言いただきます。中国語での発表となりますので、テーブル上の翻訳機をご利用ください。
Panong氏は中国語で発表を行いました。字幕の文字起こしでは翻訳不可の音声として記録されており、具体的な発言内容は本記録では再現できません。発表は約8分にわたり行われ、会場から拍手が送られました。
第4部 トピック3:標準化とガバナンスの実装
4-1 組織ガバナンスとしてのAIガバナンス:現場企業の実態調査と標準基盤の未整備問題(John Higgins, デジタルグローバル財団)
John Higgins: 2時間以上の発表をお聞きいただきありがとうございます。本日のトピック2のタイトルは「産業実践とグローバル協調」でした。特に産業実践という部分に、最後に立ち返りたいと思います。
私はこれまで多くの組織のガバナンスと管理に携わってきました。非営利セクター、民間セクター、大学など様々な組織です。私がお伝えしたいのは、AIガバナンスを組織ガバナンスの文脈に置くということです。つまり、組織は正しいことをしようとしています。適切なガバナンスを整備しようとしています。本日の発言は、そういった組織が直面している課題を、私が入手できる情報をもとに探ることに焦点を当てます。
まず現状の整理として、私たちが現在「国際AIガバナンス協会(International AI Governance Association)」と呼んでいる最新の組織について簡単にご紹介します。これはグローバルデジタル財団ファミリーの一員として、約3年前に「AIアシュアランスクラブ」という名称でスタートした個人向け組織です。この分野で正しいことをしたいが具体的にどうすればいいか分からないという人々が集まり、エンジニアリングの思考様式を持って、「何をすべきか、そしてどのようにするか」という実践的な問いに向き合ってきました。エコシステムの中で現在最も活動が盛んなのは、標準策定機関とそれらの標準に対する認証機関です。また、DeloitteやErnst & Youngのような大手会計事務所、さらには法律事務所など、AIアシュアランスを提供する市場も急速に育っています。例えばDLA Piperは、クライアントが規制環境への準拠を支援する大きなプラクティスを持っています。
私たちがここ数年で取り組んできた重要な活動の一つが、AIガバナンスに関するグローバル対話です。特に各地の取り組みを比較・対照することを重視してきました。昨年はヨーロッパ・シンガポール・中国・日本からゲストを迎え、お互いの状況を率直に共有しました。その内容の多くは標準実践に関するものでした。他の組織がどうやっているか、私たちはこうやっている、という情報交換です。適切に実践できれば、それはグローバルな市場アクセスにも貢献します。例えばEUの内部市場で事業を展開したければ、規制環境への準拠を証明しなければなりません。
では現場の主要な課題は何か。私が特に重要と考える三つを挙げます。第一に、法的確実性の欠如から多くの組織がコンプライアンス準備の初期段階に留まっているということです。「あなたの組織は今日、準拠していますか」と聞けば、「何に準拠すべきかが実はまだよく分からない」という答えが返ってくる。つまり答えは「ノー」です。第二に、標準が未完成であることです。CEN/CENELECでさえ初期段階ないし中期段階にあるとは言えるかもしれませんが、最終段階には到達していません。第三に、多くの組織がまだ十分に認識していない問題として、セクター横断的な規制と水平的な規制の間の曖昧な相互作用があります。例えば医療機器向けの垂直セクター規制が求めることと、AI全体に対する水平規制が求めることの間に、どのように折り合いをつければいいのか。その矛盾をどう解決するかについて、現在多くの努力が注がれていますが、まだ答えは出ていません。
この状況をより正直に表現すれば、組織ガバナンスを支える基盤がまだグラついているということです。ガバナンス構造・基盤となる標準・フレームワーク・コードが、依拠するには十分でないのです。ここで私が実際に話した三つの組織の事例を紹介します。
ある大手製薬会社に「AIで何をしていますか」と聞いたところ、「怪しいことは何もしないようにしている」という答えが返ってきました。「では怪しいことをしていないと、どうやって分かるのですか」と問うと、「それは実はかなり良い質問ですね。正直、分かりません。自分たちの判断を使って、自社のAI利用が顧客に受け入れられると思えることを期待しているだけです。ガイドラインはあるので、それほど難しくはないはずなのですが」という返答でした。指を交差させて願うような状況です。
次に、ある大学のチーフデジタルトランスフォーメーションオフィサーと話しました。大学全体にAIを展開しているのですが、「どのフレームワークに依拠していますか」と聞くと、「プレイブックを作っています」という答えが返ってきました。「そのプレイブックはどこまで成熟していますか」と聞くと、「正直かなり未熟です。OECDの原則を参考にして、EU AI法も一応見ていますが、英国にいるのでそれに縛られるわけではありません。とにかくプレイブックを作っている段階です」と言われました。しかし年間売上高5億ポンドの組織が実質的なプレイブックなしに、大規模にAIを展開しているのです。これは多くの組織の実態を反映していると思います。
そして先週、EUのAIチャンピオンという比較的最近できた組織のことも触れておきたいと思います。Wendy Hallも言及していましたが、その構成員を見ると、ハイパースケーラーは一社も含まれていません。AirbusやMercedesやPhilipsのような企業です。彼らが書状で述べているのは、EUから出てくる不明確で重複した複雑な規制への懸念が高まっているということ、そして「しばらく待ってほしい、あと数年余裕をください、組織のガバナンス構造を整備しようとしているのに、その基盤となるものをまだ提供してくれていない」という訴えです。
ですから、基盤を固めなければなりません。私がWICの標準委員会で共同で作成している報告書において最も望むことは、SDO(標準開発機関)その他の機関に対する行動の呼びかけです。これらのフレームワークと標準を急いで前進させてほしいというものです。AIを組織に展開して善い効果をもたらそうとしている企業として、私たちはどのように安全に行動できるかを知る必要があります。ほとんどの組織は正しいことをしたいと思っていますし、そうでない組織については、それはサイバーセキュリティの施行法や罰則の問題です。正しいことをしたい組織と協力して、効果的で効率的なガバナンスメカニズムを整備する手助けをしていきましょう。AIガバナンスを個別に構築するのではなく、組織全体のガバナンスに組み込む形で。それが私からの結論です。
4-2 ITU-Tスタディグループ21によるマルチメディアAI標準化の役割と展開(Noah Law, SG21議長)
Noah Law: ITU-Tのスタディグループ21の議長を務めています。WICから今回ご招待いただいたことに心から感謝します。共有・学習・探求・協力のための素晴らしい機会だと感じています。
私の発表は本日の中で最も短く、スライドは6枚だけです。まずITU-Tの用語でいうスタディグループ21とは何か、ご説明します。スタディグループ21はITU-TのTセクター10のスタディグループの中で最も若い組織です。私たちは技術的な標準化開発を担当しています。以前はスタディグループ16とスタディグループ9として別々に存在していましたが、2024年のニューデリーで開催されたWTSC(世界電気通信標準化総会)において、コンソリデーション(統合)を行うという合意に基づく決定がなされ、現在はスタディグループ21として統合されました。スタディグループ16側はマルチメディア技術とデジタルサービスを担当しており、スタディグループ9側はケーブルテレビに重点を置いていました。この二つを統合することで、AIの分野にも対応範囲を拡大しています。産業ニーズの収束には、収束した技術と統一されたコミュニティが必要です。より強力な専門家チームを持つことで、AIに対してより多くの貢献ができると期待しています。
技術標準化が責任あるAIの発展にどのような役割を果たしうるかについて、異なる層から説明します。第一に一般論として、オープンな標準化、特に国際標準化は責任あるAIに対して非常に確固たる支えを提供しています。それはオープン性・公平性・透明性・セキュリティ・信頼性、そして説明責任を守るからです。もちろんこれ以外にも信頼性など多くの目標を列挙できます。第二に、ITU-Tが果たし得る特定の役割があります。ITUはICT分野における国連の専門機関として、責任あるAI標準を生み出すために他に並ぶもののない能力を持っています。私たちは長い歴史・実績・知識・専門性を誇りに思っており、今回のセッションで示されているような異なる機関間のつながりを仲介するコブウェブの中心的存在として位置付けられることを願っています。
スタディグループ21が扱うAI文脈での標準化の主要な分野として、データ・システム実装・品質測定と評価(QoS/QoE)などがあります。全ての標準が技術的であるわけではなく、人間中心の観点から責任あるAIを達成するための側面も含んでいます。例えば人々がAIによって生成されたコンテンツをどのように受け取るか、満足するか、快適に感じるかというQoE(体験品質)の観点からも取り組んでいます。推薦基準の異なるファミリー、例えば評価基準や人工知能生成コンテンツ(AIGC)の標準も含まれています。
特筆すべき点として、この数年でAIGC(AI生成コンテンツ)が中心的な役割を担うようになったことが分かりました。そこで私たちはこの分野に特化した勧告の開発を進めています。AI標準化の歴史は2018年から始まっており、テキスト・音声・画像・動画・AIモデルという方程式に則った形で標準化を進めています。スタディグループ21の中の特に作業部会3では、これら全ての要素を標準化プロセスに組み込もうとしています。
もう一点、見落としてはいけない警告があります。私たちは善意を持つ人々であり常識も持っています。しかし私たちが「AIによる害」と呼べるものがあることを忘れてはなりません。AIそのものが悪いのではなく、悪意ある目的のために悪用・乱用される可能性があります。そのために私たちができることとして、真正性の証明・来歴の確認・改ざん防止という三つの貢献が挙げられます。これらはすでにISOや他の機関と連携して取り組んでいる分野です。ただし私たちは大海の一滴(一隅の貢献)に過ぎず、解決策は他の機関との協力の中にあると確信しています。
大手企業の積極的な参加という点では、ますます多くの企業がこうした活動に関わるようになっています。Microsoft、中国からはAlibaba・Tencent・Baidu、Huawei・ZTEをはじめとした通信大手企業、さらにCATなども参加しています。数字で示すと、47の標準プロジェクトが完成し、インターネット標準として公表されており、55の進行中の活動項目があります。ぜひこれらの活動に参加していただき、また今後の方向性を調整するうえでも皆さんのご意見をお聞かせいただければ幸いです。
4-3 英国AI産業戦略とグローバルデジタル標準への協調アプローチ(Chris Brown, BSI)
Chris Brown: 長時間お付き合いいただきありがとうございます。簡潔にお話しします。
本日はBSI(英国規格協会)の立場から、英国政府がAIを軸に据えた産業戦略の更新版を先月公開しましたので、その概要をご紹介します。特に中国をはじめとするグローバルパートナーとの協調における示唆についてお話しします。
この戦略の大きな柱は三つです。第一に、強固な国際パートナーシップを通じた自由で公正な貿易の推進です。「公正」という言葉が鍵で、先進的なAIの台頭がもたらす混乱を伴う技術駆動の世界における地政学的不安定性を現実的に乗り越えるアプローチが求められます。第二に、イノベーションの推進と支援です。AI・自動化・ロボティクス・デジタル化・拡張現実・医薬品・先進材料・3Dプリンティング・新エネルギー技術が、私たちの生活・仕事・健康・レジリエンスを変革しています。英国はトップ10に4大学を擁する世界有数の大学大国であり、大学スピンオフから生み出される価値においては米国に次ぐ世界第2位です。第三に、スキルの向上と人材へのアクセス拡大です。テクノロジートレーニングの増加、デジタルスキルの習得、そして先ほどWendy Hallが触れたAIと教育の融合が重要です。
この戦略では8つの優先セクターが特定されており、AIがそれぞれにどう関わるかも整理されています。第一が先進製造です。自動車電池・航空宇宙・宇宙産業・先進材料・農業技術などの主要製造セクターにおいて、イノベーション・自動化・デジタル化・商業化を促進します。第二がクリエイティブ産業です。英国は他のどの国よりも多くの本を輸出しており、世界第2位のアートマーケットを持ち、ヨーロッパ最大のビデオゲーム産業があり、多数の視聴率トップのストリーミング番組が英国制作です。しかしAIによる大きな脅威も伴っています。第三がデジタルと技術です。AIグロースゾーンを含み、先進接続技術・AI・サイバーセキュリティ・エンジニアリング生物学・量子技術・半導体が重点分野です。第四がライフサイエンスで、AIに対応した世界有数の安全で高度な医療データプラットフォームの構築を目指しています。第五がクリーンエネルギー製造と技術革新です。第六がAIとプロフェッショナル・ビジネスサービスへの統合です。具体的には、会計・監査・税務、ESG報告など新分野への拡大を企業に促すこと、新技術により契約合意や紛争解決が変容する法律サービス、そして経営コンサルティングが含まれます。第七が金融サービスで、フィンテック企業の規制緩和と民間資本の呼び込みによる投資促進を進めます。第八が防衛で、防衛そのものだけでなく、イノベーション・輸出・スケールアップを通じたスピルオーバー効果も重視されています。
これらの全体を通じてAIに関しては、英国全土にAIグロースゾーンを設置し、AIバリューチェーンを構築する計画があります。これは英国をAI投資の魅力的な目的地にするための戦略の一部です。そのためにはAI対応経済の実現として、より良いAIインフラの整備・法的に利用可能なデータへのアクセス・経済全体でのAI導入・革新的な規制の整備・優秀なAI人材の確保と誘致が必要です。
BSIとして私たちは政府や世界各地のパートナーと協力して、貿易障壁を削減し、新興技術の商業化を容易にするための取り組みを進めています。特にグローバルなデジタル標準に対する影響力のアプローチを示す戦略の公表に取り組んでいます。こうした取り組み全体において最大の課題は、いかにそれを実現するかです。社会がAIから恩恵を受け、取り残されないようにするために何ができるか。WICの皆さんへの感謝を申し上げ、今後も英国と中国の協力関係がさらに深まることを期待しています。ありがとうございました。
