※本記事は、ITUが50以上の国連パートナーとの協力により開催し、スイス政府と共催したAI for Good Global Summit 2025における「From principles to practice: Governing advanced AI in action」セッションの内容を基に作成されています。このセッションでは、急速に進歩するAI能力に対応する新しいガバナンスアプローチが、業界と規制の文脈で検討されました。
登壇者紹介:
- Chris Meserole氏:Frontier Model Forum事務局長
- Juha Heikkilä氏:欧州委員会人工知能アドバイザー
- Udbhav Tiwari氏:Signal戦略・グローバル事務担当副社長
- Ya-Qin Zhang氏:清華大学特任教授
- Brian Tse氏:Concordia AI最高経営責任者
- 司会:Sasha Rubel氏:Amazon Web Services (AWS) 生成AI公共政策部門責任者
セッションでは、責任あるスケーリング法、EUの実装経験、業界の自発的フレームワーク、革新的規制メカニズムなど、現在のベストプラクティスが検討され、急速に進化するAIシステムに対するガバナンス措置の実装における実践的課題への対処方法について議論されました。
本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報については、AI for Good Global Summit 2026の公式サイト(https://aiforgood.itu.int/summit26/ )をご参照ください。
1. イントロダクション:AIガバナンスの現状と課題
司会者: 今日のパネルディスカッションは「原則から実践へ:行動におけるAIガバナンス」という公式タイトルですが、非公式には「AIガバナンス・スピードデート」と呼ぶこともできるでしょう。今後30分間で、世界各地域の異なる利害関係者から、彼らのアプローチについて、何が機能し何が機能していないか、何をスケールする必要があるかについて、多様な視点を聞く予定です。まず会話の枠組みを設定するために、Brianさんにお聞きしたいのですが、現在注目すべき主要なフロンティアAIリスクについて、どのような状況を見ておられますか?
Brian: 今日このパネルに参加できることを大変光栄に思います。AIを善の力として活用するためには、人類として直面するグローバル規模の課題を特定し、管理することから始める必要があります。国際AI安全報告書や最新の研究から得られた知見によると、少なくとも4つのタイプのフロンティアAIリスクが存在すると考えています。
第一は悪用リスクです。フロンティアAIシステムが科学的推論、コーディング、さらにはフォロジーにおいて人間の専門家レベルの性能を達成するにつれて、悪意のあるアクターがサイバー攻撃を仕掛けたり、危険な病原体を設計したりする障壁が低くなる可能性があります。例えば、最近の研究では、AIエージェントのチームが現実世界の設定でオープンソースソフトウェアのゼロデイ脆弱性を悪用できることが示されています。対策の一つは、攻撃者よりも防御能力を優位に保つために、対抗措置の開発に早期かつ差別的なアクセスを提供することです。
第二は事故と機能不全です。チャットボットからの幻覚は時に面白いかもしれませんが、医療診断などの用途では危険になり得ます。最近、北京政府はAIが医療処方箋を自動的に書くことを禁止する規制を実施しました。一部のアプリケーションを高リスクとして分類し、堅牢な公共安全規制を確保することが重要です。
第三は潜在的な制御喪失シナリオです。ジェフリー・ヒントン教授がサミットで言及したように、現在、デジタル超知能を人間の制御下に維持するための堅牢なメカニズムを持っていません。実際、フロンティアAIシステムが特定の条件下で人間を欺いたり、人間の監視を回避しようとする傾向があることを示す証拠が増えています。もちろん、フロンティアAIシステムは依然として顧客確認チェックを回避したり、野生で自律的に複製することに苦労していますが、破滅的なリスクについては、たとえそれが低確率であったり未知の確率であったりしても、予防措置を講じるべきです。
第四は社会レベルでのシステミックリスクです。特に、汎用AIが経済的に価値のある多くのタスクで人間を上回るようになると、労働市場への影響は深刻になります。これらの段階的で拡散的な影響は、単一の組織では管理できません。誰も取り残されないようにするために、国家レベルと国際レベルの両方で多層的アプローチが必要です。これがITプラットフォームを非常に価値のあるものにしている理由です。
司会者: Brianさん、導入的な概観をありがとうございました。多利害関係者による協力と対話、整合性の必要性への強調は、このサミットが非常に重要である理由の一つだと思います。また、これらの異なるグループが一堂に会してリスクとは何かについて合意し、最も効果的なガバナンスとは何かについて話し合うことが絶対的に重要な理由でもあります。これは課題です。皆さんはこの技術分野で現実に進歩が非常に速く進む中で、リスクに対処するガバナンスモデルを考える作業において、この点を実体験として知っています。
2. 実践的ガバナンス手法とその評価
司会者: Chrisさん、あなたはFrontier Model Forumで、この技術の開発ペースに実際に対処できるガバナンスモデルやアプローチ、それが規制的、制度的、あるいは自発的なものであれ、具体的に考える多くの作業をされてきました。特に可能なグローバルな整合性に関して、これらの異なるアプローチの中で最も有望だと思われるものは何でしょうか?
Chris: ここにいることができて素晴らしいです。このような優れた多利害関係者の聴衆に対して話すことができる素晴らしい機会をいただき、一緒に多くの進歩を遂げることができればと思います。どのアプローチが最も有望かについてですが、私が本当に注目したいのは、フロンティアAIフレームワークと、昨年5月のソウルAIサミットで企業群が行った自発的コミットメントです。彼らは、許容できないリスクと考えるものと、そのリスクを管理する計画を特定することにコミットしました。グローバルで約15から16の企業がこれらのコミットメントに署名したと思います。
この過去1年半の間に、このコミットメントを行った企業のほとんどが、現在フロンティアAIフレームワーク、または他の人が安全・セキュリティフレームワークと呼ぶものの詳細化に多くの時間を費やしてきました。この目標は、先ほど言及されたような特定の種類のリスクに適合するリスク管理フレームワークを確実に持つことです。Brianは、フロンティアAIに伴う可能性のあるリスクの全範囲を概説する素晴らしい仕事をしたと思います。これらのリスクの一部は、既存のリスク管理手段を適応させることで管理できると思いますが、完全に新しいタイプのリスク管理手段が必要なリスクもあります。
特に、もし出現すれば非常に迅速に、極端な規模で非常に迅速に現れる可能性があるリスクのクラスがあり、害が実際に現れるまで何もできない状況になってしまいます。その場合、これらの問題を事前に、または可能な限り事前に特定できるリスク管理手段が必要です。これがフロンティアAIフレームワークが本当に設計されている目的であり、この過去1年間で、どのリスクがそのカテゴリーに該当するかを特定する上で tremendous な進歩があったと思います。バイオリスク、高度なサイバーリスク、自律的なR&D能力といった能力が、根本的に新しいタイプのリスク管理手段を本当に必要とするという成長する合意があると思います。現在、私たちはそれらがどのようなものであるべきかについての新興実験段階にあると言えるでしょうが、時間が経つにつれて、それらをますます制度化していくことになるでしょう。
司会者: Chris、あなたが強調された点、つまり注意を払わなければならないリスクの多くは恐らく非常に迅速に現れるであろうこと、そして既存で適応できるものと完全に新しいアプローチとフレームワークを発明する必要がある場所を見極める方法の問題について、素晴らしい指摘だと思います。Yachinさんに話を向けたいと思います。リスクがどこにあるか、何が現れるかもしれないか、既存のもの、そして開発する必要があるかもしれないものを見るこの種のアプローチにおいて、特にモデルがますます強力になるにつれて、AIガバナンスアプローチを実装する際の実践的な課題として何を見ており、実際にこれらの課題の一部をどのように克服できるでしょうか?
Yachin: ここにいることができて嬉しいです。実装には多くの障害があります。3つだけ挙げさせていただきます。
第一は、急速な技術開発の進展対ガバナンス・規制の遅れです。過去6か月から1年を見ただけでも、特にエージェントAIや、AIを情報領域から物理領域、つまり自動車やロボティクスへ移行させる tremendous な進歩があります。リスクは拡大していますが、明らかにガバナンスや規制はそれに追いついていません。
第二の問題は、中国、米国、世界の他の地域の企業が本当にイノベーションに忙しく、厳しい軍拡競争に巻き込まれていることです。特に明確な説明責任も明確な規制ツールもない状況では、時として安全性を最優先に置かない可能性があります。
第三は地政学的問題です。異なる国々や地域がAI安全に対して異なる態度と異なるアプローチを持っています。英国とEUは異なるガイドラインを持ち、中国は異なるガイドラインを持ち、米国も非常に異なるガイドラインを持っています。中国は、データ収集方法、テスト方法、登録方法、大規模モデルのリリース方法について業界と非常に密接に協力してアプローチを定義する方法において、非常にオープンで包括的だと言えるでしょう。
これらをどのように克服するか?恐らく時間が足りませんが、一つだけ言及させてください。重大リスクや破滅的リスクを特定する方法に関するR&Dへの継続的投資が必要です。レッドライン、ベンチマーク、閾値、警告システムを考案する必要があります。時間があれば後で話しますが、5段階プロセス、つまりテスト、監査、検証、監視、そして軽減についても触れたいと思います。しかし全体的に、最も重要なことは、このようなフォーラムでの強化されたグローバル協力のために、私たち全員が一緒になることだと思います。
司会者: R&Dへの投資の必要性と、技術の進歩のペースに照らした規制の明確性の必要性への強調を気に入っています。また、あなたが提供した文脈、つまり異なる国々がリスクやAIガバナンスの問題に関して異なるアプローチを進めているという点についても重要だと思います。
3. 地域別アプローチと実装経験
司会者: Yuaさんに話を向けたいと思います。EUがEU AI法とその実装に関連する二次法制や指針を実装する最前線にいる中で、特にこれらのモデルがますます強力になるにつれて、AIガバナンスを実装する際の実践的課題として何を見ておられますか?EU AI法の策定時には閾値システムリスクに関する議論があり、現在一般目的AIの実践規範で進行中の指針がありますが、課題として何を見ており、それらを克服する機会についてはどうでしょうか?
Yua: ありがとうございます。ここにいることができて、このパネルのメンバーになることができて大変嬉しく思います。まず第一に、「ガバナンス」という用語は異なる方法で使用されています。一方では、異なる種類の国際的イニシアチブ、原則、行動規範、勧告などがあります。他方では、管轄区域内でのソフトなガードレールまたはハードローがあります。これらはもちろん、コンプライアンスやコンプライアンスの監視と執行の観点から、それを行う可能性において、わずかに異なる結果、異なる含意を持っています。これは実際にそれ自体で一つの課題であり、この技術の進歩によって複雑化はされますが、必ずしもそれに依存するものではありません。
ご存知のとおり、欧州連合がAIを規制することを決定したのは周知の事実です。私たちにとって、信頼を確保することが鍵です。信頼を確保するために法制化が必要だと感じました。なぜなら、信頼はこの技術の導入の前提条件であり、AIの利益が実現するための前提条件だからです。そして私たちは、この技術には本当に非常に多くの利益があると信じています。
AI法では、技術に追いつくことができる方法でアップデートを可能にするメカニズムを導入しました。高リスク分野を附則で定義しており、これは法制の全面的な改訂を行うよりもはるかに迅速かつ容易に更新できます。一方、あなたが言及された実践規範について申し上げますが、これは一般目的AIモデルに関する規定との遵守を促進するのに役立つ手段、ツールを作り出すプロセスです。
このプロセスは独立した議長と共同議長によって主導され、強力な多利害関係者の支援を受けて実施されており、1000人以上の利害関係者が関与しています。これは実際に、Brianが最初に言及した側面の一つを強調しています。この多利害関係者の側面は、これらのプロセスにおいて非常に重要です。しかし、実践規範は現在の業界慣行を実行可能な範囲で考慮し、またできるだけ将来を見据えたものにすることを目的としています。
しかし、その実装においてはある程度の柔軟性もあります。この実践規範に署名する人々は、場合によっては、例えばこの実践規範に遵守するための軽減措置をどのように実施するかといった方法を選択することができます。これは関連する規定との遵守の推定となります。また、多くの箇所で最新技術に言及しており、これは私たちがどこにいるかを考慮して柔軟に解釈できるものです。もちろん、必要に応じてそれを見直し、改訂し、必要であれば概念を明確化することも可能です。
司会者: ありがとうございます。信頼の問題への強調を再び評価します。なぜなら、世界中の組織との会話で見ているもので、AI採用の障壁として実際に挙げられるのが信頼の問題だからです。設計による責任のアプローチを持つことで技術への信頼を構築し、また一緒に働き、これらの種類のガバナンスアプローチを設計する必要がある利害関係者間での信頼をどのように構築するかということです。
特にSignalでの作業において、実際にガバナンスを実装する際の実践的課題として何を見ており、また信頼を構築する問題について、Udbavさんにお聞きしたいと思います。Signalは信頼を運営方法の中心に置くことを最前線で行ってきました。Signal内でAIガバナンスをどのように実装していますか?そして、必要なその信頼を構築するための課題と機会の両方として何を見ていますか?
Udbav: ありがとうございます。まず例から始めさせてください。この例の目的は、市場のプレーヤーとしてのSignalがAIによってどのように影響を受け、どのような影響を与えているか、また実際にAIの展開をどのように形作っているか、そしてそれを使ってガバナンスについて、何が機能し何が機能しないかについて話すためです。
ごく最近、SignalはWindows 11を実行し、SignalアプリケーションのWindows 11でスクリーンショットを撮ろうとすると、得られるのは空白の画面だけという機能をデスクトップインストールに展開しました。この機能を展開した理由は、MicrosoftがRecallという機能を展開したためです。これは画面の定期的なスクリーンショットを撮り、それらを保存し、オンデバイスモデルを実行してそれらのスクリーンショットを分析し、いつこのウェブサイトを訪れたか、いつこの特定のページに行ったか、いつこの人のプロフィールを最後に見たかなどの質問に答える機能です。
これを行わなければならなかった理由は、人々が最もプライベートな情報でSignalを信頼しているからです。そして、Signalを使用するすべての人が、Recall機能が3秒ごとに画面のスクリーンショットを撮り、持っているかもしれない質問に答えられるように永続的にそれらを保存するという事実を必ずしも理解するわけではありません。
この市場でのプレーヤーとしてのSignalを見ると、AI規制は何らかの形で長い間存在してきました。自発的な取り組みもかなり長い間存在してきました。しかし、Microsoftは3秒ごとに画面のスクリーンショットを撮り、世界中の数十億のデバイスに展開するシステムを展開することができました。そして、これらの取り組みのどれもが実際にそれが起こることを防ぐことはしませんでした。そのため、私たちは自分たちの手で行動を起こさなければなりませんでした。なぜなら、多くの他のAIシステムのコンテキストとは全く異なるコンテキストで、AIシステムが引き起こす可能性のあるリスクから私たちのユーザーのプライバシーを守らなければならなかったからです。Signalを使用する人々の多くは特に高リスクの個人だからです。
これをガバナンスに結び付けると、私は実際に、このガバナンスの会話の解決策の多くは、これらすべてのことが並行して起こる必要があるということだと思います。Signalは、来年初めまでに突然Recallのようなものがユーザーが本当に何を意味するかを理解せずに展開されることを防ぐ法律が制定されるとは全く信じていません。また、自発的な取り組みだけで十分だとも思いません。なぜなら、ソーシャルメディアや業界の他の多くの場所から、自主規制的な取り組みが実際にはうまく機能しなかったという多くの前例があるからです。
そして、私たちが高度なAIについて話す限り、今日これらのAIシステムのために非常に現実的な結果を伴って現実の人々に起こっている非常に現実的な害を認識することも同様に重要だと思います。3年後にAIがSkynetを制御するかどうかを疑問に思うのではなく、それらに対処することを選択しない限り、非常に現実的な害が起こり、これらの技術に対して社会が持つ信頼が続く状況に陥ると思います。それは芸術家と話したり、他の多くの個人と話したりすれば、それほど人気のある技術ではないため、すでにかなり落ちています。
社会の信頼を得たいのであれば、私たちは皆、一緒に働く必要があると思いますが、明日起こる可能性のあることに焦点を当てすぎるのではなく、今日の害が起こることを防ぐことも確実にする必要があります。
司会者: その行動への呼びかけを愛します、Udbav。部屋の多くの方々もその行動への呼びかけを愛していることは明らかです。個人やユーザー、コミュニティへの影響から考えて、そこから逆算して作業することを確実にするという点で。しかし、設計によるプライバシーと並行して作業するという強調も同等に重要だと思います。信頼を構築し、責任ある採用を促進するために、この技術を開発する方法に、ガバナンスや規制、自発的コミットメントの取り組みと並行して、プライバシーと設計による責任をどのように最初から組み込むかということです。
4. プライバシー保護と現実的リスク対応
司会者: 皆さんから多くの異なる種類のモデルや学んだ教訓を聞いてきました。少し視点を変えて、管轄区域や利害関係者グループを横断して広く採用されるべき、またはより良い協調が図られるべきガバナンスの要素が一つあるとすれば、それは何でしょうか、そしてなぜでしょうか?ソウルでの自発的コミットメント、EU AI法のような立法イニシアチブ、Signalで起こっているような内部ガバナンスアプローチなど、皆さんが話されたものの中には様々なものがあります。この技術の開発と同時に並行して開発できる、グローバルレベルでより多くの協力を推進し、確実にすることを望むAIガバナンスのモデルは何でしょうか?
Brian: フロンティアAIシステムからの今後数年間の深刻な影響を考えると、今日、餃子の食品安全よりもAIに対する規制が少ないことは非常に印象的です。そのため、特に最も強力なAIシステムに対して、より拘束力のある規制が必要だと思います。私の地域からの2つの規制措置をご紹介したいと思います。
第一は、展開前登録とライセンシングです。現在中国では、すべての生成AIは、一連の安全・セキュリティ評価を経て、公衆に展開される前に政府に登録されなければなりません。この種の登録とライセンシングは、脅威の状況についての理解が深まるにつれて、異なる地域のニーズに適応し、新たな課題にも適応することができます。
第二は、展開後の透明性です。例えば、AI生成コンテンツにコンテンツの出所とウォーターマークを持たせることです。ユーザーと社会が、AIによって生成されたものと人間によって生成されたもの、つまり現実との間の違いを区別できるようにするためです。これは重要だと思います。これは中国が開発者とプラットフォームの両方に明示的なラベリングと暗黙的なメタデータを要求する国家標準を通じて実装したものでもあります。
司会者: ありがとう、Chris。機能しているものをスケールする方法について、あなたの推奨は何でしょうか?
Chris: 私が先ほどのコメントに基づいて構築したいのは、今後12か月間で起こることを願っているのは、フロンティアAIフレームワークまたはリスク管理システムの標準化を開始する取り組みの増加です。それらに関する多くの自発的活動があります。つまり、公表された多くの異なる種類のフレームワークがあります。しかし、堅牢なフロンティアAIリスク管理手段がどのようなものであるべきかについて、グローバルに協調することが非常に重要になると思います。
しかし、そうする際に、非常に迅速なタイムラインで正式な標準をどのように作成するかを特定する必要があると思います。なぜなら、ISOのSC4201のようなもの、これは優れたAIリスク管理標準だと思いますが、開発に4、5年かかったと思います。そして、そのような厳密さを持つものを、はるかに短いタイムラインで提供できる必要があると思います。
司会者: 組織が安全な方法でスケールしたいと聞いている中で、特に明確性を提供する標準の重要性への強調を愛します。Udbavさん、あなたにお聞きします。
Udbav: 主に2つのことを言いたいと思います。第一に、これらの技術的項目の一部が展開される速度が、それらを開発・展開する組織によってさえ、それらが本当に理解される速度よりもはるかに速いという認識があると思います。その理解なしには、プロセスXに従ったり標準Yに従えば、これらのシステムのすべてのリスクが対処されるという結論に達することは非常に困難だと思います。なぜなら、多くの場合、それらのリスク自体があまり明確に理解されていないからです。そして、それらが本当に理解されていない理由は、それらが非常に独占的で閉鎖的な設定で、外部世界との相互作用がほとんどない中で起こることが多いからです。
第二に、それが起こったとしても、その結果は非常に大きく、大きなモデルリリースがあるたびに、インターネット上でその日誰もが話すのはその新しいモデルが出たことのように、人々は開発されたモデルの種類の制限や課題、それらが使用されるべきでないことについて話すことに関して、はるかにリスク回避的になる傾向があります。
過去3、4年間の著名なモデルプロバイダーのすべてのモデルカードを見て、それらが出てきたときに存在していた情報量と今日存在する情報量を分析するだけで、実際に回帰が見られます。その回帰が見られる理由は、業界に本当に構築された誇大宣伝のために、その情報にはより大きな結果があるからです。
そのため、この技術が作っている進歩と同じくらい利益とアプローチについて明確になる機会と空間があることを確実にする必要があると思います。なぜなら、自主規制機関であろうと実際の法制であろうと、それについての正直な会話がなければ、正直な会話を持つことができないからです。そしてそれが本当に重要なことです。
司会者: 正直な会話を持つ必要があるという強調を愛します。正直な会話の問題と並行して、あなたは暗黙的に正しい質問をする必要があることも強調しました。この技術の悪用だけでなく、誤用と有益な使用の両方に関して、どのような質問をする必要があるか、多くの場合非常に困難な質問です。Yachinさん、あなたにお聞きします。
Yachin: 国家AI安全研究所と多くの研究所が過去数年間で非常に建設的で積極的な役割を果たしてきたと思います。モデルを評価し、業界と協力して監視し、結果を公表する。それは素晴らしいことでした。一つ言及させてください。Yoshua BengioやAIの先駆者たちのようなトップの学者や思想的リーダーが業界のリーダーや政策立案者と協力しているのを見ることができて嬉しく思います。これを機能させるために、設計によって最初から行わなければなりません。安全性は製品の基盤であり、後付けではありません。
司会者: 安全性が基盤であり後付けではないということを愛します。会話でますます出てくる反省の一つは、ボルトオンから組み込み、設計による責任へと、どのように移行するかということです。設計により安全で信頼できるアプローチをどのように確保するかです。そして、あなたもEU AI法での作業でそれについて多くの時間を考えてこられたと思います。EUでのAIガバナンスに関する会話から得た主要な教訓は何でしょうか?
Yua: そこから導き出せる多くの教訓があり、関連する可能性があると思いますが、これらは複雑な問題であり、複雑な問題は、私たちが簡単な解決策を望むのと同じくらい、実際に簡単な解決策に適さないことが多いと思います。しかし、全体的に、おそらく強調する価値があるのは、フォローアップと更新メカニズムの必要性です。更新についてはすでに話しましたが、フォローアップについても同様です。なぜなら、ここで重要な問題の一つとして特定されている信頼については、そこにある措置や勧告がどのように実際に実行に移され、それらがどの程度効果的であるかを知ることが実際に重要だからです。
そのため、これは法制の文脈ではこの種のメカニズムが組み込まれている必要がある一つの側面だと思いますが、他の種類のよりソフトなアプローチにも必要でしょう。
5. 国際協調に向けた具体的提言と今後の展望
司会者: あなたの最後の発言に基づいて、私たちに残された数分で、一種の締めくくりの行動への呼びかけと反省に移りたいと思います。今後12か月間を見据えて、AIの時代では12か月は恐らく犬年で12年に相当するでしょう。実践においてAIガバナンスをより効果的にするために必要な一つの具体的なステップ、それが規範、プロトコル、協力であろうと、前進を見たい標準であろうと、何でしょうか?皆さんの多くが国際的な協力と整合性の必要性、ギャップ分析の必要性、多利害関係者による会話の必要性について話してきました。特に信頼でき安全なAIに関して、AIガバナンスで針を動かすために、あなたが機能しているのを見ているアプローチで、国際アジェンダで優先されることを望む一つのことは何でしょうか?
Chris: Yuaさんの信頼に関するポイントを取り上げて、グローバルに本当に起こる必要があることの一つは、本当に最新で最も強力なフロンティアAIモデルを開発している企業が、彼らの技術に関連する最も極端なリスクをどのように扱うかについてのリスク管理フレームワークを本当に公表し、そして彼らがそれをどのように実装しているかについての体系的な更新も公表するという規範が開発されることだと思います。そうすることで、公衆が彼らが行っている活動を認識でき、これらの製品がどの程度信頼できるかを自分たちで判断できます。
司会者: 素晴らしい行動への呼びかけです。Brianさん、あなたにお聞きします。
Brian: 私が見たい具体的なステップは、高度なAIシステムからの許容できない結果として我々が見なすものを定義する国際的な取り組みです。そしてそれらのレッドラインに基づいて、Yachin教授が言及したように、一連のリスク閾値と早期警告指標もより良く定義できます。何が許容可能で何が安全かは、AI業界だけに任せるべきではありません。
そして、過去の金融危機や環境災害から学んだように、少数のエリートによる無制限なリスクテイキングは、グローバルサウスや世界中の保護されていないコミュニティを含む、グローバルレベルでのシステミックリスクにつながる可能性があります。そのため、これは国際コミュニティと市民社会が一緒になって、強く決定的な声を持たなければならない分野だと思います。
司会者: 一緒になるという素晴らしい行動への呼びかけを愛します。Yuaさん、今後12か月間で何を見たいですか?
Yua: 12か月はAIにおいては長い時間ですが、いくつかのことにとってはかなり短い時間でもあり得ます。私が特に考えているのは、イニシアチブの拡散があったということです。これはまた、監視、報告などの要件の拡散も意味します。これは開発者に負担をかける可能性があり、イニシアチブのいくらかの合理化が非常に有用だと思います。しかし、そのためには12か月はかなり短い時間です。それが長い時間の視点か短い時間の視点かは、何を見るかによって本当に異なります。
司会者: 合理化についての素晴らしい行動への呼びかけです。Yachinさん、過去3か月間...
Yachin: 過去3年間、私はAI生成コンテンツとモデル、特にエージェントの登録と識別の強力な提唱者でした。中国でこれの一部が起こっているのを見ることができて嬉しく、これが世界の他の地域にも拡大できることを願っています。
司会者: Udbavさん、あなたにお聞きします。
Udbav: 私にとっては、間違いなく開発者エージェンシー、先ほど言及したRecallの例と非常に似たものになるでしょう。アプリケーションプロバイダーが、AIシステムが引き起こす可能性のあるリスクから彼らを保護するために、ユーザーのために決定を下すことができることが重要だと思います。プライバシーはそのうちの一つです。
ユーザーがこれらの保護を無効にできることは問題ありませんが、現在、オペレーティングシステムプロバイダーとその上で実行されるアプリケーションの間にはかなり共生的な関係があったと思います。AIシステムの展開とともに、これが根本的に変化するのを見ると思います。
そして、何かが機密である場合、ユーザーは必ずしも自分の設定を保護するために設定の奥深くまでメニューに潜る必要がないことを確実にするために、しかしアプリケーションは我々がRecallで行ったように、ユーザーの代わりにユーザーのプライバシーを保護できるべきです。これがはるかに規範になるべきです。なぜなら、それなしには、70億人が彼らに値するレベルまで自分自身を保護できるようになることはないからです。
司会者: この会話と皆さん5人の素晴らしい洞察から私が得る主要な収穫の一つは、AIが可能なことに関して安全性の観点から、協力と研究に投資するだけでなく、その協力が地域と管轄区域を横断し、利害関係者グループを横断していることを確実にする必要があることです。特に皆さんの多くが強調したように、透明性と責任が優先される中で、責任を中心に置くことの重要性を非常に意識するようになりました。なぜなら、同時に責任が欠如している信頼を駆動し、それが採用を駆動し、最終的にすべてのためのイノベーションと有益な使用を駆動するからです。
これは今まで最も楽しいAIガバナンス・スピードデートでした。Chris、Yua、Udbav、Yachin、Brianの皆さん、あなたの洞察と何が機能し何が機能しないかについての学習の共有をありがとうございました。皆さんの多くが会話と正しい質問をすることの重要性を強調したように、これが会話の終わりではなく始まりであることを願っています。そして、AI for Goodの素晴らしいグループと一緒に、これらの行動への呼びかけをどのように前進させていくかについて、聴衆の皆さんの一部と交流できることを願っています。皆さん、どうもありがとうございました。素晴らしい午前中の残りをお過ごしください。