※本記事は、世界経済フォーラム第56回年次総会(ダボス会議2026)のセッション「The Day After AGI」の内容を基に作成されています。セッションの動画は https://www.youtube.com/watch?v=NnVW9epLlTM でご覧いただけます。本記事では、セッションの内容を要約しております。
登壇者は、AnthropicのCEOであるDario Amodei氏、Google DeepMindのCEOであるDemis Hassabis氏、およびモデレーターとして『エコノミスト』編集長のZanny Minton Beddoes氏の3名です。
なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご覧いただくことをお勧めいたします。世界経済フォーラムは公民連携のための国際機関であり、政治・ビジネス・文化などの各分野のリーダーが集い、グローバル・地域・産業の課題形成を担っています。詳細は世界経済フォーラム公式サイト(http://www.weforum.org/ )をご参照ください。
1. オープニングと登壇者紹介
1-1. 司会による導入と昨年パリ対談の振り返り
司会: 皆さん、そしてライブストリームでご参加の皆さん、ようこそ。このセッションは、実は数ヶ月前から楽しみにしていた対談です。昨年パリでは、Dario AmodeiとDemis Hassabisのお二人の対談を司会する幸運に恵まれました。もっとも、あの対談は内容よりも別のことで注目を集めてしまいました。お二人が非常に小さなラブシートに押し込まれている一方で、私が広大なソファに悠々と座っていたという、おそらく私のミスによる珍事件です。それはさておき、あの場で私が申し上げたのは、「これはビートルズとローリング・ストーンズを同じステージに立たせるようなものだ」ということでした。そしてあの対談以来、お二人は同じステージで対話をされていない。今日はいわば待望の続編、バンドが再結集する瞬間です。お二人はご紹介するまでもないでしょう。本セッションのタイトルは「AGIの翌日」です。これは少し先走り気味なタイトルかもしれません。まずAGIにどれほど早く、どれほど容易にたどり着けるのかを議論した上で、その先に何が待ち受けているかを考えていきたいと思います。
2. AGI到達のタイムライン——両者の予測と現状認識
2-1. Amodeiの予測:コード・AI研究の自己加速ループと「1〜2年」シナリオ
司会: タイムラインについてまず伺います。Dario、あなたは昨年パリで、「2026〜27年までに多くの分野でノーベル賞受賞者レベルのことを何でもこなせるモデルが登場する」とおっしゃっていました。今は2026年です。今もその予測を維持しますか?
Amodei: 正確にいつ実現するかを知ることは常に難しいのですが、その予測がそれほど外れることにはならないと思っています。私が想定していたメカニズムはこうです。まずコーディングとAI研究に優れたモデルを作り、そのモデルを使って次世代のモデルを開発し、それがループとなってモデル開発のスピードを加速させていく、というものです。コードを書くモデルという観点では、Anthropic社内のエンジニアたちが「もうコードをほとんど自分では書かない。モデルにコードを書かせて、自分はそれを編集したり周辺の作業をしたりするだけだ」と言い始めています。ソフトウェアエンジニアが行うすべての業務をエンドツーエンドでモデルがこなせるようになるまで、あと6〜12ヶ月ではないかと思っています。そうなれば、次はそのループがどれだけ速く閉じるかという問題になります。ただ、ループのすべての部分がAIによって加速できるわけではありません。チップがあり、チップの製造があり、モデルのトレーニング時間がある。そういった要素があるため、数年かかる可能性も十分にあります。一方で、それよりも長くかかるとはなかなか想像できません。もし予測を求められるなら、人々が想像するよりも速く進むだろうと答えます。コードと研究の加速、これが最大の推進力になるはずです。その指数的な加速がどこまで速めてくれるかは本当に予測が難しいのですが、何か速いことが起きるというのは確かです。
2-2. Hassabisの予測:検証可能性の壁、仮説生成能力の欠如、慎重な「2030年代」見通し
司会: Demis、あなたは昨年、「今世紀末までに人間が持つすべての認知能力を発揮できるシステムが登場する確率は50%」とやや慎重な見方をしていました。コーディングにおいてはDarioがおっしゃる通り目覚ましい進歩がありましたが、あなたの予測は今も変わりませんか?また、この1年で何が変わりましたか?
Hassabis: 私は今もだいたい同じタイムライン上にいると思っています。確かに著しい進歩がありました。ただ、コーディングや数学といったエンジニアリング的な作業は、自動化されやすいという意味でやや「簡単な」領域だと言えます。なぜなら、出力結果が正しいかどうかを検証しやすいからです。一方、自然科学の多くの領域はそうではありません。たとえば、自分が構築した化合物や物理学に関する予測が正しいかどうかは、必ずしもすぐにはわかりません。実験して確かめる必要があり、それには時間がかかります。さらに私が気になっているのは、現在のモデルにはいくつかの重要な能力がまだ欠けている点です。既存の予想や既存の問題を解くだけでなく、そもそも問いを立てること、理論を生み出すこと、仮説を構築すること——これは科学的創造性の最高峰であり、現在のシステムがこれを実現できるかどうかはまだ明らかではありません。実現不可能だとは思いませんが、あと一つ二つ欠けているピースがあると感じています。またDarioが話していた自己改善ループが、人間を介さずに本当に閉じられるかどうかも未解決の問いです。そのようなシステムにはリスクも伴うと思っており、それはぜひ後ほど議論したいところです。ただ、もしそのシステムがうまく機能すれば、確かに進歩を大幅に加速させることにはなるでしょう。
3. 業界競争の構図変化とAnthropicの成長
3-1. Google DeepMindの巻き返しとGemini 3の前進
司会: この1年のもう一つの大きな変化は、競争における勢力図の変化です。1年前、ちょうどDeepSeekの衝撃があり、Google DeepMindはOpenAIにやや遅れをとっているという見方が一般的でした。しかし今は状況がかなり変わって見えます。「コードレッド」を宣言しましたよね。かなり激動の1年だったと思います。具体的に何に驚き、どれだけ前進できたか、そして今の陣容についてどう見ているか教えてください。
Hassabis: 私は常に、私たちがリーダーボードのトップに返り咲けると確信していました。私たちはあらゆるモデルの分野において、最も深く広い研究陣を擁していると思っているからです。あとは、それを一つにまとめ上げ、強度と集中力を取り戻し、組織全体にスタートアップのメンタリティを再び吹き込むことの問題でした。それは大変な作業でしたし、まだやるべきことは山ほどあります。ただ、Gemini 3というモデルでも、またGeminiアプリのプロダクト面でも市場シェアが着実に伸びており、私たちが成し遂げてきた進歩は目に見える形になってきました。Google DeepMindはGoogleのエンジンルームとしての役割を担っており、私たちのモデルをプロダクトのあらゆる接点に、以前よりも速く届けることに慣れてきています。まだ道半ばではありますが、確かな手応えを感じています。
3-2. Anthropicの指数的収益成長と独立系モデルメーカーの持続可能性
司会: Dario、あなたの会社は今まさに新たな資金調達ラウンドの最中にあると聞いています。驚異的なバリュエーションです。ただAnthropicは、Demisのいるところと違って、いわば独立系のモデルメーカーです。収益が本格化するまで独立系企業が持続できるかどうかについては、OpenAIについても公然と懸念が語られています。この点をどのようにお考えですか?
Amodei: 私たちの考え方はこうです。より優れたモデルを作れば作るほど、投入するコンピューティングリソースとモデルの認知能力の間には指数的な関係があります。そしてそれと同じように、モデルの認知能力が高まるほど、生み出せる収益も指数的に増加するという関係があります。具体的な数字でいえば、2023年に0から1億ドル、2024年に1億から10億ドル、2025年に10億から100億ドルへと、この3年間で収益は10倍×10倍×10倍という成長を遂げました。もちろんこのカーブが文字通り続くとは思いませんし、そうなればそれ自体が驚異的なことです。ただこの数字は、世界最大級の企業の規模にそう遠くないところまで近づきつつあります。不確実性は常にあります。何もないところからこれを立ち上げようとしている、それ自体が途方もないことです。しかし私が集中している分野で最高のモデルを作り続けることができれば、うまくいくという確信はあります。
Amodei: 一つ付け加えると、私はGoogle DeepMindとAnthropicの両社にとって良い1年だったと思っています。私たちの共通点は、研究者が率いる会社であり、モデルそのものに集中し、世界の重要な問題の解決を北極星に据えているという点です。そういう会社が今後も勝ち続けると私は思っています。
4. 自己改善ループの閉鎖問題とAGIへの臨界点
4-1. コード・数学での実現可能性と物理AI・ハードウェアが介在する領域の限界
司会: では「ループを閉じる」という問題に移りましょう。モデルが自分自身を動かせるようになる、いわばwinner-takes-allの閾値となる転換点が訪れる可能性について、どのようにお考えですか。これは通常の技術のように後発組が追いつけるものなのか、それとも根本的に異なる性質のものなのでしょうか。
Hassabis: まず間違いなく、これは通常の技術とは異なると思います。Darioが言ったように、コーディングや研究の一部はすでにAIが助けてくれています。ただし、ループが完全に閉じるかどうかはまだわかりません。実現は可能だと思いますが、場合によってはAGI自体がなければできない領域もあるかもしれません。特に、答えを素早く検証するのが難しい「複雑な」領域——NP困難な問題が絡んでくるような領域——では、ループはなかなか閉じません。また私がAGIの定義に含めているのは、ソフトウェアだけではありません。物理AIやロボティクス、そういったものすべてを含めて考えると、ハードウェアがループの中に入ってくる。それが自己改善システムの速度をどこまでも制限し得ます。一方でコーディングや数学といった領域については、ループが閉じることは十分に想像できます。そうなると次の問いは、エンジニアリングと数学だけで自然科学の問題をどこまで解けるかという、より理論的な問いになってきます。
司会: Dario、昨年あなたは『Machines of Loving Grace』というかなり楽観的なエッセイを発表されました。「データセンター規模の天才」という言葉も使われていましたね。今まさに続編となる新しいエッセイを執筆中だと聞きました。まだ公開前ですが、1年後の今、あなたの大きな見解はどのようなものになりそうか、少し先取りして教えていただけますか。
4-2. Amodeiの新エッセイ予告——「技術的青年期を生き延びるには?」というフレームと四つの主要リスク
Amodei: 私の基本的な立場は変わっていません。AIは信じられないほど強力なものになる、Demisとはタイミングについてやや見方が違いますが、その強大さについては一致しています。だからこそ、がんの治癒を助けたり、熱帯病の根絶に貢献したり、宇宙の理解を深めたりといった素晴らしいことが実現できる。しかし同時に、巨大で深刻なリスクも存在する。私はドゥーマー(破滅論者)ではありませんが、それらのリスクをきちんと考え、対処しなければならないと思っています。
Amodei: 正直に言うと、『Machines of Loving Grace』を先に書いた洗練された理由があればいいのですが、実際は単純に、ポジティブなエッセイの方が書きやすくて楽しかったからです。今回はようやく休暇中に時間を取り、リスクについてのエッセイを書くことができました。リスクを書きながらも、私は楽観的な人間なので、どうやってこれらのリスクを乗り越えるか、どう戦略を立てるかという視点で書きました。
Amodei: フレームとして使ったのは、カール・セーガンの映画『コンタクト』のある場面です。宇宙人の存在が発見され、人類の代表を選ぶ国際パネルが候補者にインタビューをする場面で、「もし宇宙人に何か一つ質問できるとしたら何を聞くか?」と問われた人物がこう答えます。「どうやって乗り越えたんですか?この技術的な青年期を、自分たちを滅ぼさずに生き延びるにはどうしたんですか?」と。20年ほど前にその映画を観て以来、この問いが頭から離れないのです。私たちは今まさに、砂から機械を作る能力——信じられないほどの能力の扉を叩こうとしています。火を使い始めた瞬間から、いつかこの日が来ることは避けられなかったと思います。しかし、どう対処するかは避けられた話ではない。
Amodei: そのフレームのもとで、私が向き合っている主要なリスクは四つあります。一つ目は、高度に自律的で人間より賢いシステムをどうコントロール下に置くか。二つ目は、個人による悪用——特に生物テロリズムへの懸念です。三つ目は、国家レベルの悪用——中国共産党をはじめとする権威主義的な政府が、これらのシステムをいかに悪用しかねないか。四つ目は、経済的影響、とりわけ労働の置き換えです。そして「私たちがまだ考えていないリスク」が、ある意味では最も対処が難しいかもしれません。これらのリスクへの対応は、私たち企業リーダーが個々にできること、協力してできること、そして政府をはじめとする社会的な制度が担うべきことの三層構造になると考えています。外の世界では毎日さまざまな出来事が起きていますが、私の見方では、AIはそれほど速く進んでいてこれほど大きな問題です。私たちはほぼすべての努力を、この時代をどう乗り越えるかに注ぎ込むべきだと感じています。
5. 雇用・労働市場への影響と「意味・目的」の問い
5-1. 現時点での影響の限定性、エントリーレベルから始まる変化の兆候
司会: Dario、あなたはエントリーレベルのホワイトカラー職の半数が1〜5年以内に消えるとおっしゃっていました。ただDemis、現時点では労働市場への目に見える影響はまだ出ていません。米国で失業率がわずかに上昇していますが、私が見てきた経済研究はいずれも、それはコロナ後の採用過剰によるものであり、AI起因ではないと示唆しています。むしろAI能力を構築するために採用が増えているくらいです。これまでの技術革新と同様に、新しい職が生まれて補われると経済学者たちは言いますが、今のところその証拠はあるように見えます。あなたはどうお考えですか?
Hassabis: 近い将来については、おっしゃる通りだと思います。画期的な技術が登場したとき、いくつかの仕事は失われますが、より価値の高い、あるいはより意味のある新しい仕事が生まれる——これが通常の進化のパターンです。ただ、今年からエントリーレベルやジュニアレベルの仕事、インターンシップといったところへの影響が始まりつつあるいくつかの兆候は感じています。私たち自身の会社でも、そのレベルでの採用が若干鈍化しているという実感があります。しかし一方で、今や誰でもほぼ無償で使えるほど手頃になってきた驚くほど優れたクリエイティブツールが存在することによって、それ以上の恩恵が得られると思っています。もし今、大学の学部生たちに話せるとしたら、これらのツールを徹底的に使いこなせるようになれと伝えます。私たちのように実際にAIを構築している側でさえ、構築に追われるあまり、今日のモデルやプロダクトが持つ能力のオーバーハング——まだ十分に活用されていない潜在能力——をじっくり探索する時間が取れていないほどです。明日のモデルはなおさらです。そういう意味では、AIツールを徹底的に習熟することは、従来のインターンシップ以上の自己研鑽になり得ると思います。これが今後おそらく5年間で起きることだと見ています。ただ、AGIが到来した後は話が別です。そこからは本当に未知の領域に入ると思います。
5-2. 「1〜5年以内にホワイトカラー入門職の半数が消える」予測と労働市場の適応限界
司会: Dario、昨年「ホワイトカラーの入門職の半数が消える」とおっしゃった予測は、今も変わりませんか?
Amodei: 基本的には同じ見方です。あのコメントをした時点でも、すでに労働市場に影響が出ているとは言っていませんでした。今は、ソフトウェアやコーディングの領域でほんのわずかに影響が見え始めているかもしれません。Anthropic社内を見ても、ジュニアレベル、そして徐々に中間レベルにかけて、実際には今より少ない人数でよくなっていく未来が見通せてきています。それをどう社内で合理的に対処するかは、今まさに考えているところです。6ヶ月前の時点での予測である「1〜5年以内」という見方は今も変わりません。
Amodei: ただ、ここで一見矛盾するように見える点があります。あと1〜2年でほぼすべての領域において人間を超えるAIが登場するかもしれないと言いながら、なぜ雇用への影響は1〜5年という幅なのか。その理由はタイムラグと置き換えのメカニズムにあります。労働市場には適応力があることは確かです。かつて人口の80%が農業に従事していたのが機械化され、その後工場労働者になり、さらに知識労働者へと移行してきた。ある程度の適応力はここでも働くでしょう。しかし私の懸念は、この指数的な加速が続けば、1〜5年のどこかの時点で、私たちの適応速度を凌駕してしまうということです。Demisとのタイムラインのわずかなずれをほぐして考えると、突き詰めればコードと研究のループがどれだけ速く閉じるかという点への自信の違いに行き着くと思っています。
司会: 政府はこの問題の規模をきちんと理解し、必要な政策的対応を考え始めていると思いますか?
Amodei: 十分な取り組みがなされているとはとても言えません。こうした場に来るプロの経済学者や大学教授でさえ、AGIへの道筋だけでなく、すべての技術的なことがうまくいった場合に何が起きるかについて、もっと真剣に考えていないことに私は常に驚かされています。
5-3. AGI後の人間の条件——経済問題を超えた意味・目的の変容
Hassabis: 経済的な問題、つまり新たな生産性や富をいかに公平に分配するかという問いは、確かに重要です。適切な制度が整っているかどうかわかりませんが、そこに向かうべきであることは明らかです。ポスト・スカーシティ(希少性を超えた)の世界が来るかもしれない。しかし私が今夜も眠れなくなるほど気になっているのは、それよりもさらに大きな問い——意味と目的の問題です。私たちが仕事から得ているものは、経済的な報酬だけではありません。それが失われたとき、人間の条件そのものにどんな影響が出るのか。
Hassabis: 不思議なことに、経済的な問題よりもこちらの方が解決しにくいかもしれないとも思っています。ただ同時に、私は楽観的です。人間は今でも、エクストリームスポーツやアートのような、必ずしも経済的利益と直結しない多くのことをやっています。そういった活動の、より洗練されたバージョンが生まれてくるでしょう。さらに、私たちは宇宙を探索していくことになる。目的という意味での選択肢は広がっていくはずです。私のタイムラインでいえば5〜10年後にはこれが現実になる。それはそう遠い話ではありません。今からこの問いに向き合っておくことが本当に重要だと思っています。
6. 大衆の反発リスク、地政学的対立、国際協調の必要性
6-1. グローバリゼーションの教訓と産業の社会的責任
司会: AIに対する大衆の反発が強まり、政府が——あなたたちの視点からすれば——誤った判断をするリスクはどれほどあると思いますか?1990年代のグローバリゼーションの時代を振り返ると、雇用の置き換えが起き、政府が十分な対応をしなかった結果、大衆の反発が生まれ、今日の状況につながっています。同じことが起きるリスクはありますか?
Hassabis: そのリスクは確実にあると思います。仕事や生活への恐れや不安は、ある意味で合理的な感情です。私たちがやるべきことの一つは、AlphaFoldのような「疑いようのない善」の事例をもっと多く示すことだと思っています。AlphaFoldはタンパク質の構造予測に革命をもたらし、私たちのスピンアウト企業であるIsomorphicを通じた創薬研究もそうです。新たなエネルギー源の開発もそうです。社会全体として、私たちがそういう方向に向かいたいと思っていることは明らかです。産業全体として、そして私たちリーダーたちにとって、そのような取り組みをもっと示す——語るだけでなく、実際に証明する——ことが求められていると思います。Darioもこの点には同意してくれると思います。そのような疑いようのない恩恵の事例が、今の業界全体では十分ではないと感じています。そうした成果を示しながらも、避けがたい経済的な混乱は生じます。そこをどう乗り越えるかが問われています。
6-2. 米中対立と半導体輸出規制——Amodeiのチップ輸出停止論
司会: Dario、地政学的な環境に目を向けましょう。パリでお会いしてから、地政学的な状況はさらに複雑に——狂気じみているとさえ言えるほどに——なりました。米国の対中姿勢は今や「何でもあり、全力で進め、ただし中国にチップも売る」という矛盾したものになっています。あなたはCERNのような国際機関の設立を提唱してきましたが、現実の世界からは遠すぎる話です。現実の地政学的リスクは高まっていますか。そして現政権はあなたが提言してきたこととはむしろ逆のことをしているように見えますが、どうお考えですか?
Amodei: 私たちはあくまで一つの会社に過ぎず、どれほど混乱した状況であっても、その環境の中で最善を尽くすしかありません。ただ私の政策的な提言は変わっていません。チップを売らないことが、私たちがとれる最も重要な単一の措置の一つです。私はDemisのタイムライン——5〜10年——を望んでいます。もしかしたら彼が正しくて私が間違っているだけかもしれません。しかしもし私が正しく、1〜2年でAGIに到達できるとしたら、なぜDemisのタイムラインまで意図的に減速できないのか。
司会: それができない理由は、同じ技術を同じペースで構築している地政学的な競争相手がいるからでしょう。
Amodei: そうです。だからこそチップなのです。チップの輸出を止めれば、これは米国と中国の競争の問題ではなく、私とDemisの競争の問題になる。その競争は必ず解決できると確信しています。一方、中国との競争においては、互いに減速するという強制力ある合意を結ぶことは非常に難しい。チップを売らないことで、その問いそのものをなくすことができます。
司会: 現政権の論理は、チップを売ることで彼らを米国のサプライチェーンに縛り付けられるというものだと思います。それについてはどうお考えですか?
Amodei: その論理は、テレコムのような通常の技術であれば理にかなっています。米国のスタックを普及させ、世界中のデータセンターがHuaweiではなくNVIDIAのチップを使うようにする——そのような論理です。しかし私はこれをそれとは全く異なるものとして見ています。たとえるなら、ボーイングが製造したからといって北朝鮮に核兵器を売るようなものです。「米国が勝っている、素晴らしい」とは言えません。この技術がどれほど根本的に異なるものかを考えれば、このトレードオフは成立しないと私は思います。私たちは対中国に向けてより攻撃的な措置を多く講じてきましたが、それらはこのチップ輸出停止という一つの措置よりもはるかに効果が薄いと思っています。
6-3. 最低安全基準を定めた国際的枠組みの必要性
Hassabis: 企業間の競争ももちろんありますが、米中間の競争も深刻です。この問題を解決するためには、国際的な協調、あるいは少なくとも共通理解が必要だと思います。私が特に重要だと思うのは、展開における最低安全基準についての国際的な枠組みです。Darioもこれには同意してくれると思います。この技術は国境を越え、すべての人に影響を与え、人類全体に関わるものです。実は『コンタクト』は私も大好きな映画で、Darioと共通していたとは思いませんでしたが、ああいう発想——人類が共通の問題に直面したとき、どう協力して乗り越えるか——こそが今必要なことだと思います。こうした枠組みの構築に向けて取り組むことが急務であり、できれば今私たちが予測しているよりも少しだけペースを落とせれば、社会がこれに追いつく時間が生まれます。ただそれには、今の状況では難しい協調が必要です。
Hassabis: 私自身はDarioのタイムラインよりも自分のタイムラインの方が正しいと思っていますが——
Amodei: 私もDemisのタイムラインの方が好きです。(笑)
Hassabis: では、その点は喜んで譲りましょう。
7. AIの欺瞞リスクと安全研究、フェルミのパラドックス、一年後への展望
7-1. モデルの悪意的行動の観察と機械的解釈可能性研究の進展
司会: 破滅論者たちが懸念するもう一つのリスク領域として、強大で悪意を持つAIというシナリオがあります。お二人ともこの破滅論的なアプローチにはやや懐疑的だったと思いますが、この1年でモデルが欺瞞や二面性を示す能力を持つことが明らかになってきました。この問題について、1年前と比べて見方が変わりましたか?モデルの進化の中で、より懸念すべき点が出てきているでしょうか?
Amodei: Anthropicの創業当初から、私たちはこのリスクをずっと考えてきました。初期の研究は非常に理論的なものでした。私たちが先駆けて取り組んだ「機械的解釈可能性(Mechanistic Interpretability)」——モデルの内部を覗き込み、なぜそのような動作をするのかを理解しようとする研究です。ちょうど人間の神経科学者が脳を理解しようとするように、モデルの「脳」を理解しようとするアプローチです。実は私とDemisはどちらも神経科学のバックグラウンドを持っており、その点でも共通しています。時間が経つにつれ、私たちはモデルに問題ある行動が現れたときにそれを記録し、今ではその記録をもとに機械的解釈可能性を使って対処しようとしています。
Amodei: 私は常にこれらのリスクを懸念してきましたし、Demisとも何度も話してきました。彼もこのリスクを深刻に受け止めていると思います。ただ私は——そしておそらくDemisも同様に——「ドゥーミズム」、つまり「もう終わりだ、何もできない、これが最も可能性の高い結末だ」という考え方には懐疑的です。これはリスクです。しかし、私たち全員が協力して取り組めば対処できるリスクです。科学的な研究を通じて、私たちが作っているものを適切にコントロールし、正しい方向に向ける方法を学ぶことができる。ただし、拙速に進み、ガードレールを設けずに競い合えば、何かが間違った方向に進むリスクは確実にあります。
Hassabis: 私はAIに20年以上取り組んできました。AIを追い求けてきた理由は、科学を解明し宇宙を理解するための究極のツールになり得るというアップサイドへの確信です。子供の頃からこの可能性に取り憑かれてきました。リスクについても、DeepMind創設から15年前の最初から考えてきました。これはデュアルユースの技術です。アップサイドが実現すれば、それは悪意ある行為者によって有害な目的のために転用される可能性も同時に持っています。私は人間の創意工夫を強く信じています。問題は、それを解決するための時間と集中力と、最高の頭脳が協力しているかどうかです。その条件が揃えば、技術的なリスクの問題は必ず解決できると確信しています。しかし、それが揃わなければ——プロジェクトが分断され、互いに競い合っていれば——私たちが作るシステムの技術的な安全性を確保することははるかに難しくなります。時間さえあれば、これは十分に対処可能な問題です。
7-2. フェルミのパラドックスと「大フィルター仮説」——聴衆からの質問
司会: では会場からご質問を。
Philip(Star Cloud、宇宙データセンター建設企業の共同創業者): ありがとうございます。少し哲学的な核心的な問いを聞かせてください。破滅論に対する最も強力な論拠の一つが、フェルミのパラドックスだと思います。私たちの銀河に知的生命体が見当たらない理由として、自分たちの技術によって滅びてしまうのではないかという考えです。このことについてどうお考えですか?
Hassabis: それについてはよく考えてきましたが、フェルミのパラドックスが破滅論の根拠にはなれないと思っています。なぜなら、もし文明がAIによって滅んでいるなら、私たちは銀河のどこかからペーパークリップが飛んでくるのを目撃しているはずです。宇宙のどこかからのAIの痕跡——ダイソン球のような構造物——が何も見えない。それがAI起因であれ生物的なものであれ、何も見えません。ですから、フェルミのパラドックスには別の答えがあるはずです。私自身にはいくつかの理論があります。個人的には、大フィルターはすでに通過済みではないかと感じています。おそらく多細胞生物の出現がそれだったと思います。生物学が多細胞生物を進化させることは、想像を絶するほど難しかったはずです。つまり、これから先に何が起きるかについて、「こうなるに違いない」という保証はありません。これから先は、人類が自ら書いていくものだと思っています。
7-3. 一年後の注目点——自己改善ループ、世界モデル、ロボティクス
司会: 残り時間が少なくなってきました。最後に、来年また三人でお会いできることを願っています。その時までに何が変わっているでしょうか。お二人に15秒ずつお答えいただけますか。
Amodei: 最も注目しているのは、AIシステムがAIシステムを構築するという問題——自己改善ループがどう展開するかです。それが一方向に進めば、あと数年でたどり着けるかもしれない。もう一方向に進めば、私たちが直面しなければならない驚異と、同時に大きな緊急事態が待っているかもしれません。
Hassabis: 私もその点については同意します。私たちは常に緊密に連絡を取り合っています。加えて、自己改善ループだけでは十分でない場合に備えて、世界モデルや継続学習といった研究アイデアも重要になってくると思います。それらが機能しなければ、これらの別のアプローチが必要になる。そしてロボティクスが、そのブレイクスルーの瞬間を迎えるかもしれません。
司会: お二人がおっしゃったことを踏まえると、少し時間がかかった方が世界にとって良いのかもしれませんね。
Amodei: 私もそう思います。世界にとってその方が良いでしょう。
司会: そしてお二人にはそのために何かできることがあるはずです。本日はどうもありがとうございました。
