※本記事は、2025年1月に開催された第55回世界経済フォーラム(WEF)年次総会におけるタウンホールセッション「Debating Technology」の内容を基に作成されています。登壇者は、MITメディアラボ所長のDava Newman氏、Metaのリサーチ部門リーダーのYann LeCun氏、モデレーターのIna Turpen Fried氏です。
本記事では、セッションの内容を要約しておりますが、登壇者の見解を正確に反映するよう努めています。ただし、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご覧いただくことをお勧めいたします。
世界経済フォーラムは、グローバル市民精神に基づく官民協力を通じて世界の状態を改善することを使命とする国際機関です。1971年に非営利財団として設立され、スイスのジュネーブに本部を置き、独立性、中立性を保ちながら、あらゆる主要な国際機関と緊密に協力しています。
公開URL: https://www.youtube.com/watch?v=MohMBV3cTbg
1. イントロダクション
1.1. パネリストの紹介
世界経済フォーラム年次総会2025における「Debating Technology」セッションでは、技術の未来について重要な議論が展開されました。このセッションには、3名の著名な専門家が登壇しています。
モデレーターを務めたIna Turpen Friedは、25年にわたりシリコンバレーでテクノロジー業界を取材してきたジャーナリストです。技術は善用にも悪用にも使えるという単純な二分法を超えて、より深い議論を展開する必要性を指摘しています。
MIT メディアラボ所長のDava Newmanは、宇宙工学とバイオテクノロジーの専門家です。特に人間中心設計(Human-Centered Design)の重要性を説き、MITメディアラボでは50年以上にわたりAI研究を行ってきました。生成的生物学(Generative Biology)やIoT(Internet of Things)など、最新の技術融合に関する深い知見を持っています。
MetaのAIリサーチ部門リーダーであるYann LeCunは、大規模言語モデル(LLM)の限界と可能性について研究を進めています。特に、オープンソースプラットフォームを通じた多様なAIシステムの開発と、AIの基本的な理解能力の向上に焦点を当てた研究を行っています。
このパネルディスカッションでは、これらの専門家が、急速に発展するAI、宇宙探査、バイオテクノロジーなどの最新技術について、その可能性と課題、そして人類社会への影響を多角的に議論しています。特に、技術の責任ある活用方法や、人間中心の技術開発の重要性について、それぞれの専門分野からの知見を共有しています。
1.2. テクノロジー議論の現状認識
Ina Turpen Fried:「シリコンバレーで25年間取材を続けてきた中で、よく耳にする議論があります。それは『テクノロジーは善用にも悪用にもなりうる』という単純な二分法です。しかし、この考え方は、特にテクノロジーの開発者側から『良い使われ方が悪い使われ方を上回ることを期待する』という消極的な態度を正当化するために使われがちです。この姿勢は、私たちがテクノロジーを良い方向に導き、制限し、方向付けをする責任を軽視しているように感じます。」
Dava Newman:「MITメディアラボでは、人間中心設計を最重要視しています。私たちは『このアルゴリズムは人間と全ての生命の繁栄に意図的に貢献するか』という問いを常に投げかけています。もし答えが『ノー』であれば、その開発を進めるべきではないと考えています。現在、AIは大きな期待を集める一方で、多くの人々が正当な不安を抱えています。例えば、この会場にいる皆さんに『現在のAIは安全で信頼できると感じているか』と尋ねても、ほとんど手が挙がらないでしょう。しかし、『安全性と信頼性が確保されれば使いたいと思うか』と尋ねれば、大多数が賛同するはずです。」
Yann LeCun:「確かに現在のAIシステム、特に大規模言語モデルには本質的な制約があります。これらは言語操作には長けていますが、実世界の理解や推論能力には大きな限界があります。しかし、これらの課題は認識されており、今後3-5年の間に新しいパラダイムのAIが登場すると予測しています。ここで重要なのは、AIの発展を止めることではなく、より安全で信頼できるシステムを構築することです。そのためには、透明性のあるオープンな開発と、多様な価値観を反映させた開発プロセスが不可欠です。」
1.3. 討論の目的設定
Ina Turpen Fried:「このタウンホールでは、技術の是非を単純に議論するのではなく、その活用方法や方向性について建設的な対話を行いたいと考えています。今日は会場の皆様やライブストリームの視聴者からも意見を募り、多様な視点からの議論を展開していきます。AIや宇宙探査、バイオテクノロジーが急速に進展する中で、これらの技術をどのように人類の課題解決に活用できるのか、そしてそのリスクをどう最小化していくのかを考えていきましょう。」
Dava Newman:「その通りですね。MITメディアラばでは、技術開発において"Intentional(意図的)"であることを重視しています。人間と全ての生命の繁栄のために技術を活用するという明確な意図を持つことが重要です。私たちは技術の開発段階から、それが人間にとって本当に有益なものかどうかを常に問いかけています。特に現在のような技術の急速な発展期においては、この視点が極めて重要だと考えています。」
Yann LeCun:「私たちMetaの視点からは、この議論には二つの重要な側面があります。一つは技術自体の信頼性と制御可能性の向上です。現在のAIシステムには多くの制約がありますが、それを克服するための新しいパラダイムの開発を進めています。もう一つは、その技術を世界中の多様な人々が活用できるようにすることです。そのためにオープンソースという形で技術を提供し、様々な文化や価値観に対応できるAIシステムの開発を目指しています。」
Ina Turpen Fried:「まさにその点が重要ですね。このセッションでは、技術の発展による利益を最大化しながら、同時にリスクを最小化する方法について、具体的な議論を展開していきたいと思います。特に、異なる立場や視点からの意見を取り入れることで、より包括的な解決策を見出していければと考えています。」
2. AIと技術の現状分析
2.1. 3つの技術サイクルの収束
Dava Newman:「現在、私たちは前例のない技術的スーパーサイクルの真っ只中にいます。産業革命期は一度に一つの技術革新を扱えば良かったのですが、今は少なくとも3つの重要な技術が同時に収束しています。AIはその代表例ですが、MITメディアラボでは50年以上前からAI研究を行ってきました。今やAIはCo-pilotのような形で誰もが使える技術となっていますが、これはまだ始まりに過ぎません。」
Yann LeCun:「その通りです。しかし、現在のAIにはまだ多くの制約があります。私たちは今後3-5年の間に、AIの新しいパラダイムが出現すると予測しています。現在のAIは言語処理に特化していますが、物理世界の理解や複雑な推論能力には大きな限界があります。」
Dava Newman:「さらに注目すべきは、生成的生物学(Gen Bio)の急速な発展です。これはもはや単なる合成生物学ではありません。AIが生成的生物学と融合することで、大規模言語モデルから大規模自然モデルへと進化し、生物学や遺伝学の情報を直接処理できるようになっています。」
Ina Turpen Fried:「そして3つ目の技術サイクルについて、もう少し詳しく説明していただけますか?」
Dava Newman:「はい、3つ目は、私が『すべてのモノのインターネット』と呼んでいるものです。従来のIoTを超えて、海洋の生物多様性監視から、陸上の気候変動観測、大気圏の測定まで、あらゆる場所でセンサーネットワークが展開されています。特筆すべきは、現在の気候変数の半分以上が宇宙からの観測で測定されているという事実です。これら3つの技術の収束により、私たちは人類史上初めて、地球規模のシステムを包括的に理解し、モニタリングできる段階に来ているのです。」
Yann LeCun:「この技術の収束は、特に実世界の理解という観点で重要です。現在のAIシステムは主にデジタルな離散的データを扱うことに長けていますが、実世界の連続的なデータを理解し、処理する能力はまだ限定的です。これら3つの技術の融合は、この限界を超える可能性を秘めています。」
2.2. 大規模言語モデル(LLM)の限界
Yann LeCun:「現在のAIシステム、特に大規模言語モデルには4つの本質的な制約があります。知的な振る舞いに不可欠な要素として、物理世界の理解、永続的なメモリ、推論能力、そして複雑な計画立案能力が挙げられますが、LLMはこれらのいずれにおいても十分な能力を持っていません。確かに、これらの機能の一部を後付けで追加しようとする試みはありますが、根本的な解決にはなっていません。」
Ina Turpen Fried:「その制約について、もう少し具体的に説明していただけますか?」
Yann LeCun:「現在のLLMは離散的な世界、つまり言語の操作には長けています。スティーブン・ピンカー教授が会場にいらっしゃいますが、ある意味で言語は実世界の理解に比べれば単純なのです。だからこそ、LLMは司法試験に合格したり方程式を解いたりできるのに、猫ができる程度の物理世界の理解すらできないのです。実世界は言語よりもはるかに複雑です。」
Dava Newman:「その通りですね。MITメディアラボでも、単なる言語処理を超えた、より深い理解を目指しています。物理法則や生物学的な原理を組み込むことで、より豊かな世界理解が可能になると考えています。」
Yann LeCun:「例えば、離散的な世界での予測は比較的容易です。テキストの次の単語を予測する場合、辞書に含まれる有限個の単語の中から確率分布を計算すれば良いのです。しかし、同じ原理を物理世界の理解に適用しようとすると、例えば動画の次のフレームを予測するような場合、それは完全に手に負えない課題となります。これが、現在のLLMの技術をそのまま実世界の理解に適用できない理由です。」
Ina Turpen Fried:「では、これらの制約を克服するためのアプローチは?」
Yann LeCun:「Metaでは、新しい技術の開発に取り組んでいます。3-5年以内に、現在のLLMとは全く異なるパラダイムのAIシステムが登場すると予測しています。これらのシステムは、行動の結果を予測し、目的を達成するための一連の行動を計画できる、真の意味での知的なシステムとなるでしょう。そして、これが本当の意味でのエージェントAIやロボット工学への扉を開くことになると考えています。」
2.3. 4歳児の学習量とAIの比較実験
Yann LeCun:「現在の大規模言語モデルの学習量について、興味深い計算結果をお示ししたいと思います。典型的なLLMは20~30兆のトークンで訓練されており、1トークンあたり約3バイトとすると、およそ10の14乗バイトのデータ量となります。これは、インターネット上で公開されているテキストのほぼ全てに相当し、人間が読むとすれば数百年かかる量です。」
Ina Turpen Fried:「それは確かに膨大な量ですね。では、人間の学習量との比較ではどうなりますか?」
Yann LeCun:「4歳児の視覚情報処理量を計算してみました。視神経には約100万本の神経繊維があり、各眼球で1本あたり毎秒約1メガビットの情報を処理しています。4年間のうち、子供が目覚めている時間は約16,000時間です。この計算を行うと、驚くべきことに、やはり約10の14乗バイトという、LLMの学習量と同程度の数値が得られます。」
Dava Newman:「この比較は非常に示唆的ですね。しかし、重要な違いがあります。人間の場合、視覚だけでなく、触覚、聴覚、嗅覚など、マルチモーダルな感覚情報を統合的に処理しています。例えば、今朝皆さんが最初に経験したのは、おそらくコーヒーの香りではないでしょうか?このような多感覚的な情報処理が、人間の豊かな世界理解を可能にしているのです。」
Yann LeCun:「その通りです。この計算結果が示唆するのは、テキストデータだけを学習していては、人間レベルのAIは実現できないということです。私たちは、センサリーデータから世界の仕組みを学習できるシステムを開発する必要があります。現在のLLMは言語という離散的なデータの処理には長けていますが、実世界の連続的なデータを理解し、処理する能力は極めて限定的なのです。」
Ina Turpen Fried:「つまり、真の意味での人工知能の実現には、マルチモーダルな学習が不可欠だということですね。」
Dava Newman:「はい、そして私たちMITメディアラボでは、この多感覚的なアプローチを重視しています。人間の知覚システムを深く理解し、それをAIの設計に活かすことで、より自然な形での人工知能の発展が可能になると考えています。」
3. オープンソースと安全性の議論
3.1. メタのオープンソース戦略
Yann LeCun:「Metaのオープンソース戦略について説明させていただきます。厳密に言えば、私たちの取り組みは完全なオープンソースとは異なります。モデルのコードとウェイトは無料で公開され、目的に応じて自由に使用できますが、危険な用途を制限する条項が付されています。」
Ina Turpen Fried:「しかし、一度公開されたモデルの使用を制限することは難しいのではないでしょうか?Metaの利用規約に『これをしてはいけない』と書いても、実際の強制力はないように思います。」
Yann LeCun:「その通りです。そのため、私たちは配布前にモデルの徹底的な評価とレッドチーミングを行い、少なくとも一次的には、不適切な出力や有害なコンテンツを生成しないよう調整しています。ただし、これにも限界があることは認識しています。プロンプトインジェクションなどの手法を使用すれば、ファインチューニングの範囲外に出ることは可能です。」
Dava Newman:「MITの視点から見ると、オープンソースは創造性と革新を促進する重要な要素です。しかし、同時に透明性と説明責任も重要です。私たちは常に『このアルゴリズムは誰のためのものか』『トレーニングデータはどこから来ているのか』という問いを投げかけています。」
Yann LeCun:「その通りです。さらに重要な点として、この戦略には文化的多様性の確保という側面もあります。近い将来、私たちはスマートグラスを通じてAIアシスタントと対話するようになるでしょう。もし、そのようなAIアシスタントが米国西海岸や中国の数社からのみ提供されるとすれば、それは文化的多様性や民主主義にとって好ましくありません。オープンソースプラットフォームを通じて、世界中の開発者が多様なAIシステムを構築できるようにすることが重要だと考えています。」
Dava Newman:「そして、カスタマイズや個別化の観点からも、オープンソースは重要です。例えば、医療や気候変動など、特定の分野に特化したモデルの開発には、その分野の専門家が直接関わる必要があります。オープンソースはそれを可能にする唯一の方法といえるでしょう。」
3.2. モデレーションの進化
Yann LeCun:「2017年以前は、ソーシャルネットワーク上のヘイトスピーチの検出は極めて困難でした。ユーザーによる報告を人間がレビューする方式では、世界中の言語に対応することは事実上不可能だったのです。しかし、2017年以降、自然言語理解の技術は劇的に進歩しました。」
Ina Turpen Fried:「具体的にどの程度の進歩があったのでしょうか?」
Yann LeCun:「2017年後半の時点では、AIシステムによって自動的に削除されるヘイトスピーチの割合は20~25%程度でした。しかし、Transformerや教師あり学習などの技術の進歩により、2022年には96%まで向上しました。ただし、この数値は新たな課題も浮き彫りにしています。」
Dava Newman:「その急激な向上は印象的ですが、誤検出の問題についても考慮する必要がありますね。」
Yann LeCun:「その通りです。実際、この高い検出率は、おそらく誤検出(フォールスポジティブ)も多く含んでいると考えられます。適切なコンテンツまで削除されてしまうケースが増えているのです。また、状況に応じて検出の閾値を調整する必要性も出てきています。例えば、選挙期間中や社会的緊張が高まっている国々では、閾値を下げてより多くのコンテンツを規制する必要があります。一方で、重要な社会問題について健全な議論を行うためには、ある程度の議論の自由度も確保しなければなりません。」
Ina Turpen Fried:「そのバランスを取るのは難しい課題ですね。」
Yann LeCun:「はい。最近では、検出閾値を若干緩和する方向に調整を行っています。これは、社会の重要な問題について、たとえ一部の人々にとって不快に感じられる内容であっても、建設的な議論を可能にするためです。モデレーションは完全になくなるわけではありませんが、より柔軟なアプローチを目指しています。」
3.3. 透明性と信頼性の確保
Dava Newman:「AIシステムの透明性と信頼性の確保について、私たちMITメディアラボでは、まず『このアルゴリズムは誰のために設計されているのか』という根本的な問いから始めます。トレーニングデータの出所や、そのデータが実際に対象とするユーザーを代表しているかどうかを常に確認する必要があります。例えば、この会場の皆さんに『現在のAIは皆さんを適切に代表していると感じますか?』と尋ねても、おそらく肯定的な回答は得られないでしょう。」
Yann LeCun:「その指摘は重要です。Metaでは、コンテンツモデレーションの新しいアプローチとして、ユーザー自身が投稿にコメントを付けられるシステムを導入しています。これは、信頼できるコメントを投稿するユーザーの評価が上がっていく一種のカルマシステムを含んでいます。この方法は、多くのフォーラムで長年使用されてきた実績があります。」
Dava Newman:「しかし、単にコミュニティに任せるだけでは不十分です。私たちには明確な価値観とそれに基づく設計原則が必要です。私の場合、誠実さ、卓越性、好奇心、そしてコミュニティを重視しています。コミュニティには帰属意識と協働の概念が含まれます。これらの価値観を明確に示し、それに基づいて技術を設計することで、初めて信頼性が構築されるのです。」
Yann LeCun:「確かにMetaでもコンテンツポリシーは公開されていますが、実装の段階で様々な課題に直面します。システムを展開してから問題が発見され、それを修正して新しいシステムに置き換えるというプロセスを繰り返しています。」
Dava Newman:「そうですね。ですが、業界をリードする立場として、もっと前面に出て議論を主導することもできるのではないでしょうか。確かにMetaはコンテンツモデレーションの面では先進的ですが、より積極的に価値観を示し、方向性を提示することが重要だと考えています。」
Ina Turpen Fried:「つまり、透明性と信頼性の確保には、技術的な解決策だけでなく、価値観の明確化とコミュニティの積極的な参加が不可欠だということですね。」
4. 価値観とAIの関係性
4.1. 共通価値の重要性
Dava Newman:「私たち開発者は、まず自分たちの価値観を明確に示す必要があります。例えば、私自身の価値観は、誠実さ(Integrity)、卓越性(Excellence)、好奇心(Curiosity)、そしてコミュニティ(Community)です。特にコミュニティには、帰属意識と協働の概念が含まれています。このような価値観を明確に示すことで、初めて技術者として、設計者として適切な方向性を示すことができます。」
Yann LeCun:「その通りですね。Metaでも価値観に基づいたコンテンツポリシーを公開していますが、実装の段階では様々な課題に直面します。特に重要なのは、世界中の多様な文化や価値観をどのように反映させるかという点です。」
Dava Newman:「私たちが目指すべきは、5つか6つの価値観の中から、少なくとも2つか3つについて合意を得ることです。すべての価値観で完全な一致を見ることは難しいかもしれませんが、いくつかの共通の基盤を見出し、そこから協力関係を築いていく必要があります。もし共通の価値観を見出せなければ、分断や破壊につながる可能性があります。私はそうならないよう、別の道を模索したいと考えています。」
Ina Turpen Fried:「具体的にはどのようなアプローチを考えていますか?」
Dava Newman:「まずは、この多様な会場の参加者の中でも、どのような価値観であれば共有できるのか、投票してみるのも一つの方法かもしれません。これは単なる答えではなく、議論の出発点となるものです。私たちが共有できる価値観、共有できる未来のシナリオは何か、それを探求していく必要があります。その共有された基盤を、新しい技術開発の土台としていくのです。」
Yann LeCun:「そしてその共有された価値観は、技術の設計段階から組み込まれる必要があります。特にAIシステムの場合、後付けでの修正は極めて困難です。私たちは、設計の段階から多様な価値観を反映させ、それを技術的な仕様として実装していく必要があります。」
4.2. 文化的多様性への対応
Yann LeCun:「この問題への解決策は、多様性の確保にあります。2、3のAIシステムが同じ場所から提供されているだけでは、真の多様性は実現できません。私たちが目指すべきは、世界中のすべての言語と文化に対応したFoundation Modelを開発し、それを様々な価値観を持つ人々がファインチューニングできるようにすることです。」
Dava Newman:「その視点に賛成です。MITメディアラボでも、文化的多様性を重視しています。単一の価値観や文化的背景だけでAIを開発することは、人類の豊かさ(Cornucopia)を損なうことになります。異なる文化を尊重し、協力しながら開発を進めることが重要です。」
Yann LeCun:「実は、単一の組織が世界中の文化データを収集し、トレーニングすることは極めて困難です。そこで私たちは、分散型あるいは連邦学習的なアプローチを検討しています。世界の各地域や利益団体が独自のデータセンターとデータセットを持ち、グローバルモデルのトレーニングに貢献する形です。これが最終的に人類の知識の総体となるかもしれません。」
Ina Turpen Fried:「具体的にはどのような形で実現されるのでしょうか?」
Yann LeCun:「近い将来、私たちはスマートグラスを着用し、AIアシスタントと対話することになるでしょう。その際、もし米国西海岸や中国の数社からのみAIアシスタントが提供されるとすれば、それは文化的多様性や民主主義にとって望ましくありません。だからこそ、オープンソースプラットフォームを通じて、多様なAIアシスタントの開発を可能にする必要があるのです。」
Dava Newman:「そうですね。さらに重要なのは、この分散型アプローチによって、より専門的で個別化されたソリューションが可能になることです。医療や気候変動など、特定の分野に特化したモデルの開発には、その分野の専門家が直接関わる必要があります。これこそが、真の意味での文化的多様性の実現につながるのです。」
4.3. コンテンツモデレーションの変遷
Yann LeCun:「Metaのコンテンツモデレーションは、これまでいくつかの段階を経て進化してきました。2022年まで、私たちはファクトチェック機関と協力して、大きな注目を集めた投稿を確認する方式を採用していました。しかし、この方式には大きな課題がありました。ファクトチェック組織は限られた人数で運営されており、ソーシャルネットワーク上で流通する危険な誤情報のすべてを検証することは不可能だったのです。」
Ina Turpen Fried:「では、その課題にどのように対応されたのでしょうか?」
Yann LeCun:「新しく導入されたシステムでは、ユーザー自身が投稿にコメントを付けられるようになっています。これには一種のカルマシステムが組み込まれており、信頼性の高いコメントを投稿するユーザーの評価が上がっていく仕組みです。多くのフォーラムで長年使用されてきた実績のあるアプローチです。このシステムにより、より広範なコンテンツをカバーできるようになりました。」
Dava Newman:「しかし、そのアプローチには一定の懸念もありますね。ユーザーの判断が必ずしも正しいとは限りません。」
Yann LeCun:「その通りです。しかし、重要なのは、Metaは社会にとって何が正しく何が間違っているかを判断する正統性を持っているとは考えていないということです。過去には、オンラインディスカッションの規制について政府に指針を求めましたが、特に第一期トランプ政権下では、『修正第一条があるのだから、自分たちで何とかしろ』という反応でした。フランス政府との協議はありましたが、結局、これらのポリシーは規制環境の不在から生まれたものなのです。」
Ina Turpen Fried:「各国の法規制との関係はどうなっていますか?」
Yann LeCun:「欧州では、ヘイトスピーチやネオナチのプロパガンダは法律で禁止されています。そのため、法的な理由からモデレーションを行う必要があります。一方、米国では異なる基準が適用されます。このように、国によって異なる基準に対応する必要があり、さらに選挙期間中など、状況に応じて検出の閾値を調整することも必要です。現在導入されている『ユーザーによる、ユーザーのためのコンテンツモデレーション』は、これらの複雑な要求に対する一つの解決策となっています。」
5. 将来展望と課題
5.1. 3-5年後のAIパラダイムシフト予測
Yann LeCun:「私と私の同僚たちは、AIの今後の方向性について明確なビジョンを持っています。現在の大規模言語モデル(LLM)のパラダイムは、比較的短い寿命しか持たないと考えています。おそらく3-5年以内に、現在の形でのLLMを使用する意味はなくなるでしょう。現在のLLMは言語操作には長けていますが、本質的な思考能力は持っていません。」
Ina Turpen Fried:「それは大きな変化ですね。どのような根拠があるのでしょうか?」
Yann LeCun:「言語を操作する脳の部位は、ブローカ野と呼ばれる比較的小さな領域です。これは数十万年前に発達した比較的新しい部位であり、それほど複雑ではありません。一方、思考を担う前頭葉は遥かに複雑で、その機能を再現することは現状ではできていません。私たちが目指しているのは、世界の仕組みを理解し、メンタルモデルを構築できるシステムの開発です。この新しいパラダイムでは、システムはある程度の常識を持ち、世界の観察や相互作用を通じて学習できるようになるでしょう。」
Dava Newman:「その予測に同意します。MITメディアラボでも、単なる言語処理を超えた、より深い理解を目指しています。特に物理法則や生物学的な原理を組み込むことで、より豊かな世界理解が可能になると考えています。」
Yann LeCun:「そうですね。そして、このパラダイムシフトは、完全に新しいアプリケーションの可能性を開くことになるでしょう。システムは行動の結果を予測し、特定の目的を達成するための一連の行動を計画できるようになります。これが本当の意味でのエージェントAIやロボット工学への扉を開くことになるのです。今後3-5年の間に、私たちはこの新しいアーキテクチャの出現を目にすることになるでしょう。これは、現在私たちが『AIの発展』と呼んでいるものとは、まったく異なる形のブレークスルーとなるはずです。」
5.2. 生成的生物学(Gen Bio)の可能性
Dava Newman:「生成的生物学(Gen Bio)は、もはや従来の合成生物学の域を超えています。現在、AIは大規模言語モデルから大規模自然モデルへと進化しつつあり、生物学や遺伝学の情報を直接処理できるようになってきています。これは単なる技術の進化ではなく、生命科学の研究アプローチそのものを変革する可能性を秘めています。」
Yann LeCun:「その通りですね。現在のAIモデルは離散的なデータ、つまりDNAやタンパク質のような離散的な構造を持つ生物学的データの処理に非常に長けています。これは言語モデルと同様の原理で、予測可能な有限の要素を扱うことができるためです。」
Dava Newman:「しかし重要なのは、生物学的システムの有機的な性質です。MITメディアラボでは、AIが生物学と融合することで、より自然な形での生命理解が可能になると考えています。例えば、生物学的なラップアラウンドを組み込んだモデルの開発を進めており、これにより生命システムのより深い理解が可能になるでしょう。」
Ina Turpen Fried:「具体的にどのような成果が期待できるのでしょうか?」
Dava Newman:「一つの大きな可能性は、個別化医療の革新です。AIと生物学の融合により、個々の患者の遺伝的特徴や生理状態に基づいた、より精密な治療法の開発が可能になります。また、気候変動への対応や生物多様性の保全など、地球規模の課題に対しても、生命システムの理解に基づいた新しいアプローチが可能になるでしょう。」
Yann LeCun:「そして、この分野でも重要なのはオープンソースアプローチです。生成的生物学の技術を広く共有することで、世界中の研究者が協力して、より効果的な解決策を見出すことができます。ただし、同時にセキュリティや倫理的な考慮も重要になってきます。」
5.3. マルチセンサリー技術の発展
Dava Newman:「人間の知覚システムの豊かさを考えてみましょう。例えば、皆さんは今朝、最初に何を感じましたか?おそらくコーヒーの香りではないでしょうか。人間の体験は、視覚、触覚、聴覚、嗅覚など、多様な感覚情報の統合によって成り立っています。単一の感覚情報だけでは、豊かな世界理解は得られないのです。」
Yann LeCun:「その通りです。現在のAIシステムは、主に視覚や言語といった単一のモダリティに特化しています。しかし、これは人間の知覚システムと比べると極めて限定的です。例えば、猫の持つ物理世界の理解能力は、現在のAIシステムをはるかに超えています。これは、猫が統合的な感覚情報処理システムを持っているからです。」
Dava Newman:「MITメディアラボでは、この多感覚的なアプローチを重視しています。私たちは、海洋から宇宙まで、あらゆる環境でセンサーネットワークを展開し、多様な情報を収集・統合しています。これは単なるデータ収集ではなく、環境との相互作用を理解するための取り組みです。」
Yann LeCun:「そして重要なのは、これらの感覚情報を統合的に処理し、意味のある形で理解する能力です。現在のAIシステムでは、例えば動画の次のフレームを予測するような連続的なデータの処理は極めて困難です。しかし、人間の脳はこれを自然に行っています。」
Dava Newman:「そうですね。さらに、この多感覚的なアプローチは、人間とAIシステムのインタラクションを豊かにする可能性を秘めています。例えば、医療分野では、視覚情報だけでなく、触覚や聴覚情報も含めた総合的な診断システムの開発が進んでいます。これは、より自然で直感的な人間とAIの協働を可能にするでしょう。」
6. 特殊トピック討論
6.1. 脳コンピュータインターフェース
Yann LeCun:「脳コンピュータインターフェース(BCI)について、いくつかの重要な点を指摘したいと思います。Neuralinkのような侵襲型BCIは、少なくとも近い将来には実現しそうにありません。一方で、非侵襲型のBCI、例えばMetaが開発しているような筋電図ブレスレットは、今年中にも実用化される可能性があります。これは極めて実用的な技術であり、臨床応用以外でも大きな可能性を秘めています。」
Dava Newman:「しかし、私はその見方に異議を唱えたいと思います。BCIは既に現実のものとなっています。私たちは実質的にデジタル中枢神経系を持っており、特に医療分野では大きな進展が見られます。例えば、切断後の幻肢痛に悩む患者さんに対して、脳が直接ロボット義肢をコントロールできるシステムを実装しています。これは半人間・半ロボットのサイボーグ段階に入っていることを示しています。」
Ina Turpen Fried:「その違いはどこから来るのでしょうか?」
Dava Newman:「私が強調したいのは、BCIが特に医療応用において既に実用段階に入っているという点です。将来的には、対麻痺や四肢麻痺の患者さんの機能回復にも応用できる可能性があります。脳は非常に強力で、デジタル中枢神経系を通じてロボット部品を制御することができます。これは手術的な実装を必要としますが、既に実現されている技術なのです。」
Yann LeCun:「確かに医療応用については同意します。ただし、一般消費者向けのBCIについては、非侵襲型のアプローチがより現実的だと考えています。特に、神経信号の読み取りと解釈に関する技術は、まだまだ発展の余地があります。」
Dava Newman:「まさにその通りです。そして重要なのは、これらの技術開発が人間の機能回復や生活の質の向上という明確な目的を持って進められるべきだという点です。技術のための技術ではなく、人間中心の設計原則に基づいた開発が必要です。」
6.2. 消費者向けロボティクス
Yann LeCun:「消費者向けロボティクスは、今後の10年間で大きな進展が期待される分野です。特に、AIシステムが実世界をより深く理解できるようになることで、ロボティクスの可能性が大きく広がるでしょう。現在のAIは言語処理に特化していますが、物理世界との相互作用を理解し、計画を立てられるシステムが登場することで、ロボティクスは新しい段階に入ると考えています。」
Dava Newman:「その通りですが、私はロボティクスをもっと広い視点で捉える必要があると考えています。単なるハードウェアとソフトウェアの組み合わせではなく、物理的なサイバーシステムとして考えるべきです。例えば、すべてがリサイクル可能な材料から作られ、DIYで製作可能なロボットを考えてみましょう。これは循環型経済への重要な貢献となり得ます。」
Ina Turpen Fried:「その実現に向けた課題は何でしょうか?」
Dava Newman:「最大の課題は、ハードウェアとソフトウェアの境界をなくすことです。現代のロボットはAIやアルゴリズムと一体化しており、もはやハードウェアとソフトウェアを分けて考えることはできません。特に医療分野では、このような統合的なアプローチが不可欠です。」
Yann LeCun:「そうですね。そして、この統合を実現するためには、AIシステムの根本的な改善が必要です。現在のシステムでは、猫ができるような基本的な物理的相互作用すら実現できていません。実世界での活動を可能にする新しいAIパラダイムの開発が、消費者向けロボティクスの鍵となるでしょう。」
Dava Newman:「そして重要なのは、次世代の教育です。子どもたちがこれらの技術を理解し、自分たちで作り、改良できるようになれば、素晴らしいイノベーションが生まれるはずです。ロボティクスは消費するものではなく、創造し、共有するものとなるべきです。」
6.3. 宇宙探査とAIの関係
Dava Newman:「宇宙探査におけるAIの役割について、重要な誤解を指摘したいと思います。火星は私たちのプランBではありません。地球という宇宙船にとって、人類はある意味で厄介者です。火星には約35億年前に生命が存在した可能性がありますが、私たちが火星に移住することは解決策ではありません。」
Ina Turpen Fried:「では、宇宙探査におけるAIの意義はどこにあるのでしょうか?」
Dava Newman:「AIと自律システムは、科学的探査において極めて重要な役割を果たしています。例えば、現在の火星探査では、プローブや科学機器が自律的にデータを収集し、解析しています。特筆すべきは、気候変数の半分以上が宇宙からの観測で測定されているという事実です。初めての有人火星ミッションでは、これまでの50年間の探査で得られた以上の情報が得られるでしょう。人間の知性とスーパーコンピュータを組み合わせることで、探査の効率は飛躍的に向上します。」
Yann LeCun:「その視点に賛成です。ただし、現在のAIシステムには物理世界の理解という点で大きな制約があります。宇宙探査でより効果的にAIを活用するためには、実世界の理解と予測が可能な新しいタイプのAIが必要になるでしょう。」
Dava Newman:「確かにその通りです。しかし重要なのは、宇宙探査の目的は地球の理解を深めることだという点です。私たちは生命の痕跡やバイオシグネチャーを探すことで、地球上の生命についての理解も深めることができます。AIはこの探査プロセスを支援する重要なツールですが、目的はあくまでも地球と人類の持続可能な未来を実現することにあります。物理学の基本原理とAIを組み合わせることで、より効果的な探査が可能になるのです。」
7. 懸念事項と解決策
7.1. アライメント偽装問題
Yann LeCun:「LLMの本質的な安全性について、少し物議を醸すかもしれない意見を述べさせていただきます。私の見解では、LLMは本質的に安全ではありません。なぜなら、それらを直接的に制御する効果的な方法がないからです。ガードレールの設定は、トレーニングを通じてしか行えず、そのトレーニングは常にプロンプトインジェクションなどの手法によって回避される可能性があります。」
Ina Turpen Fried:「それは深刻な問題に聞こえますが、実際のリスクはどの程度なのでしょうか?」
Yann LeCun:「ここで重要なのは、現在のLLMはそれほど賢くないという点です。これらは知的なアシスタントとして機能しますが、生成するテキストには常に誤りが含まれる可能性があり、ユーザーは内容を確認し、必要に応じて修正する必要があります。自動車の運転支援システムと同様です。完全な自動運転は実現していませんが、運転支援システムは非常に有用です。」
Dava Newman:「その通りですね。MITメディアラボでも、アルゴリズムの安全性は常に最重要課題の一つです。私たちが強調しているのは、人間の繁栄のための意図的な設計です。アルゴリズムが人間と全ての生命の繁栄に貢献しないのであれば、その開発を進めるべきではありません。」
Yann LeCun:「そして、3-5年以内に私たちは現在のLLMとは全く異なるシステムを持つことになるでしょう。新しいシステムは、目的駆動型で、推論によって出力を生成し、設計段階からガードレールが組み込まれたものになるはずです。プロンプトの変更だけでは、これらのガードレールを回避することはできなくなるでしょう。」
Dava Newman:「重要なのは、技術開発の方向性を定める際に、私たちの価値観を明確にすることです。透明性、説明責任、そして何よりも人間中心の設計原則を守ることが、安全で信頼できるAIシステムの開発につながるのです。」
7.2. デジタル格差への対応
Dava Newman:「AIへのアクセスに関する格差は深刻な問題です。この会場にいる皆さんに『AIは皆さんにとって安全で信頼できるものだと感じますか?』と尋ねても、ほとんど手が上がりません。しかし『安全性と信頼性が確保されれば使いたいと思いますか?』と聞けば、大多数が賛同するでしょう。この差が示すように、現在のAIは世界の多様な人々を適切に代表できていません。」
Yann LeCun:「その通りです。これは特に、異なる言語や文化を持つ地域で顕著です。そのため私たちは、世界中の言語や文化に対応したFoundation Modelの開発を進めています。しかし、単一の組織がすべての文化データを収集し、トレーニングすることは事実上不可能です。」
Ina Turpen Fried:「では、この課題にどのように対応していくべきでしょうか?」
Dava Newman:「教育が鍵となります。スイスの教育研究イノベーション担当国務長官も指摘しているように、異なる価値観を持つ地域間でAIへのアクセスに格差が生じることは、さらなる分断を生む可能性があります。しかし、これは避けられない運命ではありません。私たちは共有できる価値観を見出し、それを基盤として協力関係を築いていく必要があります。」
Yann LeCun:「そのためには、分散型あるいは連邦学習的なアプローチが有効でしょう。世界の各地域が独自のデータセンターとデータセットを持ち、グローバルモデルの開発に貢献する形です。このアプローチであれば、文化的な多様性を維持しながら、技術へのアクセスを確保することができます。」
Dava Newman:「そして重要なのは、次世代の教育です。技術を単に消費するのではなく、理解し、改良し、創造できる人材を育成する必要があります。これは単なるデジタル格差の解消ではなく、持続可能な技術発展のための基盤となるのです。」
7.3. 規制のアプローチ
Yann LeCun:「現在、政府の規制アプローチについて懸念すべき状況が生じています。政策立案者たちが、AIの実存的リスクという物語に影響されすぎているように見えます。その結果、オープンソースAIエンジンの配布を事実上違法化するような規制が提案されています。私の見解では、これは想定されている危険性よりもはるかに深刻な問題をもたらす可能性があります。」
Dava Newman:「規制の議論において重要なのは、私たちのコア・バリューを明確にすることです。MITメディアラボでは、誠実さ、卓越性、好奇心、そしてコミュニティという価値観を掲げています。これらの価値観に基づいて、適切な規制の枠組みを議論すべきです。」
Yann LeCun:「そうですね。例えば、欧州ではヘイトスピーチやネオナチのプロパガンダは法律で禁止されており、法的理由から必ずモデレーションを行う必要があります。一方、米国では異なる基準が適用されます。第一期トランプ政権時代、私たちはオンラインディスカッションの規制について政府に指針を求めましたが、『修正第一条があるのだから自分たちで対処せよ』という反応でした。」
Ina Turpen Fried:「では、望ましい規制の形とは?」
Yann LeCun:「理想的なのは、各地域のコミュニティが自身の文化的価値観に基づいて判断できる分散型のアプローチです。現在のMetaのコンテンツポリシーは、実際には規制環境の不在から生まれたものです。業界の自主規制は重要ですが、それだけでは不十分かもしれません。」
Dava Newman:「同意します。規制は抑制のためだけでなく、イノベーションを促進する枠組みとしても機能すべきです。技術の透明性を確保しながら、創造性と安全性のバランスを取る必要があります。そのためには、産官学の密接な対話と協力が不可欠です。」
8. 結論と将来への提言
8.1. 人間中心設計の重要性
Dava Newman:「人間中心設計についての私の立場を明確にしたいと思います。MITメディアラボでは、人間の繁栄を中心に据えていますが、それは人間だけでなく、すべての生命の繁栄を意味します。私たちは地球という宇宙船の一部であり、謙虚さを持って技術開発に取り組む必要があります。地球は45億年の歴史を持ち、人類は比較的新しい存在です。人類は地球にとってある種の厄介者かもしれませんが、技術を通じて地球との調和を見出すことができるはずです。」
Yann LeCun:「その視点に賛成です。AIの開発においても、単なる技術的な進歩ではなく、人間とAIの共生を考える必要があります。現在のAIシステムには多くの制約がありますが、それは私たちが人間の能力の複雑さをより深く理解する機会にもなっています。例えば、4歳児の世界理解能力は、最先端のAIシステムをはるかに超えています。」
Dava Newman:「そして重要なのは、技術開発の方向性を決める際の価値観です。誠実さ、卓越性、好奇心、そしてコミュニティ。これらの価値観に基づいて、人間とAIの関係を設計していく必要があります。特に、コミュニティという価値には、帰属意識と協働の概念が含まれています。」
Yann LeCun:「技術的な観点からも、人間中心設計は重要です。例えば、現在開発中の新しいAIパラダイムでは,世界の理解と推論能力の向上を目指していますが、これは人間の認知能力への理解なくしては達成できません。」
Dava Newman:「最後に強調したいのは、持続可能性の視点です。技術開発は地球との調和の中で行われるべきです。私たちの研究では、常に『このアルゴリズムは人間と全ての生命の繁栄に意図的に貢献するか』という問いを投げかけています。もしその答えが『ノー』であれば、その開発を進めるべきではありません。」
8.2. オープンな技術発展の方向性
Yann LeCun:「オープンな技術発展の重要性について、具体的な提案をさせていただきます。私たちは、世界中の多様なAIシステムの開発を可能にするためのオープンソースプラットフォームを推進しています。単一の組織がすべての文化データを収集・トレーニングすることは不可能です。そのため、分散型あるいは連邦学習的なアプローチが必要となります。各地域が独自のデータセンターとデータセットを持ち、グローバルモデルの開発に貢献する形を目指しています。」
Dava Newman:「オープン性について、MITメディアラボの経験から補足させていただきます。私たちは、トレーニングデータの出所を透明化し、アルゴリズムの意図を明確にすることを重視しています。単にコードを公開するだけでなく、その背後にある価値観や目的を共有することが重要です。特に、人間の繁栄に貢献するという明確な意図を持つことが、技術開発の透明性を確保する上で不可欠です。」
Yann LeCun:「そうですね。さらに、近い将来、私たちはスマートグラスを通じてAIアシスタントと対話するようになるでしょう。その時、もし米国西海岸や中国の数社からのみAIアシスタントが提供されるとすれば、それは文化的多様性や民主主義にとって望ましくありません。だからこそ、国際的な協力体制の構築が不可欠なのです。」
Dava Newman:「その通りです。また、透明性の確保には世代間の協力も重要です。次世代の若者たちが技術を理解し、改良し、創造できるようになることで、より開かれた技術発展が可能になります。私たちは技術を消費するだけでなく、共に創造し、共有する文化を育てる必要があります。」
Ina Turpen Fried:「コミュニティの参画を促進するための具体的な方策は?」
Yann LeCun:「一つの方法は、ユーザー参加型のモデレーションシステムです。これにより、コミュニティ自身が技術の方向性を決定する過程に参加できます。また、オープンソースプラットフォームを通じて、世界中の開発者が多様なAIシステムを構築できる環境を整備することも重要です。」
8.3. 次世代への期待
Dava Newman:「次世代への期待について、特に教育の重要性を強調したいと思います。私たちの子どもたち、若い世代は、技術をより良い方向に導く鍵となります。ただし、彼らに期待するのは単なる技術の消費者としてではありません。DIYの精神を持って、技術を理解し、改良し、創造できる人材となることが重要です。特に、リサイクル可能な材料を使用し、循環型経済に貢献できるような技術開発の担い手となることを期待しています。」
Yann LeCun:「その点に同意します。次世代のイノベーターたちには、現在のAIの限界を超える新しいパラダイムの開発を期待しています。特に、実世界の理解や推論能力を持つAIシステムの開発は、彼らの課題となるでしょう。現在の技術的制約を認識しつつ、それを克服する新しいアプローチを見出してほしいと思います。」
Dava Newman:「そして重要なのは、地球との調和です。私たちは45億年の地球の歴史の中で、比較的新しい存在です。次世代には、より謙虚な姿勢で技術開発に取り組んでほしいと思います。人間だけでなく、すべての生命の繁栄を考慮した持続可能な未来の構築者となることを期待しています。」
Ina Turpen Fried:「具体的にどのような形で、次世代の育成を支援できるでしょうか?」
Dava Newman:「一つの方法は、オープンソースと教育の結合です。若い世代が自由に技術を探求し、実験し、改良できる環境を提供することが重要です。彼らの創造性を引き出し、同時に責任ある技術開発の原則を学べるような教育プログラムの開発が必要です。」
Yann LeCun:「また、国際的な協力も重要です。次世代の開発者たちが、文化的な境界を超えて協力し、多様な価値観を反映した技術を開発できる環境を整備する必要があります。これは、より包括的で持続可能な技術発展につながるでしょう。」