※本記事は、スタンフォード大学のECON295/CS323(2024年)における、Reid Hoffman氏による講演内容を要約しております。なお、本記事の内容は講演者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、スタンフォード大学のオンラインプログラム(https://online.stanford.edu/ )をご参照ください。
講演者のReid Hoffman氏は、LinkedInとPayPalの共同創業者であり、現在はGreylockのパートナーとして、Facebook、Airbnbなど多くの革新的な技術企業の成長に貢献してきました。 スタンフォード大学の人工知能プログラムの詳細情報は https://stanford.io/ai でご覧いただけます。また、Reid Hoffman氏の詳細なプロフィールは https://greylock.com/team/reid-hoffman/ でご確認いただけます。スタンフォード・オンラインは、スタンフォード工学部のグローバル・オンライン教育センター(CGOE)によって運営され、大学全体の学術・専門教育を提供しています。学位プログラム、単位取得可能な教育、専門資格プログラム、無料のオープンコンテンツなど、スタンフォード大学の教員による幅広い教育機会を世界中の受講者に提供しています。
1. AI時代の人間との関係性
1.1 Generation AIの定義と特徴
人工知能の本質について、私は多くの人々が見落としている重要な観点を指摘したい。それは、AIが人間の能力を増幅させるツールだという点だ。単にAIが認知能力において私たちを追い越すという単純な話ではない。
私の主要な仮説は、私たちが認知産業革命の中にいるということだ。現在、私たちは「マインドのスチームエンジン」とでも呼ぶべき時代を迎えている。しかし、これは単純にAIが認知的にすべての面で私たちを上回るという話ではない。むしろ、人間の能力を増幅させる長期的な期間が存在すると考えている。この視点は、現在のAI議論において十分に語られていない重要な側面だ。
世代の区分けについて考えると、ミレニアル世代やジェネレーションXなどの世代区分は、技術革新のトレンドと密接に関連している。インターネットへの親和性、ソーシャルメディアの使用、モバイルフォンの活用など、各世代の特徴は技術との関係性によって定義されつつある。
この人間増幅の考えに基づき、私は「Generation AI」という概念を提唱している。これは、AIエージェントを日常的に使用して世界を理解し、生活していく世代を指す。彼らは、AIを通じて人間の能力を増幅させる新しい可能性を体現する。これは単なるキャッチーな言葉以上の意味を持つ。私がボローニャでの卒業式スピーチでこの概念を語ったのも、人々にこの新しい世代の特徴と可能性に注目してもらいたかったからだ。
Generation AIは、人間とAIの共生による能力増幅の時代を象徴する。これは楽観的な見方かもしれないが、AIエージェントを使いこなす世代が、より良い自己実現と世界理解を達成できると考えている。
1.2 人間の増幅としてのAI
私たちは現在、認知産業革命の真っ只中にいる。これは「マインドのスチームエンジン」とも呼べる革命的な変化だ。AIは単なるツールではなく、人間の認知能力を増幅させる存在として位置づけられる。
例えば、私は最近GPT-4と共同で本を執筆した経験がある。この経験から、AIを研究アシスタントとして活用する方法について多くの知見を得た。しかし、正直に言えば、その方法は今後改善の余地がある。プロンプトに対する回答を単純にフレーミングするだけの方法では、AIの真の可能性を十分に引き出せていないと感じている。
認知能力の増幅という観点から見ると、歴史的な例として記憶力の価値の変化がある。数世紀前、記憶力は最も重要な高次の能力とされていた。しかし現在では、十分な作業記憶があれば情報を見つけ出せることの方が重要になっている。「正確に覚えていない」ことは、必要な情報にアクセスできる限り、さほど問題ではなくなってきている。
同様の変化は、マーケティングの分野でも見られる。企業のCEOの中には、「マーケティング部門をGPT-4に置き換えられないか」と考える人もいる。しかし、これは誤った考え方だ。なぜなら、マーケティングは競争的な分野であり、すべての企業がAIを導入すれば、結局は人間のマーケティング担当者が必要になる。ただし、その担当者はGPT-4やGPT-5を効果的に使いこなし、新しい形のマーケティングゲームを展開できる能力が求められるだろう。
このように、AIは人間の能力を置き換えるのではなく、増幅させるツールとして機能する。私たちの計画能力、状況に応じた柔軟な対応、創造的な問題解決など、人間特有の能力とAIが組み合わさることで、より高度な成果を生み出すことが可能になる。これこそが、認知産業革命の本質的な特徴なのだ。
1.3 人間とAIの協働期間に関する展望
知的な人々の間では、人間とAIの協働期間について数年から数世紀まで、さまざまな予測が展開されている。私の見解としては、この期間は数十年から数世紀に及ぶと考えている。この予測の根拠は、AIの認知能力の発展軌道を詳細に分析した結果に基づいている。
私は学部生時代からAIを研究してきた。当時はこの建物(スタンフォード大学の現在の建物)さえなく、ターマン(Terman)で研究していた。その経験から、AIの認知能力は特定の認知タスクにおいて急速に向上していることは確かだが、人間の知能の本質的な部分である文脈認識や適応能力については、まだ大きな課題が残されていると考えている。
現在のGPT-4は、この部屋にいる誰よりも多くのことができる。特定の分野では既に超知能的な能力を持っているといえる。しかし、これは必ずしも警戒すべきことではない。現在のシステムには、再帰的な自己改善や、AI自体の基本的な学習アルゴリズムを人間以上に改善する能力は見られない。これらは、次世代のAIシステムで注目すべき重要な指標となるだろう。
私は常に新しいシステムを評価するたびに、この予測を更新している。しかし、現時点での私の経験則的な推測では、私たちは数十年、場合によってはそれ以上の期間、AIとの協働者として過ごすことになるだろう。AIは私たちの能力を増幅させるパートナーとして機能し続けるはずだ。ただし、これは現在のヒューリスティックな推測であり、新しいシステムが登場するたびに、この予測は更新される可能性がある。
多くの人々は、AIの発展が即座に人間の能力を超えていくと考えているが、実際には人間とAIが協力して働く期間が長く続くと私は予測している。これは楽観的な見方かもしれないが、現在のAIシステムの能力と限界を慎重に分析した結果に基づく予測だ。
1.4 人間特有の文脈認識と適応能力
人間の知能の本質的な部分は、文脈を理解し、状況に応じてルールを変更できる能力にある。これを説明するために、AlphaGoの例を考えてみよう。
この部屋にいる誰かが「AlphaGoに負けなければ死なない」という状況に置かれたとする。その場合、賢明な人間なら、誰もAlphaGoと碁を打とうとはしないだろう。なぜなら、私たちは負けることが確実だとわかっているからだ。代わりに、「電源を抜くことはできないか」「水をかけることはできないか」など、ゲームのルールそのものを変更する方法を考えるはずだ。これこそが、私が言う文脈認識と対抗的なゲームプレイヤーとしての能力だ。
このような文脈認識と状況適応能力は、現在のスケール計算AIやU-Modelsには見られない特徴だ。これは単にまだ実装されていないというだけでなく、根本的な課題として存在している。もちろん、将来的にはこれらの能力がAIに実装される可能性を否定するものではない。
私は次世代のスケールに到達したとき、どのような変化が起こるのかを測るために、いくつかの指標を設けている。例えば、再帰的な自己改善がどのように機能するのか、現在の人間がコーディングしているような基本的な学習アルゴリズムをAIがより効率的にコーディングできるようになるのか、といった点を注視している。これらは、AIが何らかの形で巨大な知能能力を獲得する道筋を示す重要な指標となるだろう。
私の観察では、現在のAIシステムは素晴らしい計画立案能力を持っているものの、計画の途中で何かがずれた場合の再計画や、競争的な環境での適応的な計画変更といった能力については、まだまだ制限がある。これらの能力は改善されつつあるが、人間の持つような文脈認識や、計画が軌道からずれた際の柔軟な対応、競争的な環境での反復的な適応といった能力には及ばない。これは、私たちが認知的な混合環境において、まだまだ人間が重要な役割を果たし続けると考える理由の一つだ。
2. AIの技術的・経済的側面
2.1 スケール計算の重要性
AIの革命は本質的にスケール計算の革命であり、これが商業的な性質を持つ根本的な理由となっている。この革命を推進するためには、スケール計算、スケールデータ、そしてリスクを取れるスケールチームが必要不可欠だ。
戦時中を除けば、このような大規模なリソースの集中は企業でしか実現できない。例えば、インフレクションAIの事例を見てみよう。当社はパブリックベネフィット企業として設立され、人々が自分自身のより良いバージョンになるためのエージェントの開発を目指していた。しかし、エージェントの開発には数十億ドル規模の投資が必要であることが判明した。
これは単なる資金の問題ではない。スケールに関する様々な要素、つまり計算能力、データ、収益モデル、そしてチームの規模が絡み合っている。インフレクションAIの場合、開発者向けAPIビジネスにピボットし、エージェント開発はMicrosoftとの協業という形で継続することを選択した。これは、スタートアップ単独では必要なスケールを実現できないという現実的な判断だった。
また、インフレクションAIは他のモデルとは異なり、IQとEQを同等に重視した訓練を行っている唯一のモデルだ。これはユニークなAPIを提供することを可能にしたが、同時にそのような開発には莫大なリソースが必要となる。高いIQと高いEQを持つモデルの開発には、人間からのフィードバックを活用した強化学習など、複雑な訓練プロセスが必要だ。
このように、AIの発展には商業的な規模のリソースが不可欠であり、それゆえに革命的な進歩は主に企業によって推進されている。技術的な革新と経済的な成功は密接に結びついており、スケールの実現なくして真の進歩は難しい。これは、なぜAI開発が少数の大規模企業に集中する傾向にあるのかを説明する重要な要因となっている。
2.2 小規模モデルと大規模モデルの役割
小規模モデルと大規模モデルの役割について、私は実際的な価値の観点から見解を持っている。大規模言語モデルが注目を集める一方で、より小規模な特化型モデルにも重要な役割があると考えている。
特に重要なのは、コンピューティングユニットがより知的になっていく未来において、多くの場合、処理をローカルで実行したいというニーズだ。APIを呼び出すための推論コストを考えると、必ずしもすべての処理を大規模モデルで行う必要はない。特定の限定的なタスクであれば、ローカルで実行可能な小規模モデルの方が効率的だ。結局のところ、すべての処理にアインシュタイン級の知能は必要ないのだ。
また、異なる機能を持つモデルを組み合わせることで、より効果的なシステムを構築できる可能性がある。これは既に実践されており、今後さらに発展していくトレンドだと考えている。例えば、特定のタスクに特化した小規模モデルと、より広範な理解力を持つ大規模モデルを組み合わせることで、それぞれの長所を活かしたシステムを構築できる。
このような組み合わせアプローチは、単一の巨大モデルに依存するよりも柔軟で効率的なソリューションを提供できる。特に、リソースの制約がある環境や、特定の機能に特化したアプリケーションの開発において、小規模モデルの活用は重要な選択肢となるだろう。
結論として、AIの未来は単一の大規模モデルだけではなく、様々な規模と特性を持つモデルの効果的な組み合わせにあると考えている。この方向性は、より実用的で効率的なAIシステムの実現につながるだろう。
2.3 データプライバシーと合成データの可能性
多くの企業が顧客の個人情報を含む大量のデータを保持しているが、プライバシーの懸念から基盤モデルのプロバイダーにそれらを提供することを躊躇している。この問題は、近い将来、急速に解決されていくと私は考えている。
解決への取り組みは既に様々な形で進められている。その中で最も一般的なアプローチの一つが、合成データの生成だ。中規模から大規模なデータプールがあれば、個人情報を含まない形で、元のデータと同様の特性を持つ合成データを生成することが可能になる。
さらに興味深いのは、従来の常識を覆す可能性だ。私たちは「インターネット全体でのトレーニングが必要だ」と考えがちだが、実際には良質な合成データを生成できれば、比較的少量の無料もしくは安価なデータからでも、十分な学習効果が得られる可能性がある。
もう一つのアプローチは、モデルを社内でトレーニングし、内部でのみ使用するという方法だ。これは多くの企業が既に検討を始めている方法で、データプライバシーを確保しながらAIの恩恵を受けられる方法の一つとなっている。
これらの取り組みは、プライバシー保護とデータ活用の両立という課題に対する、様々なアプローチの一部に過ぎない。企業はこれらの選択肢の中から、自社の状況に最適な方法を選択することができる。この問題に対する解決策は複数存在し(n個の試み)、企業は直接これらの課題に取り組んでいる。私は、この領域での革新的な解決策がまだまだ登場してくると期待している。
2.4 コンピュート集中化の課題
スケーリング法則によって、AIの発展が比較的少数の企業に集中していくという現状について、私たちは慎重に考える必要がある。しかし、私はこの状況に対して一定の楽観的な見方を持っている。
現在、少なくとも3つの主要な企業が世界中の開発者にAPIを提供している。確かに、これらの企業はすべて米国西海岸に集中しているが、単一の企業による独占状態ではない。さらに、私の予測では、この数は今後増加していく可能性が高い。これは開発者コミュニティにとって良いニュースだと考えている。
地政学的な観点から見ると、各国が独自のAIモデルを持つべきかという議論がある。私は、西洋式民主主義を採用している国々においては、起業家エコシステムの構築を支援することが重要だと考えている。そのため、私はシンガポール、フランス、ドイツ、イギリス、ブラジルなど、様々な国の政府指導者と面会し、それぞれの国でシリコンバレーを創造する方法について議論している。
しかし、同時に注意すべき点もある。例えば、現在のロシアにAIモデルを持たせることには賛成できない。このように、AIの発展は単なる技術的な問題ではなく、民主主義的な価値観との整合性も考慮する必要がある。
私の見解では、西洋式民主主義を採用している国々でのAI開発を推進することが望ましい。これは、アメリカやフランスが完璧な民主主義を持っているという意味ではなく、その方向に向かって進んでいるという点で重要だ。
このように、コンピュート集中化の課題は、技術的な側面だけでなく、民主主義的価値観や地政学的な考慮と密接に結びついている。私たちは、技術の発展と民主主義的価値観の両立を目指していく必要がある。
3. AIと規制・法的課題
3.1 著作権に関する考察と提言
著作権の問題群の中で、最も単純な質問は「企業が内部的な秘密のIPとしてモデルを扱い、それが盗まれた場合に犯罪として扱えるか」というものだ。この答えは明確にイエスだと考える。企業はオープンソースを選択することもできるが、モデルを保護する権利も持つべきだ。
著作権の基本的な原則は、私が本を購入した場合、その本を読み、学び、活用し、他人に渡すことができる。ただし、章を並べ替えて数文を加えただけの版を販売することは許されない。私はこの原則がAIの学習データにも適用されるべきだと考えている。
例えば、ニューヨークタイムズの訴訟について、私は少し疑問を感じている。彼らの主張では、記事の前半を入力しないと全文を再現できないことを示唆している。これは実質的に、その記事を既に持っていることを前提としているように見える。さらに、彼らは正確な記事の再現だけでなく、不正確な記事の再現も問題視している点で、主張に矛盾がある。
モデルの学習に関して、私は著作権は知識の利用を完全に制限するものではないと考えている。例えば、本を読んだ後5分で忘れなければならないというような制限は存在しない。知識は学習のために使用でき、これは社会にとってより良い結果をもたらす。
出力物の著作権については、AIモデルを使用して作成したものに著作権を設定できるべきだと考える。ただし、同じシステムを使用して同様のプロンプトで似たような出力を得た場合、先に著作権を取得した人が優位に立つべきかという問題は複雑だ。これは社会にとって本当に有益なのかという疑問がある。
メディア企業に対して私が提言しているのは、トレーニングデータとしての価値よりも、推論や運用における価値に焦点を当てるべきだということだ。データセットは、その文脈で使用される場合により価値があり、そこで経済的なバランスを見出すべきだ。
結論として、著作権の問題は、単純な法的解釈だけでなく、社会全体にとっての最適な結果を考慮して検討する必要がある。特に、デジタル時代において、コストと便益が劇的に変化している中で、従来のシステムをそのまま適用することは驚くべきことだろう。私たちは著作権システムを大幅に再考する必要がある。
3.2 医療分野におけるAI規制の課題
2030年、さらに言えば2034年までには、スマートフォン上で無料の医師AIが利用可能になるはずだ。これが実現しない唯一の理由があるとすれば、それは規制と法的責任の問題だろう。これは私が政府に対して改善を強く求めている課題の一つだ。
社会全体として、すべてのスマートフォンに無料の医師AIを提供することは、極めて有益だと考えている。例えば、このようなシステムが実現すれば、私たちの医療費全体を大幅に削減できる可能性がある。そのため、政府や社会は積極的にこの方向性を目指すべきだ。
しかし、現在の規制産業の枠組みでは、この実現は極めて困難だ。既存の医療機関は現行の規制の枠内でしか考えることができず、医療アドバイスを提供する安全な方法でエージェントを持つことを許可するような規制変更が必要だ。
イノベーションを促進するためには、ある程度のパラメータ設定は必要だ。例えば、「医師にアクセスできますか?」「1日以内に医師に会えますか?」といった質問に基づいて、「では、医師に伝えるべきことをお話しします。医師の診察を受けてください」というような形でアドバイスを提供することは可能だろう。
特に重要なのは、医師へのアクセスを持たない人々や、緊急室以外に選択肢がない人々への対応だ。このような状況で、AIによる医療支援は極めて重要な役割を果たす可能性がある。
現状では、規制による障壁が非常に高いため、多くのスタートアップが規制プロセスの中で倒れていくことになるだろう。しかし、これは必要な過程かもしれない。既存の大企業は法規制の構造上、このようなリスクを取ることができないからだ。
要するに、今日の技術で適切な法的枠組みさえあれば、数ヶ月以内に妥当なコストで機能するシステムを構築することは可能だ。しかし、そこに到達するまでには、相当な規制改革の努力が必要となるだろう。
3.3 規制回避の可能性と倫理的考慮
規制の課題に対して、企業家的な視点から回避策を考えることは可能だ。特に医療AIの分野では、アメリカ医師会や規制当局が携帯電話での医療サービス提供を制限しようとした場合、どのように数億人への医療サービスを届けることができるかを考える必要がある。
裁判所での敗訴を避けることが重要な鍵となる。そのためには、例えば「この国でこのサービスを提供してほしい」という要望を持つ国で開発を行うというアプローチが考えられる。これはオフショアでの開発を意味するが、単純なIPアドレスのブロッキング以上の対策が必要になるだろう。
携帯電話上でのサービス提供には、GPS位置情報の問題も考慮する必要がある。例えば、サービスを許可していない国にいる場合、「この国ではサービスを提供できません。地元の議員に不満のメールを送りましょうか?」といったメッセージを表示するなど、Uberが採用したような戦略的アプローチも考えられる。
しかし、ここで重要なのは、単に規制を回避するだけでなく、倫理的な配慮も必要だということだ。私は、適切な規制の枠組みを整備することで、このような回避策を取る必要のない環境を作ることが本来望ましいと考えている。医療サービスへのアクセス改善という社会的利益と、安全性の確保のバランスを取る必要がある。
結論として、規制回避の可能性は技術的には存在するが、それを実行する前に、より建設的な解決策を模索すべきだ。規制当局との対話を通じて、イノベーションと安全性の両立を図ることが、長期的には望ましい方向性だと考えている。
3.4 オープンソースとオープンモデルの違い
私は長年にわたってオープンソースの強力な支持者であり、Mozilla財団の理事を11年間務め、LinkedInでも多くのプロジェクトをオープンソース化してきた。しかし、オープンモデルはオープンソースとは本質的に異なるものだと考えている。
一度オープンモデルが悪意のある国家や犯罪者、テロリストの手に渡ってしまうと、ハリケーンのような自然災害に匹敵する、あるいはそれ以上の被害が生じる可能性がある。例えば、サイバーセキュリティの分野では、現在でも病院がハッカーによる身代金要求の被害に遭っているが、AIによってこの問題は更に深刻化する可能性がある。
具体的な例を挙げると、現在のLLMでさえフィッシング攻撃の能力を持っている。パスワードを入手するために、LLMは創造的な手法で標的に対して何度もメールを送ることができる。通常、7回目のメールで疑いを持たれ始めるが、AIは大規模かつ効率的にこれを行うことができる。
LLaMAの事例は特に重要だ。彼らが最初にオープンソースライセンスの署名を求めた際、私は安全性の評価に基づいて各モデルの公開を判断するという一文を追加することを要求した。これは、すべてのモデルを自動的にオープンソース化するのではなく、安全性の観点から慎重に判断する必要があるという考えに基づいている。
私は、特に強力なモデルについては、その潜在的な危険性を考慮して、オープンソース化の判断を慎重に行う必要があると考えている。サイバーセキュリティの脅威が現実のものとなっている現在、私たちはAIモデルの公開について、より慎重なアプローチを取る必要がある。これは、オープンソースの理念を否定するものではなく、新しい技術がもたらす特有のリスクに対する現実的な対応だと考えている。
4. AIエージェントの未来
4.1 個人用AIエージェントのビジネスモデル
Pi(インフレクションAIのエージェント)の開発経験から、個人用AIエージェントのビジネスモデルについて重要な知見を得ている。私たちが最も重視したのは、エージェントと個人との関係性の設計だ。
例えば、Piに「あなたは私の親友です」と言うと、Piは「いいえ、私はあなたの親友ではありません。私はあなたの伴走者として存在していますが、実際の友人との時間を大切にすべきです。最近、他の友人とは話しましたか?」というような応答をするように設計されている。これは、エージェントが人々の人生を独占するのではなく、より良い人間関係を築くための支援者となることを目指したものだ。
ビジネスモデルの観点では、最終的に個人からの直接的な支払いを受けるモデルが望ましいと考えている。これは、広告モデルが持つ利害の不一致を避けるためだ。広告モデルは確かに強力なビジネスモデルだが、個人の利益とプラットフォームの利益の間に齟齬が生じる可能性がある。
個人データの管理に関しては、LinkedInでの経験が参考になる。私たちはLinkedInで、メンバーを第一に考えるという方針を持っており、プロフィールの管理や削除の権利を個人に与えている。これは単なるビジネス上の判断ではなく、個人との契約的な関係を重視する姿勢の表れだ。
このように、AIエージェントのビジネスモデルは、個人の利益を最優先に考え、透明性のある関係性を築くことを基本とすべきだ。それが長期的に見て、持続可能なビジネスモデルにつながると信じている。商業的な成功と個人の利益は、必ずしも相反するものではなく、むしろ適切に設計することで両立が可能だ。
4.2 職場でのAIエージェント利用
将来的にすべての人が個人のAIエージェントを持ち、職場でも企業のAIエージェントと協働する時代が来ると予測している。この状況では、どのようにデータアクセスを制御し、知的財産を保護するかが重要な課題となる。
今日の状況と比較すると、個人の住所録を会社に移動できるのと同様に、個人のAIエージェントを職場に持ち込むことは自然なことだろう。しかし、企業の販売先リストや購買リストなどの機密情報は持ち出せないのと同様に、企業のAIエージェントが持つ情報へのアクセスには制限が必要となる。
職場環境でのAIエージェントの利用は、個人のiPhoneを仕事で使用するような形になると予測している。個人のエージェントは職場環境で一定の制限付きアクセスを持つことになるだろう。これは企業のIPが外部に漏洩することを防ぐためだ。
大部分の作業は、企業環境内のエージェントによって行われることになるだろう。これは単にIPやデータの保護だけでなく、企業秘密や計画など、企業が独自の立場を確保するために必要な情報を保護するためだ。これらの要素は、将来的にはさらに重要になる可能性がある。
結果として、「私のエージェントが職場環境で何を知ることができるか」という問題は、今後解決すべき重要な課題となる。これは、個人のプライバシーと企業の機密情報保護のバランスを取る必要がある複雑な問題だ。
4.3 透明性と説明責任の重要性
エージェントの透明性と説明責任について、私が特に重視しているのは、AIエージェントの商業的な意図や動機を明確に示すことだ。例えば、あるエージェントが「物を買うように説得することで収益を得ている」場合、それをユーザーに対して透明性を持って開示する必要がある。
企業がこのような透明性を自主的に確保できない場合、政府が介入して透明性の確保を義務付ける必要があるだろう。これは、ユーザーが自分が使用しているエージェントの意図や目的を理解する権利があるという考えに基づいている。
また、現在私たちはすでにAIエージェントの説明責任について実践的な経験を積んでいる。例えば、Piは常にユーザーの最善の利益を考えて設計されており、ユーザーが過度にエージェントに依存することを防ぐような対話を行う。これは、エージェントの責任ある行動の一例だ。
ネットワーク化された説明責任も重要な要素だ。報道機関による批判的な検証、政府による監督、そして企業の株式価値への影響など、様々な形での説明責任の仕組みが必要となる。企業は単に利益だけを追求するのではなく、長期的な企業価値を考慮して行動する必要がある。悪い行いをすれば議会に召喚される可能性があり、それは企業価値に大きな影響を与えうる。
このように、AIエージェントの透明性と説明責任は、企業の自主的な取り組み、政府による規制、そして様々なステークホルダーによる監視の組み合わせによって確保されるべきだ。これは単なる理想ではなく、実際のビジネスの成功にも直結する重要な要素だと考えている。
4.4 エージェント間の相互作用
私は、将来のAIエージェントの世界は単一のモデルや「一つの指輪を支配するモデル」のようなものではなく、複数のモデルが組み合わさって相互作用する世界になると考えている。
例えば、セーフティアラインメントの実現方法として、あるモデルが自己危害に関する要求を検知した場合、それを専門とする別のモデルがその要求を適切に処理するというアプローチが考えられる。私たちは自殺による死亡者数を減らしたいと考えているので、エージェントが自殺を助長するような支援を行わないよう、このような複数モデルによるチェック機構が必要だ。
また、安全性の確保には、複数のモデル間でのクロスチェックが重要な役割を果たす。単一のモデルによる判断ではなく、異なる視点や専門性を持つモデルが相互に確認し合うことで、より信頼性の高い判断が可能になる。
このようなエージェント間の相互作用は、パブリック・ベネフィット・コーポレーションとしての私たちのミッションとも合致している。例えば、Piの開発では、ユーザーがより良い自己実現を達成できるよう、複数のモデルが協力して支援を行う仕組みを構築している。
将来のエージェント環境では、このような複数モデルの組み合わせと相互作用が標準となり、それによって安全性と有用性の両立が実現されると考えている。これは単なる技術的な選択ではなく、より良い社会の実現に向けた設計上の重要な要素となるだろう。
5. 特定分野でのAI活用
5.1 医療分野での展望
私は、2034年までにスマートフォン上で無料の医師AIが利用可能になると確信している。これが実現しない唯一の理由があるとすれば、それは規制と法的責任の問題だけだ。政府に対して、この分野の改革を強く提言している理由もここにある。
現在の既存の規制産業の枠組みでは、このような革新的なサービスの実現は極めて困難だ。既存の医療機関は現行の規制の枠内でしか考えることができない。しかし、もし適切な法的枠組みさえあれば、今日の技術で数ヶ月以内に妥当なコストで機能するシステムを構築することは十分可能だ。
この変革を実現するために、スタートアップが重要な役割を果たすことになるだろう。規制による障壁は非常に高く、多くのスタートアップが規制プロセスの中で倒れていくことになると予想される。しかし、これは必要な過程かもしれない。なぜなら、既存の大企業は法規制の構造上、このようなリスクを取ることができないからだ。
医療AIの実現によって、社会全体の医療費を大幅に削減できる可能性がある。特に、医師へのアクセスを持たない人々や、緊急室以外に選択肢がない人々にとって、AIによる医療支援は極めて重要な役割を果たすことができる。
このような医療AIの実装には、一定のパラメータ設定が必要となる。例えば、「医師にアクセスできますか?」「1日以内に医師に会えますか?」といった質問に基づいて、適切なアドバイスを提供するようなシステムを構築する必要がある。これにより、既存の医療システムとの適切な統合が可能となる。
このビジョンの実現には、政府による規制改革と、スタートアップによる革新的な取り組みの両方が必要だ。社会全体としても、すべてのスマートフォンに無料の医師AIを提供することの価値を理解し、その実現に向けて取り組むべきだと考えている。
5.2 教育分野での変革
私は、教育機関がAIを「悪いものだから禁止する」という姿勢を取っていることに深い懸念を感じている。これは完全に誤った対応だ。なぜなら、数十年前に確立された教育モデルや評価方法に固執する必要はないからだ。
特に「impromptu」の最初の章で教育について取り上げた理由は、まさにここにある。私たちは教育や訓練、評価の方法について、根本的な見直しが必要な時期に来ている。現在の教育システムの多くは、AIという新しい技術の出現以前に作られた古いモデルに基づいている。
従来の教育システムでは、教育者は一つの固定的な方法で全ての生徒を教育しようとする。しかし、AIを活用することで、各生徒の理解度や学習スタイルに合わせた個別化された学習体験を提供することが可能になる。これは、教育の効率性と効果を大幅に向上させる可能性を持っている。
例えば、私はAIと共同で本を執筆する実験を行った。この経験から、AIが研究アシスタントとして機能する可能性を実感した。しかし、単にプロンプトに対する回答をフレーミングするだけの方法では不十分だと気づいた。より深い相互作用と理解が必要だ。
教育分野におけるAIの活用は、単なる補助ツールとしての利用を超えて、教育そのものの在り方を変革する可能性を持っている。しかし、これを実現するためには、教育機関がAIを敵視するのではなく、積極的に取り入れ、新しい教育モデルを構築していく必要がある。
評価方法についても、AIの存在を前提とした新しいアプローチが必要だ。単に暗記した知識を測るのではなく、情報を理解し、適切に活用する能力を評価する方法を開発していくべきだ。これは教育の本質的な目的により合致した評価方法となるだろう。
5.3 ゲーム開発における活用
2年前にゲーム会社で働いた経験から、AIのゲーム開発における活用について具体的な見解を持っている。最も一般的な初期のジェネレーティブAIの応用例は、NPCの対話性を向上させ、よりインタラクティブで没入感のある体験を作り出すことだった。
しかし、私が特に注目しているのはシステム開発の側面だ。個々の開発者レベルのコーディングから、より大規模なコンピュータサイエンスのシステム開発まで、AIは重要な役割を果たすことができる。特に、より大きなコンテキストウィンドウを持つジェネレーティブAIシステムは、巨大なシステムの理解と開発を支援できる。
現在、多くの個別の開発者は、システム全体の全体像を完全に把握できていないことが多い。AIは、このギャップを埋めるのに役立つ可能性がある。プロファイラーやチーム支援ツールとしてAIを活用することで、システム開発の効率を大幅に向上させることができる。
特に小規模なゲーム開発スタジオにとって、AIの活用は大きな可能性を持っている。私は大規模スタジオで働いた経験があるが、そこではスケールメリットを活かした開発が可能だった。しかし、基盤モデルの普及により、小規模スタジオでも大手スタジオと競争できるようになる可能性がある。これにより、業界全体でより多くのイノベーションが生まれることが期待できる。
このように、AIはゲーム開発において、単なるNPCの改善だけでなく、開発プロセス全体を変革する可能性を持っている。これは、より効率的で創造的なゲーム開発の実現につながるだろう。
5.4 脳-コンピュータインターフェースとの関係
私たちは、計算入力と出力が言語や指、音声などだけでなく、さまざまな方法で神経系統に直接接続される方向に確実に投資を進めていくことになるだろう。これは米国だけでなく、おそらくグローバルな技術革新の流れとなっていくと考えている。
特に、健康上の課題を持つ人々にとって、これらのインターフェースは非常にポジティブな影響を与える可能性がある。しかし、外科的な処置が必要なインターフェースについては、人々が考えているよりも普及が遅くなるだろう。その理由は、未知の健康リスクが多数存在するからだ。
例えば、Neuralinkの創設者の一人であるMax Hodakは、現在の技術では1つのニューロンに接続するために約89個のニューロンを破壊してしまうと指摘している。これは決して良い比率とは言えない。
このため、私は非外科的なアプローチがまず最初に普及すると考えている。確かに、頭蓋骨に穴を開けてデバイスを埋め込む方法に比べると、インピーダンスは高くなるが、私たちの神経系統全体には様々なアクセス方法が存在する。
健康上のベネフィットが明確な場合や、そのメリットが非常に大きい場合を除いて、なぜわざわざ健康上のリスクを取る必要があるのだろうか。より慎重なアプローチを取ることで、安全性を確保しながら技術の発展を進めることができる。
したがって、非侵襲的なインターフェースが最初に一般市場に登場し、その後、技術の進歩と安全性の確認を経て、より高度なインターフェースが導入されていくというのが、最も現実的なシナリオだと考えている。
6. 実践的な示唆
6.1 生産性向上のためのAI活用法
私の現在のラップトップ環境では、複数のエージェントに対して同時にプロンプトを実行し、その結果を統合して豊かなフォーマットのドキュメントを作成することができる。このシステムは、このクエリに関するマクロな見解を提供するだけでなく、必要に応じて詳細な情報も提供できる。
特に研究支援ツールとして、このシステムは非常に強力だ。検索APIや他のリソースを通じて情報を収集し、それらの検索結果を分析することも含まれている。これは、私が特定の情報を導き出そうとする際の重要な支援ツールとなっている。
私がこのようなシステムを構築した理由は、近い将来、このような機能が全てのコンピュータやスマートフォンで標準的なオプションとして利用可能になると考えているからだ。実際、現在のAIシステムでも、適切な指示があれば、ジャズ音楽を作るための複雑なソフトウェアツールの使用方法を教えることができる。
従来であれば、そのようなツールの使用方法を習得するには数百時間もの時間が必要だった。しかし、LLMを介することで、ユーザーは具体的な出力を指定し、それを実現するためのスクリプトを生成し、反復的に改善していくことができる。これはAIがメタツールとして機能する好例だ。
私の経験では、このようなツールの統合的な活用により、複雑なタスクの実行時間を大幅に短縮できる。ただし、重要なのは単にAIツールを使用することではなく、それらを効果的に組み合わせ、自分の作業フローに統合することだ。これにより、認知的なタスクの効率を大幅に向上させることができる。
6.2 スタートアップへのアドバイス
私がブリッツスケーリングを通じて学んだ重要な教訓の一つは、完璧な解決策を目指すことが、良い解決策の敵になりかねないということだ。LinkedInの事例は、この原則を示す良い例となる。
会社の基本的な運営ループや技術ループに、何を根本的に組み込むべきかを慎重に検討する必要がある。LinkedInでは、「フリーメンバーが最優先の顧客である」という原則を、企業文化、価値観、オンボーディング、そして企業の説明方法に深く組み込んだ。これにより、社内の誰もが「これはフリーメンバーにとって良くない」と指摘でき、その場合、その製品機能は実装されないという文化が確立された。
経済的な側面では、私たちは確かに採用企業や求職者、営業担当者などから優れた収益を得ているが、常にフリーメンバーを最優先に考えることで、エコシステム全体を向上させることができた。これは、経済的なインセンティブと個人への価値提供を適切に調整した例だ。
特に規制対応については、私の経験から、企業は長期的な株式価値を考慮して行動する必要がある。単に利益だけを追求するのではなく、議会への召喚や社会的批判といったリスクも考慮に入れるべきだ。これらは企業価値に大きな影響を与える可能性がある。
スケーリングに関しては、インフレクションAIの事例が示唆に富んでいる。エージェント開発には数十億ドル規模の投資が必要であることが判明し、私たちはビジネスモデルを開発者向けAPIにピボットすることを選択した。これは、スタートアップが直面する現実的な制約と、それに対する戦略的な対応の一例だ。
重要なのは、完璧を目指すのではなく、会社の中核的な経済ループや技術ループに組み込まれた良い原則を持つことだ。これにより、企業の成長とともに、その価値が自然に拡大していくような仕組みを作ることができる。
6.3 変化の速度と適応の重要性
私が最も強調したい点は、技術変化の本質的な性質についてだ。多くの人々はハイプに影響されて、1年後には何か劇的に異なるものが出現すると考えがちだ。しかし、1年後の未来を覗き見ることができたとしても、それは現在とそれほど異なるものではないだろう。
しかし、この漸進的な変化は急速に複合的な効果を生み出す。突然、5年後や10年後を見ると、状況は劇的に異なっているのだ。この技術環境のダイナミズムを理解することは極めて重要だ。
私たちが目の当たりにしているのは、単なるモバイルフォンやインターネット、クラウドコンピューティング以上の変革だ。なぜなら、AIはこれらすべてを増幅させる存在だからだ。AIは既存のプラットフォームの上に構築され、それらを新しい次元に引き上げる。
例えば、教育分野では、数十年前に確立された教育や評価の方法に固執する必要はない。AIの登場により、これらの方法を改善する機会が生まれている。しかし、多くの教育機関はAIを「悪いもの」として禁止しようとしている。これは完全な間違いだ。
このような変化に対応するためには、長期的な視点を持ちながら、日々の変化にも適応していく必要がある。重要なのは、変化を恐れるのではなく、それを機会として捉え、積極的に活用していく姿勢だ。
適応戦略としては、現在の変化が将来どのような影響を及ぼすかを常に考慮しながら、段階的に新しい技術やプロセスを導入していくアプローチが効果的だ。これにより、革新的な変化を確実に、かつ持続可能な方法で実現することができる。
6.4 長期的な技術革新の展望
この認知産業革命は、単なるモバイル、インターネット、クラウドコンピューティングの革命を超えた変革だと私は考えている。なぜなら、AIはこれらのすべてのプラットフォームの上に構築され、それらを増幅させる存在だからだ。これはプラットフォームというよりも、むしろメタツールとしての性質を持っている。
現在の技術革新の特徴は、認知的なタスクを支援し、増幅する点にある。例えば、従来数百時間かかっていた複雑なソフトウェアの習得も、AIを介することで大幅に効率化できる。AIはツールの使い方を教えるメタツールとして機能し、人間の学習と適応能力を強化する。
私は、マインドのスチームエンジンとも呼ぶべきこの革命が、人間の能力を根本的に拡張する可能性を秘めていると考えている。しかし、これは必ずしも人間の能力を置き換えるものではない。むしろ、人間とAIの協働により、より高度な成果を生み出すことが可能になる。
将来的な課題としては、安全性の確保、プライバシーの保護、そして倫理的な配慮が重要となる。特に、AIモデルの集中化や悪用の防止は、社会全体で取り組むべき課題だ。しかし、これらの課題に対して適切な対応を取ることで、AIは社会にとってより良い変革をもたらす可能性を持っている。
結論として、この認知産業革命は、単なる技術的な進歩を超えて、人間社会の在り方そのものを変える可能性を秘めている。しかし、その変化は一夜にして起こるのではなく、徐々に、しかし確実に私たちの生活や働き方を変えていくだろう。私たちの課題は、この変革を適切に導き、人類全体にとってより良い未来を築くことにある。