※本記事は、Y CombinatorのパートナーであるDiana Hu氏、Jared Friedman氏、Har Bhangal氏によるポッドキャスト「Lightcone」の内容を基に作成されています。動画の詳細情報は https://www.youtube.com/watch?v=cqrJzG03ENE でご覧いただけます。本記事では、2025年のAI業界を振り返り、モデル勢力図の変化からアプリケーション層への機会の移行、そして次世代AIスタートアップの可能性までを網羅した議論の内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。Y Combinatorへの応募は https://www.ycombinator.com/apply 、スタートアップでの求人情報は https://www.ycombinator.com/jobs よりご確認いただけます。
1. イントロ
1-1. 2025年を振り返って最も驚いたこと:AIエコノミーの安定化とアイデア発見難易度の正常化
Diana: 2025年を振り返ったとき、私が最も驚いたのはAIエコノミーが想像以上に安定したという点です。モデル層の企業、アプリケーション層の企業、インフラ層の企業、それぞれがきちんと収益を上げられる構造が出来上がってきました。そしてAIネイティブな会社をモデルの上に構築するための、ある種の「相対的なプレイブック」のようなものも見えてきた。これは正直、予想していなかった展開です。
Jared: 私も同感です。以前のエピソードで話したことがあるのですが、あの頃はスタートアップのアイデアを見つけること自体が、かつてないほど簡単に感じられていました。数ヶ月さえ生き延びれば、どこかから大きな発表があって、それが一気に新しいアイデアの可能性を開いてくれる、という感覚があったんです。ところが今は、そういった地殻変動的な変化のペースが落ち着いてきて、アイデアを見つけることの難易度が、AIブーム以前の「普通のレベル」に戻りつつあると感じています。
2. 最新YCバッチでAnthropicモデルが首位に
2-1. OpenAIからAnthropicへの逆転:モデル選択調査の結果と背景
Diana: 実は先日、Winter 2026のYC選考サイクルが終わったばかりなのですが、YCに応募するすべての創業者に対して「あなたの技術スタックと使用モデルは何ですか?」という質問をしています。その結果が非常に衝撃的でした。これまでずっと、ここ数バッチにわたってOpenAIが圧倒的な首位を占めていたのですが、今回のバッチでついにAnthropicがOpenAIをわずかに上回って第1位になったんです。このポッドキャストを始めた頃はOpenAIが90%以上を占めていたことを考えると、隔世の感があります。
Jared: Anthropicはずっと20〜25%あたりをうろうろしていて、2024年から2025年の前半にかけてもそのくらいの水準だったのが、ここ3〜6ヶ月で一気に逆転したわけですよね。シェアが52%を超えるホッケースティック的な成長を見せている。なぜだと思いますか?
Diana: いくつか理由があると思っています。まず今年はバイブコーディングツールやコーディングエージェントが非常に大きなカテゴリとして成立して、実際に多くの価値を生み出しました。そしてそのコーディング領域で最もパフォーマンスが高いのがAnthropicのモデルだという評価が定着しています。これは偶然ではないと思っていて、以前Tom Brownがポッドキャストに来てくれたときに話してくれたのですが、Anthropicはコーディングを内部評価の北極星として意図的に設定していたそうです。その結果がモデルの「味」として現れていて、多くの創業者がプロダクトを作る上での最善の選択肢としてAnthropicを選ぶようになっている。
Jared: ただ面白いのは、実際にAnthropicを使って構築されているユースケースの大半はコーディングではないという点です。むしろ、創業者たちが個人のコーディング作業でClaudeを使っているうちに、そのモデルの個性や振る舞いに慣れ親しんで、プロダクト開発においても自然とAnthropicを選ぶようになっているのではないかと思っています。つまり個人利用がビジネス選択に波及する、いわばブリードスルー効果が起きているのではないでしょうか。
2-2. Geminiの台頭と各モデルの個性:ホスト陣の個人的な使い分けと気づき
Diana: GeminiもAnthropicに続いて大きく伸びています。昨年はシングルデジット、場合によっては2〜3%程度だったのが、Winter 2026のバッチでは約23%まで上がってきました。私自身もGemini 2.5 Proをよく使っていて、そのクオリティには正直驚いています。
Har: 私は実は2.5 Proが出る前から、日常使いのメインモデルをGeminiに切り替えていました。理由は推論能力が高いと感じたことと、もう一つはGrounding APIの存在です。Googleのインデックスをリアルタイムで引いてきて、今日起きたことについて正確な情報を返してくれる能力が、他のどのツールよりも信頼できると感じました。Perplexityも速さは申し分ないのですが、精度でやや劣る印象があって。GeminiはPerplexityほど速くはないものの、リアルタイム情報の正確さという点では一枚上手だと思っています。
Jared: 私はChatGPTから離れられていないですね。理由はメモリ機能です。ChatGPTは私の性格や考え方の傾向を蓄積して把握してくれていて、それがとにかく使い勝手がいい。Webの検索精度ではChatGPTはまだPerplexityに一歩譲る気がしていて、素早い検索にはPerplexityを使うという使い分けをしています。それにしても、メモリというのは消費者体験における本物のモートになりつつあると感じています。GeminiがChatGPTのような個性を持つことは想像しにくいですし、それぞれが異なるエンティティとして存在している感覚です。
Diana: 各モデルのキャラクターの違いは面白いですよね。OpenAIはどこか黒猫的なエネルギーがあって、AnthropicのClaudeはフレンドリーで非常に協力的なゴールデンレトリバーのような印象です。Geminiはその中間くらいでしょうか。
3. AIコンシューマーアプリがなぜ増えないのか
3-1. 日常生活でのコンテキストエンジニアリングの増加と「アプリが足りない」という空白感
Jared: 今年一番驚いたことの一つが、AIコンシューマーアプリがなぜもっと増えないのかという点です。自分の生活を振り返ると、プロンプティングやコンテキストエンジニアリングに費やす時間が格段に増えました。たとえば最近家を買ったのですが、その過程でChatGPTをフル活用しました。インスペクションレポートをはじめとするあらゆる書類をチャットに投げ込んで、不動産業者との交渉において自分と相手の情報格差を埋めるために使ったんです。取引に関わるあらゆるダイナミクスを理解しようとして、長期にわたるチャット履歴を積み上げていました。こういう体験をすると、「これ専用のアプリがあってしかるべきでは?」と強く感じます。
Diana: 同時に、そういった書類をGeminiにまとめてPDFごと放り込んで「重要なポイントを教えて」と聞く、という使い方もできますよね。でも私がまだ躊躇してしまうのは、モデルの精度への信頼が追いついていないからです。大きな金額が動く取引では、不正確な情報が出てきたときのリスクが高すぎて、大量のプロンプティングなしには任せられないという感覚がある。
3-2. モデルへの信頼不足と高額取引における精度問題:まだ大量のプロンプティングが必要という実感
Jared: そこなんですよね。まだ「自分でたくさん手をかけないと正確な答えが返ってこない」という感覚が抜けない。それでも、その手間をぜんぶ肩代わりしてくれるアプリが出てきてもいいはずなのに、なぜか生まれていない。Karpathyが最近、一種のLLMアリーナのようなものを公開しましたが、私自身も今まさに手動でそれに近いことをやっています。Claudeのタブ、Geminiのタブ、ChatGPTのタブを同時に開いて、同じ問いを投げかけて、それぞれの回答を比較して、最後にClaudeに「他のモデルはこう言っているけど、どう思う?」と答え合わせをさせる、という使い方です。この手間をアプリが吸収してくれるようになれば、もっと多くの人が日常的にAIを使い倒せるようになるはずで、そこにはまだ大きな空白があると思っています。
4. モデルのスワップが当たり前になる
4-1. 複数モデルの並列比較・オーケストレーションが新常態に:創業者の実例と独自evalの重要性
Diana: 最近、シリーズBクラスの比較的大きなAI企業の創業者たちと話す機会があったのですが、以前はOpenAIやAnthropicといった特定のモデルに対してロイヤルな姿勢を持っていた人たちが、今では大きく変わってきています。彼らはモデルへの依存をすべて抽象化して、オーケストレーション層を自社で構築しているんです。新しいモデルがリリースされるたびにスワップできるようにしておいて、特定のタスクに最も優れたモデルをそのタスクだけに使うという運用をしています。具体的な事例として、あるスタートアップはコンテキストエンジニアリングの部分をGemini 2.0に担当させて、その出力をOpenAIに渡して実行させるという構成を取っていました。そしてモデルが更新されるたびに、どのモデルがどのカテゴリで最も優れているかを評価し直して、差し替えていく。
Jared: それが成立しているのは、評価基準が完全に自社内に閉じているからですよね。彼らは垂直特化型のAIエージェントを作っていて、非常に規制の厳しい業界で動いている。だから汎用のベンチマークではなく、自社のユースケースに最適化された独自のevalデータセットを持っていて、それがモデル選択の唯一の根拠になっている。この構造こそが、特定モデルへの依存から抜け出せる理由だと思います。
Diana: まさにそうです。これはかつてのIntelとAMDの時代に似ていると思っています。新しいアーキテクチャが出るたびにCPUを差し替えられたように、今のAI開発者たちもモデルをインテリジェントに入れ替えながら最善の選択を追い続けている。これが今の新常態だと感じています。
4-2. 価値の帰属先論争:モデル層 vs アプリケーション層、どちらに集積するか
Jared: 大きな構造的な問いとして、価値はモデル層に集積するのか、アプリケーション層に集積するのか、という議論が今年もずっとあったと思います。私の感覚では、これは一方向に決着がついたわけではなく、年間を通じて揺れ動いていました。たとえばClaude Codeが登場したときは、「モデル企業がアプリケーション層にも本気で参入してくる」という緊張感が走りましたよね。
Diana: ただその後、特にここ数ヶ月のGeminiの急激な伸びを見ていると、感覚としては「モデル同士が互いにコモディティ化し合っている」という方向に振り子が戻ってきている気がします。モデルがコモディティ化していくなら、その上に乗るアプリケーション層のスタートアップにとっては追い風で、来年も非常に有利な状況が続くのではないかと思っています。これはあくまでバイブスベースの話ですが、方向感としてはそう見ています。
5. AIバブル論の本質
5-1. テレコムバブルのアナロジーと「スタートアップはYouTubeの側」という整理
Jared: 学部生と話すと必ずといっていいほど出てくる質問が「AIってバブルじゃないですか?」というものです。NvidiaとOpenAIの間でお金がぐるぐる回っているだけなんじゃないか、全部フェイクなんじゃないか、という疑念を持っている学生が多い。でも私の答えははっきりしています。テレコムバブルを思い出してほしいんです。1990年代に数百億、数千億ドルという巨額の資金が通信インフラに注ぎ込まれて、使われない暗線ファイバーが大量に生まれました。あれは確かに過剰投資だった。でもそのおかげで帯域幅のコストが劇的に下がって、YouTubeが生まれる土台ができたんです。もしテレコムバブルによる設備過剰がなければ、YouTubeは生まれなかったかもしれない。少なくとも、もっと遅れていたはずです。今起きていることはまさにそれと同じ構造だと思っています。
Diana: そうですよね。「バブルかどうか」という問いは、立場によって全く意味が変わってきます。Nvidiaのような立場にある企業にとっては、GPU需要が本物かどうかは死活問題です。でも学生や創業者にとっては、そんなことはほとんど関係ない。彼らはComcastの側ではなく、YouTubeの側にいるんです。大学の寮部屋でAIスタートアップを始めようとしている人にとって、Nvidiaの株が来年下がるかどうかは、自分のビジネスが成り立つかどうかとはほぼ無関係です。
Jared: むしろ過剰投資によるインフラの充実は、スタートアップにとってはプラスです。競争が激しければ価格が下がり、マージンが改善され、スタックの上位層でビジネスを作りやすくなる。今年の大きなニュースの一つはNvidiaの株価が170ドル台まで下がったことですが、長期的には私はまだバイ・アンド・ホールドの立場です。ただ今この瞬間は、GeminiやAMD、TPUの台頭でNvidia一強の時代が終わりつつある。それが意味するのはコンピュートの総量が増えるということであり、大手AIラボにとっては競争が激しくなるということです。そしてAIラボ同士が激しく競い合えば合うほど、その上でアプリケーションを作るスタートアップにとっては有利な環境が続くわけです。また大手テック企業、たとえばMetaが膨大なキャペックスをインフラに投じているとしても、それはMetaのキャペックスであってスタートアップのキャペックスではありません。万が一需要が急落したとしても、インフラと余剰コンピュートは残り、スタートアップはそれを安く使い続けることができます。
5-2. カルロタ・ペレスの技術革命フレームワーク:インストール期からデプロイ期への移行とスタートアップへの含意
Diana: この議論を整理する上で非常に参考になったのが、経済学者のCarlota Perezが書いた技術革命に関する著作です。彼女は多くの技術トレンドを研究した結果、技術革命には大きく二つのフェーズがあると論じています。最初が「インストール期」で、重厚な設備投資が集中する時期です。次が「デプロイ期」で、技術が社会全体に普及して爆発的な経済的豊かさが生まれる時期です。そしてインストール期の最中は、必ずバブルのような熱狂が生まれます。2023年のChatGPTの登場で「すごい技術が来た」という興奮が広がり、GPUの爆買いやギガワット級データセンターの建設ラッシュが起きた。「でもアプリケーションはどこだ?需要はどこだ?」という疑問が湧いてくる。今まさにその過剰投資への懸念が出ている時期がインストール期の終盤であり、デプロイ期への移行点だと思っています。
Jared: インターネットバブルのときも同じでした。大学生が関わるような話ではなかった巨大な通信インフラプロジェクトに膨大な資本が流れ込んで、過剰投資もあった。でもインターネット自体は結局、巨大な経済的ドライバーになりました。将来のFacebookや将来のGoogleはまだ生まれていない、という話です。それらはデプロイ期に登場するからです。今はまだインフラが積み上がっている最中であり、基盤となるAIラボやGPUはまさにそのインフラの側にいます。デプロイ期に花開くアプリケーション層のスタートアップは、これから登場してくるんです。
6. データセンターとエネルギー問題の解決策としての宇宙
6-1. 宇宙データセンター構想の主流化:笑われたStarCloudが18ヶ月で正論に
Jared: 面白いエピソードがあります。2024年の夏にStarCloudというスタートアップが登場して、「宇宙にデータセンターを作る」と宣言したんです。インターネット上の反応は覚えていますか?
Diana: みんなに笑われましたよね。「そんなの史上最悪のアイデアだ」という声が大多数でした。
Jared: それが18ヶ月後の今、GoogleもElonもあらゆるインタビューでそれを最重要トピックとして語るようになっています。なぜこれほど急速に主流になったのか。根本にあるのは電力不足の深刻さです。Boom Supersonicは今、超音速ジェットを作る代わりに、AIデータセンターに電力を供給するためにジェットエンジンを使った発電に取り組んでいます。しかもそのサプライチェーンがひどい状況で、今から発注しても手元に届くのは2〜3年後という状態です。つまり数年後に必要なインフラのために、数年前に手を打っておかなければいけない。これほど逼迫した状況になっているわけです。
6-2. エネルギー・土地・規制の三重制約とYCポートフォリオによるトリフェクタの解決策
Jared: データセンターの建設には、電力だけでなく土地と規制という問題も重なっています。アメリカでは物理的に建設できない、あるいは規制が高すぎて動けないという状況があります。カリフォルニアでは環境ロビーがCEQAを乱用してイノベーションや住宅建設を阻んでいる。電力も土地も規制もすべてが同時に詰まっている状態で、その唯一の脱出弁として「宇宙でやろう」という発想が生まれてきているわけです。
Diana: 実はYCのポートフォリオを見ると、このデータセンター問題を三方向から解決しようとしている企業が揃っています。土地がないという問題に対しては宇宙にデータセンターを建設しようとしているスタートアップがいます。エネルギーが足りないという問題に対してはBoomとHelionが取り組んでいます。さらに今日、Demo Dayを卒業したばかりのZephyr Fusionという宇宙核融合の会社が素晴らしいシード投資を獲得しました。創業者たちは40代で、キャリア全体をトカマクや核融合エネルギーの研究に捧げてきた国立研究所のエンジニアたちです。
Jared: 彼らのストーリーが面白くて、ある日研究所に出勤して物理の計算式と向き合って、数学とモデルを見直した結果、「これを宇宙でやれば採算が合う」という結論に達したそうです。それが彼らの今後5〜10年にわたるミッションになっています。方程式の上では実現可能であり、もし成功すれば宇宙空間でギガワット級のエネルギーを生み出す唯一の現実的な道になり得ます。土地問題を解決する宇宙データセンター、エネルギー問題を解決するBoomとHelion、そしてZephyr Fusionが加わることで、より完璧なトリフェクタになるかもしれません。
7. モデル企業を創業することへの関心の高まり
7-1. フロンティア競合と特化モデルの二極化:スタートアップ知識の民主化がAI研究にも波及
Jared: 今年を通じて感じたもう一つの変化は、モデル企業を立ち上げることへの関心が高まってきたという点です。方向性としては両極端に分かれていて、一方はSSIのIlyaのように、OpenAIに真正面から競合するフロンティアモデルを作ろうとする、資本を大量に調達できるごく少数のプレイヤーです。もう一方は、YCの中で増えてきているエッジデバイス向けの小型モデルや、特定言語に特化した音声モデルなど、より小さなスコープで特化したモデルを作ろうとする動きです。直近の数バッチでそういった応募が明らかに増えていて、このトレンドが続くのかどうか注目しています。
Diana: これはSaaSスタートアップが爆発的に増えた時代の流れと似ていると思います。あの頃、スタートアップの起こし方やソフトウェアの作り方に関する知識がインターネット上に蓄積されて広く共有されるようになった結果、社会全体のスタートアップへの理解度が上がり、創業者の数が爆増しました。今まさに同じことがAI研究とプロダクト開発の交差点で起きているのではないかと感じています。かつては非常に希少なスキルセットだったことが、少しずつ一般的になってきている。
Jared: OpenAIが10年前に創業したとき、あの組織が持っていたスキルの組み合わせは本当に稀有なものでした。研究者としての頭脳、エンジニアリングの頭脳、そしてファイナンスやビジネスの頭脳、この三つが一つのチームに揃っていた。
Diana: それってIlya、Greg、Samのことですよね?
Jared: まさに(笑)。あの構成のチームは当時ほとんど存在しなかった。でも10年後の今は、研究バックグラウンドを持ちながらエンジニアリングもできて、資金調達の方法も知っている、あるいはこれから学べる人材が世界中に増えています。そうなると、様々な特定タスクに向けたモデルがさらに多く生まれてくるのではないかと期待しています。
7-2. RLと特化ファインチューニングの可能性と限界:GPT-4超えの医療モデル事例と陳腐化リスク
Diana: この流れをさらに加速させているのがRLの存在だと思います。汎用のオープンソースモデルをベースに、特定のRL環境とタスクに合わせてファインチューニングを施すことで、ドメイン特化の最強モデルを作れる可能性が出てきています。実際にYCのスタートアップで、医療分野において最高品質のデータセットを独自に収集して、わずか80億パラメータのモデルでOpenAIのモデルを複数のベンチマークで上回ったという事例があります。汎用の大規模モデルではなく、特定領域に絞ったファインチューニングとRLの組み合わせが、その差を生み出しているんです。
Jared: ただし、この戦略には重大なリスクがあります。YCの中にも、GPT-3.5をRLでファインチューニングしてOpenAIを上回る性能を出していたスタートアップがいたのですが、GPT-4.5や5.1がリリースされた瞬間に、そのファインチューニングによる優位性が完全に吹き飛んでしまいました。特化モデルで勝負するなら、常にフロンティアのモデル進化を追い続けて、自分たちのファインチューニングやRLのパイプラインも更新し続けなければいけない。走り続けることが前提条件になります。ポストトレーニングのインフラをしっかり持っていないと、一瞬で陳腐化するリスクがあるということを、創業者たちは十分に認識しておく必要があります。
8. バイブコーディングの台頭とAIエコノミーの安定化
8-1. バイブコーディングが観察から巨大カテゴリへ:現状の限界と主要プレイヤー
Jared: 今年の初めに私たちがバイブコーディングについて話したエピソードは非常に多くの視聴者に見てもらえましたが、あの頃はまだ創業者たちの間で起きている行動を「観察している」という感覚でした。それが気づいたら巨大なカテゴリとして確立していた。ReplitやEmergenceをはじめ、多くの企業が成功を収めています。VarunがGoogleに移ってAnti-Gravityをリリースしましたし、SundarもバイブコーディングについてGoogle全体の重要テーマとして語るようになっています。
Diana: あの発表動画、見ましたか?Varunがキーボードを叩いていて、Sergeyが真後ろに立っているという、非常に映画的な演出で。NanoBananaなどの動画生成ツールを使ったのかと思うくらい作り込まれていましたよね。Googleほどの予算があればできることだとは思いますが。
Jared: ただ正直に言うと、バイブコーディングはまだ万能ではありません。2025年末の時点で、100%の本番コードをバイブコーディングだけで出荷できるかというと、それはまだ現実ではない。完全に信頼して任せ切れるかというと、そこには依然として限界があります。カテゴリとしては確立されましたが、過信は禁物です。
8-2. AIエコノミーの構造的安定:各層の役割確立とプレイブックの成熟
Jared: 2025年で最も驚いたことを一つ挙げるとすれば、AIエコノミーが想像以上に落ち着いたという点です。2024年末にこの話をしていた頃は、まだ地盤が足元で動き続けているような感覚があって、何かがいつ崩れてもおかしくない、スタートアップとAIと経済がこれからどうなるのか誰にもわからない、という緊張感がありました。それが今年は、モデル層・アプリケーション層・インフラ層というそれぞれの役割が明確になって、各層がきちんと収益を上げられる構造が見えてきた。AIネイティブな会社を作るための相対的なプレイブックが成熟してきた、という感覚があります。
Diana: それはモデル自体の進化のペースとも連動していると思います。今年はモデルが着実に改善され続けた一方で、すべてを覆すような大きなブレークスルーは起きなかった。その「漸進的な改善」という安定感が、エコノミー全体の落ち着きにつながっているのではないかと思います。
Jared: 以前のエピソードで、「数ヶ月さえ生き延びれば、何か大きな発表があって一気に新しいアイデアの可能性が開ける」という話をしたことがありましたが、その感覚は確実に薄れてきています。オフィスアワーで創業者と話していても、アイデアを見つけることの難易度が、AIブーム以前の通常水準に戻りつつあると感じています。地に足のついた、次のフェーズに入ってきたということだと思います。
9. AI 2027レポートと技術普及のブレーキ要因
9-1. 予測の静かな修正:スケーリング則の対数線形性と人間の変化嫌いが生む自然なブレーキ
Jared: 驚きとは少し違いますが、「AI 2027」というレポートを覚えていますか?2027年に社会が崩壊し始めるという、いわゆるドゥーマー的な内容のレポートです。あれがいつの間にか静かに修正されていて、2027年という予測は撤回されているのに、タイトルだけそのまま残っているんです。私は元々このファストテイクオフ論に対して懐疑的でした。スケーリング則は確かに強力ですが、対数線形です。つまり同じ性能向上を得るためには10倍のコンピュートが必要になり続ける。成長は続くけれども、加速度的に鈍化していく構造になっている。これが一つ目の自然なブレーキです。
Diana: もう一つのブレーキ要因として、少し奇妙な言い方になりますが、人間が変化を嫌うという性質があります。以前のエピソードで、MITのレポートが「企業のAIプロジェクトの90〜98%が失敗している」と報告していた話を取り上げて、私たちはそのレポートをかなり批判的に検証しましたよね。でも実際のところ、企業の90%はITすらまともに使いこなせていない、AIどころの話ではないというのが現実です。これを「良いこと」と表現するのは奇妙ですが、ファストテイクオフの文脈で言えば、これは現実的なブレーキとして機能しています。
Jared: そうなんですよね。私自身はアクセラレーション派ですが、この文脈においては「それが実は良いことかもしれない」と言わざるを得ない。スケーリング則の対数線形性と、組織としての人間の変化嫌いという二つのブレーキが重なることで、この非常に強力なテクノロジーが社会に浸透するスピードに、ある程度の現実的な上限がかかっています。文化が追いつく時間、政府が対応する時間、社会が吸収する時間が確保される。SB1047のような、「10の26乗を超えるコンピュートを全部止めろ」という拙速な規制への膝反射的な反応ではなく、もう少し落ち着いた形でテクノロジーと向き合える余地が生まれるということです。
Diana: ARC AGIの賞については今後も注目しています。Winter 2026のバッチに非営利として参加することになっていますが、今まさにリーダーボードを駆け上がっているチームがいて、またこの流れが一気に加速するかもしれない。その可能性は常に頭に置いておく必要があります。ただ現時点では、構造的なブレーキの存在が、少なくとも短期的な破滅的シナリオを現実的でないものにしていると思っています。
10. 創業者はチームの採用を続けている
10-1. 「少人数高収益」の現実:採用継続の実態、ファインチューニング過剰投資の教訓、人材ボトルネック
Jared: 去年のちょうど今頃、シリーズAを調達するのに誰も雇わずに100万ドルARRに到達した創業者たちの話をしていました。多くて1人しか採用していないケースもあって、それは非常に異例に感じました。あれから1年経って、その後どうなったかというと、結局みんな採用を始めているんです。シリーズA後のプレイブックは基本的に以前と同じで、会社の規模が同じ売上に対して小さくなっているとすれば、それはAIによって人員が不要になったからではなく、単純に収益への到達が早くなったからだと思います。採用に時間がかかること自体は変わっていない。需要があっても人を採用するのには時間がかかるというボトルネックが依然として存在しています。
Diana: AIが一切の採用を不要にするという話は、少なくとも今の段階では単純すぎると思います。幹部の採用が不要になったというケースは見当たりません。ただ、興味深い対照事例として、HarveyとOpen Evidenceという二社を考えてみると面白いです。Harveyの創業者たちは非常に優秀で、非常に早い段階から動いていました。VCの観点で言えば、Sand Hill Roadを下りながら資金を出せる30人ほどの投資家から1000万〜1億ドル規模の小切手を全部集めてしまえば、次のシリーズAを誰も実行できなくなって、資本が競争上のモートになるという構造を作れる。Harveyはまさにそれをやっています。
Jared: ただHarveyにとってはLoraが猛追しています。私たちもLoraに関わっていますが、彼らにはHarveyと同等以上のチャンスがあると思っています。2025年に見えてきたトレンドの一つは、2023年に「我々がこのスペースを制した」と勝利宣言をしたようなAIネイティブ第一世代の企業が、実はファインチューニングに多大な資本を費やしていたという事実です。そのファインチューニングが何の優位性も生まなかった。
Diana: その奇妙な受益者は誰かというと、投資家なんですよね。ファインチューニングに資本スタックの二桁パーセントを燃やしてしまった結果、投資家の持分比率が相対的に上がるという構造になってしまっている。
Jared: 採用と人員規模について、二つの考え方があります。一つは「AIによってすべてが効率化されて必要な人員が減る」という考え方。もう一つは「AIによってプロダクションコストや開発時間が下がる結果、顧客や利用者の期待値が上がり続けるので、その期待に応えるためにむしろ採用し続けなければならない」という考え方です。2025年はどちらかというと後者の世界でした。LoraはHarveyと競争しているし、GigaはSierraと競争している。同じ顧客を奪い合っている以上、アイデアがボトルネックなのではなく、それを実行できる優秀な人材がボトルネックになっています。AIが登場する前と比べて採用人数はほとんど変わっていないという感覚があります。
Diana: 「一人で兆ドル企業を作る時代」はまだ来ていない、という点では同意します。ただ方向性としては確実にそこに向かっていると思っています。2026年にそれが実現するとは思っていませんが、50人で1億ドルARRを達成するという事例は現実になりつつあります。Gammaがローンチ時に強調していたのが、わずか50人で1億ドルARRに到達したという点でした。これまでのスタートアップの常識では、大きな資金調達と大勢の社員数を誇るのが「勝利宣言」でしたが、今は「これだけの収益をこれだけ少ない人数で作った」というリバースフレックスが最高のシグナルになってきています。これは非常に健全なトレンドだと思います。
11. アウトロ
11-1. まとめと締め
Jared: 以上が私たちの2025年を振り返っての話でした。「一人で兆ドル企業を作る時代」はまだ来ていないというのが結論ですが、
Diana: まだ来ていない、ですね。
Jared: ただ、いずれはそちらに向かっていくと思っています。それが2026年の予測になるかもしれませんね。
Diana: 2026年には起きないと思いますけど(笑)。でも100人以下で数億ドルの収益を上げる会社の話はこれからたくさん出てくると思います。Gammaがその先駆けとして示してくれたように、少人数で大きな収益を作るというリバースフレックスが新しい勝利の形になっていく。それは本当にエキサイティングなフェーズだと感じています。
Jared: 今回はここまでです。皆さん、素晴らしいホリデーシーズンと新年をお過ごしください。Light Coneチーム一同より、皆さんとそのご家族に良いお年を。またお会いしましょう。
