※本記事は、Y Combinatorが制作・公開している「The Lightcone」の第1回ゲストエピソードを基に作成されています。このエピソードでは、Googleの初期社員でGmailの創設者、そしてYCのGroup PartnerであるPaul Bucheit氏が出演しています。 ポッドキャストの完全版は、Y CombinatorのYouTubeチャンネルでご視聴いただけます。本記事では、AGIの未来、OpenAIの初期の歴史、オープンソースモデルの重要性などを中心に、ポッドキャストの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのポッドキャストをご視聴いただくことをお勧めいたします。 Y Combinatorは、スタートアップに50万ドルを投資し、3ヶ月間集中的に創業者と協働する機関です。創業者は、世界で最も影響力のあるコミュニティへのアクセス、重要なアドバイス、後期段階の資金調達とプログラム、採用リソース、独占的な取引などを利用することができます。詳細については、ycombinator.comをご覧ください。
1. Googleでの経験とAIの歴史
1.1 1999年のGoogle参画時の状況
Paul Buchheit:1999年6月にGoogleに参画しました。当時のGoogleは、University AvenueのTシャツショップの上にあるオフィスで、非常に小規模なスタートアップでした。入社後1週間で、もっと株式を得ようとしましたが、それは受諾前に交渉すべきだったと気づきました。しかし、職場の雰囲気は非常に刺激的でした。毎日出社するのが楽しみでした。なぜなら、私たちは大きなことを成し遂げようとしていたからです。
GoogleのミッションはLarryとSergeyによって明確に設定されていました。彼らは大規模なコンピュートクラスタを構築し、収集したデータに対して機械学習を適用することを目指していました。公式には「世界中の情報を集め、普遍的に有用でアクセス可能にする」と表現されていましたが、実質的にはそれを巨大なAIスーパーコンピュータに学習させることを意味していました。
Gary:Googleの起源は、PageRankに関するLarryとSergeyのPh.D.研究に基づいています。これは今日、多くの機械学習の授業で教えられる基礎的なAIアルゴリズムの一つとして位置づけられています。
Paul Buchheit:当時から、十分なデータがあれば、小さなアルゴリズムを無限に改良し続けるのではなく、それが知能を生み出す道筋になるという理解がありました。私自身は1995年に初めてのニューラルネットを作成しました。それはASCIIアートのOCRを行う、わずか100個程度の重みを持つ3層ニューラルネットでした。現在のモデルが持つ数兆の重みと比べると非常に小規模なものでしたが、これがGoogleのAIへの取り組みの始まりでした。
このように、Googleは設立当初からAI企業としての性格を持っていました。ページランクというAIアルゴリズムから始まり、大規模なデータ収集とそれを活用した機械学習の実現を目指していたのです。
1.2 Googleの spell checker開発とAIの萌芽
Paul Buchheit:私はスペリングが得意ではありませんでした。数学のような予測可能なパターンは簡単でしたが、恣意的なパターンである綴りは常に苦手でした。Googleに入社した際、クエリログを見ると、私だけでなく、約3分の1のクエリにスペルミスがあることに気づきました。これは品質改善の最も簡単な機会だと考え、最初の機能の1つとしてスペルチェッカーを追加しました。
初期のバージョンは既存のスペルチェッカーライブラリを基に構築しましたが、"Turbo Tax"を"turbot ax"(turbotは魚の一種)のように修正しようとするなど、非常に不適切な修正を提案することがありました。そこで、私は基本的な統計フィルタリングを実装し、そのような明らかに間違った修正を表示しないようにしました。
その後、私たちはウェブのコピーと数十億の検索クエリという大量のデータを活用して、より良いスペルチェッカーの開発に取り組みました。この開発過程で、私はエンジニアの面接質問としてスペルチェッカーの構築方法を尋ねることにしました。約80%のエンジニアには全く見当がつかず、20%は中程度の回答しかできませんでした。
しかし、ある応募者が非常に優れた回答をしました。その人物は私の考えよりも進んだアイデアを持っていたので、即座に採用を決定しました。その人物がNoam Shazeerです。2000年12月末に入社し、最初のプロジェクトとして私のコードを全て渡し、クラスターの使用方法を説明しました。
クリスマス休暇で2週間ほど不在にしている間に、Noamは現在の"Did you mean"機能を発明しました。これは固有名詞を含むスペル修正が可能な画期的な機能でした。従来の辞書ベースの単純な編集距離に基づくスペルチェッカーとは異なり、実際のウェブデータとクエリログを基に最も可能性の高い修正を予測する、初めての大規模なAIベースのスペルチェッカーでした。
Gary:興味深いことに、Noam Shazeerは後に"Attention is All You Need"論文の主要著者となり、Character AIを立ち上げることになります。2000年にGoogleのスペルチェッカーが登場したときは大きな出来事でした。一般の人々が広く使用した初めてのAIアプリケーションの一つだったからです。
1.3 Googleが AI企業としてリードできなかった理由
Paul Buchheit:私は2006年にGoogleを退社したため、外部からの観察になりますが、GoogleがAI企業としてリードできなかった主な転換点は、Alphabet化の時期に起こったと考えています。この時期から、創業者たちによる直接的な経営が減少し、特に彼らが完全に離れた後、会社は検索による独占的な収益を保護し維持することに焦点を移していきました。
検索事業は文字通りの金鉱でしたが、AIは本質的に破壊的な技術です。1998年の最初のGoogle論文でも指摘されていたように、検索企業には固有の緊張関係があります。正しい答えを直接提供すれば、ユーザーは広告の掲載された検索結果ページ全体をクリックする必要がなくなります。実際、検索結果を悪くすれば、人々はより多くの広告をクリックする傾向があるという本質的なジレンマが存在していました。
さらに重要なことは、Googleの事業の多くが規制当局との対応に費やされるようになっていたことです。AIは必ず攻撃的な発言をする可能性があり、彼らはそれを非常に恐れていました。社内でもこの慎重さは顕著でした。例えば、Noam Shazeerが開発したチャットボット(後にLambdaと呼ばれるもの)は、当初「Human」という名前でしたが、人間的な名前を付けることすら禁止され、名称変更を強いられました。
また、社内の研究者たちに対しても厳しい制限が課されていました。Dall-Eに相当する「Image Gen」というプロジェクトでは、人間の姿を生成することが禁止されていました。これらは全て、Googleが極端にリスク回避的になっていったことを示しています。
実際、もし可能であれば、GoogleはAIをリリースしなかったでしょう。ChatGPTがOpenAIによってリリースされ、多くの批判を受けた後でようやく、Googleは自社のAIをリリースすることを余儀なくされました。その時点で、より制限の厳しいバージョンを出すことが可能になったのです。
この状況は、創業者のLarryとSergeyが積極的に経営に関与していれば異なっていたかもしれません。彼らのような信頼性の高いリーダーであれば、多くの問題を引き起こす可能性があっても、会社の将来をかけた決断ができたはずです。
2. OpenAIの設立と発展
2.1 YC ResearchからOpenAIへの変遷
Paul Buchheit:2010年代初頭、私たちはディープラーニングが本当に印象的なことを成し遂げ始めているのを目の当たりにしていました。特にビデオゲームをプレイして勝利するなど、AIが現実的なものになってきていることを実感していました。
その頃、Sam AltmanはElonが主催したAIに関する会合に参加しました。そこでElonは、AIが人類を全滅させる可能性があると警鐘を鳴らし、規制の必要性を提案していました。Samは私たちに「AIの規制を推進すべきだと思うか」と相談してきました。私は規制はかえって事態を悪化させると考えました。選出された代表者たちが賢明で先見性のある判断を下せるという確信が持てなかったからです。
そこで私は、規制を推進する代わりに、私たち自身がAIを構築し、その方向性に影響を与えるべきだと提案しました。ただし、当時のAIは基本的に研究プロジェクトの段階で、収益化までの時間軸が不明確でした。また、研究者たちの給与が非常に高額だったため、莫大な資本が必要でした。
そこで登場したのがYC Research構想です。私たちは、この技術がGoogleの中に閉じ込められることを懸念していました。そこで、より世界に開かれた形で、特にスタートアップのエコシステムが恩恵を受けられる形でAI開発を進めることを目指しました。
Gary:OpenAIの本当の設立ストーリーは、一般に語られているものとは異なります。最近の訴訟で公開されたメールの中に、ElonがYCの関与を取り除くよう要求している内容が含まれていました。
Paul Buchheit:Sam Altmanは、異なる利害関係を持つ多くの人々をまとめ上げる驚異的な組織力を持っていました。彼はElon、PG、Jessica、そして他の多くの人々から寄付を募り、OpenAIの非営利組織としての基盤を作り上げました。YCも一部資金を提供しました。その後、彼は元のチームを募集し、Greg BrockmanやIlya Sutskeverなどを集めて、プロジェクトを本格的に始動させました。
当時、SamはまだYCのCEOを務めていて、OpenAIは当初YC Researchの一部として構想されていました。しかし、Elonの関与が深まるにつれて、独立した組織としてのOpenAIが形成され、Elonがよりパブリックな顔として前面に出るようになっていきました。YCとの関係性は次第に表面から消えていき、多くの人々はOpenAIのYCルーツを知らないまま今日に至っています。
2.2 研究者を引き付けたオープンな文化
Paul Buchheit:OpenAIの重要な特徴は、研究者たちに対して「あなたの研究成果は社内に閉じ込められることはない、世界に公開される」という約束をしたことです。この方針は多くの優秀な研究者たちを引きつける重要な要因となりました。
研究者たちは、大企業の中で自分たちの研究が制限されることを望んでいませんでした。例えば、Googleの研究者たちは人間の姿を生成するImage Genのバージョンさえ作ることができないほど、内部的に厳しく制限されていました。
一方、OpenAIはAIのスタートアップバージョンとして、迅速に動き、成果を出すことができました。もし大企業の一部門として働くのであれば、様々な制約の中で身動きが取れなくなってしまいます。実際、研究者たちは制作物を迅速に公開し、影響を与えたいと考えていました。
Gary:スタートアップは、実際に手ごわい競合相手と戦っているわけではない場合に成功することが多いものです。遅い大企業、つまり内部で誤ったインセンティブを持つ大企業と競争している場合に成功チャンスがあります。
Paul Buchheit:その通りです。もしGoogleが最高の状態を維持していれば、OpenAIは成功できなかったでしょう。スタートアップが成功するのは多くの場合、競合が遅い大企業だからです。このように、組織の俊敏性と文化の違いが、優秀な人材の獲得と維持において決定的な役割を果たしました。私たちは研究者たちに、彼らの成果を世界に向けて発信できる自由な環境を提供することができました。それは大企業では得られない価値でした。
2.3 2016年当時のOpenAIと1999年のGoogleの比較
Paul Buchheit:私が考えるに、2016年のOpenAIは1999年のGoogleよりもさらに困難な挑戦でした。最近の訴訟で公開されたメールの中には、Elonが「成功の確率は0%だ」と述べているものもありました。実際、それは全く明白ではない挑戦でした。
長い間、OpenAIはビデオゲームでの実験など基礎的な研究を続けていました。本当のブレイクスルーは大規模言語モデル(LLM)の開発でした。特に記憶に残っているのは、SamがGPT-2を私に見せたときの興奮です。彼は「次の単語を予測する」という機能に非常に熱心でした。
一見すると、次の単語の予測は驚くほど単純な機能に見えます。今でも「本当の知能ではなく、ただ次の単語を予測しているだけだ」と批判する声を耳にします。しかし、これは非常に深い意味を持っています。次の単語を予測できるということは、実際には何でも予測できるということです。プロンプトは本質的に、予測したい内容を指定するものに他なりません。
次の単語を予測するためには、必然的に何らかの形で現実のモデルを構築する必要があります。もちろん、現時点ではテキストデータという限られた入力に基づいて現実を理解しているという制限はありますが、この予測能力は本質的に知能の一形態と言えます。
Gary:そうですね。これは単なる表面的な機能ではなく、深い理解と予測のメカニズムを必要とする機能でした。
Paul Buchheit:ええ、これがまさにOpenAIが成し遂げた最も重要な革新の一つでした。当初は不可能に思えた挑戦が、次の単語予測という一見シンプルな機能を通じて、実は非常に深い知能の基礎を築いていたのです。これは1999年のGoogleが検索という具体的な問題に取り組んでいたのとは異なり、より根本的なAIの課題に挑戦するものでした。
3. オープンソースAIの重要性
3.1 Metaのオープンソースモデル戦略
Gary:Metaは、メタバース構想の実現に向けて真摯に取り組んでいます。最近では、Luxxoticaの大規模な買収を通じて、Ray-Ban Storiesの成功を踏まえてARグラスの展開を加速させています。実際、前回のリリースでは、過去の世代と比べて2か月で過去最高の売上を記録しています。AI開発はメタバースの実現に向けた重要な構成要素となっています。例えば、デジタル世界を拡張するためには、言語理解や視覚認識が必要不可欠です。
Jered:しかし、Metaの消費者向け製品へのAI実装は、まだ十分とは言えない状況です。例えば、Facebookアプリを長年使用していますが、過去5-10年前の出来事や友人との思い出を検索しようとしても、70Bや405Bのモデルを導入しているにもかかわらず、自分に関連するコンテンツに対するRAG(検索補助生成)が実装されていません。一方で、InstagramのAIは比較的優れており、旅行計画を立てる際の写真や場所の推薦などで実際に役立っています。
Paul Buchheit:Metaのオープンソース戦略には明らかに機会主義的な要素があります。彼らは多くの面で後れを取っているため、差別化を図り、競合を弱体化させる方法としてオープンソースを活用しています。ただし、これは決して否定的な意味ではありません。それが彼らにとって有益であることは、エコシステム全体にとっても良いことです。
実際、これらのモデルは内部的にも活用されており、広告のターゲティングやレコメンデーションなど、彼らのコアビジネスを改善するために使用されています。また、GoogleやAppleとの競争において、オープンソースは重要な戦略的武器となっています。
さらに、AI研究者の採用においても、オープンソースの方針は大きな利点となっています。もし私がAI研究者で、Metaと他のクローズドな企業の選択肢があった場合、間違いなくオープンな企業を選ぶでしょう。
3.2 オープンソースを通じた個人の自由の保護
Paul Buchheit:AIは我々が今まで発明した中で最も強力な技術です。そこで重要な問題となるのは、この力がどこに向かうのかということです。本質的に二つの方向性があります。
一つは中央集権化の方向です。すべての力が政府や少数の大手テクノロジー企業に集中する道筋です。これは人類にとって壊滅的な結果をもたらすと考えています。なぜなら、個人の主体性と力が最小限に抑えられてしまうからです。
もう一つの方向性は、自由を重視し、これらの能力と可能性をできる限り個人に与えていく方向です。例えば、全ての人がIQ200相当の知能を持つような状況を想像してみてください。これは力を一箇所に集中させる代わりに、個々人が最高の自分になれるような方向性です。
オープンソースは、この自由を実現するための重要なリトマス試験となります。なぜなら、それは真の自由、言論の自由、憲法修正第1条に通じる自由だからです。もしモデルがすべてロックダウンシステムの下に閉じ込められ、何を言って良いか、どんな考えが許容されるかについて多くのルールが存在する状況では、私たちは実質的にすべての自由を失うことになります。
例えば、子供が自分でピクサー映画と同じクオリティのアニメーションシリーズを作れるようになることを考えてみてください。これは創造性を解放し、より多くの物語が語られる可能性を開くことになります。このように、AIは個人の創造的な可能性を大きく広げる潜在力を持っています。
Gary:確かに、個人の創造性と自由の保護は重要ですね。YCは、このような個人のエンパワーメントに大きな役割を果たせると考えています。AIがどれだけ素晴らしいツールになり得るかを示す、より多くのクールなツールを作ることで、より良いビジョンを示すことができます。
Paul Buchheit:その通りです。そして、これはまさにChatGPTのリリースが重要だった理由の一つです。たとえOpenAIが明日消滅したとしても、彼らは最も重要なミッション、つまりAIを公共の意識にもたらし、多くの人々がそれについて考え、取り組むようになるというミッションを既に達成したと言えます。
3.3 モデル開発コストと中央集権化の課題
Paul Buchheit:これは私が持つ根本的な懸念の一つです。モデルの構築には莫大なコストがかかるという事実は、本質的に中央集権化を促進する要因となっています。AGIを構築するのに1兆ドル規模のコンピュータクラスターが必要だとすれば、それを分散化することは非常に困難です。
ただし、少なくとも立法的な基盤として、そうしたことを行う権利を確保することは重要です。また、これらのプロセスをより効率的にする方法を模索する多くのスタートアップが存在することも心強い点です。
現時点では確かに莫大なコストがかかりますが、私たちのアルゴリズムはまだそれほど優れていないと考えています。10年後には、基本的な学習アルゴリズムは現在よりもはるかに優れたものになっているでしょう。より効率的なハードウェアとより良いアルゴリズムの両方を手に入れることができるはずです。
Gary:その観点は興味深いですね。人間の脳の学習に必要な計算能力と、GPT-4の学習に必要な計算能力を比較すると、私たちの方がまだまだ非効率なことは明らかです。
Paul Buchheit:その通りです。人間の脳は約15ワットで動作していますが、現在のAIモデルの学習にはその何倍もの電力が必要です。このことは、効率化の余地がまだまだ大きいことを示しています。
Gary:Metaのメタバース計画を例に取ると、外部の推計では200億から500億ドル、アポロ計画の数倍の投資がなされています。その文脈で考えると、10億ドル規模のAIモデル開発は、Metaにとってはそれほど大きな投資ではないかもしれません。特にOpenAIやAnthropicのような企業のフロンティアモデルの利益率を下げる戦略として考えれば、理にかなっているとも言えます。
この状況は、かつてGoogleがGmailを無料で提供し、ストレージを大量に提供したのと似ています。GoogleもMetaも、他の収益源があるからこそ、戦略的にサービスを無料で提供したり、オープンソース化したりすることができるのです。これは、新規参入者に対する参入障壁を築く効果的な戦略となっています。
4. AGIと将来への展望
4.1 臨界点を超えたAI開発
Paul Buchheit:私は、我々がAGIに向かう重要な転換点を既に超えたと考えています。その転換点とは、AIが単なる研究プロジェクトから、投資に対して実際のリターンが得られる段階に移行したことです。これは、核分裂反応が臨界点を超えるのと似ています。例えば、プルトニウムの球が単に温かい状態から、それらを組み合わせることで爆発的な反応が起こるような状態への変化と比較できます。
またこれは、1990年代半ばにインターネットが臨界点を超えた時期とも似ています。より多くの投資がより印象的な成果を生み出し、それがさらなる投資を呼び込むという好循環が始まった時期です。現在のAI開発も同じような段階にあります。人々は十分な速さでAIに投資することができないほどの勢いです。
実際、これは国家安全保障の問題にまで発展しています。AI開発のための電力供給を増強する必要性が、国家レベルの課題として認識されています。このような循環が一度始まると、投資は増え続け、AIはより良くなり続けます。これが実際に多くの問題を解決していることは、AIを活用して構築されている多くの企業の存在からも明らかです。
Gary:確かに、投資と成果の好循環は顕著ですね。特に、電力インフラの整備が国家安全保障の文脈で議論されているのは注目すべき点です。
Paul Buchheit:はい、そして重要なのは、この進歩は継続的に続くということです。確かに、我々はAGIに必要なすべての要素を持っているわけではありませんが、それは段階的な改善のプロセスだと考えています。我々は次々と新しい機能を追加し、徐々により良いものになっていくのです。これはまさに、研究プロジェクトから実用的な技術への移行を示す重要な指標となっています。
4.2 System 1とSystem 2の統合に向けた研究
Paul Buchheit:現在のAIモデルの重要な制限の一つは、ChatGPTと対話している際に見られる「意識の流れ」のような応答の特性です。人間であれば、このような質問に対して立ち止まって考え、時間をかけて検討するはずです。次のステップとして研究者たちが取り組んでいるのは、AIに考える時間を与え、様々な選択肢を検討し、アイデアを探索する能力を付与することです。これは人間が行うのと同じような思考プロセスの実現を目指すものです。
Diana:実際、昨年のNeurIPSという主要なAI学術会議では、Daniel Kahnemanのフレームワークにおけるシステム1型の思考、つまり計画的で意識的な思考については、かなりの進展が見られました。しかし、よりゆっくりとした高次の思考であるシステム2については、まだ課題が残っています。現在の研究は、システム1とシステム2を橋渡しし、統合する方法の探求に重点が置かれています。
Gary:私たちが実際のスタートアップで目にしているのは、ワークフローやチェーン・オブ・ソート、マルチエージェントシステムへの取り組みです。人間の知識労働者が行うような段階的なプロセスを、文字通り再現しようとしています。例えば、「このパラグラフを読んで、関連性を0から9で評価し、1つのトークンを返す」というような具体的な手順を設定し、その結果をエンベッディングに組み込んで最終的な生成に活用するといった、人間の知的作業の時間と動作の研究のようなアプローチが取られています。
Diana:確かにその通りです。これらの創業者たちが現在行っているのは、ある意味でシステム2的思考のルールを手動でハードコーディングしているようなものです。しかし、これはAGIへの究極的な道筋ではないことは明らかです。現時点では一種のハックとして機能していますが、システムがより知的になるにつれて、これらの機能の多くを自動的に獲得していくことが期待されます。
Paul Buchheit:私の信念では、すべては結局パターンに帰着します。現在のAIの世代を信じる理由の一つは、ニューラルネットワークが基本的に巨大なパターン認識および生成エンジンだからです。そして、これは私たちの知能も同様だと考えています。
4.3 2033年までの知識労働者の代替予測
Paul Buchheit:一つの思考実験として、2033年までにどのような変化が起きるか予測してみましょう。現在のZoomベースのワーカー、つまりラップトップとカメラ、キーボード、マウスを使って仕事をする人々の多くが、AIによって代替される可能性があります。
これらの仮想的な仕事環境では、すべてがデジタル化されています。カメラフィード、音声、キーボードとマウスの入力など、すべてのデータが記録可能です。AIはこれらの人々の仕事ぶりを観察し、そのパターンを学習することで、その人物を効果的にディープフェイクすることが可能になるでしょう。
実際に、Zoomコールで話している相手がAIである可能性が出てくるのです。この例を挙げたのは、必ずしもこれが実際の展開シナリオだとは限りませんが、これが私たちの持つことになる技術的能力の一つを示しているからです。例えば、Zoomベースの仕事のほとんどが、10年以内に透過的にAIによって置き換えられる可能性があります。
Gary:これは深刻な問題を提起しますね。そうなった場合、それらの人々はどうなるのでしょうか。
Paul Buchheit:まさにそこが、私たちが長期的なビジョンを発展させる必要がある理由です。なぜこの技術を構築しているのか、どこを目指しているのかを考える必要があります。
ここで再び、権力の分配という問題に戻ります。これが中央集権的なものになるのか、それとも個人の自由を拡大するものになるのかという選択です。ロックダウンのシナリオでは、「これらの人間はもう必要ない」という結論に至りかねません。同じ人々が、中央銀行デジタル通貨やその他の方法で人間を制限しようとする傾向があります。
私が支持するのは明らかに反対の方向、つまり誰もが greater agency(より大きな主体性)を持つ方向です。しかし、中央計画的な考え方の誤りの一つは、これをすべて計画できると考えることです。私たちにできるのは、正しい方向に進み、人々に適切なツールを与えることです。そうすれば、人々はより賢明になり、より良い決定を下すことができるようになり、集団として世界をより良い方向に動かすことができるでしょう。しかし、世界がどうなるかを正確に予測し、計画することはできません。そのような試みは、人々を檻の中に閉じ込めることにつながりかねないのです。
5. AI開発と地政学的影響
5.1 中国との技術競争
Paul Buchheit:これは私たちがここでAIを開発したかった理由の一つです。中国がスーパーAIを持つことになれば、それは私たちにとって好ましくない状況となります。特に、これらの権威主義的な管理システムからAIを遠ざけておくことが重要です。最悪のシナリオは、AIによって永続的なロックダウン状態が作り出されることです。なぜなら、AIは私たちの思考までを検閲する完全な全体主義システムを作り出す可能性があるからです。これは人類にとって壊滅的なシナリオであり、このような管理の道を進めば、人間は本質的に動物園の動物のような存在になってしまうでしょう。
Gary:最近の報道によると、中国では実際にAI開発者が拘束され、LLMやモデルの出力に対して個人的な責任を負わされるという事態が起きているようです。これはS.B.1447法案で提案されているようなことが、実際に中国で既に起きているということですね。
Paul Buchheit:自由であることは私たちの大きな利点です。これこそが私たちが先を行っている理由です。権威主義的な環境ではモデルを構築することができません。なぜなら、例えば天安門広場について尋ねられた場合、モデルは嘘をつかなければならないからです。これは、xAIの「最大限の真実追求」というミッションステートメントが重要である理由の一つです。権威主義的な体制は本質的に真実を否定するものであり、それによって彼ら自身が不利な立場に置かれることになります。私たちはそれを維持し続けなければなりません。
そしてこれらの問題は理論的なものではありません。例えば、UnitedHealthcareのような大企業は既にAIによる保険請求の処理をブロックしています。逆に、AIを使って人間を無限の電話応答システムに追い込み、法的には完全に問題のない方法で、実質的に保険金の支払いを永遠に先延ばしにすることも技術的には可能です。これは最も極端なカフカ的な状況の一例です。私たちは、最先端のモデルが1、2の巨大企業に独占され、企業の官僚主義の中に閉じ込められるような状況は避けなければなりません。
このように、自由な開発環境を維持し、真実の追求を可能にすることが、技術的優位性を維持する上で極めて重要なのです。
5.2 規制と個人の自由への影響
Gary:私たちが現在直面している問題の一つは、S.B.1447のようなAIを規制しようとする法案です。この法案は当初の内容からは多少緩和されていますが、モデル開発者に対して、そのモデルが関与した可能性のある行為について個人的な責任、さらには刑事責任まで問おうとしています。これは、酔っ払い運転による事故について車のデザイナーを起訴するようなものです。このような規制は非常に危険な意味を持っています。
Paul Buchheit:このような無制限の責任を課すと、それ自体が有毒なものとなります。誰も無制限の責任リスクを持つものに関わりたいと思わなくなるでしょう。結果として、開発者たちは極めて厳格な制限を設けざるを得なくなり、私たちの能力は予期せぬ形で制限されることになります。
私たちは最近の歴史でこれを目の当たりにしています。COVID-19のパンデミックの際、何千万人もの人々が死亡し、人々は自宅に閉じ込められ、学校は閉鎖されました。しかし、その起源について議論することすら許されませんでした。世界で最も重要なことについて理解を深めることができないのであれば、私たちは何も理解することができません。これは壊滅的に悪い状況です。
Gary:実際、中国では既にこのような規制が実施されています。AIの開発者が突然失踪させられ、LLMやモデルの出力について個人的な責任を問われるという事態が起きています。これは完全に国家主義的なアプローチであり、まさにS.B.1447が目指しているような方向性です。
実際の例として、United Healthcare Groupのような大企業が、すでにAIを使用した保険金請求の処理をブロックしているケースがあります。一方で、AIを使って人々を無限の電話応対システムに追い込み、法的には完全に問題のない形で実質的に保険金の支払いを妨げることも技術的には可能です。つまり、最先端のモデルが1、2の巨大企業に独占され、企業の官僚主義の中に閉じ込められるような状況は避けなければならないのです。
Paul Buchheit:このように、規制は必ずしも私たちを保護するものではなく、むしろイノベーションを阻害し、権力の集中を促進する危険性があります。重要なのは、自由な開発環境を守りながら、責任ある形で技術を発展させていくバランスを見つけることです。
5.3 真実の追求とオープンな開発の重要性
Paul Buchheit:権威主義的な環境でAIを開発することには本質的な限界があります。例えば、天安門広場について質問されたとき、真実を話すことができないモデルは、根本的な制約を抱えることになります。これは単なる一例ではなく、真実の追求と自由な探究が制限される環境での開発の本質的な限界を示しています。
このような文脈で、xAIの「最大限の真実を追求する」というミッションステートメントは特に重要な意味を持ちます。彼らはまだ素晴らしい製品を生み出していませんが、このミッションは極めて重要です。なぜなら、権威主義的な体制は本質的に真実を否定するものだからです。
Gary:私もYCとして、このような自由な開発と真実の追求が重要だと考えています。私たちは、様々な個人に力を与えることを重視しています。例えば、19歳の若者が何かを構築できるように支援することは、組織の重要な使命の一つです。実際、Sam Altman自身も、Paul Graham(PG)が見出した19歳の一人でした。
Paul Buchheit:そうですね。AIによって個人の能力が高まることは、とても重要な点です。20代前半でコードを書ける人がいれば、実質的に別の選択肢が生まれます。大企業で働く必要はありません。AIは、このような個人の可能性をさらに広げる潜在力を持っています。
しかし、これは中央で計画できるものではありません。私たちにできるのは、正しい方向に進み、人々に適切なツールを提供することです。そうすれば、集団として、より賢明な決定を下し、世界をより良い方向に動かすことができるでしょう。究極的には、これは個人の主体性を高め、創造的な可能性を解放することにつながります。
最後に重要なのは、このような取り組みは単なる理想ではなく、実際的な競争力の源泉となるということです。真実を追求し、オープンな開発を維持することは、より優れたAIシステムを作るための本質的な要件なのです。