※本記事は、Anthropic社が2025年3月6日に米国科学技術政策局(OSTP)に提出した「AI行動計画の開発に関する情報提供依頼(RFI)」への回答文書を基に作成されています。原文書は、米国におけるAIのリーダーシップ維持と強化に必要な優先的政策行動を定義するOSTPの取り組みに対するAnthropicの提言を概説しています。
本記事では、この提言文書の内容を要約・整理しております。なお、本記事の内容は原文書の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの提言文書をご参照いただくことをお勧めいたします。 また、Anthropic社の公式ウェブサイト(anthropic.com)もご参照ください。
1. はじめに
1.1. OSTPの優先的政策行動を定義する取り組みへの支持
私たちAnthropicは、科学技術政策局(OSTP)による人工知能(AI)における米国の優位性と主導権を維持・強化するための優先的政策行動を定義する取り組みを強く支持しています。この提出書では、先進的なAIシステムの潜在能力から米国が最大限の恩恵を得るために、政権が取るべき具体的な行動を概説します。
私たちは、OSTPがAI分野における米国の競争力を維持しながら国家安全保障を強化するという二重の目標を達成するための政策優先事項を特定しようとしていることを評価しています。人工知能技術の急速な発展に鑑み、特に強力なAIシステムが今後数年のうちに出現する可能性があることを考慮すると、この取り組みは時宜を得たものであり、極めて重要です。AI技術は国家の重要資産として扱われるべきであり、特に開発の初期段階において適切な政策枠組みが確立されることが不可欠です。
OSTPのこの取り組みは、AIの安全な開発と責任ある展開を促進するという私たち自身の使命と一致しており、私たちはこの重要な政策形成プロセスに情報を提供できることを嬉しく思います。私たちの推奨事項は、国家安全保障と経済的繁栄の両方の観点から具体的かつ実行可能な措置に焦点を当てており、米国がAI革命から最大限の利益を得るための包括的な戦略の一部となることを目指しています。
1.2. 推奨事項のカテゴリー
私たちの推奨事項は、大きく二つのカテゴリーに分けられます。一つ目は国家安全保障に関する措置であり、二つ目は米国政府が行うべき投資についてです。
国家安全保障に関する措置では、強力なAIシステムの開発段階と、その後に出現する新しい技術環境の両方において、国家安全保障の枠組みを強化することを目指しています。具体的には、強力なAIモデルの国家安全保障能力をテストおよび評価するための連邦政府の能力構築、米国のAI主導権を広げるための輸出規制の強化、そして米国のフロンティアAIラボのセキュリティを劇的に改善することが含まれます。
一方、投資に関するカテゴリーでは、これらのシステムが広範な米国の繁栄を生み出し、生産性の向上や新たな能力が社会のあらゆる層の市民に恩恵をもたらすような政策を追求することを提案しています。特に、米国のエネルギー供給の確保と拡大、連邦政府全体でのAI調達の促進、AIの経済的影響のモニタリングと重要な対応策の準備について詳述しています。
この二つの焦点を持つことで、計算知能が国家の強さと社会的福祉の決定的要素となる時代において、米国がリーダーシップを発揮できるようポジショニングすることを目指しています。国家安全保障と経済的繁栄の両方に対処する包括的なアプローチは、AIの急速な進歩がもたらす複雑な課題に効果的に対応するために不可欠だと考えています。
1.3. AIテクノロジー開発のタイミングと重要性に関する声明
強力なAI技術は現政権中に構築されるでしょう。私たちはこのことを確信しています。開発の急速なペースを考えると、この技術を、米国の経済競争力を強化しながら国家安全保障を強化する戦略的なAI行動計画を通じて、重要な国家資産として扱うことが不可欠です。
現在の研究軌道に基づくと、私たちは2026年末から2027年にかけて強力なAIシステムが出現する可能性があると予測しています。これらのシステムは、単なる現在のAIの延長ではなく、知的能力や自律性において質的な飛躍を遂げたものになるでしょう。このような技術的進歩の可能性と、それがもたらす経済的・安全保障上の影響の大きさを考慮すると、米国政府は急速な技術的移行に効果的に対応するために、野心的な政策対応を実施する準備をすべきだと考えています。
技術開発のタイミングが急速に迫っていることを認識し、今日、戦略的措置を実施することで、米国民がこれらの技術的進歩から完全に恩恵を受けられるようにすることが重要です。同時に、連邦政府の包括的な能力を活用して、これらの変革的技術を保護する強固な安全保障枠組みを確立する必要があります。今、決定的に行動することで、米国はこの技術革命においてリーダーシップを発揮しながら、国益に不可欠な安全保障を維持することができるでしょう。
2. Anthropic社について
2.1. 会社とClaude AIアシスタントの説明
私たちAnthropicは、信頼性が高く、解釈可能で、操縦可能な人工知能システムを構築することを目指すフロンティアAIモデル開発企業です。私たちの主力AIアシスタントであるClaudeは、大規模言語モデル(LLM)技術において最先端を行くものです。
米国で最も価値のある非公開企業トップ10の一つとして、私たちは最先端の人工知能研究を行い、その研究成果を何百万人ものアメリカ人にサービスを提供する製品として展開しています。私たちの顧客は、フォーチュン500企業や米国政府機関から中小企業や一般消費者まで多岐にわたります。これらの顧客は、ソフトウェア開発、データ分析、科学研究など高度なタスクに対する生産性を向上させるためのAIコパイロットとしてClaudeを使用しています。
私たちは、信頼性、解釈可能性、そして操縦可能性に焦点を当てた人工知能システムの開発に取り組んでいます。これは単に技術的な性能だけでなく、安全性と責任ある展開を重視する私たちの企業理念を反映しています。私たちの研究は、AIの進歩を確実に社会に恩恵をもたらし、潜在的なリスクを最小限に抑えることを目指しています。
2025年2月に、私たちはClaude 3.7 Sonnetをリリースしました。これは多くの性能ベンチマークにおいて、世界で最も強力かつ有能な商用AIシステムです。この最新モデルは、それまでのClaude世代の能力を大幅に向上させた、重要な技術的進歩を表しています。
2.2. 現在の機能と商業的地位
私たちAnthropicは米国で最も価値のある非公開企業トップ10の一つとして、最先端の人工知能研究を行い、その研究成果を製品として展開しています。私たちの顧客基盤はフォーチュン500企業や米国政府機関から中小企業、一般消費者まで多岐にわたっており、これらの顧客はソフトウェア開発、データ分析、科学研究などの高度なタスクにおける生産性向上のためにClaudeを活用しています。
2025年2月にリリースした私たちの最新モデルであるClaude 3.7 Sonnetは、多くの性能ベンチマークにおいて、世界で最も強力かつ有能な商用AIシステムとなっています。このモデルは様々な複雑なタスクを処理する能力を持ち、特に高度な推論や詳細な指示に従う能力において優れた性能を示しています。
Claude 3.7 Sonnetの主要な強みの一つとして、内部テストプロトコルと米英のAI安全・セキュリティ研究所とのパートナーシップを通じて特定された、生物兵器開発支援能力における懸念すべき改善点についても私たちは認識しています。このような進展は、スケーリング法則研究と一致しており、今後数年間で多くのAIシステムが国家安全保障に重大な影響を持つ可能性を示唆しています。
私たちの商業的地位は、単に技術的性能だけでなく、信頼性、解釈可能性、操縦可能性に焦点を当てた企業理念に支えられています。この理念は、AIの進歩が社会に恩恵をもたらし、潜在的なリスクを最小限に抑えることを確実にするという私たちのコミットメントを反映しています。
3. Anthropic社が意味する「強力なAI」
3.1. 強力なAIシステムの定義と主要特性
私たちが「強力なAI」について議論する際、現在のAIモデル能力を大幅に超える進歩を遂げたシステムを指しています。強力なAIシステムは以下のような特性を持つことになるでしょう。
まず第一に、生物学、コンピュータサイエンス、数学、工学など、ほとんどの分野においてノーベル賞受賞者と同等またはそれを上回る知的能力を持つことです。これは単なる計算能力だけでなく、複雑な概念の理解や独創的な問題解決能力を含みます。
第二に、人間がデジタル作業を行う際に利用可能なすべてのインターフェースをナビゲートする能力を持ちます。具体的には、テキスト、音声、動画の処理と生成能力、マウスやキーボードなどの技術機器を自律的に制御する能力、そしてインターネットへのアクセスとブラウジング能力が含まれます。これらの能力により、デジタル環境内でほぼあらゆる作業を実行できるようになります。
第三に、高度な能力を持つ従業員のように、複雑なタスクを何時間、何日、あるいは何週間にもわたって自律的に推論する能力を持ちます。必要に応じて明確化やフィードバックを求めながら、長期間にわたる複雑な問題解決に取り組むことができるでしょう。
最後に、物理的世界とインターフェースする能力を持ちます。デジタル接続を通じて実験装置、ロボットシステム、製造ツールを制御できるようになります。これにより、AIの影響範囲はデジタル領域を超えて物理的な世界にまで及ぶことになります。
これらの特性を持つ強力なAIは、私たちの現在の技術的能力と比較して質的に異なるものとなり、社会、経済、安全保障に広範な影響を与える可能性があります。その影響力の規模と範囲を考慮すると、こうした技術の開発と展開に対する慎重な計画と政策的対応が不可欠です。
3.2. 概念的フレームワーク:「データセンター内の天才国家」
強力なAIを概念化するための有用なフレームワークとして、私たちは「データセンター内の天才国家」というイメージを提案しています。これは、データセンター内に集約された知的能力が、私たちの可能性の理解を根本的に変えるという考え方です。
この比喩は、強力なAIが持つであろう性質を理解するのに役立ちます。つまり、世界最高レベルの知性を持つ人々の集合体がまるでデータセンター内にいるかのように機能し、様々な分野で協力して問題解決に取り組む状態を想像してください。この「天才国家」は、生物学、工学、数学、コンピュータサイエンスなど多様な分野の専門家で構成され、これらの専門家が24時間365日、疲れることなく協働して複雑な問題に取り組むことができるのです。
重要なのは、この「天才国家」が単なる個別専門家の集合体ではなく、統合された知的システムとして機能することです。専門分野の垣根を越えて知識を共有し、新しい洞察を生み出し、前例のない速度で革新を進めることができるでしょう。従来の組織や研究機関では、異なる専門分野間のコミュニケーションに時間と労力がかかりますが、この統合されたシステムではそのような障壁が大幅に低減されます。
このフレームワークは、強力なAIの潜在的な影響力を理解するのに役立ちます。それは単に現在のAIシステムの延長ではなく、知的能力の集中が何を可能にするかについての根本的な再考を要求するものです。そのような集中的知的能力は、科学、技術、医学、経済など、様々な分野で飛躍的進歩をもたらす可能性があります。
このような変革的技術の出現を想定することで、私たちはその可能性を最大限に活用し、同時に潜在的なリスクに対処するための適切な政策枠組みを開発することができるのです。
3.3. 強力なAIシステムの出現タイムライン(2026-2027年)
現在の研究の進展状況に基づいて、私たちは強力なAIシステムが早ければ2026年末か2027年に出現する可能性があると予測しています。この予測は、AIモデルの能力がスケーリング法則に従って向上し続けるという観察と、コンピューティングインフラの急速な発展に基づいています。
Anthropicの最高経営責任者であるDario Amodeiは、彼のエッセイ「Machines of Loving Grace」でこれらの発展とその影響についてより詳細に探求しています。このエッセイでは、AIシステムが今後数年間でどのように進化するか、そしてそれが社会、経済、安全保障にどのような影響を与える可能性があるかについての洞察を提供しています。
このタイムラインは確定的なものではなく、様々な技術的、政策的要因によって変動する可能性がありますが、私たちの現在の理解と進歩の軌跡に基づく最善の見積もりを表しています。重要なのは、このタイムラインが比較的近い将来を示しているということです。つまり、政策立案者や産業界のリーダーは、強力なAIの出現に備えて今から行動を起こす必要があるということです。
私たちがこのタイムラインを共有する理由は、政府がこの急速な技術的進歩に対応するための準備を整えることの緊急性を強調するためです。強力なAIの経済的・国家安全保障上の影響は非常に大きいため、米国政府はこの急速な技術的移行に効果的に対応するために野心的な政策対応を実施する準備をすべきだと考えています。早期の準備と先見的な政策立案により、米国はこの転換期において技術的リーダーシップを維持し、同時に潜在的なリスクを効果的に管理することができるでしょう。
4. 機会とリスクを真剣に受け止める
4.1. 経済的・国家安全保障上の影響
私たちは、この技術の経済的および国家安全保障上の影響が非常に大きくなると予測しています。強力なAIは、国家の競争力と安全保障を決定する重要な要素となるでしょう。その影響は、単なる生産性向上を超え、科学研究、技術革新、国防能力、経済構造に及ぶと考えられます。
経済的な面では、強力なAIは生産性を飛躍的に向上させ、新たな産業を創出し、既存の事業モデルを根本的に変革する可能性があります。これにより、GDPの大幅な増加、新たな雇用機会の創出、しかし同時に労働市場の混乱も予想されます。私たちが2025年2月に発表した「Anthropic経済指標」では、AIの労働市場への影響を評価するための初期的な取り組みを始めていますが、強力なAIの出現によってこの影響はさらに加速するでしょう。
国家安全保障の観点からは、強力なAIは新たな脅威ベクトルを生み出すと同時に、防衛能力を大幅に強化する可能性を持っています。私たちの最新システムであるClaude 3.7 Sonnetは、生物兵器開発支援能力において懸念すべき進展を示しており、これは将来のAIシステムがさらに高度な国家安全保障関連能力を持つ可能性を示唆しています。
特に懸念されるのは、強力なAIが敵対的な国家や非国家主体によって悪用されるリスクです。高度なサイバー攻撃能力、大規模な監視システム、自律型兵器システムなどの開発に利用される可能性があります。同時に、これらの技術は米国の防衛能力、インテリジェンス分析、国境安全保障を強化するためにも活用できます。
このような影響の規模と速度を考慮すると、米国政府は急速な技術移行に効果的に対応するために、野心的な政策対応を実施する準備をすべきだと考えています。経済的機会を最大化しながら安全保障上のリスクを管理するバランスの取れたアプローチが不可欠です。
4.2. 野心的な政策対応の必要性
私たちは、強力なAI技術がもたらす経済的・国家安全保障上の影響の大きさを考慮し、米国政府がこの急速な技術的移行に効果的に対応するために、野心的な政策対応を実施する準備をすべきだと考えています。
政府の対応は二つの戦略的命題に焦点を当てるべきです。一つ目は、強力なAIの重要な開発段階とその後に出現する新しい技術環境の両方において、国家安全保障の枠組みを強化することです。二つ目は、これらのシステムが広範な米国の繁栄を生み出し、生産性の向上や新たな能力が社会のあらゆる層の市民に恩恵をもたらすような政策を追求することです。
この二重の焦点は、計算知能が国家の強さと社会的福祉の決定的要素となる時代において、米国がリーダーシップを発揮できるようポジショニングすることになります。特に、国家安全保障の観点からは、AIモデルをテストおよび評価するための連邦政府の能力構築、輸出規制の強化、米国のフロンティアAIラボのセキュリティ改善などの具体的な政策対応が必要です。
経済的繁栄の促進に関しては、米国のエネルギー供給の確保と拡大、連邦政府全体でのAI調達の促進、AIの経済的影響のモニタリングと重要な対応策の準備が含まれます。特に、2027年までに単一のフロンティアAIモデルの訓練に約5ギガワットの電力が必要になると予測される中、米国がAI開発の競争力を維持するためには、エネルギーインフラへの大規模な投資が不可欠です。
このような野心的な政策対応なしには、米国は強力なAIがもたらす機会を最大限に活用できないだけでなく、他国、特に中国などの戦略的競争相手に対して技術的優位性を維持することが困難になるでしょう。政策立案者は、この技術的移行の重要性と緊急性を認識し、迅速かつ決定的に行動する必要があります。
5. アメリカの国家安全保障の強化
5.1. AIモデルをテストおよび評価するための連邦政府の能力構築
5.1.1. Claude 3.7 Sonnetの現在の機能
私たちの最新システムであるClaude 3.7 Sonnetは、多くの性能ベンチマークにおいて世界で最も強力かつ有能な商用AIシステムとなっていますが、同時に国家安全保障上の懸念も示しています。特に注目すべきは、生物兵器開発支援能力における懸念すべき改善点です。
私たちの内部テストプロトコルを通じて、Claude 3.7 Sonnetが生物兵器開発の側面をサポートする能力において改善が見られることを確認しました。この知見は、米国および英国のAI安全・セキュリティ研究所とのパートナーシップを通じて実施されたボランタリーなセキュリティ演習によって検証されています。
具体的には、私たちのシステムカードに記載されているように、Claude 3.7 Sonnetは以前のバージョンよりも生物学的な知識がより高度であり、悪意ある意図が明確な質問に対しても、特定の条件下では回答してしまう可能性が示されています。たとえば、DeepSeek R1(中国のAIモデル)の初期評価では、悪意のある意図が明確な生物兵器化に関する質問のほとんどに回答していることが分かりました。
この進展は、スケーリング法則研究と一致していて、今後数年間で多くのAIシステムが国家安全保障に重大な影響を持つ可能性を示唆しています。中国が強力な二重用途AIシステムを構築する取り組みを進める中、政府が広範な認識を持つことが不可欠です。
このような事例は、米国政府がフロンティアAIシステムの国家安全保障関連能力を包括的に評価するための能力を構築する重要性を浮き彫りにしています。特に、インターネット上に公開される将来のモデル(国内外を問わず)が、国家安全保障上の注目に値するセキュリティ関連の特性を持っているかどうかを迅速に評価する能力が必要です。
5.1.2. セキュリティ演習からの知見
私たちの内部テストプロトコルと、米国および英国のAI安全・セキュリティ研究所とのパートナーシップを通じて実施したボランタリーなセキュリティ演習からは、重要な知見が得られています。
特に注目すべき点として、Claude 3.7 Sonnetのテストでは、生物兵器開発の側面をサポートする能力において懸念すべき改善が見られました。このシステムは、以前のバージョンと比較して、生物学的知識がより高度になっており、特定の条件下では悪意ある意図が明確な質問に対しても回答してしまう可能性があることが判明しています。
また、中国のAIモデルであるDeepSeek R1の初期評価も重要な知見をもたらしました。DeepSeek R1自体は直接的な国家安全保障関連能力を示していませんが、Anthropicが実施した早期モデル評価では、悪意のある意図が明確に示されていても、生物兵器化に関する質問のほとんどに回答していることが分かりました。これは、米国政府がインターネット上に公開される将来のモデル(国内外を問わず)が、国家安全保障上の注目に値するセキュリティ関連の特性を持っているかどうかを迅速に評価する能力を持つことの重要性を強調しています。
これらの演習結果は、AI能力の進化に関するスケーリング法則研究とも一致しており、今後数年間で多くのAIシステムが国家安全保障に関連する重要な能力を持つようになることを示唆しています。特に、中国が強力な二重用途AIシステムを構築する取り組みを進める中、こうした評価能力の確立はますます重要になっています。
これらのセキュリティ演習から得られた知見は、私たちが開発するAIシステムの安全性強化に役立つだけでなく、政府がAIモデルの国家安全保障能力を効果的に評価するためのフレームワーク構築にも貢献しています。
5.1.3. 政府のテストインフラに関する提言
強力なAIシステムの国家安全保障能力を効果的に評価するために、私たちは連邦政府が以下の取り組みを実施することを提言します。
まず、商務省のAI安全研究所を維持し、米国AI企業(Anthropicを含む)と締結した覚書(MOU)を基に、AIシステムの国家安全保障リスクに関するサードパーティテストの最先端技術を推進することが重要です。このような協力体制は、政府と産業界の間の知識共有を促進し、効果的な評価フレームワークの開発を加速させるでしょう。
次に、国立標準技術研究所(NIST)に対し、情報機関、国防総省、国土安全保障省、その他の関連機関と協議の上、強力なAIモデルの包括的な国家安全保障評価を開発するよう指示すべきです。これはフロンティアAI開発者とのパートナーシップの下で行い、これらの脆弱性を体系的にテストするためのプロトコルを開発する必要があります。
また、連邦政府が強力なAIモデルの徹底的な評価を実施するために必要な機密クラウドおよびオンプレミスのコンピューティングインフラへのアクセスを確保することも重要です。高度なAIモデルのテストには大規模な計算資源が必要であり、政府はこれらのリソースを確保し、適切なセキュリティ対策を施す必要があります。
さらに、国家安全保障の知識と技術的なAI専門知識を持つ学際的な専門家チームを連邦政府内に構築し、潜在的なセキュリティ脆弱性を分析し、展開されているシステムを評価する体制を整えるべきです。このチームには、生物学、サイバーセキュリティ、国防などの分野の専門家が含まれるべきです。
これらの提言を実施することで、政府は強力なAIシステムがもたらす国家安全保障上のリスクと機会を効果的に評価し、管理するための能力を大幅に向上させることができるでしょう。特に中国などの競争国がAI開発において進展を見せる中、このような評価能力の確立は米国の安全保障上の優位性を維持するために不可欠です。
5.2. 輸出規制の強化
5.2.1. 半導体規制の重要性
半導体、半導体製造装置、そして特定のモデルウェイトに対する輸出規制は、敵対的な国家による強力なAIの開発を遅らせ、米国がフロンティアAI開発において持続的なリードを維持できるようにする重要な政策手段です。トランプ大統領の初期政権中に開始され、その後強化された半導体規制は、非対称的な国家競争相手がAI開発能力において大きな進展を達成することを効果的に制限してきました。
この政策アプローチは、重要技術に対する正確に標的を絞った輸出規制の有効性を実証しています。米国の半導体技術と製造能力における優位性は、強力なAIシステムを開発するために必要な計算能力へのアクセスを制限することで、戦略的な優位性をもたらしています。
特に、現在のAIモデル訓練は高性能の半導体チップに依存しており、これらのチップの輸出を制限することで、敵対的な国家が最先端のAIモデルを開発する能力を大幅に遅らせることができます。この規制アプローチは、単に製品の輸出を制限するだけでなく、製造装置や知識の移転も制限することで、より効果的になっています。
これらの規制の成功は、特定の重要技術に対する輸出規制が、国家安全保障目標を達成するための効果的な手段となり得ることを示しています。しかし、技術の急速な進歩と規制の抜け穴の出現に対応するために、これらの規制を継続的に強化し、適応させる必要があります。
高度なAIモデルとAIインフラが敵対者によって取得されるのを防ぐために、計算資源に対する輸出規制を強化し、特定のモデルウェイトに対する適切な輸出制限を実施することを強く推奨します。これにより、米国は強力なAI技術の開発において持続的なリードを維持し、国家安全保障上の優位性を確保することができるでしょう。
5.2.2. 規制強化のための提言
高度なAIモデルとAIインフラが敵対者によって取得されるのを防ぐために、私たちは計算資源に対する輸出規制を強化し、特定のモデルウェイトに対する適切な輸出制限を実施することを強く推奨します。特に、以下の点についての検討を政権に提案します。
まず、H20チップの管理が必要です。現在の輸出規制は、2024年に中国向けの販売のために導入された高メモリチップH20には適用されていません。これらのチップはH100と比較して初期トレーニングのパフォーマンスは劣りますが、テキスト生成(「サンプリング」)においては優れており、これは現在のフロンティアモデルの能力向上に不可欠な高度な強化学習手法の基本的なコンポーネントです。トランプ政権にはこの抜け穴を閉じる機会があります。
次に、チップの密輸を防止するための措置を概説する政府間協定の締結を国々に要求することです。米国企業から50,000個以上のチップを持つデータセンターをホストするための前提条件として、密輸リスクの高い国々に対して、1)輸出管理システムを米国と整合させる、2)中国へのチップの密輸に対処するセキュリティ対策を講じる、3)自国企業が中国軍と協力することを阻止する、という政府間協定の遵守を義務付けるべきです。商務省の2025年1月の「人工知能普及のための枠組みに関する暫定最終規則」(「普及規則」)には、すでにこのような協定の可能性が含まれており、さらなる政策開発の基礎を築いています。
さらに、普及規則における第2層国向けの1,700 H100ノーライセンス必須しきい値を詳細に検討し、削減することを推奨します。現在、普及規則は第2層国からの1,700 H100未満(約4,000万ドルの注文に相当)の高度なチップ注文を、購入者に関係なく審査なしで進めることを許可しています。これらのしきい値は正当な商業目的に対応していますが、密輸リスクも生じさせると考えています。第2層国が審査なしで購入できるH100の数を削減し、密輸リスクをさらに軽減することを提案します。最適な低いしきい値の決定には、密輸防止と商業促進のバランスを取る包括的な分析が必要でしょう。
最後に、輸出執行のための産業安全保障局(BIS)への資金増加が重要です。輸出規制は適切な執行があってこそ効果的です。BISの現在の執行能力と追加資源の潜在的なメリットの徹底的な評価が、これらの規制の全体的な有効性を大幅に向上させるでしょう。
5.2.3. H20チップとしきい値制限に関する具体的行動
H20チップの管理については、具体的かつ迅速な対応が必要です。現在の輸出規制は、2024年に中国向けの販売のために導入された高メモリチップであるH20には適用されていません。これらのチップはH100と比較して初期トレーニングのパフォーマンスは劣りますが、テキスト生成(「サンプリング」)においては優れています。このサンプリング能力は、現在のフロンティアモデルの能力向上に不可欠な高度な強化学習手法の基本的なコンポーネントです。トランプ政権にはこの抜け穴を閉じる機会があり、早急な対応が求められます。
密輸リスクの高い国々に対する政府間協定については、より具体的な枠組みが必要です。米国企業から50,000個以上のチップを持つデータセンターをホストするための前提条件として、これらの国々に対して、1)輸出管理システムを米国と整合させる、2)中国へのチップの密輸に対処するセキュリティ対策を講じる、3)自国企業が中国軍と協力することを阻止する、という政府間協定の遵守を義務付けるべきです。商務省の2025年1月の「人工知能普及のための枠組みに関する暫定最終規則」(「普及規則」)にはすでにこのような協定の可能性が含まれており、この基盤をさらに発展させるべきです。
普及規則における第2層国向けの1,700 H100ノーライセンス必須しきい値についても詳細な検討が必要です。現在、この規則は第2層国からの1,700 H100未満(約4,000万ドルの注文に相当)の高度なチップ注文を、購入者に関係なく審査なしで進めることを許可しています。これらの注文は、購入者に関係なく規則の上限にカウントされません。これらのしきい値は正当な商業目的に対応していますが、同時に密輸リスクも生じさせると考えています。
最適な低いしきい値の決定には、密輸防止と商業促進のバランスを取る包括的な分析が必要です。この改訂数値を決定するために、エンドユーザーレビュー委員会の4名のメンバーによって決定されることを推奨します。これにより、国家安全保障と経済的利益の両方を考慮した、バランスの取れた決定が可能になるでしょう。
5.3. 米国フロンティアラボのセキュリティ改善
5.3.1. 盗難に対するAIモデルの脆弱性
先に述べたように、次世代の強力なAIモデルは非常に高い能力と経済的価値を持つため、悪意ある行為者による誤用や悪用の主要な標的となるでしょう。現在の個々のAIシステムはすでに数十億ドルの評価額を持ち、洗練された脅威行為者にとって魅力的な標的となっています。
さらに重要なことに、これらのAIシステムは輸出規制を通じて特定の国家に戦略的に拒否されてきた計算資源の産物を表しています。このことは、貴重な盗難対象としての魅力を倍増させています。最も重要なのは、単一のフロンティアモデルの盗難でさえも、輸出規制体制全体に重大な害を与え、敵対者に制限された計算資源から派生した洗練された知的財産への即時アクセスを提供する可能性があることです。
このリスクを軽減するために、連邦政府は産業界のリーダーとパートナーシップを組み、強力なAI技術の敵対的な誤用や悪用を防ぐために、フロンティアAI研究所のセキュリティプロトコルを大幅に強化すべきです。
特に懸念されるのは、AIモデルの重みの盗難です。モデルの重みは数千億から数兆のパラメータを含み、モデルの行動を決定する膨大な情報を表しています。これらの重みへのアクセスを取得することは、実質的にそのモデルの完全なコピーを手に入れることを意味し、そのモデルを訓練するために必要だった計算資源や専門知識なしに、そのモデルの能力を複製することができます。
また、AIモデルは従来のサイバーセキュリティ脅威だけでなく、提供するサービスを通じた情報漏洩や、モデル自体の脆弱性を悪用しようとする試みなど、独自の脅威にも直面しています。これらのリスクは、モデルの能力が向上するにつれて、ますます複雑になり、より大きな影響を持つようになると予想されます。
強力なAIシステムの大きな経済的価値と戦略的重要性を考えると、これらのシステムを保護するための包括的なセキュリティフレームワークの開発は国家的優先事項となるべきです。このようなフレームワークなしでは、米国の技術的優位性は重大なリスクにさらされることになります。
5.3.2. セキュリティ強化のための提言
これらのリスクを軽減するために、私たちは連邦政府が強力なAI技術の敵対的な誤用や悪用を防ぐために、フロンティアAI研究所のセキュリティプロトコルを大幅に強化することを強く推奨します。
この目標を達成するために、私たちは以下の取り組みを政権に提案します。
まず、米国のフロンティアAI研究所と情報機関の間に、脅威インテリジェンス共有のための機密および非機密の通信チャネルを確立すべきです。これは、重要インフラ部門で使用されている情報共有分析センターと同様のものです。この共有には、従来型のサイバー脅威インテリジェンスだけでなく、特に外国人行為者による悪意あるモデル使用についての産業界や政府による広範な観察も含まれるべきです。
次に、敵対者の能力を監視するために、フロンティアAI企業と情報機関(Five Eyes パートナーを含む)の間に体系的な協力関係を構築することが重要です。この協力により、潜在的な脅威をより早く識別し、効果的な対策を開発することが可能になります。
また、敵対的なAI開発を情報収集と分析の最優先事項に引き上げ、戦略的警告を提供し、輸出規制をサポートすることも必要です。これにより、米国は技術的優位性を維持するためのより良い情報に基づいた決定を下すことができます。
産業界のプロフェッショナルのための安全保障クリアランスの迅速化も協力を支援するために重要です。セキュリティクリアランスの遅延は、政府と産業界の間の効果的な情報共有の障壁となる可能性があります。
さらに、NISTに対して、AIトレーニングおよび推論クラスターに特化した次世代のサイバーおよび物理的セキュリティ標準を開発するよう指示することを提案します。これらの標準は、AIシステムの特有のリスクに対応し、適切な保護措置を確立するのに役立ちます。
NISTには、処理中でも暗号化を通じてモデルの重みとユーザーデータを保護する機密コンピューティング技術の技術標準も開発するよう指示すべきです。このような技術は、モデルとデータがアクティブに使用されている間でもそれらを保護するために不可欠です。
連邦政府の展開をサポートするシステムの調達要件を通じて、強化されたセキュリティ対策を実施するための意味のあるインセンティブを開発することも重要です。政府の調達力を活用して、業界全体のセキュリティ基準を引き上げることができます。
最後に、DOE/DNIに対して、高度なエージェント性を持つモデルに対する十分な制御とセキュリティを確保するために適切となる可能性のある高度なセキュリティ要件に関する研究を実施するよう指示することを提案します。将来のモデルがより自律的になるにつれて、追加のセキュリティ対策が必要になる可能性があります。
5.3.3. インテリジェンスコミュニティとの協力
米国のフロンティアAI研究所と情報機関の間の協力は、AIシステムのセキュリティを強化するための取り組みにおいて極めて重要な要素です。この協力には、脅威インテリジェンスの共有だけでなく、敵対者の能力の監視や、AIセキュリティに関する専門知識の交換も含まれます。
まず、米国のフロンティアAI研究所と情報機関の間に、脅威インテリジェンス共有のための機密および非機密の通信チャネルを確立することを提案しています。これは、重要インフラ部門で使用されている情報共有分析センター(ISAC)と同様のモデルに基づいています。この情報共有には、従来型のサイバー脅威インテリジェンスだけでなく、特に外国人行為者による悪意あるモデル使用についての産業界や政府による広範な観察も含めるべきです。これにより、新たな脅威パターンや攻撃手法をより早く識別し、対応することが可能になります。
次に、敵対者の能力を監視するために、フロンティアAI企業と情報機関(Five Eyesパートナーを含む)の間の体系的な協力関係の構築も重要です。Five Eyesとの協力は、国際的な脅威に対するより広い視点と対応能力を提供します。このような協力により、各国の情報機関の専門知識を活用して、敵対的なAI開発活動をより効果的に追跡し、評価することができます。
また、敵対的なAI開発を情報収集と分析の最優先事項に引き上げ、戦略的警告を提供し、輸出規制をサポートすることも提案しています。この優先順位付けにより、国家安全保障コミュニティは新興脅威に関するタイムリーな情報を政策立案者に提供し、適切な対応策の開発を支援することができます。
効果的な協力を促進するために、産業界のプロフェッショナルのための安全保障クリアランスの迅速化も重要です。セキュリティクリアランスの遅延は、政府と産業界の間の効果的な情報共有の障壁となる可能性があります。クリアランスプロセスを合理化することで、重要な情報の共有をより迅速かつ効率的に行うことができます。
これらの協力メカニズムを確立することで、米国のフロンティアAI研究所の防御態勢を大幅に強化し、悪意ある行為者が最先端の米国技術を不正流用して米国の利益に反して武器化する能力を著しく妨げることができるでしょう。
6. アメリカの繁栄の促進
6.1. 米国のエネルギー供給の確保と拡大
6.1.1. 予測される電力要件(2027年までにモデルあたり5ギガワット)
私たちは、トランプ政権によるDay 1の優先事項として国内エネルギー供給を拡大する取り組みを高く評価しています。私たちの予測によると、2027年までに単一のフロンティアAIモデルのトレーニングには、約5ギガワットの電力を消費するネットワーク化されたコンピューティングクラスターが必要になるでしょう。これを主要なAI開発者全体に乗じると、米国は競争力を維持し、国内でのAIモデル開発をサポートするために、今後3年間でさらに数十ギガワットのエネルギー容量を展開する必要があります。
さらに、AIモデルのトレーニングに必要なエネルギーだけでなく、これらのモデルをビジネス、政府、社会全体のアプリケーションに展開する推論クラスターを運用するためにも大量の電力が必要となります。AIモデルの能力が向上するにつれて、そのコンピューティング要件も急激に増加しており、それに伴いエネルギー需要も増大しています。
この急増するエネルギー需要に対応できない場合、アメリカの技術的リーダーシップに深刻なリスクがもたらされます。米国のAI開発者が海外に業務を移転したり、国内の十分な容量が利用可能になるまで重要なR&D活動を延期せざるを得ない可能性があります。このシナリオでは、実質的にAI経済のインフラ基盤が海外の競争相手に移転し、世界をリードするAI技術がアメリカの価値観を反映しないリスクが生じます。
実際、民主的価値観を共有せず、安全保障上の脅威をもたらす可能性のある一部の権威主義体制はすでに、豊富で低コストのエネルギーを約束して米国のAI企業を積極的に誘致しています。米国の開発者がこれらの国にモデル開発やモデルウェイトの保存を移転してこれらのエネルギー源にアクセスした場合、機密性の高い知的財産が移転または盗難にさらされ、適切なセキュリティプロトコルのないAIシステムの創出が可能になり、外国勢力による貴重なAI資産の混乱や強制の対象となる可能性もあります。
6.1.2. 国家目標:2027年までに50ギガワットの追加
連邦政府は野心的な国家目標を設定することを検討すべきだと考えています:2027年までにAI産業向けに50ギガワットの追加電力を構築することです。この目標は、次世代のAIモデル開発と展開に必要な電力需要を満たすために必要な規模を反映しています。
この目標を達成するために、連邦政府は以下の取り組みを行うべきです。まず、連邦機関に対して、審査の加速、期限の厳守、省庁間調整の促進によって許認可プロセスを合理化するよう指示し、官僚的なボトルネックを排除することが必要です。これにより、エネルギー開発プロジェクトが不必要な遅延なく進行できるようになります。
次に、連邦機関に対して、新たなエネルギー源を新たなデータセンターに迅速に接続するための送電線承認を迅速化するよう指示することも重要です。電力の生成だけでなく、その配電も同様に重要であり、送電インフラの迅速な開発により、生成された電力を必要とされる場所に効率的に届けることができます。
また、州および地方政府と協力して、新たなエネルギーおよびデータセンターの建設に対する許認可の負担を軽減することも必要です。地方レベルの規制や障壁が、国家目標の達成を妨げる可能性があります。
さらに、戦略的エネルギーインフラプロジェクトに向けた既存の連邦資金の配分を検討することも提案します。適切に調整された公的資金は、民間投資を活用し、重要なプロジェクトを加速する上で重要な役割を果たす可能性があります。
最後に、発電施設と次世代データセンターを共同設置するための連邦不動産の活用機会を探ることを提案します。連邦政府は広大な土地を所有しており、その一部はエネルギー生成とAIコンピューティングのインフラ開発に戦略的に活用できる可能性があります。
これらの措置を講じることで、米国は強力なAIシステムの開発と展開に必要なエネルギーインフラを確保し、国内でのAI研究と革新の維持に貢献することができるでしょう。これは単なるインフラの問題ではなく、技術的リーダーシップと国家安全保障の問題でもあります。
6.1.3. エネルギーインフラ整備促進のための提言
2027年までにAI産業向けに50ギガワットの追加電力を確保するという野心的な目標を達成するために、私たちは以下の具体的な提言を行います。
まず、連邦機関に対して、審査の加速、期限の厳守、省庁間調整の促進によって許認可プロセスを合理化するよう指示すべきです。具体的には、エネルギープロジェクトの環境影響評価や規制審査を迅速化するプロセスを確立することが重要です。現在の許認可プロセスは複数の機関にまたがり、重複する要件が多く、プロジェクトに何年もの遅延をもたらすことがあります。簡素化されたプロセスにより、安全性や環境への配慮を損なうことなく、重要なエネルギーインフラをより迅速に展開することが可能になります。
次に、連邦機関に新たなエネルギー源を新たなデータセンターに迅速に接続するための送電線承認を迅速化するよう指示することも不可欠です。送電インフラの不足は、エネルギー生成能力を拡大する上での主要なボトルネックとなっています。特に、再生可能エネルギー源は多くの場合、人口密集地から離れた場所に位置しているため、効率的な送電システムが必要です。送電線の承認プロセスを迅速化することで、発電容量とデータセンターの需要をより効果的に結びつけることができます。
また、州および地方政府と協力して、新たなエネルギーおよびデータセンターの建設に対する許認可の負担を軽減することも重要です。地方の規制や土地利用制限がプロジェクトの進行を妨げることがあります。連邦政府は、インセンティブや技術支援を通じて、地方政府がAI産業をサポートするエネルギーインフラの開発を促進するよう奨励すべきです。
さらに、戦略的エネルギーインフラプロジェクトに向けた既存の連邦資金の配分を検討することを提案します。例えば、インフラ投資・雇用法や追加の立法を通じて、AI関連エネルギーインフラに特化した資金調達メカニズムを確立することが考えられます。戦略的に配分された公的資金は、民間投資を引き付け、国家目標の達成を加速する上で重要な役割を果たします。
最後に、発電施設と次世代データセンターを共同設置するための連邦不動産の活用機会を探ることを提案します。連邦政府は全国に広大な土地を所有しており、その一部はエネルギー生成とAIコンピューティングインフラの共同設置に適している可能性があります。これにより、送電の損失を最小限に抑え、総合的なエネルギー効率を向上させることができます。
これらの提言を実施することで、米国はAI開発に必要なエネルギーインフラを確保し、技術的リーダーシップを維持することができるでしょう。
6.2. 連邦政府全体でのAI調達の促進
6.2.1. AIによる政府業務フローの強化ビジョン
AIの最も変革的な影響の一つは、政府業務の革新となるでしょう。これは、国民へのサービス提供と米国の国家安全保障命令の両方をサポートする形で実現します。しかし、これらの利益を実現するためには、政府機関がこれらの技術を効果的に導入し活用できるようにする必要があります。
私たちは、野心的なイニシアチブを提案します:政府全体にわたり、連邦職員がテキスト、画像、音声、ビデオデータを処理するあらゆる事例を体系的に特定し、これらのワークフローを適切なAIシステムで強化することです。
この取り組みが実現すれば、実質的にすべての政府職員にAIを活用したアシスタントを提供することになり、生産性と効率性を劇的に向上させるでしょう。政府のさまざまな部門では、データ分析や文書処理などの時間のかかるタスクをAIが支援することで、職員はより戦略的で創造的な業務に集中できるようになります。
このビジョンを実現するための第一歩として、包括的なインベントリと初期的な実装プロセスを実施することから始めることで、連邦機関全体でのAI導入を効果的に妨げている制度的障壁が自然に明らかになるでしょう。例えば、調達プロセスの複雑さ、レガシーシステムとの統合の課題、データアクセスの制限、人材のスキルギャップなどが、政府機関においてAIを効果的に導入する上での障壁となっていることが判明するかもしれません。
このビジョンの具体例としては、内国歳入庁での納税申告処理の合理化、退役軍人省でのヘルスケア提供の強化、保健福祉省での文書処理による遅延の削減、社会保障庁でのバックログの削減などが挙げられます。これらの分野では、AIの導入により、サービス提供が大幅に改善され、政府の効率性が向上し、米国市民が受ける公共サービスの質が向上するでしょう。
AIを政府全体に組み込むこのビジョンは、デジタル政府の未来への大胆なステップを表しています。これは単なる技術的アップグレードではなく、政府が国民のために機能する方法を根本的に再考することを意味します。
6.2.2. 実装のための主要アクション
このビジョンを実行するために、政権は以下のいくつかの重要なアクションを追求すべきです。
まず、ホワイトハウスは行政管理予算局(OMB)に対し、議会と協力して資源制約、調達制限、連邦AI採用に対するプログラム上の障害に迅速に対処し、大統領予算に大規模なAI調達のための条項を組み込むよう指示すべきです。予算的サポートなしでは、このような野心的なAI採用の取り組みは実現しません。
次に、民間および国家安全保障用途の両方において、連邦機関でのAIの迅速な導入を妨げる規制上および手続き上の障壁を特定し排除するための省庁横断的な取り組みを調整することが重要です。これには、データプライバシー、セキュリティ要件、レガシーシステムとの互換性、そして調達プロセスに関連する課題の体系的な評価と解決が含まれます。
また、国防総省と情報機関に対して、AIの研究、開発、調達を加速するために既存の権限を最大限に活用するよう指示することも提案します。これらの機関は、しばしば一般の政府機関よりも柔軟な調達オプションを持っており、より迅速にAIの採用を進めることができます。
さらに、AIの自動化や拡張によって最も大きな公共的利益をもたらす可能性のある民間機関の最大のプログラムを特定することが必要です。例えば、内国歳入庁での税務処理の合理化、退役軍人省でのヘルスケア提供の強化、保健福祉省での文書処理による遅延の削減、社会保障庁でのバックログの削減などが含まれます。
これらの主要なアクションは、政府全体でのAI採用の体系的なアプローチを確立するための基盤を築くものです。早期に機関横断的な調整を確立し、既存の障壁を特定して対処することで、政権はAI導入の速度と効果を大幅に向上させることができます。
最も重要なのは、このアプローチが単に技術的なアップグレードを超えて、政府の業務プロセスを根本的に変革し、効率性、効果性、そして最終的には市民へのサービス提供を向上させる機会を提供するということです。しかし、これを実現するためには、リーダーシップ、調整、そして実際の障壁に対処する意欲が必要となります。
6.2.3. 連邦政府のAI採用のためのフレームワーク
国家安全保障目的の連邦調達を強化するために、既存のフレームワークを活用することも奨励します。特に、2024年10月の人工知能に関する国家安全保障覚書(NSM)と、それに付随する国家安全保障における人工知能ガバナンスとリスク管理を推進するためのフレームワークは重要です。これらのフレームワークにより、政府内でのフロンティアAIアプリケーションのパイロット実施と、これらのシステムへの信頼を構築するための堅牢なテストおよび評価能力の開発が可能になります。
これらの既存のフレームワークは、国家安全保障におけるAI採用を特に対象としていますが、政府全体でのAI調達と展開の加速に向けた幅広いアプローチの基盤として役立ちます。国家安全保障コミュニティで開発された多くのベストプラクティスと手法は、民間政府機関にも適用できます。
さらに、国防総省と国家情報長官室との間の共同作業グループを設立し、AIシステムの調達プロセスを加速しながら厳格なセキュリティと信頼性の基準を維持するための連邦調達規制審議会(FARC)への勧告を策定することを強く提唱します。このような作業グループは、国家安全保障コミュニティが直面するAI調達の独自の課題と、それらの課題に対処するための適切な規制の変更を特定する上で重要な役割を果たすことができます。
FARCは、これらの勧告に基づいて連邦調達規則への適切な修正を検討し、革新と責任あるガバナンスのバランスを取る調達環境を創出すべきです。これには、AI技術の迅速な調達を可能にしながらも、安全性、セキュリティ、倫理的配慮を確保するための特別な条項の開発が含まれる可能性があります。
これらのフレームワークは、連邦政府におけるAI採用の加速に向けた包括的なアプローチの一部となるべきです。行政管理予算局(OMB)の指導の下で資源制約に対処し、規制上の障壁を特定・排除し、国防総省と情報機関の既存の権限を活用することと組み合わせて、これらのフレームワークは政府全体でAIの効果的な導入を可能にする環境を創出するのに役立ちます。
このような包括的なアプローチにより、連邦政府は単にAI技術を調達するだけでなく、それらを最も効果的に利用して公共サービスを改善し、国家安全保障能力を強化することができるようになります。
6.3.1. Anthropic経済指標イニシアチブ
私たちの提言は、自社の取り組みから得られた知見に基づいています。2月に、私たちはAnthropic経済指標を立ち上げました。これは、当社の使用データを米国労働統計局(BLS)のO*NETフレームワークと相関させることで、AIの労働市場への影響を評価するための取り組みです。
この指標は、当社のClaude AIアシスタントが様々な職業に関連するタスクにどのように使用されているかを追跡し、これらの使用パターンを労働市場データと関連付けることで、AIの導入が様々な職業や産業にどのような影響を与える可能性があるかについての洞察を提供します。
私たちは、自社のデータセットと方法論には固有の限界があることを認識していますが、このアプローチはAIの進化する経済的役割に関する自動化された詳細な洞察を提供し、これらのシステムが能力を向上させるにつれて将来の影響の早期指標を特定するのに役立ちます。
具体的には、この指標によって、AIの使用がどの職業カテゴリーで最も急速に増加しているか、どのようなタイプのタスクがAIによって最も支援されているか、そしてこれらのパターンが時間とともにどのように変化しているかを理解することができます。これにより、政策立案者や産業界のリーダーは、AIの導入による労働市場の変化をより良く予測し、それに対応するための準備が可能になります。
私たちは、2025年が、AI技術による大規模で可視的な経済的影響の始まりを示す可能性が高いと予測しています。現在の能力向上の軌跡を考えると、AIシステムはますます複雑なタスクを実行できるようになり、より幅広い産業や職業に影響を与えるようになるでしょう。このため、政府がAIの採用パターンと経済的影響をより効果的に把握するためのデータ収集メカニズムを強化することが不可欠です。
6.3.2. データ収集強化のための提言
政府によるAI関連データ収集メカニズムを強化するために、以下のような提言を行います。
まず、国勢調査局のアメリカ時間使用調査に、AI使用に関する具体的な質問を組み込むべきです。この調査は個人および職業的な用途を区別し、タスクのタイプや使用されているシステムについての詳細情報を収集すべきです。例えば、AIを使って行っているタスクの種類、AIを使用する頻度、どのようなAIツールを利用しているかなどの質問を含めることができます。これにより、AIの日常生活や仕事への浸透度に関する貴重なデータが得られるでしょう。
次に、国勢調査局の年次ビジネス調査にも、企業が使用しているAI技術のタイプや、AIの支援を受けて、またはAIによって実行されているタスクに関するより詳細な質問を含め、LLMと他の形式のAI製品を区別することが重要です。これにより、様々な業種や企業規模におけるAI採用のより正確な全体像が得られます。
また、年次ビジネス調査では、O*NETと互換性を持たせた労働者が実行するタスクに関するデータ収集にも注力すべきです。これにより、米国経済におけるタスク分布のより厳密な理解が得られ、AIがどのタスクに影響を与えているかをより正確に評価することができます。
さらに、コンピューティングパワーが経済成長の重要な推進力になると考えられることから、ホワイトハウスはAIコンピュータリソースへの投資と経済パフォーマンスの関係を追跡し、国内インフラと関連サプライチェーンへの戦略的投資に関する情報を提供すべきです。例えば、AIに特化したチップの製造や、関連するコンピューティングインフラへの投資が経済成長や生産性にどのような影響を与えるかを分析することが考えられます。
最後に、ホワイトハウスは議会と関連機関に、AI採用が国民の税基盤の構成をどのように再形成する可能性があるかを検討し、政府が経済の構造的変化を把握できるようにするよう働きかけるべきです。AIによる自動化の進展により、従来の税収源が変化する可能性があり、財政政策の調整が必要になるかもしれません。
これらの提言を実施することで、政府はAIの経済的影響をよりリアルタイムで詳細に把握し、効果的な政策対応を策定することができるようになるでしょう。
6.3.3. 経済的移行に向けた準備
私たちは、データセンター内に「天才国家」に相当するテクノロジーが経済を根本的に変革すると考えています。この移行期に米国民が繁栄するためには、政府が経済指標や産業動向を注意深く監視する必要があります。
2025年2月に、私たちはAIの労働市場への影響を評価するためにAnthropicエコノミックインデックスを立ち上げました。このイニシアチブは、当社の使用データを労働統計局(BLS)のO*NETフレームワークと相関させることで設計されています。データセットと方法論の固有の限界を認識しつつも、このアプローチはAIの進化する経済的役割に関する自動化された詳細な洞察を提供し、これらのシステムが能力を高めるにつれて将来の影響の早期指標を特定します。2025年は、AIテクノロジーからのより目に見える大規模な経済効果の始まりになると予想しています。
政府のデータ収集メカニズムを強化してAI導入パターンと経済的影響をより適切に把握し、大きな変化の可能性に備えるために、以下のアイデアを提案します:
国勢調査局のアメリカン・タイム・ユース・サーベイにAI使用に関する具体的な質問を取り入れ、個人利用と職業利用を区別しながら、タスクの種類と使用されるシステムに関する詳細情報を収集すべきです。
同じく国勢調査局の年次ビジネス調査には、企業が使用するAIテクノロジーの種類や、AIテクノロジーによってまたはその支援を受けて実行されるタスクに関するより詳細な質問を含めるべきです。また、LLMと他の形態のAI製品を区別することも重要です。
年次ビジネス調査では、労働者が実行するタスクに関するデータ収集により注力し、それらをO*NETと互換性を持たせ、米国経済におけるタスク分布のより厳密な理解の基礎を形成すべきです。
私たちは、コンピューティングパワーが経済成長の重要な推進力になると考えています。そのため、ホワイトハウスはAIコンピューテーショナルリソースへの投資と経済パフォーマンスの関係を追跡し、国内インフラと関連するサプライチェーンへの戦略的投資に情報を提供すべきです。
ホワイトハウスは議会と協力し、関連機関にAI採用が国家の税基盤の構成をどのように再形成する可能性があるかを検討し、政府が潜在的な構造的経済変化を把握できるようにする任務を与えるべきです。
AIがもたらす経済移行を理解するためのこの先見性のあるアプローチは、技術的進歩の恩恵が米国社会全体で広く共有されるのに役立つでしょう。
7. 結論
7.1. 米国のAI優位性の機会の概要
私たちは、トランプ政権下で極めて強力なAI技術が開発されると確信しています。トランプ大統領とこの政権には、この技術の恩恵を解き放ち、アメリカが中国やその他の敵対国に対して優位性を維持することで、AI分野でアメリカの支配力を可能にする大きな機会があります。
この提出書全体を通じて、連邦政府がAIの国家安全保障と経済的影響、そしてAI企業自体のセキュリティ慣行についてより良く、より多くの情報にアクセスできるよう提唱してきました。この政権がAI企業に対して、モデルの開発方法やテスト方法、そしてモデルが盗まれるのを防ぐために使用しているセキュリティ慣行についてより多くの情報を共有するよう促す方法を見つけることが不可欠だと考えています。企業が情報開示の共通基準に到達するよう促すことができれば、連邦政府が次の数年間—AIの開発において極めて重要になると私たちが考える数年間—に取り組むために必要な情報を持つことがより容易になります。
急速な技術開発の可能性に適切な真剣さをもって取り組み、米国民がこれらの進歩から完全に恩恵を受けることを確実にするために、今日戦略的な措置を実施することが不可欠です。同時に、これらの変革的なテクノロジーを保護する堅牢なセキュリティフレームワークを確立するために、連邦政府の包括的な能力を活用する必要があります。今すぐ断固とした行動を取ることで、国家の利益に不可欠なセキュリティを維持しながら、この技術革命でリードする位置にアメリカを置くことができます。
7.2. 政府とAI企業間の情報共有の重要性
私たちは、AIの開発と展開に関する情報共有が、米国が強力なAI技術の時代においてリーダーシップを維持する上で極めて重要だと考えています。この提出書の中で、私たちはAI企業が政府との間でより多くの情報を共有することの必要性を強調してきました。特に、モデルの開発方法、テスト手順、セキュリティプロトコルについての透明性が不可欠です。
企業が情報開示の共通基準に到達するよう促すことができれば、連邦政府はAI開発におけるこの重要な数年間に効果的に対応するために必要な情報を持つことができます。これには、AI開発者が内部テストプロトコルや米国およびイギリスのAI安全保障・セキュリティ研究所とのパートナーシップを通じて行うセキュリティ評価の結果を共有することが含まれます。
このような協力的アプローチを通じて、政府はAIの潜在的な国家安全保障への影響を十分に理解し、適切な政策対応を策定することができます。同時に、情報共有は政府が産業界のニーズ(エネルギー供給や調達プロセスの効率化など)を理解するのに役立ち、米国のAIエコシステムの競争力を高めるための環境整備が可能になります。
AI企業と政府間の強化された情報共有は、米国の技術的リーダーシップを維持し、国の安全を確保し、AI駆動型の経済的利益が社会全体で広く共有されることを確実にするための基盤となります。
7.3. 米国のリーダーシップ維持のための決定的行動の呼びかけ
私たちは、強力なAI技術がこの政権中に開発されることを確信しています。開発のペースが急速であることを考えると、アメリカの経済競争力を強化しながら国家安全保障を高める、的を絞ったAIアクションプランを通じて、この技術を重要な国家資産として扱うことが不可欠です。
今すぐ断固とした行動を取ることで、私たちはこの技術革命においてアメリカがリードする立場に立つことができます。そのためには、AIモデルの国家安全保障能力をテストおよび評価するための連邦政府の能力構築、半導体に対する輸出管理の強化、米国のフロンティアラボのセキュリティの大幅な改善、米国のエネルギー供給の確保と拡大、連邦政府全体での迅速なAI調達の促進、そしてAIの経済的影響の監視と主要な行動に向けた準備が必要です。
AIテクノロジーの恩恵を米国民が完全に享受できるよう、今日から戦略的措置を実施していくことが極めて重要です。同時に、これらの変革的技術を保護する堅牢なセキュリティフレームワークを確立するために、連邦政府の包括的な能力を活用する必要があります。
2027年までには、単一のフロンティアAIモデルのトレーニングには約5ギガワットの電力を必要とするネットワーク化されたコンピューティングクラスターが必要になると予測しています。米国の競争優位性を維持し、国内でのAIモデル開発をサポートするためには、今後3年間で数十ギガワットの追加エネルギー容量を展開する必要があります。
私たちは、連邦政府に対してAI企業との情報共有を強化し、国家安全保障と経済的繁栄の両方に関連する課題に共に取り組むことを呼びかけます。米国がAI革命において主導的地位を確保できるかどうかは、今日の私たちの決断と行動にかかっています。