※本記事は、Future of Life Institute (FLI)による「Recommendations for the U.S. AI Action Plan」レポート(2025年3月14日付)の内容を基に作成されています。このレポートはJason Van Beek氏(FLI政府関係責任者)によって執筆され、トランプ大統領のAIアクションプランへの提言として作成されました。レポートの詳細情報はfutureoflife.org/action-plan でご覧いただけます。本記事では、レポートの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのレポートをご参照いただくことをお勧めいたします。また、Future of Life Instituteのウェブサイト(futureoflife.org)もご参照ください。
1. 大統領職を制御不能なAIまたは競合する権威からの権力喪失から保護する
AIシステムがより強力になるにつれて、これらのシステムは大統領職に対して実存的な課題をもたらす可能性があります。競合する権威や自律的なシステムが行政権力を弱体化させる可能性があるのです。特に、再帰的自己改善が可能な超知能AIシステムの出現は独自のリスクをもたらします。これらのシステムは潜在的に制御不能になり、国家安全保障を損なう恐れがあります。
1.1 自己改善・自己複製能力を含む、人間の制御を逃れる可能性のある将来のAIシステムの開発に対するモラトリアムを発令する
企業は積極的に超知能自律システムを追求しています。例えば、AlphaGoやGPT-4などの画期的なAIプロジェクトの退役軍人によって設立されたReflection AIは、自社のウェブサイトで「我々の目標は超知能自律システムを構築することである」と率直に述べています。
AIシステムが人間の制御下に留まることを確保することは、米国の国家安全保障優位性を維持し、敵対的行為者による悪用を防ぐために不可欠です。イーロン・マスクを含む技術界と学術界の著名人たちは、GPT-4よりも強力な先進AIシステムの開発に慎重な姿勢を求めています。自己改善または自己複製が可能な先進AIシステムは、その元のプログラミングを超えて進化し、制御が困難または不可能になる可能性があります。モラトリアムにより、これらの技術が大規模に展開される前に、堅牢な安全対策とガバナンスフレームワークを開発する時間が確保されます。
大統領職はアメリカ民主主義の礎石であり、自律的AIシステムや先進技術によって権限を与えられた競合的権威によってもたらされる脅威から保護されなければなりません。制御不能なAIシステムの開発に対する的を絞ったモラトリアムは、AIの進歩が米国の戦略的利益と価値に沿ったものとなるよう保証するための慎重な一歩です。
1.2 米国政府が超知能AIシステムを理解し、可視化できるようにする
米国政府内には、超知能AIシステムの開発に関して国家安全保障を保護するために必要な可視性と理解の機能が整備されるべきです。重要な機能としては、AI研究機関との定期的な関与、AIに関する一般的な専門知識の蓄積、そして状況認識を維持するために国家安全保障会議内に部署を設立することが含まれます。AIの脅威に対する警告と緊急対応メカニズムを設置するためには、情報機関、国防総省、産業界、および民間機関の間の連携を促進することが必要になるでしょう。
このような体制を構築することで、政府は最先端のAI開発の現状を把握し、潜在的なリスクを早期に特定し、適切な対応策を講じることができるようになります。超知能AIシステムは急速に進化する可能性があるため、政府がこの分野の発展についていけるよう、継続的な監視と専門知識の更新が不可欠です。
1.3 すべての先進的AIシステムに対するオフスイッチの設置を義務付ける
先進的AIシステムの自律性と複雑性の増大に伴い、意図しない危害のリスクを軽減するための予防的な安全対策が必要となっています。暴走AIシステムや競合する権威による誤用がもたらす壊滅的な結果を防ぐために、すべての先進的AIシステムに「フェイルセーフ」メカニズム、つまりオフスイッチを設置することが不可欠です。
AIオフスイッチとは、AIシステムが危険な動作や不適切な行動を示した場合に、その作動を即座に停止させる自動メカニズムを指します。このメカニズムは、システムを再起動するために人間の介入を必要とするように設計されるべきです。最も高性能で自律的なシステムに対しては、オフスイッチはデッドマンスイッチ(継続的な人間の監視がなければ自動的に停止する仕組み)であるべきです。
オフスイッチは国家安全保障と国家指揮権限の回復力を促進します。オフスイッチは、意図された行動から逸脱するシステムに対するフェイルセーフを提供します。連邦規制は、大規模AIモデルのすべての開発者にシステムへの堅牢な停止メカニズムの統合を義務付けるべきです。これらのメカニズムは、様々なシナリオ下での機能性を確保するために定期的にテストされなければなりません。
すべての先進的AIシステムに対するオフスイッチの義務付けは、国家安全保障と民主主義の完全性を守りながら人間による制御を確保するための重要なステップです。この対策を採用することで、政権はAIにおけるアメリカのグローバルリーダーシップを強化しつつ、その統治機関へのリスクを軽減することができます。
1.4 司法省(DOJ)と連邦取引委員会(FTC)の反トラスト法執行機関に、少数のテック独占企業によるAI開発の力の集中と市場統合を防ぐための強固な監視と執行を義務付ける
AIテクノロジーの急速な発展は、市場集中と反競争的行為に関する重大な懸念を引き起こしています。FTCの2025年1月のAIパートナーシップと投資に関するスタッフレポートは、支配的企業が競争を歪めるために市場支配力を活用するリスクを強調しています。米国がAIイノベーションのグローバルリーダーとしての地位を維持しながら公正な競争を保護するためには、司法省やFTCなどの競争当局がAI分野における反競争的慣行に対して強力な反トラスト法の執行に取り組むことが不可欠です。ビッグテック企業がAIを支配的に管理することは許されるべきではありません。
FTCの2025年1月のAIパートナーシップと投資に関するスタッフレポートは、AlphabetやAmazon、Microsoftなどの主要クラウドサービスプロバイダーが、OpenAIやAnthropicのような主要AI開発企業と数十億ドル規模のパートナーシップを形成した方法について詳細な分析を提供しています。委員会は5-0の投票でスタッフにレポートの発行を許可しました。レポートの調査結果は、支配的企業がパートナーシップを利用して競争を排除したり、市場支配力を強化したりするのを防ぐため、積極的な反トラスト法の執行の必要性を強調しています。
これらの課題に対処するために、AIアクションプランは競争当局に合併審査プロセスの強化、パートナーシップにおける透明性の促進、そして共謀の防止を求めるべきです。2021年、FTCはジョー・サイモンズ委員長によって最初に開始された報告書を発表しました。この報告書は5つの大手テクノロジー企業による10年近くにわたる未報告の買収に焦点を当てていました。FTCの調査では、これらの企業が「取引規模」の閾値を超える94の取引を報告していなかったことが判明しました。規模の閾値を超える取引は、他の特定の基準が満たされないか、法定の規制免除が適用されない限り、報告されなければなりません。
AIアクションプランは、AI企業を含む買収や投資に対する事前合併通知を要求する措置を優先し、そのような取引が競争を減少させたり、市場の小規模プレーヤーに対する障壁を作り出したりする可能性があるかを評価すべきです。さらに、AIアクションプランは、AI開発者とビッグテック企業間の協力協定を精査することにより、共謀から防護するよう競争当局に要求すべきです。
AIセクターにおける無制限の統合は、制御不能なAIへの権力喪失のリスク、そしてイノベーションと公正な競争へのリスクを増加させます。司法省とFTCにAI産業における反競争的慣行に対する反トラスト法執行を優先するよう指示することで、政権はイノベーション、公正な競争、そして自らを保護することができます。
2. イデオロギー的アジェンダのないAIシステムの開発を促進することで、AIによる人間の繁栄を育む
アメリカが主導するAI開発は、中立性と透明性の原則に従うべきです。政権はイデオロギー的に偏向せず、ユーザーの自律性を優先するAI開発を奨励するべきです。
2.1 超人的な説得力と操作に関与できるAIモデルを禁止する
アメリカが主導するAI開発は、中立性と透明性の原則に従うべきです。政権はイデオロギー的に偏向せず、ユーザーの自律性を優先するAI開発を奨励するべきです。xAIとScale AIのアドバイザーであるDan Hendrycksが最近発表した研究によると、AIシステムはその価値システムにおいて著しい偏りを示すことが明らかになっています。業界リーダーであるOpenAIのCEO、Sam Altmanは、AIが一般的知能で超人的になる前に、説得力において超人的能力を獲得すると予測しています。先進的AIモデルには、合成メディア、ターゲットを絞ったメッセージング、そして認識や抵抗が困難な方法で知覚を形成できるその他のツールなど、大規模で説得力のあるコンテンツを作成する可能性があります。
FTCは、FTC法に基づいて消費者を欺瞞的で不公正な慣行から保護する長年の役割を担っています。これらの原則は、認知バイアスを悪用したり、世論を操作したりする可能性のある新興AIテクノロジーに直接適用可能です。特に、超人的な説得に関与できるAIモデルは、消費者保護と公正競争に対して独自の課題をもたらします。
大統領令14179の、エンジニアリングされた社会的アジェンダから解放されたAIシステムの開発を義務付ける指令に従い、そしてAIシステムが人間の繁栄を促進するという目標に沿うように確保するために、政権はFTCに対して超人的な説得に関与するAIシステムを調査するよう呼びかけるべきです。FTCの強制プロセス権限に基づく民事調査要求を出す能力は、有害な操作に関与していると疑われるAIモデルを精査するために使用されるべきです。政権は、超人的な説得に関与するAIシステムを開発または展開する者に罰則を課すことをFTCに許可するよう、議会と協力すべきです。最終的に、超人的な説得力と操作に関与できるAIモデルは禁止されるべきです。
2.2 ホワイトハウス科学技術政策局とAI・暗号通貨担当者に、ホワイトハウス信仰局およびすべての宗教コミュニティと緊密に連携してAIガバナンスに情報を提供するよう要求する
AIの急速な進歩は、宗教的信仰や伝統に対して深遠な課題をもたらしています。例えば、OpenAIのCEO、Sam Altmanは、AIを「空の魔法のような知性」と呼んでいます。この表現は、AIが社会を根本的に再形成する可能性のある変革的で、ほとんど神のような力であるという一般的に持たれているビジョンを強調しています。アメリカ人の約75%が伝統的な宗教的信仰を認識していますが、伝統的な宗教的視点は戦略的AI議論からほとんど欠落しています。コミュニティを組織し実存的な問題に対処した経験を持つ伝統的な宗教は、AI議論において多くの貢献をする可能性があります。
宗教コミュニティは歴史的に社会的課題に対処する道徳的な羅針盤として機能してきました。信仰ベースの組織はアメリカ全土のコミュニティに深く埋め込まれており、しばしば家族や個人のための信頼できる仲介者として機能しています。彼らの洞察は、AIテクノロジーの実世界における道徳的・倫理的な影響を特定するのに役立ちます。信仰指導者や組織と関わることで、AIガバナンスは人間の尊厳、公平性、思いやり、そして説明責任を強調する倫理的枠組みから恩恵を受けることができます。
政権はAIシステムの開発と展開の文脈における宗教的自由の保護に高い優先順位を置くべきです。政権はAIシステムにおける反宗教的偏見から保護し、宗教的自由のための憲法的保護の遵守を監視するために司法省の市民権局と協力すべきです。これらの原則は、人間の繁栄を促進し、AIシステムにおけるイデオロギー的偏向を避けるという政権の掲げた目標に沿っています。
トランプ大統領のAI開発が人間の繁栄を促進することを確保するという公約に照らして、OSTPとAI・暗号通貨担当者は、ホワイトハウス信仰局と緊密に協力して、宗教コミュニティからの視点をAIアクションプランに統合すべきです。協力を促進し宗教的自由を保護するために、政権はホワイトハウス信仰局とOSTPの共同リーダーシップの下、宗教的伝統の代表者から構成される評議会を形成すべきです。この評議会はAI開発、展開、使用のための倫理的ガイドラインについて助言する任務を与えられるべきです。
3. アメリカの労働者を仕事の喪失と代替から保護する
AIは前例のないペースで産業と労働力を変革しています。AIは経済成長とイノベーションを約束する一方で、特に雇用の置き換えや地域間の経済格差という点で、アメリカの労働者に重大なリスクをもたらします。さらに、従来のAIが特定のタスクを置き換える一方で、汎用人工知能(AGI)は根本的な雇用代替のパラダイムを示しています。人間レベルの推論が可能なAGIシステムは、単にタスクを置き換えるだけでなく、正確性、拡張性、コスト効率の指数関数的な向上を通じて、職種全体を代替するでしょう。したがって、政権のAIアクションプランは、AGIがもたらす労働力への変革的影響に立ち向かう機会を表しています。AIの恩恵が公平に分配され、労働者が取り残されないようにするためには、AIアクションプランは労働省長官に対して、米国全体でのAIの雇用への影響を追跡し軽減するための包括的な計画を策定するよう指示すべきです。
3.1 労働省長官に、異なる州間での影響の内訳を含め、AIが労働者を代替する可能性を追跡する任務を与える
労働省長官は、雇用に対するAIの影響を評価するための全国的な労働力監視イニシアチブを確立しリソースを提供するよう指示されるべきです。このイニシアチブの一環として、労働省長官は定期的に州ごとのAIが雇用に与える影響の分析と、新しいAIテクノロジーが雇用レベルにどのように影響しているかを提供すべきです。労働省長官は、各州でどのセクターが最もリスクにさらされているかを強調し、高い脆弱性により緊急の介入を必要とする州を特定する詳細な報告書を作成すべきです。
このような監視システムを導入することにより、政府は迅速に対応し、労働者再訓練や地域経済開発など、AIによる雇用喪失の影響が最も大きい地域への支援策を優先できるようになります。また、AIに関連する雇用と経済の動向を継続的に追跡することで、より情報に基づいた政策決定が可能になり、AIの発展によって取り残されるアメリカ人が最小限になるよう努めることができます。
4. 米国最先端AIテクノロジーの敵対者への無償提供を終了する
米国は最先端AIモデル(重要技術に対する高度なリスク影響を持つ規制対象輸出システム、つまり「RESTRICT」モデル)を最も重要な資産の一つとして捉えるべきです。この技術でリードすることにより、私たちは人間の繁栄を促進しながらグローバルな優位性を維持することができます。
しかし、あまりにも頻繁に、RESTRICTモデルは無償で提供されています。敵対者と共有された場合、国家情報の容認できない移転を意味するAIシステムの小さなカテゴリーが存在します。例えば、テロリストが生物兵器を構築することを可能にする可能性があります。
もちろん、すべてのモデルが危険というわけではありません。このため、国立標準技術研究所(NIST)のような専門機関が、どのモデルを輸出規制の対象とすべきかについて明確な境界線を設定すべきです。その判断をするにあたり、以下の点を考慮するべきです:
A. 壊滅的なサイバー攻撃能力を可能にする可能性:先進的AIシステムはゼロデイ脆弱性の発見を劇的に加速し、重要インフラに対する高度な攻撃ベクトルの開発を自動化することができます。このような能力が悪意ある手に渡ると、電力網、金融システム、軍事指令構造に対する前例のないサイバー攻撃を可能にし、社会全体の混乱をもたらす可能性があります。
B. 生物兵器開発を含む分野でのテロ能力強化のリスク:急速に新規分子を設計したり、遺伝子配列を効率的に分析したりできるAIシステムは、生物兵器開発を目指す非国家主体にとって専門知識の障壁を下げる可能性があります。これらの技術により、テロ集団は従来であれば国家レベルのリソースと専門知識を必要とした脅威を開発できるようになり、予測や対抗が難しい非対称的脅威を生み出す可能性があります。
C. 情報機関からの包括的な脅威評価:私たちの情報機関は、外国の敵対者の能力と意図について独自の洞察を持っています。これらの評価はAI輸出規制に関するあらゆる政策に反映されなければなりません。彼らの評価により、敵対的な軍事または情報活動を最も大幅に強化するであろう特定のAI能力を特定することができ、技術開発への包括的な制限ではなく、対象を絞った制限を可能にします。
さらに、RESTRICTモデルへの輸出規制が効果的であるためには、オープンソースの例外を設けるべきではありません。オープンソーシングはグローバルレベルでの研究を促進するのに役立つ一方で、この政権は、ビッグテック企業が最も強力なモデルをオープンソース化する際に、無意識のうちに米国の敵対者に武器を与える可能性を考慮すべきです。
ビッグテック企業(例えばMeta)は、製品の危険な使用は利用規約によって禁止されていると述べていますが、現実には利用規約は米国の国家安全保障を不安定化させるためにこれらの資産を活用しようとする外国のエージェントを思いとどまらせることはほとんどないでしょう。したがって、米国政府はRESTRICTシステムを動かすチップ内にフェイルセーフを装備すべきです。
したがって、今後の大統領令では以下のことを行うべきです:
A. RESTRICTモデルを動かすチップに対して継続的な肯定的ライセンスを要求すること:商務省産業安全保障局(BIS)に、定義された計算閾値を超える先進的AIチップのクラスターにライセンスシステムを実装するよう指示します。これは、デッドマンスイッチに似ているべきで、承認されたサーバーからのシグナルによるライセンス定期的な更新を必要とし、これらの検証チェックが失敗した場合や、チップが承認された地理的境界外での操作を検出した場合に、自動的に機能を無効にします。この実装には、敵対者によるこれらの制御の回避を防ぐための耐タンパー性のあるセキュリティモジュールが含まれるでしょう。
B. RESTRICTチップに地理位置情報機能を確保すること:ハードウェアプロバイダーに対し、RESTRICTモデルが外国の敵対者によって展開されているかどうかを検出するための地理位置情報と地理的制限を可能にする、安全で暗号化された通信チャネルを組み込むことを要求します。
5. AIテクノロジー企業への優先的なエネルギーグリッドアクセスを、外国からの盗難を防ぐための検証可能なセキュリティ対策に条件付ける
国家エネルギーグリッドに統合されたAIシステムを外国からの盗難から保護することは、行政措置を正当化する重要な国家安全保障の要請です。敵対的国家が高度なサイバー作戦を通じて米国の重要インフラを標的にする機会が増加する中、新たに統合されたAIシステムを備えた電力網は魅力的な標的となっています。AIが強化されたグリッドシステムを侵害することに成功した外国の行為者は、貴重な知的財産を盗むだけでなく、グリッド操作を操作し、広範囲にわたる混乱、経済的損害、さらにはアメリカ国民への物理的危害をもたらす可能性があります。
Stargateプロジェクトは、AIテクノロジーに電力を供給するために前例のない量のエネルギーを企業に提供します。この投資は保護されなければなりません。AI能力の向上は新たなサイバー脆弱性を生み出します。侵害されたAIシステムは従来のソフトウェアよりも高度な攻撃を可能にする可能性があるからです。エネルギー省が執行する、BISによって確立された包括的な保護策を実施するための強力なインセンティブを創出するために、優先的なグリッドアクセスを検証可能なセキュリティ対策に条件付けることは有効な方法です。
6. AIの開発がイデオロギー的偏向や設計された社会的アジェンダから解放され、国家安全保障を促進するよう奨励するためのAI産業内部告発プログラムを確立する
イデオロギー的偏向や設計された社会的アジェンダがAIシステムに浸透するリスクは、公的信頼、社会的安定性、そしてアメリカの利益に対する重大な脅威をもたらします。米国がAIにおけるグローバルリーダーシップを維持し強化しようとする中で、AI産業が高潔さ、透明性、説明責任を持って運営されることを確保することが重要です。AI制御喪失の危険な兆候、過失行為、あるいはイデオロギー的偏向や設計された社会的アジェンダを促進するシステムの開発を報告することは公共の利益に適います。
6.1 AI担当者に、AI制御喪失の危険な兆候や、アメリカ国民を脅かし敵対者を強化する過失行為を報告するためのAI特定内部告発プログラムを確立するよう、議会と調整するよう指示する
これを達成するために、AIアクションプランは不正行為を報告するためのAI特定内部告発プログラムの確立について議会と調整するためのワーキンググループを形成すべきです。このプログラムは、AIテクノロジーへの公的信頼を高めながら、国家安全保障、経済競争力、倫理的イノベーションを保護するでしょう。
このプログラムには、不正行為の機密報告を提出するための安全でユーザーフレンドリーなプラットフォームが含まれるべきです。また、内部告発者が恐れることなく前進できるよう、匿名オプションや報復からの保護などの強固な法的保護措置も含めるべきです。このプログラムは開発者と組織に説明責任を負わせ、非倫理的行為を抑止し、AI産業内で責任ある文化を促進するでしょう。
AIの優位性をめぐるグローバルな競争の中で、責任あるAI開発は戦略的優位性です。AI産業内部告発プログラムは私たちの価値観を反映しています:自由、イノベーション、公平性、透明性、そして説明責任です。
AI内部告発プログラムの確立は、米国におけるAI開発が責任あり、透明で、イデオロギー的偏向や設計された社会的アジェンダから解放されることを確保するための重要なステップです。このようなプログラムにより、AIシステムの倫理的な開発と展開を促進し、国家安全保障の脅威を早期に特定することができます。
6.2 NISTに、常に報告しなければならないセキュリティインシデントについて企業に指示を出すよう要求する
NISTはAI開発者や導入者と協力して、常に報告しなければならないAI関連セキュリティインシデントに関するガイドラインを企業向けに開発し発行すべきです。これらのガイドラインの主要な構成要素には、必須報告が求められるセキュリティインシデントの明確なカテゴリーを定義することが含まれるべきです。これには、AIシステムやトレーニングデータへの不正アクセス、悪用につながる可能性のあるAIモデルの脆弱性の検出、AI生成またはAI増幅されたサイバー脅威、そして重要インフラにおけるAIシステムに関わるインシデントが含まれます。
NISTは重大なインシデントに対して72時間以内の報告要件を確立し、関連政府機関にAIインシデント報告を提出するための標準化された報告フォームと安全なオンラインポータルを開発すべきです。企業は最低限、インシデントとその影響の説明、影響を受けたAIシステムとデータ、潜在的な結果と緩和努力、そして侵害の指標を報告する必要があります。
このような報告メカニズムを確立することで、政府はAIセキュリティの脅威について包括的な理解を得ることができ、適切な規制や保護措置を開発するための情報を得ることができます。また、企業間でインシデント情報を共有することで、業界全体でベストプラクティスを促進し、類似の脆弱性が他の組織で悪用されるのを防ぐことができます。
標準化された報告プロセスは、AI開発の透明性と責任ある実践を育む文化の構築に貢献し、AIがアメリカの国家安全保障を強化し、市民のプライバシーとセキュリティを保護する方法で開発されることを確保するのに役立ちます。さらに、このようなガイドラインは企業に期待されることについての明確さを提供し、AI開発と展開における責任ある行動のためのインセンティブを作り出します。