Logo
  • HOME
  • お知らせ
  • 会社概要
  • サービス
  • 技術デモ
  • 技術調査
  • 行政調査
  • AI利用調査
  • AI倫理調査
  • 特別調査
お問い合わせ
Logo

求人

プライバシーポリシー

調査一覧

Copyright © 2010-2024 Automation co,.ltd All Rights Reserved.

株式会社自動処理
/技術調査研究レポート
技術調査研究レポート
/
2025-03-13 Googleが提案するアメリカのAI覇権:革新的政策フレームワークの設計図
2025-03-13 Googleが提案するアメリカのAI覇権:革新的政策フレームワークの設計図

2025-03-13 Googleが提案するアメリカのAI覇権:革新的政策フレームワークの設計図

出展元
https://static.googleusercontent.com/media/publicpolicy.google/en//resources/response_us_ai_action_plan.pdf
初回調査日
Apr 22, 2025 1:33 PM
キーワード
AI覇権革新的政策フレームワーク政府AI導入国際標準化

※本資料は、2025年3月13日にGoogleが提出した「Response to the National Science Foundation's and Office of Science & Technology Policy's Request for Information on the Development of an Artificial Intelligence (AI) Action Plan (Docket No. NSF_FRDOC_0001)」の内容を基に作成されています。原文書は米国政府の要請に応じて作成された公開情報であり、詳細は原文をご参照ください。本資料では、Googleの政策提言を要約・整理していますが、内容の正確性を保証するものではありません。政策の詳細や具体的な実装については、原文書および関連する政府文書をご確認いただくことをお勧めいたします。なお、この要約は参考情報としてのみ提供されるものであり、米国政府またはGoogleの公式見解を代表するものではありません。

1. AIへの投資

1.1. 国内データセンターに必要なエネルギー政策の推進

AIのコンピューティング需要は急速に増加しており、これはエネルギー供給の新たな課題となっています。近い将来、エネルギー供給の不足がAIインフラ拡大の最大の制約になる可能性があります。AIモデルのトレーニングに必要な計算能力は歴史的に6ヶ月ごとに倍増しており、推論処理に必要な計算能力も今後数年で数桁増加すると予想されています。効率性の大幅な向上が見られるものの、AIの広範な採用により、電力需要は大幅に増加する可能性があります。予測によると、2024年から2026年にかけて、AIデータセンターの電力需要は世界的に約40GW増加するとされています。現在の米国のエネルギーインフラと許認可プロセスでは、これらの急増するニーズに対応できない可能性があります。

米国政府はデータセンターや、米国経済の成長を支える他のビジネスアプリケーションのためのエネルギー可用性を確保する政策を採用すべきです。これには、データセンターに十分な電力を確保するための送電網と許認可プロセスの改革と、先進的なエネルギー生成技術やグリッド強化技術への投資リスクを軽減するための連邦・州のツールの組み合わせが含まれます。新たな電力負荷増加に対応するための他の重要な施策には、電力システム計画の改善、既存インフラをより効率的に利用するための公益事業へのインセンティブ、地域電力網のより大きな統合、そしてエネルギーインフラを支える建設業における労働力開発が含まれます。

私たちは、AIの計算需要の増加に対応するためには、エネルギー政策の抜本的な見直しが不可欠であると考えています。エネルギー供給の拡大なしには、米国のAI開発の野心は深刻な制約に直面することになるでしょう。

1.2. バランスの取れた輸出管理政策の採用

輸出管理は国家安全保障を支援する上で重要な役割を果たしますが、それは米国企業の正当な市場アクセスを支援しながら、最も関連性の高いリスクを対象とするよう慎重に設計されている場合に限ります。前政権下で課された輸出規制(「AI拡散に関する暫定最終規則」を含む)は、米国のクラウドサービスプロバイダーに不均衡な負担を課すことで、現政権が設定した経済競争力の目標を損なう可能性があります。私たちは国家安全保障上の目標を支持していますが、その影響が逆効果である可能性を懸念しており、5月15日のコメント期限までにAI拡散規則についてより詳細な分析を提出する予定です。

政府は米国企業に過度な競争上の不利益をもたらさないよう、輸出管理を慎重に設計する必要があります。米国政府は産業安全保障局(BIS)に十分なリソースを提供し、近代化を進めるべきです。これには、サプライチェーンのモニタリングや密輸対策のための最先端AIツールの導入や、輸出ライセンスプロセスの合理化、ハードウェア輸出の制限を超えた広範なエコシステムの問題の検討などが含まれます。

効果的な執行には、世界的なコンプライアンスを最大化するための強固な国際的関与が必要です。そして、輸出管理は持続可能な競争優位を維持するための国内エネルギーおよびインフラ開発の積極的な戦略と組み合わされたときに最も効果的です。

私たちは、輸出管理が必要な国家安全保障上の懸念に対処しつつも、米国企業の国際競争力を維持するバランスの取れたアプローチが重要だと考えています。

1.3. AI研究開発の加速、研究者向け計算リソースへのアクセス簡素化、国立研究所との官民パートナーシップ促進

基礎的な国内研究開発とAI駆動型科学的発見への長期的かつ持続的な投資は、世界的なAIリーダーシップ競争において米国に重要な優位性をもたらしています。政策立案者はこれらの取り組みを大幅に強化すべきであり、初期市場の研究開発への資金配分の迅速化と、必須のコンピュート、高品質データセット、先進的AIモデルが科学者や研究機関に広く提供されることを重点的に進めるべきです。

参入障壁を下げることにより、米国の研究コミュニティがリソース獲得に苦労するのではなく、革新に焦点を当て続けることができます。政府はまた、物理科学や生命科学における最も重要な未解決の課題を特定し優先順位をつける投資を継続すべきです(連邦賞や競争などを通じて)。特に、AI駆動型アプローチが国家的関心の重要分野における科学的breakthrough(ブレークスルー)を促進する方法に焦点を当てるべきです。

政策立案者は、科学、サイバーセキュリティ、化学・生物・放射性・核(CBRN)リスクの研究を進めるために、国立研究所とのパートナーシップをさらに奨励するよう迅速に行動すべきです。米国政府は、国家安全保障機関とそのパートナーが商用の非機密ストレージおよびコンピュート機能を利用しやすくし、商用トレーニングに役立つ政府データセットの公開に向けた措置を講じるべきです。

私たちは、研究者と政府機関の連携強化が、次世代AIイノベーションと科学的発見の促進に不可欠だと考えています。特に、国家的重要性を持つ課題解決のために、官民の専門知識と資源を結集することが重要です。

1.4. AIのための革新支持型連邦枠組みの構築

1.4.1. 特にフロンティアAI開発において州レベルの法律の寄せ集めを防ぐ連邦法の支援

米国がAIの開発を遅らせるような断片化した規制環境を避けるためには、政府の取り組みが必要です。特にフロンティアAIモデルに影響を与える州レベルの法律の連邦法による先制を支持することが重要です。このような行動は適切に連邦の特権であり、国家安全保障を保護しながら米国のAIイノベーションが繁栄できる環境を確保するための、フロンティアAIモデルに関する統一された国家的枠組みを保証することになります。

同様に、政府はプライバシーに関する国家的アプローチを支持すべきです。州レベルでの断片化により企業のコンプライアンスに関する不確実性が生まれ、AIやその他の分野におけるイノベーションを遅らせる可能性があります。統一された連邦レベルのフレームワークは、企業がAI開発において明確な指針に従うことを可能にし、各州で異なる規制要件に対応するための時間とリソースを節約することができます。

私たちは、フロンティアAI開発の国家的重要性を考慮すると、この分野は州ごとの規制アプローチよりも連邦レベルでの一貫した方針が適切だと考えています。これにより、国家安全保障の懸念に対処しながら、米国のAI企業が国際競争力を維持し、イノベーションを継続することが可能になります。

1.4.2. 公正な学習を可能にする公開データへの産業界のアクセス確保

法律の三つの分野が、主要なモデルのトレーニングに必要なデータへの適切なアクセスを妨げる可能性があります:著作権、プライバシー、そして特許です。

著作権に関しては、フェアユースやテキスト・データマイニングの例外などのバランスの取れた著作権ルールが、AIシステムが過去の知識や公開データから学習し、科学的・社会的進歩を促進するために不可欠です。これらの例外により、著作権で保護された公開資料を権利所有者に大きな影響を与えずにAIトレーニングに使用することが可能になり、モデル開発や科学的実験中の予測不可能で不均衡、かつ長期にわたるデータ所有者との交渉を避けることができます。バランスの取れた著作権法は、例えば公開されている科学論文へのアクセスを確保することで、科学におけるAIの加速に不可欠です。特に、科学文献から洞察や新しい仮説を求めるアプリケーションにとって重要です。

プライバシーに関しては、公開情報の例外を認めるバランスの取れたプライバシー法は、AIや著作権基準との意図しない衝突や、AIシステム開発のその他の障害を避けるのに役立ちます。連邦のプライバシー規制フレームワークは、個人を特定するデータとは異なる扱いをする公開データや匿名データのカテゴリーを定義すべきです。連邦規制は、悪意のある行為者からアメリカ人のデータを保護するためのAI駆動型のプライバシー強化技術の使用も奨励できます。

特許に関しては、政府は誤って付与されたAI特許の効率的な審査を可能にするため、米国特許商標庁のインターパーティーレビュープログラムへのアクセスを改善・維持すべきです。近年、米国ではAI特許が急増しており、その多くはGoogleなどの米国企業が保有していますが、中国を含む米国外の企業が保有する特許の割合が増加しています。昨年、中国の米国特許取得は他のどの国よりも30%以上増加しました。特許商標庁に提出される特許出願の増加と審査に使える時間の制限により、ミスは避けられません。あるいくつかの研究によると、ソフトウェア関連技術については、その機関のエラー率は約40%に達する可能性があります。

初期のコンピュータやインターネットの台頭により、従来の機能を単に「コンピュータ上で」または「インターネット経由で」実行する特許出願が殺到しました。「AIで」実行される機能にも同様の現象を避けるために、企業はインターパーティーレビュープロセスを通じて(法定の高いハードルが満たされた場合に)特許の有効性の評価を要請できる必要があります。機関は単に機関が開発した裁量(Fintivケースなど)に基づいて正当な要請を拒否すべきではなく、ユーザー料金で資金提供されている特許審判部の継続的なスタッフ配置が必要です。そうしなければ、誤って付与された特許が外国企業によって米国のAIイノベーションを阻止し、ボトルネックを作り出すために使用され、研究開発から時間とリソースを奪い、非常に機密性の高い技術情報をディスカバリーに晒す可能性があります。

私たちは、バランスの取れた著作権とプライバシー法が公開データへのアクセスを保証し、特許制度が誤って付与されたAI特許を効率的に見直せるようにすることで、米国のAIイノベーションが繁栄できる環境を整えることができると考えています。

1.4.3. 焦点を絞った部門別のリスクベースのAIガバナンスと標準の強調

AIアプリケーションに対するあらゆる規制は、関連するリスクに比例したものであるべきです。規制の時期や内容を決定するには、文脈とAIが使用される特定の領域における独自の課題と機会の認識が必要です。自動修正機能は、救急救命室で使用されるヘルスケアアプリケーションと同じリスク(または利点)をもたらすわけではありません。AIの文脈依存的な影響を考慮するために、政府の規制は特定のアプリケーションに焦点を当て、既存の部門別規則に基づいて構築し、実証的に必要な場合にのみ直接介入すべきです。

コンセンサスに基づく技術標準とプロトコルも重要な役割を果たします。基本的に、規制は認知された標準に沿ったものであるべきであり、標準や推奨慣行の開発を支援すべきです。多くの場合、法律や政策で特定の用語や閾値を定義するよりも、標準を確立する方が技術の最新状態により適応しやすいため、より適切です。例えば、標準とプロトコルは、プライバシー強化技術が責任をもって実装され、あらゆる種類や規模の企業がアクセスできる方法で実施されることを確保し、ベンチマークを実現し、信頼を構築し、アメリカ人とそのデータを保護するのに役立ちます。

私たちは、AIガバナンスは一律のアプローチではなく、具体的なアプリケーションとそれに伴うリスクに焦点を当てたものであるべきだと考えています。特定の用途のリスクに合わせた効果的な介入は、イノベーションを阻害することなく、重要な保護措置を確保することができます。

1.4.4. AIスキル開発と米国企業がトップAI人材を採用・維持するためのワークフォースイニシアチブの支援

AIは将来の仕事の重要な変化に貢献する可能性があります。AIツールの使用は比較的簡単に学ぶことができ(多くの場合、ツール自体がユーザーに使用方法を教えることができるため)、ツールは最もスキルが低い人々に最も恩恵をもたらすことが多いのですが、AIツールの進化と展開には、すべての学生と労働者に基本的なAIスキルを提供するための生涯教育アプローチが必要かもしれません。

この時期は、AIが米国の教育と専門能力開発システムの中核的な要素として統合される機会を提供しています。政府と関係機関には、技術的なスキル習得とキャリアサポートプログラム(K-12 STEM教育や労働者の再訓練への投資を含む)が米国のコミュニティに広くアクセス可能であることを確保し、復元力のある労働力を確保する機会があります。

ワークフォースの訓練と開発に加えて、米国企業がグローバルなトップAI人材やエキスパートにアクセスし、維持する能力は不可欠であり、既知の課題となっています。実行可能な場合、米国の機関はAI開発、ロボティクスと自動化、量子コンピューティングなどのAI関連スキルを必要とする職業における専門家の採用と維持を促進するために、既存の移民当局を活用すべきです。

私たちは、AI人材の開発と確保が、米国がグローバルAIリーダーシップを維持するための基礎であると考えています。国内の教育と訓練プログラムを強化するとともに、世界中から最高の才能を引き付け、維持するための移民政策を柔軟に適応させることが重要です。

2. 政府のAI導入の加速と近代化

2.1. 相互運用可能なマルチベンダーAIソリューションの実装

公共部門組織がクラウドコンピューティングとAIの可能性を最大限に活用するためには、革新を促進し、納税者の価値を確保し、競争的でオープンな市場を推進する効果的な公共調達ルールが必要です。米国政府(防衛・情報機関コミュニティを含む)は、クラウドソリューション間の相互運用性とデータポータビリティの改善を追求すべきです。また、AIとクラウドソリューションのより迅速な採用を可能にするために、時代遅れの認定、認可、調達慣行を合理化する必要があります。

さらに、政府はマシンリーダブルな文書やデータのより広範な採用によるデジタル変革を加速すべきです。既存の契約プロセスを商業的調達慣行に合わせて近代化することも奨励されます。連邦政府は、新興技術の調達を近代化しながら、安全でないレガシーベンダーへの依存を減らす機会を活用できます。

具体的な措置としては、(1)業界承認の認証の相互認証と調和、(2)重複作業を防ぐための既存の認可と関連資料の再利用の義務付け、(3)高度な脅威検出への投資の促進、(4)自動化された継続的なモニタリング方法論の導入、(5)オープンで市場ベースの競争の優先化が挙げられます。連邦機関は、AIコンポーネントを含むシステムに独自のコンプライアンスや調達要件を実装することを避けるべきです。必要な場合、機関固有のガイドラインは調達目的のためのAI展開に関連する独自のリスクや懸念事項に焦点を当てるべきです。

米国の政策立案者は、テクニカルスタック全体を通じて相互運用性を義務付け、反競争的なライセンスおよびバンドリング慣行と戦う政策も検討すべきです。こうした取り組みは、既知の集中リスクがあるレガシー技術によって政府システムが妨げられないようにするのに役立ちます。こうしたレガシーシステムの多くは容認できない国家安全保障リスクをもたらし、納税者により多くのコストをかけています。

また、すべての政府クラウド展開にわたってオープンで非独占的なデータ標準とAPIを義務付け、シームレスな相互運用性とデータポータビリティを確保してサイロを解消し、AIによる洞察を可能にすることも政策立案者に推奨されます。現在の認定と調達の迷宮は、商業部門のベストプラクティスからインスピレーションを得た、よりアジャイルでリスクベースの認可プロセスに置き換えられるべきです。これにより、スピードが向上し、フロンティアAIとクラウドソリューションの採用が加速されます。

科学技術政策局(OSTP)と行政管理予算局(OMB)は、連邦リスク認可管理プログラム(FedRAMP)に基づくクラウドサービス(AIを含む)のより合理化され、自動化され、レスポンシブな認可プロセスを詳述するガイダンスを発行することができます。また、機関とそのコンポーネント間のより大きな相互認証を促進する政策や、連邦機関に変革的な影響を与える可能性のあるAIサービスへのより迅速な認可へのアプローチの刷新も必要です。

2.2. 新技術の調達プロセスの合理化

連邦政府がAIとクラウドコンピューティングの可能性を最大限に活用するためには、調達プロセスの近代化が不可欠です。現状では、AIを含む新技術の導入と展開を妨げている、時代遅れの認証・認可プロセスが大きな障壁となっています。

政府は特に、国家安全保障機関とそのパートナーが商業的な非機密ストレージおよび計算能力を容易に利用できるようにするべきです。また、商業トレーニングに役立つ政府データセットの公開も推進すべきです。この取り組みには、機関間イニシアチブの強化と追加リソースの提供が含まれ、特に国務省や商務省によって実施される米国のデジタル製品・サービス(AIを含む)の輸出を促進するための取り組みが重要です。

また、政策立案者は重要インフラとサイバーセキュリティを保護するための対策も検討すべきであり、これには民間セクターとの連携が不可欠です。例えば、国防高等研究計画局(DARPA)のAIサイバーチャレンジや共同研究開発活動を基にしたパイロットプロジェクトは、データセンターセキュリティ、チップセキュリティ、機密計算などの分野でのブレークスルーの開発に役立ちます。また、業界との脅威情報共有を拡大することで、AIに対するセキュリティ脅威と脅威アクターによるAIの使用の両方を特定し、阻止することができます。

政府のAI調達改革には、以下の具体的な措置が含まれるべきです:

  1. 国家安全保障ユースケースに対するマルチクラウド・マルチモデルアプローチの実装継続。これにより、機関、ミッション所有者、ユースケースに最も適したインフラストラクチャとモデルを一致させることができます。
  2. AIの使用制限、高影響およびフェデラル人事に影響を与えるAI使用のための最小限のリスク管理慣行、国家安全保障コンテキストにおけるAI使用のカタログ化とモニタリングをカバーする既存のリスク管理ガイドラインの維持。

これらの措置によって、政府は技術革新のペースに追いつき、AIの潜在的な利益を最大限に活用するための基盤を整えることができます。同時に、セキュリティ、効率性、説明責任の高い標準を維持することも可能になるでしょう。

2.3. 連邦リスク承認管理プログラム(FedRAMP)の改善

連邦リスク承認管理プログラム(FedRAMP)は、クラウドサービスの政府調達における重要な枠組みですが、現在の状態ではAIソリューションの迅速な導入を妨げる要因となっています。科学技術政策局(OSTP)と行政管理予算局(OMB)は、より合理化され、自動化され、レスポンシブなFedRAMPの認可プロセスを詳述するガイダンスを発行すべきです。

具体的には、AIを含むクラウドサービスの認可プロセスを効率化し、連邦機関とそのコンポーネント間でより大きな相互認証を促進する政策が必要です。現在の認定と調達の複雑なプロセスは、商業部門のベストプラクティスを取り入れた、よりアジャイルでリスクベースの認可アプローチに置き換えられるべきです。これにより、フロンティアAIとクラウドソリューションの採用が加速されるでしょう。

また、連邦機関に変革的な影響を与える可能性のあるAIサービスに対して、より迅速な認可へのアプローチも必要です。FedRAMPの改善には、以下の要素が含まれるべきです:

  1. 業界承認の認証の相互認証と調和の確立
  2. 重複作業を防ぐための既存の認可と関連資料の再利用の義務付け
  3. 高度な脅威検出への投資の促進
  4. 自動化された継続的なモニタリング方法論の導入

これらの改善により、政府機関はAIの潜在的な価値を迅速に活用しながらも、セキュリティと規制遵守の高い標準を維持することができます。また、これらの改革は、政府のデジタル変革を加速し、より効率的で費用対効果の高い公共サービスの提供を可能にするでしょう。

2.4. 重要インフラとサイバーセキュリティの保護

政策立案者は、重要インフラとサイバーセキュリティを保護するための対策を検討すべきであり、これには民間セクターとの連携が不可欠です。AI技術の進化に伴い、インフラの保護とサイバーセキュリティの確保は国家安全保障の観点からも重要性を増しています。

具体的には、国防高等研究計画局(DARPA)のAIサイバーチャレンジを基にしたパイロットプロジェクトや共同研究開発活動を推進すべきです。これらの取り組みは、データセンターセキュリティ、チップセキュリティ、機密計算など重要な分野でのブレークスルーの開発に役立ちます。また、業界との脅威情報共有を拡大することで、AIに対するセキュリティ脅威と脅威アクターによるAIの使用の両方を特定し、阻止することが可能になります。

政府は、AI技術を活用したプライバシー強化技術の使用を奨励する連邦規制を導入することも検討すべきです。これにより、アメリカ国民のデータを悪意のある行為者から保護する一助となります。バランスのとれたプライバシー法は、AIやその他の技術開発の妨げとなるような不要な制約を課すことなく、個人情報を適切に保護する枠組みを提供します。

また、国家安全保障ユースケースに対するマルチクラウド・マルチモデルアプローチの継続的な実装も重要です。このアプローチにより、機関、ミッション所有者、ユースケースに最も適したインフラストラクチャとモデルを一致させることができます。同時に、AIの使用制限、高影響およびフェデラル人事に影響を与えるAI使用のための最小限のリスク管理慣行、国家安全保障コンテキストにおけるAI使用のカタログ化とモニタリングをカバーする既存のリスク管理ガイドラインも維持すべきです。

これらの措置によって、AIの革新的な可能性を活用しながらも、国家の重要インフラとデジタル資産を確実に保護することができるでしょう。

2.5. 国家安全保障のためのマルチクラウド・マルチモデルアプローチの継続

政府は国家安全保障のユースケースにおいて、マルチクラウド・マルチモデルアプローチの実装を継続することが推奨されます。このアプローチは、機関、ミッション所有者、そして具体的なユースケースに最も適したインフラストラクチャとAIモデルを適切に一致させることを可能にします。

国家安全保障分野では、単一のクラウドプロバイダーやAIモデルに依存することはリスクを高める可能性があります。マルチクラウド・マルチモデル戦略を採用することで、政府は冗長性を確保し、特定のプロバイダーやテクノロジーに対する過度の依存を回避できます。また、この戦略により、各ミッションの特定の要件に最も適したソリューションを選択する柔軟性も得られます。

さらに、AIの使用制限、高影響およびフェデラル人事に影響を与えるAI使用のための最小限のリスク管理慣行、国家安全保障コンテキストにおけるAI使用のカタログ化とモニタリングをカバーする既存のリスク管理ガイドラインの維持も重要です。これらのガイドラインは、機密性の高い国家安全保障環境におけるAIの責任ある使用を確保するための重要な枠組みを提供します。

このマルチクラウド・マルチモデルアプローチは、最先端のAI技術を活用しながらも、国家安全保障のニーズに対応する堅牢で安全なインフラストラクチャを確保するための基盤となります。また、このアプローチは技術の進化に伴い、新しいソリューションを迅速に統合する能力も提供します。

3. 国際的な革新支持アプローチの推進

3.1. 市場主導型で広く採用されている技術標準の支持

国内外でAI技術の幅広い採用を推進するためには、アメリカの価値観と利益を反映した一貫性のある、整合性のとれた相互運用可能なフレームワークと規範を確立することが不可欠です。米国政府によるアメリカの価値観に基づく標準への強力な支援は、外国政府が保護主義的な要件を課すことを防ぐのに役立ちます。例えば、市場参入のために重複した事前展開テストを要求するなど、イノベーションを阻害する可能性のある要件を抑制できます。

特に商務省と国立標準技術研究所(NIST)には、標準と重要なフロンティアセキュリティ作業への取り組みを継続することが奨励されます。ISO 42001などの既存の国際的に認知された標準に政策を合わせることで、業界全体での一貫性と予測可能性を確保するのに役立ちます。

同時に、フロンティアAI能力の急速な進歩(人工一般知能に向けた進展を含む)は、アメリカのリーダーシップと国家安全保障を確保するための連邦政府による新たな取り組みの必要性を浮き彫りにしています。最も高度なフロンティアAIシステムについては、政府は国家安全保障リスクを引き起こす可能性のある能力を特定し、業界と協力して標準化された業界プロトコル、安全なデータ共有、標準、セーフガードを開発・促進するべきです。

政府が、国家安全保障、CBRN(化学・生物・放射線・核)問題、サイバーセキュリティ脅威など、独自の専門知識を持つ分野でフロンティアモデルの能力を評価する能力を開発・維持することは特に価値があります。商務省とNISTは以下をリードできます:

  1. 主要なAIリスクに対する自主的な技術評価の作成
  2. 責任あるスケーリングとセキュリティプロトコルのためのガイドラインの開発
  3. 安全性ベンチマークと緩和策(改ざん防止など)の研究開発
  4. 民間セクターAI評価エコシステムの構築支援

このような国内アプローチを基盤として、米国政府は連携国と協力して高度なモデル能力に必要な国際標準を開発し、リスクしきい値と適切なセキュリティプロトコルに関するグローバルな整合性を促進すべきです。これには「ホーム政府」テストという国際規範の普及が含まれます。これは、国家安全保障上重要な能力を持つAIのプロバイダーが、狭く対象を絞った科学的に厳格な評価においてホーム政府との協力を実証できるようにするものです。これにより「一度テストすれば、どこでも実行できる」という保証が提供されます。相互認証の取り決めにより、他の国々は追加の政府評価を必要とせずに、ホーム政府の評価を認め、受け入れることができます。

3.2. AIエコシステムの各主体の明確な責任分化

高リスクAIシステムに関して政府が特定の法的義務を課す場合、AI開発者、デプロイヤー(展開者)、エンドユーザーの役割と責任を明確に区別すべきです。AIライフサイクルの特定のステップに対して最も制御力を持つ主体が、そのステップに対する責任(および関連する法的責任)を負うべきという原則を採用すべきです。

多くの場合、AIモデルの元の開発者は、デプロイヤーによる使用方法についてほとんど、あるいはまったく可視性や制御力を持たず、エンドユーザーとやり取りしない可能性があります。開発者がモデルを直接デプロイヤーに提供する場合でも、デプロイヤーはダウンストリームでの使用リスクを理解し、効果的なリスク管理を実施し、市場導入後のモニタリングとロギングを行うのに最適な立場にあることが多いです。

また、開発者は顧客やエンドユーザーによる誤用に対する責任を負うべきではありません。むしろ、開発者はデプロイヤーに対して、モデルのトレーニング方法や人間による監視のメカニズムなどの情報や文書を提供し、デプロイヤーが規制要件を遵守できるようにすべきです。

この責任の明確な区分は、イノベーションを促進しながらも、AIシステムの展開における適切なリスク管理と監視を確保するために不可欠です。各主体の責任を明確に定義することで、AIエコシステム全体の健全な発展と、AIシステムの安全で責任ある使用が促進されます。

3.3. 過度な開示要件の回避

政策立案者は、デプロイヤーとエンドユーザーに関連情報を確実に提供するために、国内および国際的な場でモデルカードや技術レポート(すでに業界の規範となっています)の使用を促進することを検討すべきです。しかし、米国政府は、企業秘密の開示を要求したり、競合他社に製品の複製を可能にしたり、保護策を回避する方法や脱獄方法に関するロードマップを敵対者に提供することで国家安全保障を損なうような義務的開示に反対すべきです。

EUやその他の国で検討されている過度に広範な開示要件は、公共の利益をほとんど提供せず、セキュリティとイノベーションの両方を損なう可能性があります。特に、AIモデルのトレーニング方法に関する技術的詳細や、実装されたセキュリティ対策に関する詳細情報の開示を義務付けると、競合他社による知的財産の不適切な利用や、悪意のある行為者によるシステムの悪用を招く恐れがあります。

代わりに、業界の自主的な透明性イニシアチブを支援し、特定のユースケースやリスクレベルに合わせた情報開示アプローチを促進すべきです。このバランスのとれたアプローチにより、イノベーションを抑制することなく、デプロイヤーやエンドユーザーが十分な情報に基づいた決定を下せるようになります。

さらに、AIシステムに関するコミュニケーションでは、特定の技術的詳細を開示せずとも、潜在的なリスクや限界についての一般的な情報を提供することで、十分な透明性を確保できる場合が多いです。この方法であれば、知的財産を保護しながらも、ユーザーは情報に基づいた選択を行うことができます。

3.4. 適切な状況でのAI生成コンテンツの通知

米国政府は、合成メディアの開示に関する発展中のマルチステークホルダー標準とベストプラクティスの更なる開発と広範な採用を支援すべきです。これには、C2PAプロトコル、GoogleのSynthIDウォーターマーキングなどの業界をリードするウォーターマーキング技術、およびその他のウォーターマーキング/出所証明技術の使用が含まれます。また、ウォーターマークを適用するタイミングや、ユーザーがAI生成コンテンツとやり取りしていることを通知するタイミングに関するベストプラクティスも含まれるべきです。

同時に、政府はこうしたソリューションの限界を理解する必要があります。例えば、情報を削除するために動機付けられた行為者がこの情報を除去できる程度や、AIエコシステムのすべての関係者の協力がこの問題で進展するために必要であることなどの制約があります。

効果的なAI生成コンテンツの通知システムには、技術的ソリューションと政策フレームワークの両方が必要です。技術的には、デジタルコンテンツの真正性を確認する堅牢な方法が必要ですが、同時に、生成AIツールの正当な使用を妨げないようなバランスの取れたアプローチも必要です。

また、特定の状況では通知が重要である一方、他の状況ではそれほど重要でない場合もあることを認識することも重要です。例えば、ニュース記事やドキュメンタリーなどの事実に基づくコンテンツでは、AIが生成したコンテンツの明確な表示が重要ですが、創造的または娯楽的なコンテンツでは、異なる基準が適用される可能性があります。

このように、バランスのとれた柔軟なアプローチを採用することで、透明性と信頼性を促進しながらも、AIによるイノベーションを不必要に制限しないようにすることができます。

3.5. 米国企業とイノベーションを妨げる制限的な外国のAI障壁への対抗

外国の規制体制は、AIテクノロジーの発展を抑制するのではなく、むしろそれを促進すべきです。政府は一般的に、基盤となるAIモデルやAIイノベーションの開発に対して規制上のチェックポイントを課すべきではありません。一部の政府は、主に米国企業に影響を与えるような形で、AIの開発と展開に過度な官僚的負担を課そうとしています。

米国政府は、AIガバナンスの取り組みとベストプラクティスを強化するうえで重要な役割を果たしており、イノベーションに友好的なアプローチを支援し、外国政府と関わることで、米国企業や現地企業によるAI開発と展開を制限する措置を課す取り組みを抑制すべきです。例えば、科学技術政策局(OSTP)やその他の連邦関係者は、米国のデジタル製品やサービス(米国のAIを含む)の輸出を促進する省庁間イニシアチブ(国務省や商務省によって実施されるものを含む)の強化と追加リソースの提供を検討できます。

また、米国はOECD(経済協力開発機構)やその他のフォーラムにおいて、米国の価値観やアプローチを反映した国際的なAIフレームワークを提唱すべきです。これにより、グローバルなAI開発において、イノベーションを促進しながらも責任ある開発を確保する共通の基盤を構築することができます。

米国政府はまた、新興のAIガバナンスフレームワークが、米国企業に不当な規制上の負担を課したり、差別的な効果を持ったりすることがないよう、積極的に働きかけるべきです。このためには、デジタル貿易協定や規制協力メカニズムなど、国際的な経済協力のためのツールを活用することが重要です。

最終的に、グローバルなデジタル経済におけるAIの責任ある開発と活用を促進するためには、国境を越えたデータの流れや公正な市場アクセスを確保するための国際的な取り組みが必要です。米国はこの分野でリーダーシップを発揮し、グローバルなAIイノベーションのための環境づくりを主導すべきです。