Logo
  • HOME
  • お知らせ
  • 会社概要
  • サービス
  • 技術デモ
  • 技術調査
  • 行政調査
  • AI利用調査
  • AI倫理調査
  • 特別調査
お問い合わせ
株式会社自動処理
2025-01-08 AIサービス利用における法的リスクレビューと実務ガイド(プロ向け)

2025-01-08 AIサービス利用における法的リスクレビューと実務ガイド(プロ向け)

出展元
https://note.com/automationjp/n/n141bae151b3d
初回調査日
Jan 8, 2025 8:29 AM
キーワード
AI法務リスク個人情報保護企業コンプライアンス利用規約プライバシーポリシー契約管理

本レポートは日本の企業法務の視点から作成しており、文中に引用した出典(例:各サービスの利用規約やプライバシーポリシー)については、いずれも本レポート作成時点(2025年1月時点)で公表されている最新情報をもとにまとめています。なお、実際に利用をご検討される際には、当該サービスの最新版規約・プライバシーポリシーを必ずご確認ください。

本ガイドは以下の概要をプロ向けに詳細化し、社内導入の詳細な判断を行うために分析したものです。但し、本ドキュメントはあくまで専門家のレビューを元にした1意見であるため、自社判断する前には法務確認の上ご利用ください。

2025-01-07 AIサービス利用における法的リスクレビューと実務ガイド(概要)

この記事をご購入いただけた方には、内容についての質問などフォローアップ可能ですので、気軽にXまでDMください。

高木 祐介(takagi yuusuke)@株式会社自動処理 on Twitter / X

昨日の概要資料を基にプロ用にもっと細かく整理した資料を作成しました。このポストをリポストしてくれたら、6割引きで購入できます。2025-01-08 AIサービス利用における法的リスクレビューと実務ガイド(プロ向け) | 株式会社自動処理 @tiger57479976 #note https://t.co/173bfjDgdm— 高木 祐介(takagi yuusuke)@株式会社自動処理 (@tiger57479976) January 8, 2025

x.com

  • 第1章 総論:AI利用の基本的リスクと背景
  • 1.1 AIサービス利用の概観
  • 1.1.1 生成系AIサービスの台頭とビジネス活用
  • 1.1.2 法務リスクの特性
  • 1.2 日米企業が直面する共通的法的リスク
  • 1.2.1 個人情報保護法制への対応
  • 1.2.2 業種別リスク(医療・法務・金融など)
  • 1.2.3 知的財産保護と競合リスク
  • 1.3 本レポートの読み方・注意点
  • 1.3.1 レポート構成の概要
  • 1.3.2 出典と参照先の留意
  • 1.3.3 本章のまとめ
  • 第2章 データ管理に関するリスク
  • 2.1 データ保存場所と越境移転
  • 2.1.1 サーバー所在地の実態(OpenAI, Anthropic, Google, DeepSeek比較)
  • (1) OpenAI
  • (2) Anthropic
  • (3) Google (Gemini, Workspace)
  • (4) DeepSeek
  • 2.1.2 個人情報保護法・GDPR・中国個人情報保護法などとの関係

第1章 総論:AI利用の基本的リスクと背景

1.1 AIサービス利用の概観

1.1.1 生成系AIサービスの台頭とビジネス活用

近年、大規模言語モデル(LLM: Large Language Model)に代表される生成系AIが急速に普及し、企業が業務に導入するケースが増えています。たとえば、米国のOpenAIが提供する「ChatGPT」や「GPT-4」、Anthropicの「Claude」、Googleの「Gemini API / Gemini Apps」などが典型例です。また中国のDeepSeek等、新興企業のAIサービスも市場に参入しており、グローバルで競争が激化しています。

企業がこうしたAIサービスを活用する目的としては、文章生成や要約の自動化、カスタマーサポートの効率化、プログラミング支援、データ分析補助など多岐にわたります。世界的な生成AIブームの中で、企業が早期に活用し、競争力を高めたいという意図が強まっているのが現状です。

一方、生成系AIはその特性上、ユーザーの入力データ(プロンプト)とAIが出力する生成データ(出力物)をいかに安全・適切に扱うかが大きな課題となります。多くのベンダーは利用規約(Terms of Use)やプライバシーポリシーでこれらの取り扱いを定義し、ユーザー(企業)に対してさまざまな利用制限や責任制限を設けています。

1.1.2 法務リスクの特性

AIサービス全般に共通する法務リスクとしては、以下の点が挙げられます。

  1. 個人情報・機密情報の漏洩リスク AIサービスに企業内部の文章や個人情報を入力することで、データが外部サーバーに蓄積・学習される可能性がある。各社規約で「学習目的の再利用」が認められる場合、機密情報がAIモデルに吸収され、意図せずに第三者がそれらの内容を再構築できてしまうリスクがある。
  2. 知的財産権侵害リスク ユーザーがアップロードした資料や、AIが生成したコンテンツに第三者の著作権、商標、特許等を含むケースがある。企業がこのコンテンツを二次利用する際、権利侵害が生じる場合もある。
  3. AI出力の正確性・品質に関するリスク AIの特性上、出力に誤情報や誤解を招く要素が含まれやすい。特に医療・法務・金融などの分野では、誤出力による重大な損害賠償リスクが懸念される。
  4. 海外法規制との関係 AIサービスを提供する企業の本拠地が米国や中国など海外にある場合、各国の個人情報保護法やデータ輸出入規制との整合性を確保しなければならない。また、制裁対象国との取引や軍事転用、暗号化技術に関連する輸出管理法規制(米国のEAR/ITARなど)も検討が必要。
  5. 契約・規約への一方的な変更権 多くのAIサービスは「規約を随時変更する権利を有する」旨を定めており、機能追加や料金プランの変更を事後的に通知する場合が多い。企業としては最新の利用規約を継続監視して、オプトアウトや解約などを適切に判断する必要がある。

1.2 日米企業が直面する共通的法的リスク

1.2.1 個人情報保護法制への対応

日本においては「個人情報保護法(改正個人情報保護法含む)」、米国においては連邦レベルでは明確な包括法がないものの州法(CCPAなど)やFTCガイドラインの影響、加えてGDPRを準拠法とするEUとの取引状況がある場合はEUの規制も考慮が必要です。

  • 個人情報の取得・海外移転 OpenAIやAnthropicのような米国企業、DeepSeekのような中国企業が提供するサービスでは、ユーザーデータが海外サーバーに送信されることが多い。これにより、「個人情報の海外移転(越境移転)」に関する法的義務(たとえば日本のAPPI第24条、EU GDPR第44条など)をクリアする必要がある。
  • プライバシーポリシーや利用規約での説明義務 企業は社内でAIサービスを導入する場合、従業員や顧客データをAIに入力することになるため、その際にどのようにデータが扱われるかを利用規約から読み取り、社内外に対して必要な説明を行うことが求められる。

1.2.2 業種別リスク(医療・法務・金融など)

医療機関が患者情報を入力すれば、違反となる可能性や、個人情報保護法だけでなく、HIPAA(米国医療分野の法規制)等の国際規範の問題が発生する。金融機関はFISC安全対策基準なども考慮する必要がある。法務の場合、機密情報(弁護士秘密など)の第三者送信リスクが発生する。

  • OpenAIは利用規約上、医療や法的助言への利用は推奨しないとしており、責任は利用者が負う形をとっている(OpenAI Terms of Use 参照)。
  • Anthropicも高リスク分野での使用を禁止または制限しており、利用者は自己責任で対応せざるを得ない(Anthropic Usage Policy 参照)。
  • Googleの場合、GeminiやVertex AIなどで高度な機能を提供しているが、医療目的での使用に対しては特に強い免責を設けている(Google Terms of Service “Disclaimer of Warranties” 参照)。
  • DeepSeekについては、中国国内法令(PIPLなど)の影響や規約での使用制限により、医療・金融分野での利用にさらに制限がある可能性が示唆される(DeepSeek Terms of Use など参照)。

1.2.3 知的財産保護と競合リスク

生成AIの特性上、出力された文章や画像、プログラムコードなどに対して、第三者が著作権を保有している要素が混入する場合がある。これが「AIによる著作権侵害」の懸念を生み、実際に著作権保有者が権利主張を行うケースが海外で散見されています。

さらに、企業が独自のノウハウやソースコードをAIに入力した場合、学習データとして利用されるリスクがある(後述3.3節でも議論)。多くの利用規約では「モデルを改善するためにユーザーデータを再利用する権利」をサービス提供者が留保しており、自社の競合が同じAIから似通った出力を得ることも排除できません。

  • OpenAIの無償プランでは、基本的にユーザーが入力したデータを学習に利用できる旨が明記されている(OpenAI Privacy Policy “User Content” 参照)。Enterpriseプランではオプトアウト等が可能だが、追加費用が大きい。
  • Anthropicの商用プランも、入力データの扱いに関して「学習への利用を最小限に抑える」設定を提供するが、厳密にどこまでデータを利用しないかは規約や個別契約(DPA)に依存する。
  • GoogleのGemini API有償プランでは、デフォルトで「ユーザーの学習データとして再利用は行わない」とされるが、別途ログ収集は行い、一定期間保管される(Google Gemini API Additional Terms of Service 参照)。
  • DeepSeekは無償プラン・有償プランいずれにおいても、ユーザー入力情報を研究開発に利用する旨を「プライバシーポリシー」で比較的包括的に定義している(DeepSeek Privacy Policy 等参照)。

1.3 本レポートの読み方・注意点

1.3.1 レポート構成の概要

本レポートでは、第2章以降で「データ管理に関するリスク」「知的財産と機密情報の保護」「サービス提供に関する条件」「法的リスクと責任範囲」「リスク低減に向けた提言」という流れで、各社規約に基づく具体的な規定の比較と、そのリスク分析を行います。

  • データ管理に関するリスク(第2章) 「データの保存場所」「入出力データの利用と保持」「セキュリティ規定」に焦点を当て、日本企業・米国企業が実務で気をつけるポイントを整理します。
  • 知的財産と機密情報の保護(第3章) 入力したデータや生成されたデータの著作権・商標権などの問題、また機密情報をAIに入力した場合の扱い、学習利用に関する規約の読み方を深堀りします。
  • サービス提供に関する条件(第4章) SLAやサポート体制、サービス変更・終了、補償や免責条項など、企業が契約締結の際に確認すべき点を比較検討します。
  • 法的リスクと責任範囲(第5章) 準拠法・管轄、責任制限、禁止事項(Export Control含む)といった、万一のトラブル発生時の重要条項をまとめます。
  • リスク低減に向けた提言(第6章) 実際に企業で導入するにあたり、契約面および運用面でどのような対策を講じるべきかを提示し、さらに最終的な判断指針を示します。

1.3.2 出典と参照先の留意

本レポートでは、各サービスの利用規約からの引用を「2025年1月時点で確認できる情報」として示しています。しかし、AIサービスは頻繁に規約を変更する特徴があり、最終的には各公式サイトを直接確認し、最新バージョンとの相違を精査する必要があります。

  1. OpenAI
    • Terms of Use: https://openai.com/policies/terms-of-use
    • Privacy Policy: https://openai.com/policies/privacy-policy
    • Usage Policies: https://openai.com/policies/usage-policies
    • Enterprise Plan (ChatGPT Enterprise): https://openai.com/blog/introducing-chatgpt-enterprise
  2. Anthropic
    • Consumer Terms of Service (Claudeなど): https://www.anthropic.com/legal/consumer-terms
    • Commercial Terms of Service: https://www.anthropic.com/legal/commercial-terms
    • Privacy Policy: https://www.anthropic.com/legal/privacy
    • Usage Policy: https://www.anthropic.com/legal/aup
  3. Google
    • Google APIs Terms of Service: https://developers.google.com/terms
    • Google API Services User Data Policy: https://developers.google.com/terms/api-services-user-data-policy
    • Gemini API Additional Terms of Service: https://ai.google.dev/gemini-api/terms
    • Google Workspace Terms of Service: https://workspace.google.com/terms/premier_terms/
    • Google Workspace SLA: https://workspace.google.com/terms/sla/
    • Google Privacy Policy: https://policies.google.com/privacy
  4. DeepSeek
    • DeepSeek Terms of Use : https://chat.deepseek.com/downloads/DeepSeek%20User%20Agreement.html
    • DeepSeek Privacy Policy : https://chat.deepseek.com/downloads/DeepSeek%20Privacy%20Policy.html

なお、DeepSeekは中国企業であるとされるため、日本や米国企業が利用する場合には、中国個人情報保護法(PIPL)やサイバーセキュリティ法との関係にも留意すべきです。

1.3.3 本章のまとめ

  • AI利用の基本的リスクとして、データ漏洩・権利侵害・出力の誤用・海外法規制などが挙げられる。
  • 日米企業ともに個人情報保護・機密情報管理が大きな課題であり、高リスク分野での活用は慎重な設計が必要。
  • 各社AIサービスが急速に機能アップデート・規約改訂を行っているため、常に最新情報をモニタリングする仕組みが求められる。

第2章 データ管理に関するリスク

2.1 データ保存場所と越境移転

2.1.1 サーバー所在地の実態(OpenAI, Anthropic, Google, DeepSeek比較)

(1) OpenAI

  • データセンター所在地 OpenAIは主に米国を拠点とするデータセンターを利用しており、利用規約やプライバシーポリシー(OpenAI Privacy Policy “Where We Store and Process Your Personal Data”)においても、米国内サーバーでデータを処理する旨が示唆されます。
  • リージョン選択の可否 現時点では、企業ユーザーがデータ保存先リージョンを細かく指定することは難しく、大半のデータは米国サーバーへ送信されると考えられます。
  • 企業法務の観点 日本企業が個人データを米国に移転する場合、個人情報保護法上の“外国にある第三者提供”に該当し得るため、本人同意または適切な契約上の安全管理措置が必要です(APPI 第24条等参照)。米国は欧州GDPRでいうところの「十分なデータ保護が認められる国」ではない点にも留意が必要。

(2) Anthropic

  • データセンター所在地 Anthropicも米国を拠点とするデータセンターを利用しています。プライバシーポリシー(Anthropic Privacy Policy “Where We Store Your Data”)によれば、主として米国内に保管されるとされます。
  • エンタープライズ向けリージョン対応 将来的にリージョン選択オプションを提供する可能性はあるが、現時点では基本的に米国内保存。企業がEU・日本等から利用する場合、越境移転に伴う法務リスクはOpenAIと同様です。
  • 契約書での補足合意 AnthropicのCommercial Terms of Serviceでは、DPA(Data Processing Addendum)でセキュリティ・越境移転を定めるとしている場合があり、大企業が契約する際には個別の補足合意でリージョン要件を交渉するケースもある。

(3) Google (Gemini, Workspace)

  • Google Cloudインフラ利用
    1. Googleの場合は、世界各地のデータセンターを保有しており、エンタープライズ契約(Google Cloud等)では

      リージョン選択

      が可能な場合があります。

    2. 例: Google Workspaceの場合、特定のリージョンにデータを保持する“Data Regions”機能があり(ただし一部サービス限定)。
    3. Gemini APIについては、Paid Servicesの場合にリージョン要件を指定できるかは現状限定的だが、将来的に拡充する見込み。
  • プライバシーポリシーの明記Google Workspace Terms of Service (2024.10.16更新)等でも、データがグローバルに複製される可能性が示されている。
  • 実務上の留意 日本企業がGoogleを使う場合、契約プランによっては“ヨーロッパリージョン”などの選択も検討できる。もっとも、Geminiなど生成系AIはまだリージョン指定が限られるため、日系企業であっても米国等へのデータ移転が発生しうる。

(4) DeepSeek

  • 中国拠点のデータサーバー DeepSeekは中国企業が運営するサービスであり、サーバーが中国本土にあるか、あるいは中国国内外のデータセンターを利用している旨がDeepSeek Privacy Policyで示唆されます。
  • 中国法の影響 中国の個人情報保護法(PIPL)やサイバーセキュリティ法等の規制により、当局からの要請や検閲のリスクが存在すると解される場合があります。
  • 日米企業の留意点 企業が機密情報や個人データを中国に移転することになり得るため、日本の個人情報保護法(APPI)の「外国にある第三者提供」への対応や、場合によっては米国のエクスポート管理規制との整合性も考慮しなければなりません。

2.1.2 個人情報保護法・GDPR・中国個人情報保護法などとの関係

以降はこちらから購入可能です。

2025-01-08 AIサービス利用における法的リスクレビューと実務ガイド(プロ向け)|株式会社自動処理

本レポートは日本の企業法務の視点から作成しており、文中に引用した出典(例:各サービスの利用規約やプライバシーポリシー)については、いずれも本レポート作成時点(2025年1月時点)で公表されている最新情報をもとにまとめています。なお、実際に利用をご検討される際には、当該サービスの最新版規約・プライバシーポリシーを必ずご確認ください。 本ガイドは以下の概要をプロ向けに詳細化し、社内導入の詳細な判断を行うために分析したものです。但し、本ドキュメントはあくまで専門家のレビューを元にした1意見であるため、自社判断する前には法務確認の上ご利用ください。 2025-01-07 AIサービス

note.com

2025-01-08 AIサービス利用における法的リスクレビューと実務ガイド(プロ向け)|株式会社自動処理
Logo

求人

プライバシーポリシー

調査一覧

Copyright © 2010-2024 Automation co,.ltd All Rights Reserved.