※本記事は、Harvard Business School Institute for Business in Global Society(BiGS)によるOren Etzioni氏へのインタビュー動画「The AI revolution: Myths, risks, and opportunities」の内容を基に作成されています。このインタビューは、Vercept共同創設者であり元Allen Institute for Artificial Intelligence CEOのEtzioni氏が、ハーバード・ビジネススクール教員への研究発表後にキャンパスで収録されたものです。動画の詳細情報は https://www.youtube.com/watch?v=U05IWKf94sM および https://www.hbs.edu/bigs/ethical-ai でご覧いただけます。本記事では、インタビューの文字起こし内容を詳細に要約・分析しております。なお、本記事の内容は原著作者および発言者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。また、Harvard Business School BiGSおよびOren Etzioni氏の関連情報についても、公式サイトをご参照ください。
1. AIに関する基本的な誤解と現実
1.1 ハリウッドが作り出したAIの神話
Oren Etzioni:AIについて最も大きな神話は、ハリウッドと『ターミネーター』によって広められているものです。私たちは本当にハリウッドと現実の生活、そして科学とサイエンスフィクションを分けて考える必要があります。AIは存在(being)ではありません。私たちを攻撃しようとしているわけでもありません。AIはツールなのです。パワーツールですから、注意が必要です。怪我をする可能性があります。
私が職場でのAI使用を推奨する理由は、あなたがAIシステムに置き換えられることはないかもしれませんが、あなたよりもAIを上手く使う人に置き換えられる可能性があるからです。ですから積極的に行動し、AIで自分の仕事をレベルアップさせてください。
最も大きなAIの神話は、ハリウッドと『ターミネーター』によって広められている、AIが存在であり、モンスターであり、あなたを攻撃しようとしているというものです。AIは存在ではありません。私たちを攻撃しようとしているわけでもありません。AIはツールです。パワーツールですから、注意深く扱う必要があります。怪我をする可能性があります。
私は、AIが気候変動、パンデミック、スーパーバグから私たちを救ってくれる可能性がはるかに高いと考えています。そして私たちがそれを人類にとって最善の形で使用することを望んでいます。
1.2 AIの真の性質と位置づけ
Oren Etzioni:AIは存在ではありません。私たちを攻撃しようとしているわけでもありません。AIはツールです。パワーツールですから、注意深く扱う必要があります。怪我をする可能性があります。
私は、AIが気候変動、パンデミック、スーパーバグから私たちを救ってくれる可能性がはるかに高いと考えています。そして私たちがそれを人類にとって最善の形で使用することを望んでいます。AIは人類の共通善のためのものです。これが私の活動のテーマとなっています。
私が職場でのAI使用を推奨する理由は、あなたがAIシステムに置き換えられることはないかもしれませんが、あなたよりもAIを上手く使う人に置き換えられる可能性があるからです。ですから積極的に行動し、AIで自分の仕事をレベルアップさせてください。
2. AIの現在の能力と限界
2.1 現在のAIの実力評価
Oren Etzioni:1から10のスケールで、今日のAIがどこまで到達できるかに対してどの程度強力かという質問に対して、今日のAIを7.5と評価します。多くの人がそれについて誇張された概念を持っています。AIは3年前と比べてもはるかに優れています。
しかし、AIがどこまで行けるかということに関しては、空が限界ですが、時間がかかるでしょう。明確な視界を短い距離と間違えてはいけません。AIは確実に進歩していますが、その可能性を実現するには相当な時間を要するということを理解する必要があります。
2.2 「ジャグ・フロンティア」現象
Oren Etzioni:AIはコンテキストを理解します。私たちがChatGPTに微妙なクエリを与えるときに、毎日その例を見ています。問題は、AIには「ジャグ・フロンティア」と呼ばれるものがあることです。
これは、時にはAIが物事を本当によく理解して、「これは素晴らしい」と思うようなことがある一方で、次のクエリでは別の惑星から来た異星人のように振る舞い、物事を全く理解しないということを意味します。それがジャグ(ギザギザ)である理由です。素晴らしい、ひどい、素晴らしいという具合に変動するのです。
AIの理解能力は一貫しておらず、優れた理解力と完全な誤解が交互に現れるという予測不可能な特性を持っています。
2.3 AIの信頼性に関する警告
Oren Etzioni:AIシステムを信頼するかという質問に対して、絶対に信頼しません。実際、私は「AIシステムを決して信頼するな」と言うのが好きです。
AIシステムを使用することはできますが、出力を検証し、得ているものが本物で信頼できるものであることを確認するために非常に注意深く行動する必要があります。AIは使用できるツールですが、その結果や出力については常に慎重な検証と確認のプロセスを経る必要があります。単純にAIの出力を鵜呑みにするのではなく、批判的に評価し、事実確認を行うことが不可欠です。
3. AIのバイアスと透明性の課題
3.1 AIのバイアス問題
Oren Etzioni:AIがバイアスを持たないことは可能かという質問に対して、答えは「いいえ」です。短い答えとしては、AIは蓄積したデータを組み込んでおり、そのデータにはバイアスが含まれているということです。AIはしばしばそれらのバイアスを増幅します。したがって、AIはバイアスを持っています。
良いニュースは、異なるプロンプトを与えるだけで、AIはそのバイアスを即座に変えることができるということです。AIのバイアスは固定されたものではなく、プロンプトの変更によって柔軟に調整可能であるという特性を持っています。これは従来の人間のバイアスとは異なる、AIならではの特徴と言えます。
3.2 透明性の重要性と困難さ
Oren Etzioni:AIアルゴリズムにおける透明性がどれほど重要かという質問に対して、透明性は非常に重要ですが、同時に非常に困難でもあります。
数十億のパラメータを持つニューラルネットワークがあるとき、その中で何が起こっているのかをどうやって理解するのでしょうか。私たちのほとんどは理解できません。透明性の確保は技術的に極めて複雑な課題であり、現在の深層学習システムの内部動作を完全に解明することは、専門家にとっても困難な状況にあります。
4. AI安全性とガードレール
4.1 危険な結果の特定と防止
Oren Etzioni:AIに関して合理的で賢明なガードレールとは何かという質問に対して、私たちは最も危険な結果を特定する必要があると考えています。例えば、AIを使って生物兵器を構築することなどです。そして、そのような方向性に沿った問い合わせに対しては回答されないことを確実にする必要があります。
したがって、最も心配される結果を特定し、それらが前面に出てくることを防ぐためのガードレールを設置するということです。AIの安全性を確保するためには、具体的で明確な危険性を事前に識別し、それらに対する防護措置を講じることが重要であり、漠然とした規制ではなく、ターゲットを絞った予防策が必要です。
4.2 「オフスイッチ」の必要性
Oren Etzioni:AIシステムにオフスイッチを組み込む必要があるかという質問に対して、それは絶対に不可欠です。私は2017年にニューヨーク・タイムズで、AIシステムには難攻不落のオフスイッチが必要であると書きました。これは、技術がより強力になり、自律性が増すにつれて、私たちを安全に保つのに役立つものの一つです。
大手テクノロジー企業がそれを望むかという質問に対しては、彼らは望むと思います。なぜなら、それは責任に関する懸念の一部を軽減し、安全装置だからです。物事を遅くしたり、追加費用を発生させたりしません。それは最後の手段のシステムです。
私たちがコンピュータを取って壁からプラグを抜くのと同じように、AIソフトウェアにもオフスイッチがあることを確実にします。これは技術的な制約ではなく、安全性を確保するための基本的な設計要件として位置づけられるべきものです。
5. AIの実用的応用事例
5.1 多様な分野での活用
Oren Etzioni:現在AIで最も興味深い使用例は何かという質問に対して、Andrew Ngが言ったように「AIは新しい電気」です。文字通り、人間の性から教育、HR、金融、高頻度取引まで、あらゆる議論の領域で人々がAIを使用しています。
私のお気に入りの例の一つは、人々が交渉スキルを練習するためにAIを使用していることです。AIを敵対者として配置することも、より良く議論するためにAIに代理人として働いてもらうこともできます。人々はAIを単なる高度な検索エンジンとして使用しているのではなく、ロールプレイのために使用しています。
AIの応用範囲は従来の検索や情報取得を遥かに超えて、対話的で創造的な用途にまで拡張されており、人々の学習や能力開発のパートナーとしての役割を果たしています。
5.2 具体的な革新的使用例
Oren Etzioni:私のお気に入りの例の一つは、人々が交渉スキルを練習するためにAIを使用していることです。AIを敵対者として配置することも、より良く議論するためにAIに代理人として働いてもらうこともできます。しかし、人々はAIを単なる高度な検索エンジンとして使用しているのではなく、ロールプレイのために使用しています。
この使用例が革新的である理由は、AIが情報提供者としてではなく、積極的な対話相手として機能している点にあります。従来の技術では不可能だった、リアルタイムでの相互作用的な練習環境を提供し、利用者は安全な環境で様々なシナリオを試すことができます。このようなロールプレイ活用は、AIの対話能力と適応性を活かした新しい学習パラダイムを示しています。
5.3 企業における部門別活用
Oren Etzioni:企業が試している興味深い使用例について、良い場合も悪い場合も含めて非常に多くの例があります。例えば、規制遵守があります。非常に困難で複雑な遵守情報が大量にあります。そして、AIは文書を読み通して遵守方法を理解することが本当に得意です。
法的な結果では、法律事務所がAIを使用して契約書を生成し、注意深くしかしより効率的に、契約書を読み、管理しています。したがって、法務部門がそれを使用しています。コーディングにおいて、私たちはより生産性が高くなり始めています。
実際のところ、HRから清掃スタッフまで、企業の全ての部門において、パフォーマンスを向上させるためにAIを使用する機会があります。AIの適用範囲は企業組織の階層や機能を問わず、あらゆるレベルと部門に及んでおり、各部門の特性に応じた具体的な業務改善の可能性を提供しています。
6. AIと社会格差・支援技術
6.1 格差是正の可能性
Oren Etzioni:AIが不平等を深めることについて楽観的か悲観的かという質問に対して、実際に人々が重要なポイントを見逃していると思います。それは、AIが支援的知能として使用できるということです。
車椅子に乗っている人々、視覚や聴覚に困難を抱えている人々など、障害を持つ人々について考えてみてください。AIは彼らにとって非常に大きな恩恵となることができます。したがって、私はAIが世界で最も疎外されたコミュニティの一部を支援する tremendous potential(途方もない可能性)を持っていると見ています。
AIの支援技術としての側面は、従来のテクノロジーでは十分に対応できなかった様々な障害や困難を抱える人々に対して、個別化されたサポートを提供する可能性を秘めています。これは単なる技術的な進歩ではなく、社会的包摂の新たな手段として位置づけることができます。
6.2 所得格差に関する課題
Oren Etzioni:所得不平等に関しては、もちろん私たちにはいくつかの課題があります。AIが不平等を深める可能性について懸念が存在することを認識しており、この問題に対処する必要があることを理解しています。
しかし、私は支援的知能としてのAIの活用により、最も疎外されたコミュニティを支援できる可能性の方により注目しています。所得格差の問題は確実に存在しますが、AIの適切な活用により、むしろ格差縮小に貢献できる側面もあると考えています。重要なのは、AIの恩恵が特定の層に偏ることなく、広く社会全体に行き渡るような仕組みを構築することです。
7. AI政策とガバナンス
7.1 規制に関する懸念
Oren Etzioni:ロビイストによる規制の囲い込みがAIガバナンスにどのような影響を与えるかという質問に対して、私たちが見てきた規制の多くは、大手テクノロジー企業によって彼らの利益のために、そしてスタートアップの不利益のために形作られてきました。
そのような理由で、私たちが見ている規制努力の一部について非常に懐疑的です。現在の規制の動きには、既存の大企業が市場での優位性を維持し、新興企業の参入を困難にするような構造的な問題が含まれていると考えています。真のイノベーションと公正な競争を促進する規制ではなく、既得権益を保護する規制が形成される危険性があることを強く懸念しています。
このような規制環境は、AI技術の健全な発展と多様性のある競争を阻害する可能性があり、最終的には消費者や社会全体の利益に反する結果をもたらす可能性があります。
7.2 推奨される政策
Oren Etzioni:もしイノベーションを抑制することなく、この段階でAIを支援すると思われる政策を一つ制定できるとしたら何かという質問に対して、AIにはラベルを付ける必要があると言います。
つまり、電話を取って反対側で声を聞いたとき、それが人間なのか機械なのかわからないので、AIは自分自身を識別すべきです。インターネット上でメールやテキストメッセージを受け取ったとき、反対側に誰がいるのか誰にもわかりません。再び、AIは自己識別すべきです。
この政策提案は、AIと人間との相互作用において透明性を確保し、人々がAIとのコミュニケーションであることを明確に認識できるようにするものです。これにより、人々は適切な判断を下し、AIからの情報や提案を適切な文脈で評価することが可能になります。このような識別要件は、技術革新を妨げることなく、社会的な信頼と安全性を向上させる基本的な安全装置として機能します。
7.3 トランプ政権下での予測
Oren Etzioni:トランプ政権下で何が起こると予想するかという質問に対して、予測するのは非常に困難ではないでしょうか。私は、Elon Muskの企業が非常に好調になると予想しています。
しかし、より皮肉ではない意味で、シリコンバレーやテクノロジー業界から非常に善意で才能のある人々が政府に移り、積極的な影響を与えようとしているのを実際に見ています。
この予測には二つの側面があります。一方では、特定の企業や個人の政治的なつながりによる利益という現実的な観点があり、他方では、技術業界の専門知識を持つ有能な人材が公共政策に貢献する可能性という建設的な側面があります。政権の性質や政治的な影響力の行使について懸念を示しつつも、技術分野の専門家が政策形成に参画することの潜在的な価値も認識しています。
8. ディープフェイクと偽情報対策
8.1 True Mediaの設立と活動
Oren Etzioni:True Mediaについて説明します。Truemedia.orgは、私がUberの共同創設者であるGarrett Campの支援を受けて設立した非営利団体で、世界中で選挙が行われる2024年という選挙の年に政治的ディープフェイクと戦うためのものです。
どのような成果があったかという質問に対して、インドネシア、インド、ヨーロッパ、多数の国々で、ニュース組織やファクトチェッカーが私たちのツールを使用して何千もの偽のアイテムを偽物として特定したことを非常に嬉しく思っています。それはロシアの偽情報サイトを削除するために使用され、もちろん私たち自身の選挙でも様々な方法で使用されました。
True Mediaの活動は単一の国や地域に限定されるものではなく、グローバルな規模でディープフェイクと偽情報の検出と対策に貢献しました。特に、国際的な偽情報キャンペーンに対する実効性のある対抗手段として機能し、民主的プロセスの保護に寄与したことが確認されています。
8.2 ディープフェイク検出の課題
Oren Etzioni:一般の人々にとってディープフェイクを見抜くことは明らかかという質問に対して、それは非常に明らかではありません。何かが偽物か本物かを検出する人々の能力は、コイン投げを予測する能力と変わらないということを示す多くの研究が行われています。
企業がディープフェイクと偽情報を特定することの重要性を理解しているかという質問については、彼らは理解し始めていると思いますが、良くなる前に悪化すると思います。偽のZoom通話により企業からお金が送金されたケースがあり、人々が通信、ビデオ、音声、その他が偽物か本物かを判断する必要性に完全に賛同する前に、このような問題がもっと発生すると思います。
この状況は、技術の進歩が人間の認識能力を上回るスピードで進んでいることを示しており、組織や個人が適切な検証システムを構築するまでに、さらなる被害が発生する可能性が高いことを意味しています。ディープフェイク技術の高度化と一般的な検出能力との間には深刻なギャップが存在しています。
8.3 経済的影響の実例
Oren Etzioni:経済的な結果を引き起こす可能性のあるディープフェイクの例を挙げることができるかという質問に対して、私たちはすでに一つを見ていると思います。数年前にペンタゴンが爆撃されたという写真が広まり、市場に異常をもたらしました。私は他にもそのような多くの事例があると思います。
私たちの経済と市場は新しい情報に非常に迅速に反応するため、その情報が偽物か本物かを判断することに注意を払わなければなりません。偽のZoom通話により企業からお金が送金されたケースについても言及しており、このような具体的な金銭的被害の実例が既に発生しています。
これらの事例は、ディープフェイクが単なる技術的な問題ではなく、実際の経済活動や金融市場に直接的かつ即座に影響を与える深刻な脅威であることを示しています。市場の反応速度の速さと、偽情報の拡散能力の組み合わせは、経済システム全体の安定性に対する新たなリスク要因となっています。
9. 雇用への影響と教育
9.1 雇用代替に関する現実的見解
Oren Etzioni:AIが雇用を置き換えると見ているかという質問に対して、現在私たちが見ているのは、AIがタスクを自動化することによって人々を補強していることです。これは短期的なことです。時間が経つにつれて、AIは一部の雇用、特に非常に定型的なものを置き換えるでしょう。
私が職場でのAI使用を推奨する理由は、あなたがAIシステムに置き換えられることはないかもしれませんが、あなたよりもAIを上手く使う人に置き換えられる可能性があるからです。ですから積極的に行動し、AIで自分の仕事をレベルアップさせてください。
この見解は、AIによる雇用への影響が段階的であり、即座の大量失業ではなく、まずタスクレベルでの変化から始まることを示しています。重要なのは、AIそのものが人間を置き換えるのではなく、AIを効果的に活用できる人間が、そうでない人間よりも競争優位を持つという構造的な変化が起こっているということです。
9.2 教育分野での楽観的展望
Oren Etzioni:教育におけるAIの使用について楽観的かという質問に対して、私は非常に楽観的です。特に発展途上国において、人々が必要とする質の高い教育を提供するリソースを私たちは持っていないからです。AIはその問題に対処するのに役立ちます。
発展途上国では教育資源の不足が深刻な問題となっており、十分な数の qualified teachers(資格を持った教師)や教育インフラが不足しています。AIは個別化された学習体験を提供し、言語の壁を越えて質の高い教育コンテンツへのアクセスを可能にします。また、AIは24時間利用可能であり、学習者のペースに合わせて調整することができるため、従来の教育システムでは対応困難だった個々のニーズに応えることができます。
この技術的解決策は、教育格差を縮小し、世界中のより多くの人々に学習機会を提供する可能性を秘めており、教育の民主化において重要な役割を果たすと期待されます。
9.3 コンピュータサイエンス教育の未来
Oren Etzioni:私の分野であるコンピュータサイエンスについて、コーディングはまだ大学で教えられるべきかという質問に対して、コーディングはすでにより速く、より生産的になっています。それでも教える必要があります。なぜなら、実際のところ、私たちの最も高度なAIでさえ、複雑なオリジナルプログラムを書くことはできないからです。したがって、コーディングは消えることはありませんが、ステロイド状態になるでしょう。
それはどのようなものかという質問に対して、私たちは常にせっかちですよね。ソフトウェアの次のリリースはいつになるのか、いつこのバグを修正するのか、なぜもっと早くこのウェブサイトを構築できないのか。今、物事は加速し始めるでしょう。
それが信頼性を低下させる可能性があるかという質問については、信頼性を低下させる可能性があると思います。したがって、適切なテストを実施する必要があります。良いニュースは、ソフトウェアの品質保証それ自体がソフトウェアプロセスであるため、品質保証も同様に向上するということです。
10. サイバーセキュリティとリスク管理
10.1 新たなサイバー脅威
Oren Etzioni:ディープフェイクや偽情報を超えて、地平線上に見える新たなリスクは何か、そして企業は今どのように準備を始めることができるかという質問に対して、サイバーセキュリティが思い浮かぶ大きなリスクです。
フィッシング攻撃はより洗練されたものになる可能性があり、AIを使用してネットワークやソフトウェアの穴を探ることもより洗練されたものになる可能性があります。したがって、より多くのAIサイバーセキュリティ攻撃に備えるために、AIサイバーセキュリティ防御を強化する必要があると思います。
この新たな脅威の特徴は、従来の手動的な攻撃手法がAIによって自動化され、大規模化されることです。攻撃者はAIを利用してより効率的にターゲットを特定し、個別化された攻撃を展開することが可能になります。同時に、防御側もAI技術を活用した対抗措置を講じる必要があり、サイバーセキュリティ分野においてAI技術を巡る軍拡競争のような状況が生まれています。
10.2 ランサムウェア攻撃の増加
Oren Etzioni:アメリカでの選挙期間中により多くの標的型攻撃を見なかった理由は私にとって謎です。過去には、国家的な行為者が私たちのプロセスにあまりにも多く介入すれば、私たちが彼らに反撃する方法を持っていたという抑止力がありました。
今では、このような偽情報、ディープフェイク、サイバー攻撃の取り組みを行うことが非常に簡単になっているので、それをもっと見なかったのは驚きです。私たちが増加を見たのはランサムウェア攻撃であり、それは上昇を続けており、大きな懸念事項です。
ランサムウェア攻撃の増加は、従来の抑止力メカニズムが現在のサイバー脅威環境では十分に機能していないことを示しています。攻撃の実行コストが低下し、匿名性が保たれやすい環境において、攻撃者にとってのリスクと利益のバランスが攻撃を促進する方向に傾いています。この傾向は選挙期間を超えて継続的な脅威として存在し、企業や組織にとって重大なセキュリティ課題となっています。
10.3 大規模攻撃への準備不足
Oren Etzioni:YouTubeや大手テクノロジー企業の幹部と常に話しているが、彼らは潜在的な脅威に対抗する準備ができているかという質問に対して、彼らは前回の戦争と戦うのに非常に適した立場にあると思います。
つまり、不釣り合いに悪い影響を与えている単一のビデオや画像がある場合、彼らはそれを削除したり、重要度を下げたりするのに適した立場にあります。しかし、数十万の偽アカウントによって数千のディープフェイクが広められる協調攻撃に対しては、私たちは準備ができていないと思います。
この準備不足の問題は、既存のコンテンツモデレーションシステムが個別の問題コンテンツの処理に最適化されている一方で、大規模で協調された攻撃キャンペーンに対する対応能力が不十分であることを示しています。現在のプラットフォームの防御メカニズムは、量的な規模と質的な協調性を兼ね備えた新しいタイプの脅威に対して構造的な脆弱性を抱えており、この種の攻撃が実際に発生した場合の被害規模は従来の想定を大きく上回る可能性があります。
11. AI兵器と戦争への影響
11.1 AI兵器の速度と自動化
Oren Etzioni:AI搭載兵器の無制限な拡散から生じる可能性のある戦争に関する潜在的な結果は何かという質問に対して、AI搭載兵器は益々高速になり、益々高速な対応を必要とします。誘導ミサイルが飛来している場合、反応する時間がありません。
ドローンの群れが飛来し、それらが協調している場合、対応を開始しなければなりません。したがって、戦争のペースと兵器のペースが益々速くなると、私たちは自動化の増加を余儀なくされますが、これは非常に心配なことです。なぜなら、私たちが知っているように、AIは脆弱だからです。AIはひどい間違いを犯す可能性があります。
この技術的な速度の向上は、人間の判断と意思決定が介入する時間的余裕を急速に縮小させています。戦場での反応時間が秒単位やミリ秒単位になると、人間の認知能力では対応できない速度での自動的な判断が不可避となります。しかし、AIシステムの予測不可能性と誤判断の可能性を考慮すると、このような自動化の進展は制御不能な連鎖反応や意図しない軍事行動を引き起こすリスクを大幅に増大させます。
11.2 知能的兵器 vs 自律的兵器
Oren Etzioni:自律兵器システムの開発から生じる倫理的考慮事項は何かという質問に対して、知能的システム(それらは益々洗練されており、益々正確になり得る)と自律的システム(人間をループに入れることなく人間の命を奪う決定を下し、彼ら自身で決定する)を区別することが非常に重要です。
私は知能的システム、知能的兵器でさえも非常に支持していますが、自律的兵器には非常に反対しています。なぜなら、人間がその重大な道徳的決定を下さなければならないと思うからです。
この区別は現代の軍事技術における最も重要な倫理的境界線の一つです。知能的兵器は人間の判断を支援し、精度を向上させる技術として位置づけられる一方で、自律的兵器は人間の道徳的責任を完全に機械に委ねることを意味します。生死に関わる決定は、技術的な計算だけでなく、複雑な倫理的判断、文脈的理解、そして人間の価値観に基づいて行われるべきであり、これらは現在のAI技術では適切に処理することができない領域です。
12. 企業のAI導入と責任
12.1 CEO主導の重要性
Oren Etzioni:企業が自社の事業におけるAIの使用に対処しようとする際、誰が主導すべきかという質問について、CIO、CEO、法務担当のいずれかという選択肢に対して、絶対にCEOです。なぜなら、ここでの可能性は、より低いコストとより高い収益、そしてはるかに速い市場投入時間だからです。
したがって、これはそれらの役職のいずれかに委任するものではありません。CEOがその主導権を握る必要があると思います。なぜなら、非常に多くの可能性があるからです。
平均的なCEOがそれを行うのに十分にAIを理解していると思うかという質問に対して、平均的なCEOは自分自身を教育してそうすべきだと思います。そして彼らはどのようにそれを行うべきかについては、彼らは私と話すことができます!
AI専門家との会話だけでなく、機械との実践的なリテラシーを獲得することが私たちが持つべき会話だと思います。したがって、もしあなたが経営幹部で、ChatGPT、Claude、その他何でも使って、ビジネスの側面を最適化する方法、それができることとできないことを理解するために質の高い時間を過ごしていないなら、機会を逃しています。
12.2 従業員教育の課題
Oren Etzioni:企業はAIについて従業員を教育する準備ができているかという質問に対して、これは非常に新しい技術であり、私たちは飛行中に飛行機を作っているような状況です。
したがって、いいえ、彼らが準備ができているとは言えませんが、ツールとカリキュラムが出現しています。企業世界は今、あなたが予想するよりも混乱しているか、それとも混乱が少ないかという質問については、私が予想していたよりも多くの慣性があると言います。
それは様々な理由でゆっくりと進行しており、その一部は困難だからです。それはターンキー(すぐに使える)ものではありません。したがって、AIは新しい電気だと言うとき、それはプラグアンドプレイであることを示唆しています。何かを壁に差し込むだけで、AIが流れ出てくるということです。それはそれよりも複雑です。
この教育課題は、AI技術の急速な進歩と組織の適応能力との間のギャップを反映しています。従来の企業研修システムは安定した技術やプロセスを前提としているため、絶えず進化するAI技術に対する効果的な教育プログラムの開発には時間がかかります。また、AIの実装には技術的理解だけでなく、組織文化の変革も必要であり、これが慣性として現れています。
12.3 企業の準備不足
Oren Etzioni:企業世界は今、あなたが予想するよりも混乱しているか、それとも混乱が少ないかという質問については、私が予想していたよりも多くの慣性があると言います。それは様々な理由でゆっくりと進行しており、その一部は困難だからです。それはターンキー(すぐに使える)ものではありません。
したがって、AIは新しい電気だと言うとき、それはプラグアンドプレイであることを示唆しています。何かを壁に差し込むだけで、AIが流れ出てくるということです。それはそれよりもはるかに複雑です。
この準備不足は、AIの「新しい電気」という比喩が生み出す誤解に起因しています。電気のように簡単に利用できるという期待に反して、AIの導入には組織全体の構造的変化、従業員のスキル再教育、既存システムとの統合、そして適切なガバナンス体制の構築など、多層的で時間のかかるプロセスが必要です。企業が予想以上に慎重で段階的なアプローチを取っているのは、この技術的複雑性と組織的課題の現実を反映したものです。
13. 法的責任と著作権問題
13.1 AI故障時の責任の所在
Oren Etzioni:自動運転車の事故、不正確な信用評価、あるいは不当な刑事判決勧告などの場合において、AIが失敗したときに責任はどこにあるのかという質問に対して、異なるケースがあり、時には製造業者であり、時にはソフトウェアシステムの作成者です。これは複雑な問題です。
しかし、本当に重要な包括的な原則は、それが人間または企業に帰結する必要があるということです。「私のAIがやった」というのは言い訳にはなりません。
この責任の所在に関する原則は、AI技術の普及に伴って法的枠組みの根幹を成すものです。AIシステムが意思決定プロセスにおいて重要な役割を果たす場合でも、最終的な責任は必ず人間の主体または法人組織に帰属させる必要があります。これにより、技術の進歩が法的責任の回避手段として悪用されることを防ぎ、被害者の救済と予防措置の実施を確実にします。責任の明確化は、AI技術の健全な発展と社会的受容にとって不可欠な要素です。
13.2 著作権訴訟の監視
Oren Etzioni:法的ケースを監視しているかという質問に対して、私はケースを監視しています。例えば、著作権問題は社会にとって非常に重要なもので、OpenAIとニューヨーク・タイムズなどの間の問題があります。
メディアに関して、ニューヨーク・タイムズのケースがどこに向かうと予想するかという質問については、OpenAIや他の企業が一線を越えて著作権法に違反したことはよく文書化されていると思います。
現在のメディアへの影響は何かという質問に対して、メディアは自分たちのコンテンツについて、AIが訓練に使用することを喜んで提供するものと、独自性を保ちたいものを決める必要があります。そして、彼らの願いが守られることを確実にする方法を検討する必要があります。
この著作権問題は、AI開発における最も重要な法的争点の一つとなっています。大規模言語モデルの訓練において、著作権で保護されたコンテンツが無許可で使用されたという事実は、技術業界の急速な発展と既存の知的財産権保護制度との間の深刻な齟齬を浮き彫りにしています。メディア業界は、自社コンテンツの価値を保護しながら、AI時代における新たなビジネスモデルを模索する必要に迫られています。
13.3 メディア業界への影響
Oren Etzioni:現在のメディアへの影響は何かという質問に対して、メディアは自分たちのコンテンツについて、AIが訓練に使用することを喜んで提供するものと、独自性を保ちたいものを決める必要があります。そして、彼らの願いが守られることを確実にする方法を検討する必要があります。
OpenAIとニューヨーク・タイムズの間の著作権問題において、OpenAIや他の企業が一線を越えて著作権法に違反したことはよく文書化されていると述べており、この判例がメディア業界全体に重大な影響を与えることを示唆しています。
メディア企業は現在、二つの重要な戦略的決定に直面しています。第一に、どのコンテンツをAI訓練用に提供し、どのコンテンツを独占的に保持するかという選択です。第二に、自社の知的財産権を確実に保護するための技術的および法的メカニズムの構築です。この状況は、メディア業界がAI時代における新しいビジネスモデルと収益源を開発する必要性を示しており、従来のコンテンツ配信モデルからの根本的な転換を迫られています。
14. AIの個人利用における注意点
14.1 音声認証システムへの警告
Oren Etzioni:退職金口座でAI搭載音声ログインを使用するのに十分快適かという質問に対して、私はブローカーに電話してそれを無効にするよう伝えました。なぜなら、私はそれを信頼しないからです。
私は「どうやって私の声が私のパスワードだとわかるのですか?」と尋ねました。彼らは「私たちはAIを使用しているからです」と答えました。そして私は「いいえ、私はAIを研究しており、それを信頼しないので、無効にしてください」と言いました。そして私はあなた方全員にそれを推奨します。
この実体験は、AI専門家自身がAI技術の限界と脆弱性を深く理解しているからこそ、重要な金融取引においてAI音声認証システムを使用することに強い懸念を抱いていることを示しています。音声合成技術の進歩により、個人の声を模倣することが技術的に可能になっている現状において、音声を唯一の認証手段として使用することは、セキュリティ上の重大なリスクを伴います。専門家の実践的な警告として、個人の重要な金融資産を保護するためには、より安全な認証方法を選択することが賢明です。
14.2 自動運転技術への評価
Oren Etzioni:現在Waymo車での運転に快適さを感じるかという質問に対して、私は快適です。私が悲しく思うのは、普及がいかに遅いかということです。事故の数を減らし、命を救うことができるよう、私たちがどこにでもそれらを持てることを願っています。
AIについて私に希望を与えるものは何かという質問に関連して、私たちが人間として非常にうまくできない多くのことがあることです。毎年高速道路で40,000人の死亡者を出す運転のように、医師の誤診が第三の死因となっている病院業務のように。運転手、医師、看護師をAIシステムで補強することで、これらの統計を下げ、人々の命を救うことができます。
この評価は、AI技術の実用性と社会的価値に対する現実的で建設的な視点を示しています。Waymo車での個人的な体験に基づいて、技術の安全性を確認しつつも、その普及速度の遅さに対する懸念を表明しています。同時に、人間の能力の限界を率直に認め、AIによる補強が生命を救う具体的な可能性を持っていることを、定量的なデータ(年間40,000人の交通事故死、医師誤診による死亡率)とともに示しています。これは技術楽観主義と現実的な期待のバランスの取れた表現です。
15. 人間存在の意味と将来展望
15.1 AI時代における人間性
Oren Etzioni:高度なAIの時代において人間であることは何を意味するかという質問に対して、それは常に意味してきたことと同じことを意味すると思いますが、それは異なる技術的文脈の中にあります。
しかし、ここには何も新しいことはありませんよね?私たちは以前は農業で働いていました、今私たちは会話をしています。私たちは以前はインターネットを持っていませんでした、今は持っています。しかし私たちは依然として生き、愛し、残念ながら憎み、根本的に人間的な方法で私たちの人生を歩んでいくでしょう。
この見解は、技術革新が人間の本質的な特性を変えるものではないという哲学的立場を表しています。歴史的な技術変革(農業革命、インターネット革命)との類比を通じて、AI革命もまた人間の基本的な感情、関係性、生き方の核心部分には影響を与えないことを示唆しています。技術的環境は変化するものの、愛、憎しみ、希望、恐れといった人間の根本的な経験は継続し、人間らしさの本質は保たれるという楽観的で安定した人間観を提示しています。
15.2 歴史的類似性
Oren Etzioni:しかし、ここには何も新しいことはありませんよね?私たちは以前は農業で働いていました、今私たちは会話をしています。私たちは以前はインターネットを持っていませんでした、今は持っています。しかし私たちは依然として生き、愛し、残念ながら憎み、根本的に人間的な方法で私たちの人生を歩んでいくでしょう。
この歴史的類似性の指摘は、技術革命に対する人類の適応能力と継続性を強調しています。農業革命からサービス経済への移行、そしてインターネット革命という過去の大きな変化を振り返ることで、現在のAI革命も同様の性質を持つ技術的転換点であることを示しています。
重要なのは、これらの歴史的変化において、人間の働き方や情報へのアクセス方法は劇的に変化したものの、人間の感情的な核心部分や社会的関係の本質は保たれてきたということです。この視点は、AI時代に対する過度な不安や終末論的な予測に対する合理的な反論となっており、技術変革を人類史の自然な継続として捉える冷静な歴史観を提供しています。
15.3 楽観的な未来像
Oren Etzioni:AIの将来について私に希望を与えるものは何かという質問に対して、私たちが人間として非常にうまくできない多くのことがあるという事実です。毎年高速道路で40,000人の死亡者を出す運転のように、医師の誤診が第三の死因となっている病院業務のように。
運転手、医師、看護師をAIシステムで補強することで、これらの統計を下げ、人々の命を救うことができます。AIで私たちは絶滅に直面するかという質問に対して、いいえ、それは誇張されています、それはサイエンスフィクションです。なぜなら私たちは道具について話しているからです。強力な道具ですが、乗っ取ろうとする存在ではありません。
この楽観的な未来像は、AIを人類の能力不足を補完する実用的なツールとして位置づけています。年間40,000人という具体的な交通事故死者数や、医師誤診を第三の死因として挙げることで、人間の限界を定量的に示し、AIによる改善の可能性を現実的な根拠に基づいて提示しています。同時に、AIに対する終末論的な恐怖を「サイエンスフィクション」として明確に否定し、AIを制御可能な道具として捉える合理的な視点を維持しています。この見解は、技術進歩による生命救済という人道的価値を中心に据えた建設的な未来観を示しています。