※本記事は、世界経済フォーラム年次総会2026(ダボス会議2026)のセッション「The Intelligent Co-Worker」の内容を基に作成されています。本セッションには、Kian Katanforoosh氏(Workera、創業者兼CEO)、Munjal Shah氏(Hippocratic AI、創業者兼CEO)、Enrique Lores氏(HP、代表取締役社長兼CEO)、Kate Kallot氏(Amini AI、創業者兼CEO)、Christoph Schweizer氏(BCG、最高経営責任者)が登壇し、モデレーターはMat Honan氏が務めました。動画はYouTubeにて公開されており、詳細は https://www.youtube.com/watch?v=knaPFj9Ixn0 でご覧いただけます。世界経済フォーラムは、官民協力のための国際機関として、政治・ビジネス・文化などの各分野のリーダーが集い、グローバル・地域・産業のアジェンダを形成することを目的としています。本記事ではセッションの内容を要約しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。また、世界経済フォーラムの公式ウェブサイト(http://www.weforum.org/ )もあわせてご参照ください。
1. AIはツールか同僚か:概念と実践をめぐる議論
1-1. 「エージェント」「同僚」という呼称への疑問と三分類フレームワーク
Kean: 正直に言うと、私はAIを「エージェント」と呼ぶことにも「同僚」と呼ぶことにも賛成していません。その理由を説明させてください。今フロンティアラボから出てくる論文を見ると、そのほとんどが「タスク」に着目しています。AIはこのタスクが得意だ、あのタスクではより優秀だ、という形です。しかし人間の仕事というのは、多いときには何百というタスクの集合体です。AIが特定のタスク群を得意とすることと、仕事全体を引き受けることは、まったく別の話です。実際、この3年間で「〇〇という職業はなくなる」という予測のほとんどは外れてきました。翻訳者はまだいます。カスタマーサポートのマネージャーもまだいます。思ったよりはるかにゆっくりとしか変わっていない職種がたくさんあります。仕事が変わるためには、人が変わり、組織が変わり、ワークフローが再配線される必要があります。クラウド移行の歴史を見れば分かるように、それには数十年かかることもある。デジタル化から20年経った今でも、紙と鉛筆で業務を回している会社があります。だから私は「同僚」ではなく「エージェント的ワークフロー」という言い方を好んでいます。
Mjal: 私たちはAIを「コパイロット」「オートパイロット」「インフィニットパイロット」の三つに分類しています。コパイロットは人間が関与するループの中でAIが協働する形。オートパイロットは今日すでに行っているタスクをAIが自律的にこなす形です。そして最も重要なのがインフィニットパイロットという概念で、これは「無限の供給があるか、コストが極めて低い場合でなければ実現できなかったこと」を指します。AIが人間の能力を拡張するという話はよく聞きますが、5年・10年先を見据えると、地球上に80億人の人間がいるとしたら、800億のAIが存在する世界になるかもしれません。そのAIたちは今日私たちがやっていることをそのままやるのではなく、今まで誰も「できる」と思っていなかったことをやり始めるのです。
Kate: 私はAIは常にツールであって、同僚ではないという立場です。かつてコンピュータービジョンとAIが特定の疾患の認識や放射線画像の読み取りにおいて人間の目を超えたとき、放射線科医はいずれ消えると言われていました。しかし実際には、今日の放射線科医の数は増えています。ツールがその職業を「魅力的なもの」にし直したのです。私が関わっている政府のデジタル変革の現場でも同じことが起きています。AIシステムやAIツールを各省庁に導入すると、公務員たちは仕事への新たな関心を取り戻します。ただし、そのインターフェースはあくまでツールであって、同僚ではありません。なぜなら、そのツールは価値に基づく判断をまだできないからです。ある国の、ある市民にとって、これが最善の結果だ、という文脈をまだ持っていない。
1-2. BCGとHPにおける実践事例:静的クエリから自律的業務遂行へ
Kristoff: 定義の議論はひとまず置いて、私たちの会社での具体例をお話しします。BCGには3万4,000人の従業員がいて、創業から62年が経ちます。この数十年間、私たちはビジネス界のあらゆる領域に関するノウハウ、ベンチマーク、データを蓄積してきました。そのナレッジマネジメントシステムにAIを組み合わせることで、まったく違う使い方ができるようになりました。例えば「世界に27の工場を持つある製薬会社の訪問前に、私たちのファイル群から最優秀製造拠点の特徴に関するベンチマークをすべて引き出して、その製薬会社と比較してほしい」という依頼が出せるようになった。これだけでも従来のクエリとは段違いです。さらに今は、「アナリストレポートや専門家の最新評価など、公開情報もすべて取り込んだ上で、その27工場のデータの中で最も異例かつ注目すべきパターンを10個挙げてほしい」という形に拡張できます。そして「それを初回ワークショップで使える8枚のスライドにまとめてほしい」という指示も通る。静的なクエリから動的なクエリへ、そして情報の拡張へ、さらに成果物の生成へ。これはもはや「同僚」と呼んでいい実態だと私は思っています。私たちは積極的に自社エージェントを構築していますし、それを喜んで受け入れています。
Enrique: 私も実例で話しましょう。決算準備のためにAIを使って想定質問を整理しているとき、それはツールの使い方です。しかし、サプライチェーン計画の進め方そのものをAIで置き換え・変革するとなると、それはツールというよりも同僚に近い感覚があります。あるいはWaymoの自動運転車に乗ってサンフランシスコまで行くよう指示するとき、それはもはや「コドライバー」か「コ何か」であって、単なるツールとは呼べません。こうした形での統合は、今後ますます深まり、私たちの会社の中核に組み込まれていくと確信しています。
1-3. ラジオロジスト増加に見るAI導入後の職業変容
Kate: 放射線科医の話は非常に示唆的です。AIが人間の目を超えたと言われ、職業が消えると予測されたにもかかわらず、実際には放射線科医の数は増えました。ツールが職業を「再び魅力的なもの」にしたのです。私が各国政府と仕事をしている現場でも、AIシステムを導入すると公務員たちは仕事への関心を新たにします。ただし重要なのは、その変化を生み出しているのはあくまで「ツール」であるという認識を保つことです。AIはまだ、特定の市民・特定の文脈において「これが最善の結果だ」という価値判断を下せる段階にはありません。その文脈理解がない限り、ツールと同僚の間には明確な一線があります。
2. AIの安全性・信頼性の確保:Hypocratic AIの設計思想と実験
2-1. 7,500人の看護師によるアウトプット検証モデルの構築
Mjal: 私たちが熱波の際に1万6,000人のMedicareアドバンテージプランの加入者に電話をかけた話をしましたが、そのような大規模なAI運用を安全に行うためには、まず「安全性をどう担保するか」という根本的な問いに向き合わなければなりませんでした。世間にはよく「正しいデータで学習させればAIは安全だ」という誤解があります。しかし私たちが早い段階で気づいたのは、それが必ずしも正しくないということです。AIの黎明期、PubMedという质の高い医学文献データベースだけで学習させた「PubMed GPT」がありましたが、それでも事実と異なる内容を生成してしまいました。つまり、入力データの質だけで安全性を担保しようとするアプローチには限界がある。
そこで私たちが採用したのは、「アウトプット検証モデル」と私が呼ぶアプローチです。具体的には、米国の医療資格を持つ看護師7,500人を採用しました。米国のRN(登録看護師)は処方や診断は行いませんが、ケアマネジメントの領域では非常に広範な業務を担っています。その看護師たちにAIに電話をかけてもらい、患者として振る舞ってもらいました。「あなたは看護師です。AIがどんな間違いを犯すか分かるはずです。すべての間違いを報告してください」という指示のもとで、AIのアウトプットを徹底的に検証してもらったのです。さらに、電話の50回に1回はAIではなく実際の人間の看護師が対応する設計にしました。そしてその人間の看護師が犯したミスも同様に記録し、「AIが人間の看護師と同等の安全水準に達するまでは絶対にリリースしない」という基準を設けました。結果として、現在のシステムは人間の看護師を大きく上回る安全性を達成しています。これは入力基準ではなくアウトプット検証に基づくアプローチであり、水平型の汎用モデルでは実現困難ですが、垂直型の特化モデルであれば、ユースケースを一つひとつ丁寧に検証できます。コストはかかりますが、責任ある展開のためには避けられないプロセスだと私たちは考えています。
2-2. 三重冗長システム・トリアージ自動転送・垂直モデルの安全設計
Mjal: 安全性の設計においてもう一つ重要なのが、冗長性です。私たちは三重冗長システムを採用しています。モデルがモデルを検査し、さらにそれをモデルが検査する構造です。「一つのモデルですべてを支配する」という発想、いわば「一つの指輪がすべてを支配する」的なアーキテクチャは、いかなる産業においても安全システムの設計思想とは相容れません。航空機でも原子力発電所でも、安全システムには必ず冗長性が組み込まれています。AIシステムも例外ではないはずです。
加えて、医療の電話対応においては、通話中に患者が「胸が痛い」「息が苦しい」と訴えた場合に備えたトリアージプロトコルを構築しました。AIは自動的にそのシグナルを検知し、即座に人間のオペレーターへ通話を転送します。この設計において重要なのは、人間は「ループの中」にいるわけではないという点です。通常の通話はAIが自律的に処理します。しかし危険なシナリオが発生した場合に備えて、人間は常に「待機状態」にあります。この転送がどれくらいの頻度で発生するかは、ユースケースによって大きく異なります。例えば、退院直後の心不全患者へのフォローアップ電話であれば、10回に1回は転送が発生することもあります。一方、血圧のリモートモニタリングのデータ収集目的の電話であれば、1,000回に1回、あるいは1万回に1回という低頻度にとどまります。安全設計はユースケースの性質に応じて細かくチューニングされるべきものであり、一律に語れるものではありません。
3. データの偏りとグローバルサウスにおける課題
3-1. アナログ・紙ベースデータの現状とAI適用リスク
Kate: グローバルな販売の観点から、特にアフリカをはじめとする新興経済圏に深く関わっている立場から申し上げると、私たちはいまだにほとんどのシステムがアナログ・紙ベースの非常に断片化された非構造化データで動いている現実の中にいます。PDFは至るところに散らばっており、政府のシステムでさえ今日もなお紙のフォーマットで運用されているケースが大半です。AIツールや「インテリジェントな同僚」を大規模に導入したいという意欲はあります。しかしその前に解決しなければならない制約が山積みです。
最大のリスクは、モデルを現地の現実に根ざしたデータでグラウンディングしないまま展開してしまうことです。そうすると、搾取的な構造や悪循環を再生産してしまう危険があります。モデルは非常に不完全なレコードに基づいて、自信満々に判断を下してしまうからです。例えば、市民登録台帳がデジタル化されていない、土地登録もデジタル化されていない、そういった状況で国を効率的に管理し、市民に関する意思決定を行うことができるでしょうか。非常に知性的に見えるモデルが自信を持って答えを出してくる場面で、それに従うのか、それとも公務員を配置して人間を意思決定ループに残し続けるのか、という問いに直面することになります。
だからこそ私たちは、各省庁・各政府・各機関に固有のナレッジベースの構築支援を最初のステップに据えています。データのデジタル化と変革を先行させることが、AIツールを本当に使いこなすための前提条件だと考えているからです。
3-2. AI主権の実現戦略:最小バリアブル・コンピュートインフラとデジタル格差の連鎖
Kate: ここで私が「部屋の中の象」と呼びたいもう一つの問題があります。それはコンピュート能力の問題です。私たちはこの議論をどこか「豊富さ」を前提にした場所から話していますが、私が活動している国々では、労働力のアップスキリングを語る以前の段階にいます。私たちはまさに新しいデジタル経済に参入しようとしているところです。今後10年間で、新興市場において労働市場に参入する年齢に達する人口が12億人増加すると予測されています。しかし創出される雇用は4億件にとどまると見込まれており、その差は8億人分です。その大半がアフリカです。インフラを整備せず、コンピュート能力へのアクセスを提供せず、デジタルデバイドをそのまま放置すれば、それはデータデバイドに複合し、さらにコンピュートデバイドとなり、最終的にはAIジョブデバイドへと連鎖します。これは絶対に許してはならない事態です。
司会: AIの主権をどう実現するかについて、お考えを聞かせてください。
Kate: それがまさに私の会社が取り組んでいることです。私たちはグローバルサウスの国々に向けてソブリンAIを構築しています。政府と協力してデータを変革し、「ギガワット級のデータセンターを建設しなくても、自国のAIシステムを持てる別の道がある」ということを理解してもらうよう支援しています。その鍵となる概念が「最小バリアブル・コンピュートインフラ」です。国全体のデータをすべて抱える必要はありません。市民に関わる医療・行政といった重要データを、自国の主権の下、国境内に保持できる最低限のインフラを特定し、そこから始めればいい。
その上でもう一つの層があります。それは既存のモデルにアクセスし、ローカライズされたデータパイプラインを統合してファインチューニングを行い、自国の現実を反映したモデルを作り上げることです。そしてその最初の顧客は政府でなければなりません。グローバルサウスの多くの経済圏では、政府が依然としてイノベーションの主要な推進力です。政府自身がAIを率先して採用し、エコシステム全体に対して「このようにやるのだ」と示す。そしてコンピュートへのアクセスを開発者・スタートアップ・イノベーターに開放していく。この順序が重要です。デジタルデバイドとデータデバイドがコンピュートデバイドに転化し、AIジョブデバイドへとなだれ込む前に、この構造的な問題に向き合うことが今最も急務だと私は考えています。
4. AIによる人材育成とスキルアップの可能性
4-1. ゼロスキルギャップを目指すAIメンタリングの設計思想
司会: これまでの議論はAIをどう訓練するかという話が中心でしたが、逆にAIが人間を訓練し、スキルアップを支援するという側面についてはどうでしょうか。
Kean: フォーチュン500企業など44社のエンタープライズを見渡してきた経験から申し上げると、企業が理想とするのは「ビジネスに必要なスキルをすべて社内に揃えた状態」、つまり常にスキルギャップがゼロである状態です。スキルギャップが生じたらすぐに埋めたい。そしてそれを、誰も取り残さず、恐怖を与えず、「自分もやっていける」という自信を持たせながら実現したい。ここでAIメンタリングの問いが浮上します。こうした成果を実現できる優れたAIメンターをどう設計するか、ということです。
多くの人がメンタリングの問題を「学習」の問題に矮小化しがちです。この10年間、「コースを受講して修了する」というアプローチが取られてきましたが、定着率は芳しくありませんでした。メンタリングの本質は学習そのものではなく、別のところにあると私は考えています。
4-2. スタンフォード調査から見えた「卓越さの基準」の欠如という気づき
Kean: スタンフォードでの授業の経験から、非常に示唆的な気づきがありました。スタンフォードは授業をYouTubeで公開することがあり、キャンパスでは約1,000人の学生が受講する一方、オンラインでは数十万人、時には数百万人が視聴します。そのオンライン受講者に「スタンフォードの学生との違いは何だと思いますか」と尋ねると、彼らはほぼ例外なく「教材の内容ではない」と答えます。では何が違うのか。「卓越さの基準が分からない」「自分がその基準からどれだけ離れているのかが分からない」というのが彼らの答えです。
キャンパスにいるスタンフォードの学生には、OpenAIやMeta、Googleに友人がいます。彼らは常にフィードバックのループの中にいて、目指すべき報酬が何かを知っており、どんなチャンスが開かれようとしているかを肌で感じています。一方、オンラインの受講者にはそのループがない。つまり、優れたメンターに必要なのは、学習コンテンツの提供ではなく、働く人に対して適切な目標を設定し、適切な報酬を提示し、自分のギャップを正確に把握させることです。それさえできれば、学習の問題は自然と解決されます。十分に大きなニンジンがあれば、人はそのニンジンを手に入れるために最善を尽くすものです。AIメンターが果たすべき役割はまさにここにあります。
Enrique: その話に関連して、データの精度と正確さについても触れておきたいことがあります。AIの同僚やモデルに対して、私たち自身の従業員に対するよりも厳しい基準を求めすぎないよう注意が必要だと思っています。人間は誰でも間違えます。私たちはコールセンターでAIモデルを使ってきましたが、完璧ではありません。間違った答えを出すこともある。しかし、長年その業務を担ってきた人間の従業員よりも正確であり、顧客の満足度も大幅に向上しています。AIに対してどれだけ厳しい基準を課すかは、人間のパフォーマンスとのバランスの中で考えるべきです。私たちも常に多くの間違いを犯しているのですから。
Kristoff: まさにその通りで、付け加えるとすれば、私たちが数千社のクライアントのAI導入と拡張を支援してきた経験から言うと、テクノロジー自体はボトルネックではありません。モデルは機能しますし、まだ発展途上ではあるもののエージェントも動きます。企業のAIジャーニーを成功させるか失敗させるかは、技術ではなく、人々の働き方を本当に変えられるかどうかにかかっています。そのためにはプロセス、組織、インセンティブ、スキル、リーダーシップ、そして文化を変えなければならない。これは技術的な課題よりもはるかに大きなファクターです。
5. AI導入の成否を分けるのは技術ではなく組織変革
5-1. プロセス・インセンティブ・文化の変革がボトルネック
Kristoff: 私たちが世界中のリーディングカンパニーとAIの取り組みをする中での最大の確信は、テクノロジーはボトルネックではないということです。モデルは機能します。エージェントもまだ初期段階ではありますが、機能しますし、これからも機能するようになります。企業のAIジャーニーを成功させるか失敗させるかを決めるのは、テクノロジーではありません。人々の働き方を本当に変えられるかどうかです。そのためには、プロセス、組織、インセンティブ、スキル、リーダーシップ、そして文化を変えなければならない。これらは技術的な課題よりもはるかに大きなファクターです。
世間ではいまだにテクノロジーの話ばかりが取り上げられすぎています。私たちはもっとスキルの話を、ポジティブなセンチメントの話を、チェンジマネジメントの話をすべきです。それこそがAI導入の成否を分けると、私は強く確信しています。
Enrique: プロセスの再設計という点では、私も同じ考えです。AIを日々の業務の補助として使っているだけでは、大きなインパクトは生まれません。本当に効果が出るのは、プロセス自体を根本から再設計したときです。まずプロセスを再設計し、その新しいプロセスの中でAIと技術をどう活用するかを考える。その順序が重要です。その順序を守ることで、インパクトは劇的に変わります。
5-2. CEO主導による正のフライホイールの形成
Kristoff: 組織変革を実現するための最も重要な条件として、私たちが強調しているのはCEOが主体的に関与することです。AIをどこか組織の下位に委ねてしまうと、テクノロジー、人材、インセンティブ、文化といった重要な要素をつなぎ合わせることができなくなります。これはCEOの問題として扱われなければならない。CEOが自らスキルを身につけ、大胆な投資を行い、組織全体をアップスキルしていく。そうすることで、従業員が「これは本当に役に立つ」「これは素晴らしい体験だ」「これが好きだ」と感じ始める。そこから自己強化的な好循環、つまり正のフライホイールが回り始めます。
このフライホイールが回り出すと、AI活用の成熟度も急速に上がっていきます。BCG社内での経験を申し上げると、2025年を通じて「AIツールのおかげで本当に助かっている」と答える社員の割合が指数関数的に増加しました。現在、BCGの社員の77%が「AIがあってよかった」と回答するに至っています。以前はその数字はずっと低いものでした。こうした採用率、幸福感、感謝の指標を丁寧に管理していくことが、最終的な生産性向上にもつながっていくと私は考えています。テクノロジーのパラメーターを神様のように扱い、完璧に測定できるかのように語る傾向がビジネス界全体にありますが、実際には従業員がどう働いているか、どう感じているかを測ることのほうが、成功の予測因子としてはるかに有効なのです。
6. AIの「人工的なジャグ知性(AJI)」:能力の非一貫性と実測データ
6-1. 肺結節スクリーニングで250人を受診に誘導した説得実験
Mjal: Karpathyが「AJI(Artificial Jagged Intelligence=人工的なジャグ知性)」という言葉を作りましたが、これは私たちが現場で繰り返し目撃していることを見事に言い表しています。AIが驚くほど得意なことと、「なぜそんなこともできないのか」と首をかしげるほど苦手なことが、まったく予測できない形で混在しているのです。
得意な側の例として、私たちが経験した肺結節のフォローアップのケースをお話しします。肺に結節が見つかった場合、CTスキャンによる追跡検査を受けることが推奨されます。しかしあるヘルスシステムでは、1,700人の患者に対して手紙、テキスト、あらゆる手段で受診を促したにもかかわらず、すべて拒否されていました。いわゆる「フォローアップ喪失」の状態で、医療現場では事実上「諦めた」という意味で使われる言葉です。私たちはその1,700人にAIで電話をかけました。するとAIは250人を説得し、検査を受けさせることに成功したのです。その中には実際にがんが見つかった患者もいました。つまり命が救われたということです。説得という、人間でも非常に難しいとされるスキルにおいて、AIは驚異的なパフォーマンスを発揮しました。
6-2. スケジューリングでのGPT-4o幻覚率23%の実測と多重検査モデルによる解決
Mjal: ところが同じAIが、スケジューリングという一見単純なタスクで壊滅的な失敗を犯します。「3つの予約時間を提案してください」という指示に対して、GPT-4oをベンチマークしたところ、23%の確率でハルシネーション(幻覚)が発生することが分かりました。4回に1回近く、存在しない予約枠を提示したり、辻褄の合わない時間を出力したりするのです。クリニックで4人に1人が「予約したはずなのに」と言いながら訪れる事態を想像してみてください。それは現実の運営として完全に成立しません。
しかも常識的な配慮も欠けています。例えば「私と妻の予約を2つ取りたい、一緒に車で来るので連続した時間にしてほしい」という要望に対して、自然に対応できない。説得は難しいスキルのはずで、スケジューリングは簡単なスキルのはずです。ところが現実はまったく逆でした。
この問題を解決するために、私たちはモデルがモデルを検査し、さらにそれをモデルが検査するという多重検査の仕組みを構築しました。この三重の検証プロセスによって、ハルシネーション率を1%未満にまで抑えることができました。AJIの本質はここにあります。どのタスクが得意でどのタスクが苦手かを事前に直感で判断することはほぼ不可能であり、だからこそ実測に基づいた検証と、モデルによる相互チェックの仕組みが不可欠なのです。
7. AI活用の効果測定:生産性・満足度の指標と知見
7-1. 利用頻度と習慣化の関係、BCG社内77%満足度への到達プロセス
司会: エージェントや社内AIシステムをうまく機能させられているかどうか、どうすれば分かるのでしょうか。生産性が向上しているかどうかを測る方法はあるのでしょうか。
Kristoff: すべてのCEOの夢は生産性を完璧に測定することですが、正直に言うと、その大半は非常に難しい。IT部門やマーケティング部門に「生産性がどう変わったか説明してほしい」と聞きに行っても、納得のいく答えが返ってくることはほとんどありません。では実際に何を測るべきか。私たちが非常に有益かつ成功の予測因子として機能すると発見したのは、まず「その組織の従業員が習慣的にそのツールキットを使っているかどうか」という指標です。
データから見えてきたのは、週に1回しか使わない場合、それは気が散るだけでむしろ生産性を下げるということです。毎日複数回、あるいは少なくとも1日1回使うようになって初めて、それが日常の規範となります。使えば使うほど学習が速まり、経験が積まれ、より多くの成果を引き出せるようになる。だからまず測るべきは採用率と利用頻度です。
次に測るべきは従業員満足度です。大企業が行うような従業員サーベイで「実際に楽しいか、役に立っているか」を問うのです。BCG社内での経験を申し上げると、2025年を通じて「AIツールのおかげで本当に助かっている」と答える社員の割合が指数関数的に増加しました。現在、BCGの社員の77%が「AIがあってよかった」と回答するに至っています。以前はその数字はずっと低いものでした。採用率、幸福感、感謝の指標を丁寧に管理していくことで、最終的には生産性も測定できるようになります。テクノロジーのパラメーターを神様のように扱い完璧に測定できるかのように語る傾向がビジネス界全体にありますが、従業員がどう働いているか、どう感じているかを測ることのほうが、成功の予測因子としてはるかに有効なのです。
7-2. HPのワークフォース調査とAIの「同僚」としてのオンボーディング論
Enrique: この点を裏付けるデータポイントを共有させてください。私たちは毎年「ワークフォース・リレーションシップ・インデックス」と呼ぶ調査を実施しており、世界中の複数の企業・国にわたって、人々が仕事についてどう感じているか、個人的な目標や職業的な目標を達成できているかを尋ねています。そこから分かったことは、AIを日常的に活用している人たちは、そうでない人たちと比べて仕事への満足度が高いということです。AIがもたらす価値を実感し始めており、生産性が上がるだけでなく、仕事そのものに対してより良い感情を抱いています。また、生産性の数値に表れない部分でも、AIは大きな価値を生んでいます。15%のコスト削減は達成できないとしても、チームメンバーが自分の仕事に誇りを持ち、充実感を感じることは、組織全体にも確実に好影響をもたらします。
Kristoff: それに加えて申し上げると、もしAIを本当に「同僚」として捉えるなら、人間の同僚と同じように扱うべきです。人間を採用するとき、私たちは時間とコストをかけてリクルートし、オンボーディングし、指示を与え、立ち上げまでの期間を経て、フィードバックを与え、訓練し、より大きな役割に昇格させ、時には手放すこともします。AIエージェントやAI同僚ソリューションも、まったく同じプロセスで扱われるべきです。オンボーディングがあり、トレーニングがあり、人間に対するのと同じように貢献度を測ることができる。AIを同僚という枠組みで真剣に捉えるなら、その導入の初期プロセスを軽視すべきではありません。
8. AIによる人間の判断補完の限界とグローバルな公正性
8-1. USAIDナレッジベース化の好事例と資源配分判断での越権リスク
司会: データの希少性という観点から、AIが人間の判断を補完すべき領域と、人間にとどまるべき領域の境界線についてどうお考えですか。
Kate: 私はグローバルリーダーシップ協議会「Reimagining Aid」に参加しています。援助の専門家というわけではありませんが、AI専門家として参加を求められた理由は、テクノロジーを意思決定にどう組み込むかを根本から再考・再構築する必要があるという認識が広がっているからです。現在の開発援助の構造を見ると、グローバルノースの国々がグローバルサウスの問題への投資先を決定していますが、現地のデータを十分に統合しないまま判断が下されています。
その最も象徴的な事例がUSAIDの解体です。USAIDが解体されたとき、あるエコノミストがこれまでUSAIDが実施してきたプロジェクトのナレッジベースを構築し始めました。数十年にわたる活動の中で、どこに投資し、そのプロジェクトが現場でどういう成果を上げたかという膨大なデータが存在します。そのナレッジマネジメントシステムを構築することで「私たちは何十年もこれをやってきた。そのデータという宝の山を使って、より良い判断を下し、そのシステムをより良い形で再構築できるのではないか」という問いに答えようとしています。これはAIの非常に優れた使い方だと私は評価しています。
一方で、AIが越えてはならない一線があります。それは、例えばどの市民やどのコミュニティがより多くの資本を受け取るべきかという判断を、AIに委ねてしまうことです。異なる文化・コミュニティ・国が持つ固有性や機会、そして課題は、モデルにはまだ理解できません。だからこそ人間の判断が不可欠な領域があるのです。
8-2. コンピュート格差・データ格差・AIジョブ格差の連鎖と800万人の雇用ギャップ
Kate: この議論全体を通じて私が感じる「部屋の中の象」は、コンピュート能力の問題です。私たちはここで豊かさを前提にした場所から話をしていますが、私が活動している国々では状況がまったく異なります。今後10年間で新興市場において労働市場に参入する年齢に達する人口が12億人増加すると予測されています。しかし創出される雇用は4億件にとどまり、その差は8億人分です。その大半がアフリカです。
このギャップに対して、インフラを整備せず、コンピュート能力へのアクセスを提供せず、デジタルデバイドを放置すれば、それはデータデバイドに複合し、コンピュートデバイドとなり、最終的にはAIジョブデバイドへと連鎖します。実際にアフリカでGPUを調達しようとしても、それ自体が非常に困難な状況にあります。インフラ、主権、GPUの供給、そして若い世代がそのシステムを使いこなせるようになるためのアップスキリング。これらはすべて、あなた方の会社のデフォルトのインターフェースとなりつつあるAIから、私たちも恩恵を受けるために不可欠な条件です。AIが世界標準のインターフェースになっていく中で、その恩恵を一部の地域だけが享受し、他の地域が取り残されるという構造は、絶対に許してはならないと私は考えています。豊かさの議論と同時に、この現実にも目を向けた複合的な感情と認識を持って議論を進めることが必要です。
9. 労働者のエージェンシー醸成と耐久スキル・消耗スキルの戦略
9-1. AIネイティブ人材不足と内製化、トップダウン学習義務化の効果
司会: AIシステムを職場に導入するにあたって、労働者自身のエージェンシー、つまり自律性をどう確保するかという問題があります。AIが労働者自身にとってメリットをもたらすものになるためには、どうすればよいでしょうか。
Kean: エージェンシーは今まさにトレンドになっているテーマです。採用によって確保することも可能ですが、現実問題として、今日ほとんどの組織は内製化するしかありません。AIネイティブな人材は絶対的に不足しており、その大半はハイパースケーラーやスタートアップに吸収されてしまっています。つまり、内部で育てる以外に選択肢がないのです。
そのような行動変容を組織の内側から生み出すためには、HRとL&D(ラーニング&デベロップメント)を根本から再発明する必要があります。この10年間、L&DとHRは「福利厚生」として位置づけられてきました。自己主導型の学習、「ここにジムがあります、ボディビルダーになってください」という発想です。しかし現実はそう簡単ではありません。
私が実際に効果があると確認してきたのは、よりトップダウンなアプローチを取る企業です。学習をビジネス上の必須事項として位置づけることで、組織内部に特定の変化が生まれます。例えば「AIドライバーライセンス」の取得を義務化するという施策を取ることを恐れる企業もありますが、実際に実施してみると、従業員の反応は予想外にポジティブなものでした。「何かを義務として求められ、それを達成したら報酬が得られる、そして会社がそこまでするということは、自分たちのことを解雇するつもりはなく、将来に向けて投資してくれているということだ」と受け取られるのです。義務化と報酬のセットが、従業員の不安を取り除き、学習への動機づけとして機能するということです。
9-2. 耐久スキルと消耗スキルの二分類とコーディングの継続的重要性
Kean: Kateの指摘にも関連しますが、将来どのスキルが有用かを完全に予測することはできません。しかしスキルを二つのカテゴリーに分類することはできます。一つは「耐久スキル」、もう一つは「消耗スキル」です。耐久スキルとは、10年後にも確実に有用であると分かっているスキルです。問題解決能力、批判的思考、コミュニケーション能力、そしてコーディング。これらは長期にわたって価値を持ち続けます。一方、消耗スキルとは6ヶ月ごとに変化するようなスキルです。企業はこの二つのカテゴリーに対して、まったく異なる戦略で臨む必要があります。扱い方が根本的に異なるからです。
司会: コーディングについては最近「時代遅れになりつつある」という声も聞かれますが、それでもコーディングは重要だとお考えですか。
Kean: はい、私は全員がコーディングできるべきだと思っています。ただし「コードを書く」という意味ではありません。AIツールと協働しながら自分でものを作れるようになる、という意味です。これについては多くの議論がなされており、私も完全に同意しています。コーディングは依然として耐久スキルの中核であり続けます。AIがコードを生成するようになったとしても、何を作りたいか、どう設計するか、何が正しいかを判断できる人間が必要です。その土台となる能力こそがコーディングの本質であり、それは消えないと私は考えています。
10. 将来の組織構造・雇用・キャリアパスの再設計
10-1. ピラミッド型組織の崩壊予測とエントリーレベル職の消失問題
司会: エントリーレベルの仕事が失われつつあるという話が出始めています。人が組織の中で成長していくのは、こうした初歩的な仕事を通じてです。私自身、最初の仕事はファクトチェッカーでしたが、それがより良いレポーターに、そして編集者になるための訓練になりました。AIエージェントに電話対応やタスク整理といった、いわゆる「下積み仕事」を任せるようになると、若手が職業的に成長するための経路が失われるのではないでしょうか。
Enrique: この問いはさらに広い問題を含んでいます。今日から5年後・10年後・15年後、企業の構造がどうなっているかを正確に予測することは非常に難しい。私たちの会社も含め、今日の企業のほとんどはピラミッド型の構造を持っています。エントリーレベルの従業員がいて、時間をかけて、あるいはより熟練するにつれて昇進していく。しかしAIによって全面的に変革された企業の構造は、根本的に異なるものになるでしょう。今日の組織は、過去30年・40年にわたって使ってきたプロセスによって形成された機能別の構造です。Kristoffが言うように、AIはまずこれらのプロセスを変革し始めます。プロセスが変われば、既存の機能はもはや必要なくなり、別の種類の機能が必要になるかもしれない。組織全体への影響は、私たちが今後数年間、共に学びながら明らかにしていくものです。唯一確かなことは、これまで見てきたものとは異なるものになるということだけです。
Mjal: 私もEnriqueの見方に同意しますが、少し違う角度から補足させてください。確かに新しいテクノロジーの一次的な影響は見えやすいですが、二次的な影響を見通すことは非常に難しい。しかし私たちはすでにその片鱗を見始めています。それが「豊富性の仮説」です。
10-2. 医療「豊富性の仮説」と希少性から豊富性へのパラダイムシフト
Mjal: 例えば医療を考えてみてください。理想的な医療スタッフの配置とは何でしょうか。それは患者一人ひとりに一人の医療従事者がつく、完全な一対一のケアです。教育でも同じことが言えます。一人の教師対一人の生徒が最良の学習環境です。しかし米国には看護師が500万人しかいないのに対し、人口は3億6,000万人います。そのギャップは埋めようがありませんでした。
ここで私の母の話をさせてください。6年前、母は高血圧と診断されて帰宅しました。しかし家族には何も言わず、降圧薬も飲みませんでした。6年後のある夜、血圧が220まで上がり、うっ血性心不全の初期症状で病院に運ばれました。私は子として自分を責めました。しかし実際には、病院からも医師からも誰も電話をかけてきませんでした。「Mrs. Shaw、降圧薬を補充していませんね。実は何ヶ月も補充されていません。今の血圧を測ってもらえますか」と声をかける人間が一人もいなかったのです。AIがあれば、この種の継続的なフォローアップを無限に提供できます。
つまり、医療において吸収できる豊富性は無限にあるのです。この垂直領域における理想的なスタッフ配置を再考すれば、AIがその大部分を担い、人間はAIを監督し、エスカレーションの判断を行い、新たなユースケースを考案する役割を担うという構造が見えてきます。
人類の歴史を振り返ると、私たちはほぼあらゆるものにおいて希少性を前提に行動してきました。希少性をめぐって戦争を起こし、名前すら希少性を象徴するような島を巡って争ってきました。しかし今、人類史上初めて、真の豊富性を手にしようとしています。私たちの文明全体、思考様式全体が希少性の上に構築されてきた以上、この豊富性というまったく新しいフレームワークへの移行は容易ではありません。しかしそれを世界のあらゆる地域にもたらしていかなければならないのです。
10-3. 定量的雇用数より定性的キャリアの質が問われる時代へ
Kristoff: 私はこの変化を三つの次元で捉えています。一つ目は、BCGのようなコンサルティングファームを含む多くの企業が、AIによって実現するアウトカムに対してより直接的に報酬を支払うビジネスモデルへ移行しつつあるということです。これは劇的な変化です。二つ目は、先ほど申し上げた通り、技術的な問題を解決するだけでなく、組織的・人材的な問題を同時に解決しなければならないという認識が広がっていることです。そして三つ目が、組織は固定されたオルグチャートではないという点です。そのボックスの中には人間がいて、その人間は経験を通じて学び、成長し、別の役割へと移行していきます。
何人の人材が必要か、どのロールが必要かという定量的な問いは引き続き重要です。しかしそれよりも大きな問いが浮上してきています。看護師のキャリアパスはどうなるのか。HRのプロフェッショナルは、コンサルタントは、営業・マーケティングの担当者は、エンジニアはどういう職業的な歩みを歩むのか。2035年のコーダーたちは今日どのように訓練されているのか。こうした定性的な問いが、定量的な雇用数の問いよりも重要になってきています。社会的な観点からは雇用数の議論が注目を集めますが、企業の現場では、キャリアの質的な再設計こそが最も急を要する課題だと私は考えています。
11. AI活用のトレンド深化と業界横断的な拡大
11-1. コールセンターから製薬R&D・保険引受・コーディングへの浸透
司会: 多くのクライアントを抱え、BCGという大きな組織を自ら率いているKristoffに聞きたいのですが、職場にエージェントを導入し、AIを活用する上で、どのようなトレンドが業界を横断して広がっているのでしょうか。
Kristoff: 私が最も興味深いと感じているのは、過去12〜18ヶ月の間に、クライアント向けのAI業務の機能的な構成がいかに大きく進化したかという点です。生成AIが世に出た当初、最も多かったユースケースはコールセンター、つまり顧客対応センターの自動化でした。人間のエージェントの生産性を上げ、スクリプトをより適切なものにし、対応の質を高める。これは非常に直感的で理にかなったアプローチであり、実際に今も進行中です。
しかし過去12〜18ヶ月で、AIおよびエージェント型AIの活用は、最も洗練された企業の深い技術的・付加価値の高い領域へと入り込んできました。具体的に申し上げると、製薬会社のR&D、レギュラトリー対応、治験管理へのAI活用が進んでいます。テック企業ではコーディング、ソフトウェアのメンテナンス、ドキュメンテーション、テストの領域に深く浸透しています。大手保険会社では高度なアンダーライティング(引受審査)にAIが使われるようになっています。そして世界トップクラスの消費財メーカーでは、マーケティング、コンテンツ制作、キャンペーンデザインの領域で本格的な活用が始まっています。
コールセンターの重要性を軽視するつもりはありませんが、私たちが今目撃しているのは、AIがその業界で勝者になるか敗者になるかを左右する中核機能の中枢へと入り込んでいるという事実です。これは単なるコスト削減の手段から、競争優位の源泉へとAIの役割が根本的にシフトしていることを意味しています。
Enrique: まさにそうです。AIについて語るとき、私たちはどうしてもコスト削減の文脈で考えがちです。確かにその影響は現実のものとしてあり、ポジティブなものです。しかし同時に、AIは企業がより速く動き、より良いイノベーションを生み出し、より優れた顧客体験を提供するための力にもなります。コストインパクトだけに目を向けるのではなく、これらすべての要素を総合的に見ていく必要があります。AIがコアな業務領域に浸透するほど、こうした多面的な価値がより大きく発現してくるはずです。
12. 質疑応答と各パネリストの最終提言
12-1. ROI断片化問題と医療領域での実測投資対効果
聴衆: 非常に楽観的なパネルでした。一つ実務的な質問をさせてください。最初にAIはジョブではなくタスクをこなすという話がありましたが、一方でスキルやキャリアパスを根本から再考する必要があるという話もありました。多くの企業がAI投資でROIを得られていない理由の一つは、6分間の生産性向上や36分間の効率化といった断片的な成果が積み重なるだけで、3ヶ月分の工数削減には到達しないからです。この断片化されたROIの問題に、どう対処すればいいのでしょうか。
Enrique: ROIを実感できないのは、AIを既存の日常業務の補助として使っているからだと思います。本当に大きなインパクトが生まれるのは、プロセス自体を根本から再設計したときです。まずプロセスを再設計し、その新しいプロセスの中でAIと技術をどう活用するかを考える。その順序を守ることで、インパクトは劇的に変わります。
Mjal: 私たちが「エマージェント(創発的)ユースケース」と呼ぶ領域では、ROIの断片化は起きません。いくつか具体的な数字をお示ししましょう。あるヘルスシステムでは200ドルの投資に対して130万ドルのリターンを得ました。別のケースでは、患者を院内薬局のスペシャルティ薬に呼び戻すために1万ドルを投じて、年間150万ドルのリターンを得ています。また先ほどお話しした肺結節スクリーニングのユースケースでは、2,000ドルの投資に対して200万ドルのリターンが得られました。これらが断片化しないのは、誰もまだやっていない領域だからです。既存業務の改善ではなく、これまで誰も手をつけていなかったことを新たに実現しているので、ROIが分散することなく丸ごと捕捉できるのです。
Enrique: 同時に、5分・15分という小さな時間の節約も、チームメンバーが自分の仕事についてどう感じるかという点で大きな意味を持ちます。コスト削減として15%の改善ができなくても、その人が仕事に誇りと充実感を感じることは、組織全体にも確実に影響をもたらします。ROIの測り方を広げる必要があります。
Kean: ROIの測り方という点では、組織によってまったく見え方が異なります。ある組織では「1日6分の改善」に見えても、別の組織ではエージェントが裏で常に動き続けているかもしれない。それはシステムの設計が根本的に違うからです。プロンプトエンジニアリングの定義一つを取っても、トップのAI企業とそれ以外の企業では大きな乖離があります。あるところでは「モデルをどう誘導するか」という程度の理解にとどまっています。しかし別のところでは、ゼロショット・フューショットプロンプト、思考の連鎖(Chain of Thought)、エージェント的ワークフロー、RAG(検索拡張生成)、推論といった高度な概念として捉えられています。6分という成果も、組織の設計次第で全体的なエージェントの稼働に変わりうる。その差はAIリテラシーの格差から生まれているのです。
12-2. 組織がAI導入で犯しがちな失敗:技術偏重・人間的価値の喪失・実験不足
司会: 残り時間が少なくなってきました。エージェントを職場に導入しようとするとき、組織が今犯しがちなミスについて、それぞれ簡潔にお聞かせください。
Kean: 私が注目しているのはタレント(人材)の意思決定です。採用、解雇、パフォーマンス管理、アップスキリング、リスキリング、社内異動。これらは今日、ほぼすべてが勘に頼った判断であり、大半が間違っています。しかし今後数年のうちに、AIは最も優秀な人間よりも、最もバイアスの少ない人間よりも、はるかに正確なタレント決定を下せるようになるでしょう。Kristoffが言うように、エージェントを効果的に動かすためには人材のスキルに関するコンテキストが必要であり、そのコンテキストはAIから得られるようになります。数年後には、採用面接にAIを使わないことが法的に問題になるほどになるかもしれません。なぜなら、人間によるプロセスのほうが劣っていることが明らかになるからです。
Mjal: 私が強調したいのは、実験に集中することの重要性です。AIをソフトウェアと同じように導入しようとしている企業が多すぎます。しかしソフトウェアは特定の一つのことをこなす特化型の知性でした。10人で試したパイロットの結果が、全員への展開時にそのまま再現できました。しかしAIは違います。ChatGPTで悪い答えが返ってきたからといって、ChatGPT全体を捨てますか。そうではなく、別のプロンプトを試みるはずです。最初の試みがうまくいかなかったからといって、AI活用の取り組み全体を諦めてしまうことが最大のミスです。私たちが推奨しているのは、10のユースケースを並行して試すことです。どれかは機能し、どれかは機能しない。この段階では、どれが機能してどれが機能しないかを事前に正確に予測することは難しいのです。
Kate: AIを魔法の杖だと思い込み、展開するだけですべてがうまく回ると期待してしまうことが失敗の入口です。同時に、エージェントが同僚として機能するのであれば、個人貢献者の一部がそれらを管理する立場に移行できるよう、ワークフォースのリスキリングを進めなければなりません。自分たちの人材をその次のレイヤーへと引き上げる支援をすること。それが私からのアドバイスです。
Kristoff: 数多くのことが失敗の原因になりえますが、特に二つが際立っています。一つ目は、これを純粋に技術的な課題として扱ってしまうことです。技術的な解決策は得られても、実質的に何も改善されません。二つ目は、人間にしかできないことを見失ってしまうことです。曖昧さに対処する能力、判断力、共感、ケア、親しみやすさ、そして他者を動機づけて新しい行動へと向かわせる意志。これらは私の考えでは消えることはなく、むしろますます重要になっていきます。組織の中でこれを見失えば、本当に深刻な問題に直面するでしょう。
Enrique: 私が付け加えるとすれば、AIについて語るとき、私たちはどうしてもコスト削減の観点から考えがちだということです。確かにそのインパクトは現実のものとしてあり、ポジティブです。しかしAIは同時に、企業がより速く動き、より優れたイノベーションを生み出し、より良い顧客体験を提供するための力でもあります。コストインパクトだけを見るのではなく、これらすべての要素を総合的に捉えていくことが必要です。
