※本記事は、All Things Openが2025年1月に開催したSpacewalk meet-upでのパネルディスカッション「The Impact of Artificial Intelligence in 2025: Opportunities and Strategies for Career and Business Success」の内容を基に作成されています。パネルディスカッションの動画は https://www.youtube.com/watch?v=PIrF6rb6HVw でご覧いただけます。モデレーターのMark Hinkle氏(AI consultant)、およびパネリストのFranziska Hinkelmann氏(Google Senior Engineering Manager)、Bill Higgins氏(IBM watsonx Platform Engineering VP)、Jon Reifschneider氏(Duke University AI Master of Engineering program創設ディレクター兼Inquisite AI CEO)、Sachin Solkhan氏(Fidelity Investments VP)による議論を詳細に記録しております。本記事では、パネルディスカッションの内容を要約・整理しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご視聴いただくことをお勧めいたします。All Things Openの詳細情報は https://allthingsopen.org/ でご確認ください。
1. イベント概要とパネリスト紹介
1.1 イベントの背景(All Things Open AI 2025)
このパネルディスカッションは、All Things Openが主催する年次Spacewalk meet-upの一環として2025年1月に開催されました。All Things Openは、オープンソース技術コミュニティにおける重要なイベントプラットフォームとして機能しており、AI分野での技術的な進歩と実用化に焦点を当てた専門的な議論の場を提供しています。
イベント主催者は、今後の関連イベントとして2つの重要な日程を発表しています。まず、All Things Open AI 2025が2025年3月17日から18日にかけてノースカロライナ州ダーラムで開催される予定です。続いて、より大規模なAll Things Open 2025のメインカンファレンスが同年10月12日から14日にかけてノースカロライナ州ローリーで実施される計画となっています。これらのイベントは、AI技術の進歩と実用化に関する継続的な知識共有と議論の機会を提供することを目的としています。
今回のパネルディスカッションのテーマは「The Impact of Artificial Intelligence in 2025: Opportunities and Strategies for Career and Business Success」として設定されており、2025年におけるAIの影響、特にキャリアとビジネス成功のための機会と戦略に焦点を当てています。このテーマ設定は、AI技術が単なる破壊的イノベーションを超えて、ビジネスと専門職の変革における中核的な推進力として機能していることを反映しています。
パネルの構成は、AIが役割、産業、競争優位性をどのように再定義するか、今年度において専門家と企業にとって不可欠なスキルとマインドセット、そしてAI駆動産業におけるイノベーションとリーダーシップの新興機会という3つの主要な問いを中心に組み立てられています。このアプローチにより、理論的な議論だけでなく、実践的で行動可能な洞察を提供することを目指しています。
さらに、イベントではtheaienterprise.ioニュースレターへの登録も推奨されており、これはAI企業向けの継続的な情報提供プラットフォームとして位置づけられています。このように、単発のイベントではなく、継続的な学習とネットワーキングの生態系の一部として本パネルディスカッションが企画されていることが示されています。
1.2 モデレーター:Mark Hinkle(AI consultant)
Mark Hinkleは、30年以上にわたる豊富な経験を持つAIコンサルタントとして、今回のパネルディスカッションのモデレーターを務めました。彼の専門分野は、エンタープライズソフトウェア、クラウドコンピューティング、DevOps、そしてオープンソーステクノロジーという広範囲にわたる技術領域をカバーしています。
Hinkle氏の現在の主要な活動は、ビジネスリーダーに対してAI技術の採用と最適化に関する指導を行うことです。彼は特に、生産性向上と成長促進を目的としたAI活用において、深い技術的専門知識と実用的なアプローチを組み合わせた価値提供に特化しています。その対象は、中間管理職からC-suite(最高経営陣)まで幅広い経営層に及んでいます。
特筆すべきは、Hinkle氏が運営するArtificial Intelligent Networkの規模です。このプラットフォームは25万人以上の購読者を擁する大規模なネットワークとなっており、AI分野における影響力のある情報発信者としての地位を確立しています。イベント開催者によると、この数字は継続的に増加傾向にあり、技術コミュニティにおける彼の影響力の拡大を示しています。
イベント主催者からの紹介では、Hinkle氏について「極めて影響力のある技術分野の人物」として評価されており、その知識と人格の両面で高い評価を得ていることが強調されました。主催者は長年にわたる友人関係を通じて、彼の知性と人間性を深く理解しており、「地獄のようにいい人」という表現で彼の人柄を表現しています。
モデレーターとしての適格性について、主催者は「AI分野で長年活動し、AI関連のトピックを非常に深いレベルで理解している人物にモデレーションを依頼できることは大変光栄である」と述べています。この評価は、単なる技術的知識にとどまらず、複雑なAI技術を実践的なビジネス価値に変換する能力を持つ専門家としての彼の立場を示しています。
興味深い点として、Hinkle氏は自身をユーモラスに「コミックリリーフ」と表現し、パネルディスカッション中のスライドにGammaアプリを使用して作成した際に、AIが自動的に挿入した日本語の文字(彼が理解できない言語)について言及しています。これは、AI技術の予期しない動作に対する実体験として、技術者らしい観察眼を示すエピソードとなっています。
1.3 パネリスト4名の紹介と専門分野
Sachin Solkhan - Vice President, Intelligent Search, Fidelity Investments Sachin Solkhanは、Fidelity InvestmentsでIntelligent Search部門の副社長を務めています。彼は、AI製品エンジニアリングチームの構築と指導に焦点を当てた執行技術リーダーとして活動しており、人工知能技術の応用、ソフトウェアエンジニアリング、アジャイル実践に深い情熱を持っています。過去にはGoldman Sachsでの勤務経験もあり、金融業界における長期的な技術管理の経験を有しています。パネルでは、エンタープライズレベルでのAI実装と実用的なAI応用について語る予定です。
Jon Reifschneider - Founding Director, AI Master of Engineering program, Duke University & Co-founder/CEO, Inquisite AI Jon Reifschneiderは、Duke大学Pratt School of EngineeringにおけるArtificial Intelligence Master of Engineeringプログラムの創設ディレクターを務めています。彼は同大学で機械学習と大規模言語モデルに関する大学院レベルのコースを教えています。同時に、科学チームの知識集約的ワークフローを加速するAIプラットフォームであるInquisite AIの共同創設者兼CEOでもあります。学術界と起業家精神を両立させる人物として、AI教育と実用的なAI製品開発の両分野で活動しています。
Franziska Hinkelmann - Senior Engineering Manager, Google Franziska Hinkelmannは、GoogleでSenior Engineering Managerを務める著名なAIおよび機械学習エンジニアです。大規模な最先端ソリューションの提供における豊富な背景を持ち、高度なアルゴリズム、応用AI、システム最適化にわたる専門知識を有しています。彼女の業務は、企業がAIを活用して複雑な課題を解決する方法を実証することに焦点を当てています。技術的リーダーシップ、イノベーション、AI戦略におけるメンタリングへの貢献で知られています。また、Node.jsプロジェクトの長期的なオープンソースコントリビューターとしても活動しており、最近ニューヨーク市からトライアングルエリアに移住しています。
Bill Higgins - VP, IBM watsonx Platform Engineering and Open Innovation Bill Higginsは、IBMでwatsonxプラットフォームエンジニアリングおよびオープンイノベーション部門の副社長を務めています。AI駆動製品の構築において豊富な経験を持つ技術リーダーおよび製品イノベーターです。実用的なAI採用の強力な支持者として、複雑なAI機能を実世界のビジネスアプリケーションに変換することに焦点を当てています。ワークフローを最適化し、顧客体験を向上させるソリューションの設計と実装においてチームを指導することで知られています。オープンソースベースのスタック開発とエンタープライズ向けAI技術の成熟に深く携わっています。
2. AIが職業・キャリアに与える影響
2.1 ソフトスキルの重要性の回帰(Duke大学の視点)
Mark Hinkle(モデレーター): Jon、あなたはDuke大学でAI修士プログラムの学生たちを指導していますが、彼らがプログラムを修了した後の世界について、どのような準備をさせているのでしょうか。将来の役割についてどのように教えているのですか。
Jon Reifschneider: それは素晴らしい質問ですね。まず、我々が学生たちに伝えているのは「頑張って」ということです。冗談はさておき、この質問に対して少し異なる角度からアプローチしたいと思います。これは教育分野で我々が深く考えていることでもあります。なぜなら、AIは教育の性質を変えているだけでなく、我々が学生を準備すべき世界も2年から3年前とは大きく異なって見えるからです。
私が考える重要なポイントの一つは、ソフトスキルの重要性の回帰です。高等教育において、少なくとも私の経験では、ハードスキルとソフトスキルの重要性の間には振り子のような動きがあります。しばらくの間、その振り子はハードスキル領域にありましたが、今こそソフトスキルの重要性に向けて本格的に振り戻し始める時期だと考えています。
ソフトスキルという用語は実は私もあまり好きではありませんが、ここで言いたいのは批判的思考、問題解決、分析スキルといった、本質的に人間固有のスキルのことです。これらは我々がAIで容易に複製できるものではないと考えています。創造的で高い問題解決能力を持つ人間がAIを駆動するニーズは常に存在するでしょう。
たとえ将来、労働力の80%がAIエージェントで構成される世界になったとしても、それらを指導する人間の需要は依然として存在するでしょう。そのため、教育分野において、我々は次のプログラミング言語を教えたり、事実の暗記をさせたりするよりも、問題解決や批判的思考といったスキルをどのように教えるかにより多くの重点を置き始めると思います。
これらのスキルは今日でも一部の場所では存在していますが、高等教育全体を見渡すと、我々は必ずしもこれらのことを上手く教えているとは言えないのが現状です。
Mark Hinkle: それは本当に良い観点ですね。あなたが触れた内容は非常に重要なポイントを突いていると思います。私が見るほぼすべての調査、McKinseyや世界経済フォーラムからの今後数年間の最重要スキルに関する調査において、批判的思考が第一位に挙げられています。これは的を射た指摘だと思います。
この議論は、AI時代における教育の根本的な変革の必要性を浮き彫りにしています。従来の知識詰め込み型教育から、創造性と批判的思考を重視した教育への転換が求められており、Duke大学のような先進的な教育機関では既にこの変化への対応が始まっているのです。
2.2 雇用時に求められるスキル(Googleの視点)
Mark Hinkle: Fran、あなたはGoogleでチームを持っていて、採用もしていますね。あなたが求めているものは何でしょうか。これが自分のチームにどのような影響を与えているかについて聞かせてください。今日または昨日のニュースで、他のFANG企業の一つが「もうミッドレベルエンジニアは存在しない」と話していましたが、私はZuckerbergが言ったのと同じようには信じていません。彼は他のMarkですが、私ほど重要ではありませんが、この点についてどう思いますか。
Franziska Hinkelmann: 私が採用する際に重視しているのは、まずハードスキルです。自分の専門分野を知ること、その基盤となる技術を理解すること、その背後にある数学を知ることです。表面的な理解ではなく、本当に深く掘り下げて理解することを求めています。
しかし、それに加えて私が求めているのは、変化を受け入れる人、物事が変化することに興奮する人、新しいアイデアに対してオープンで、ピボット(方向転換)することに興奮する人です。
Mark Hinkle: それは素晴らしいですね。
Franziskaの回答は、現代のAI時代における技術者採用の二重の要求を明確に示しています。一方では、技術的な深い理解と数学的基礎への精通という従来のハードスキルの重要性を強調しながら、他方では変化への適応性とイノベーションに対する開放性という新しい時代の要求を重視しています。これは、AI技術の急速な進歩により、技術者は単に既存の知識を持つだけでなく、継続的な学習と適応能力を持つことが不可欠であることを反映しています。
特に注目すべきは、Googleのような最先端技術企業において、「ピボット能力」が重要なスキルとして認識されていることです。これは、AI分野の急速な変化に対応するため、プロジェクトの方向性や技術的アプローチを柔軟に変更できる能力が、現実的なビジネス要求となっていることを示しています。
2.3 エンタープライズレディなAI技術の現状(Fidelityの視点)
Mark Hinkle: 多くのAI関連技術があります。AIに対応した古いソフトウェア、本当にAIと機械学習である新しいソフトウェア、そして今やAIとしてラベル付けされた機械学習技術もあります。Sachin、あなたはFidelityで、またGoldman Sachsでも働いていた経験があり、長期的な技術マネージャーとして、記録のために申し上げますが、これはSachinの個人的な意見であり、Fidelityの意見ではありません。金融分野にいたので、こう言う必要があります。すべての技術の中で、エンタープライズグレードのサービスと呼ばれるようなものを構築するために使用するような、エンタープライズレディだと思われるものは何でしょうか。
Sachin Solkhan: 繰り返しになりますが、これは私の個人的な意見であり、私の会社の意見ではありません。AIと言うとき、私たちは主に生成AI(generative AI)の文脈で話していると思います。使用事例の観点から、ほとんどの企業で実装される典型的な使用事例として、私が挙げることができる主要なものが3つあります。
一つ目は、コーディング用のコパイロットです。生成AIをコーディングに使用することです。二つ目は、私が注力している情報検索と検索で、これは非常に典型的な使用事例です。三つ目は、新しいコンテンツの生成です。マーケティングやソーシャル関連のコンテンツの生成です。これらが、通常開始する典型的な使用事例だと思います。POC(概念実証)を行い、実験してみて、どれが自分の使用事例に本当に適用されるかを確認し、すべてをチェックします。
私は応用AI分野にいるので、私の思考プロセスは常に、この使用事例とテクノロジーのためのツールとしてAIをどのように使用できるかということです。モデルや製品のいずれを見ても、まず最初に考えることは、適切な使用事例を特定していなければ、実際に高いインパクトがあり、測定可能なROIを持つ使用事例を特定していなければ、通常は何も重要ではないということです。
適切なインパクトを持ち、ROIを測定できる使用事例を特定するという困難な作業が重要です。しかし、それが完了したら、製品を見て、ツールを選択することは、AIが生成するものを説明できるか、これらのモデルがどのように作成されたかを理解できるか、セキュリティやデータプライバシーなどを理解できるかといったことを考えることです。
私の考えは常に、これらのツールをどのように使用し、適用するか、そして技術を使用する際の通常の考慮事項は何かということです。それが私が通常考慮する事項です。
Mark Hinkle: 素晴らしいですね。
Sachinの回答は、エンタープライズレベルでのAI実装における実用的なアプローチを明確に示しています。彼は技術的な可能性よりも、測定可能なビジネス価値を重視する姿勢を一貫して示しており、これは金融業界での豊富な経験に基づく現実的な視点を反映しています。特に、ROI測定の重要性を強調することで、AI技術の導入が単なる技術的実験ではなく、明確なビジネス成果を伴う戦略的投資であるべきだという立場を明確にしています。
また、セキュリティ、プライバシー、説明可能性といった企業レベルでの重要な考慮事項を挙げることで、AI技術の実用化において技術的性能だけでなく、企業統治とリスク管理の観点が不可欠であることを示しています。
3. AI基盤技術とインフラの現状
3.1 オープンソーススタックの成熟度
Mark Hinkle: Sachinが今、エンタープライズレディな技術について話してくれました。次はBillに移りましょう。BillはWatson X IBM にいて、次世代AIを構築していますが、長い間それを行ってきました。あなたが今日注力している主要なソリューションの種類は何でしょうか。あなたは配管工事をしているインフラストラクチャの人ですが、最近何を構築していますか。
Bill Higgins: 2022年11月にChatGPTが登場したとき、それは非常に興味深いことでした。なぜなら、私たちのロードマップでは生成AIが2024年に予定されていたのですが、その出来事により前倒しされることになったからです。
初期の焦点の多くは、オープンソースベースのスタックの使用を決定したことでした。これが、私たちがこのミートアップにいる理由でもあります。作成された多くの高品質なオープンソース、例えばPyTorchなどは、実質的に無限の資金を持つ企業の超高性能データセンター向けに構築されていました。そこで最初の課題の一つは、これらのものを通常のデータセンターで動作させる方法でした。
私が覚えているのは、かなり興味深いPyTorchのパフォーマンスバグがありました。これは、Metaの特殊なネットワーキングから通常のネットワーキングに移した場合にのみ発生するものでした。そのため、多くの作業は単に通常のデータセンターで動作させることでした。
しかし、現時点では、推論、訓練、チューニング用のオープンソーススタックが本当に堅実になってきていると思います。現在、これらはより成熟し始めています。例えば、私たちの推論は、Berkeleyから生まれたvLLMと呼ばれる技術に基づいて構築されています。知っている人がいるかどうかわかりませんが、現在、このvLLMはLinux Foundationでオープンガバナンスの下に移行しており、これは企業グレードAI技術の非常に良い成熟の形だと考えています。
オープンガバナンスの下に置かれることで、その技術に投資したい企業にとってより安全になり、Fidelityのような顧客が必ずしもvLLMを使用しているとは言いませんが、それを採用することがより安全になります。
現在、コア技術は実装の観点から非常に堅実であり、ガバナンスの観点からもそこに到達し始めています。そして今、エージェント技術、OllamaなどでデスクトップでAIモデルを実行するといった、次の隣接する技術セットが見え始めています。これは、必要なもののコア核心から、特に開発者の使用事例に焦点を当てたこれらの次のレイヤーへの進化に過ぎません。
Mark Hinkle: ありがとう、Bill。
Billの説明は、AI基盤技術の実用化における重要な転換点を明確に示しています。ChatGPTの登場が業界全体の開発スケジュールを2年前倒しさせたという事実は、AI技術の急速な進歩がいかに予期しない形で進んだかを物語っています。特に、PyTorchのような高品質なオープンソースツールが、Metaのような巨大技術企業の特殊なインフラストラクチャ向けに最適化されていたため、一般的な企業環境での実装には大きな技術的課題があったことが明らかになっています。
また、Berkeley発のvLLM技術がLinux Foundationのオープンガバナンスに移行したことは、オープンソースAI技術の成熟度を示す重要な指標として提示されています。これは、単なる技術的な進歩を超えて、企業が安心して投資できる統治構造の確立を意味しており、AI技術の企業レベルでの採用において極めて重要な発展です。
3.2 IBMのWatsonXプラットフォーム開発経験
Bill Higgins(続き): 私たちの推論システムは、Berkeleyから生まれたvLLMと呼ばれる技術に基づいて構築されています。この技術について知っている方がいるかどうかわかりませんが、現在vLLMはLinux Foundationでオープンガバナンスの下に移行しています。これは、企業レベルのAI技術にとって非常に良い成熟の形だと私たちは考えています。
なぜなら、オープンガバナンスの下に置かれることで、その技術に投資したい企業にとってより安全になるからです。そして、Fidelityのような顧客にとって、必ずしもvLLMを直接使用しているとは言いませんが、それを採用することがより安全になります。
現在、私たちが見ているのは、コア技術が実装の観点から非常に堅実になってきていることです。そして、ガバナンスの観点からもそこに到達し始めています。今、私たちはエージェント技術、Ollamaなどでデスクトップ上でAIモデルを実行するといった、次の隣接する技術セットを見始めています。
これは、必要なもののコア核心部分から、特に開発者の使用事例に焦点を当てたこれらの次のレイヤーへの単なる進化です。
Mark Hinkle: ありがとう、Bill。Billが言ったことで本当に興味深かったのは、オープンソースについてです。私たちの多くは、All Things Openに参加したことがあり、オープンソースには定義があります。コードをダウンロードして見ることができ、修正を加えることができ、再共有することができるといった特定の条件があります。
しかし、これはソフトウェアに非常に特化したものです。これらの訓練モデル、つまりフロンティアモデルに関しては、それらを訓練するためにデータを使用し、それらがモデルの一部になります。重みとバイアスと呼ばれるものをモデルに与えるとき、実際には他のものよりも特定のデータにより多くの重みを与えることで、モデルを調整しているのです。そのため、これらのモデルについて何がオープンかを説明する方法が非常に興味深くなります。
IBMでの実際の開発経験において、Billが示した技術的アプローチは、オープンソース生態系の成熟度評価における実用的な基準を提供しています。vLLMのような技術がBerkeleyの研究プロジェクトから始まり、Linux Foundationのオープンガバナンスに移行する過程は、AI技術がアカデミックな実験段階から企業レベルでの実用化段階へと移行する典型的なパターンを示しています。
特に重要なのは、IBMが企業顧客に対してセキュリティと安定性を保証するために、オープンガバナンス構造の確立を重視していることです。これは、AI技術の企業採用において、技術的性能だけでなく、長期的な持続可能性と統治構造が決定的要因となることを示しています。
3.3 企業での実装における技術的課題
Bill Higgins(続き): 2022年11月にChatGPTが登場したときの状況を振り返ると、我々が直面した最初の重要な課題が明確になります。我々は既にオープンソースベースのスタックを使用することを決定していましたが、PyTorchのような作成された多くの高品質なオープンソース技術は、実質的に無限の資金を持つ企業の超高性能データセンター向けに構築されていました。
そこで最初の課題の一つは、これらの技術を通常のデータセンターで実際に動作させる方法を見つけることでした。特に印象的だったのは、かなり興味深いPyTorchのパフォーマンスバグに遭遇したことです。このバグは、Metaの特殊なエイリアンネットワーキングから通常のネットワーキングに移行した場合にのみ発生するものでした。
Mark Hinkle: それは興味深い具体例ですね。
Bill Higgins: そのため、多くの作業が単純に通常のデータセンターでこれらの技術を動作させることに費やされました。これは、最先端のAI技術と実際の企業インフラストラクチャとの間のギャップを埋める作業でした。
現在では、推論、訓練、チューニング用のオープンソーススタックが本当に堅実になってきていると感じています。これらの技術は実装とガバナンスの両方の観点から成熟し始めています。しかし、この成熟に至るまでには、実際の企業環境での動作を確保するための相当な技術的努力が必要でした。
Sachin Solkhan: 私の経験からも、企業での実装において最も重要なのは、適切な使用事例の特定です。高いインパクトがあり、測定可能なROIを持つ使用事例を特定するという困難な作業が完了していなければ、通常は何も重要ではありません。
その後で製品とツールを選択する際に重要となるのが、AIが生成するものを説明できるか、これらのモデルがどのように作成されたかを理解できるか、セキュリティやデータプライバシーなどの要素を理解できるかといった考慮事項です。これらは、任意の技術を使用する際の通常の考慮事項と本質的には同じですが、AI技術においては特に重要になります。
この議論は、AI技術の企業実装における二重の課題を浮き彫りにしています。一方では、最先端技術を実際の企業環境で動作させるという技術的な困難があり、他方では、ビジネス価値と企業統治の要求を満たすという戦略的な課題があります。IBMとFidelityの両方の経験が示すように、AI技術の成功的な企業導入には、深い技術的専門知識と実用的なビジネス判断の両方が不可欠です。
4. オープンソースAIの重要性と展望
4.1 ベンダーロックイン回避の重要性
Mark Hinkle: 私たちの次のセグメントでは、オープンソースAIについて話していきたいと思います。問題は、オープンソースという概念はLinuxやAndroidのような従来のソフトウェアでは明確ですが、これらのフロンティアモデルでは、データを使用してそれらを訓練し、データがモデルの一部になります。重みとバイアスをモデルに与える際、実際に他のデータよりも特定のデータにより多くの重みを与えることでモデルを調整しているため、これらのモデルについて何がオープンかを説明することが非常に興味深い問題となります。
オープンソースがどれほど重要か、そして今後どのように考えるべきかについて議論したいと思います。Franから始めましょう。彼女はNode.jsプロジェクトの長期的なオープンソースコントリビューターですし、おそらく私が知らない他の多くのプロジェクトにも関わっていると思います。AIに適用される場合のオープンソースについてどう思いますか?
Franziska Hinkelmann: これは非常に重要なトピックです。私が本当に望んでいるのは、ベンダーロックインが発生しないことです。なぜなら、それは競争と進歩を停滞させるからです。私たちが聞いたように、APIのオープンガバナンスと標準化が本当に重要だと思います。これにより、人々が基盤となるモデルを切り替えることができるようになります。
ほとんどの場合、完全にオープンソースのモデルを得ることはできないと思いますが、少なくとも業界として、最適なモデルに移行し、他の人がモデルを構築できるように、そして他の誰もがロックアウトされることなく、ベンダーを簡単に切り替えることができるようにしたいと考えています。
Mark Hinkle: 素晴らしいですね。そして標準化がどこまで進んでいるか、物事がどのように標準化されているかを見るのは興味深いことです。
Franziskaの回答は、オープンソースAIの核心的な価値提案を明確に示しています。彼女が強調するベンダーロックイン回避の重要性は、AI技術の急速な進歩と多様性を考慮すると特に重要です。競争と進歩の促進という観点から、オープンな標準とAPIの重要性を強調することで、AI技術が単一のベンダーに依存することなく、エコシステム全体の健全な発展を支援する必要性を示しています。
また、完全にオープンソースのモデルの実現可能性について現実的な見解を示しながらも、少なくともモデル間の相互運用性と選択の自由を確保することの重要性を強調しています。これは、企業が特定の技術に過度に依存することなく、最適なソリューションを選択し続けることができる環境の構築を目指すものです。
4.2 学術研究・教育における意義
Mark Hinkle: Jon、学術界において、研究開発や学生のためにこのオープンソース技術にアクセスできることがどれほど重要でしょうか?アクセシビリティという観点から、初期の頃、Appleは学生に安価なPCを提供して我々を夢中にさせることで有名でしたが、今ではオープンソースインフラストラクチャが広く利用可能になっています。
Jon Reifschneider: それは我々にとって非常に重要です。教育と研究の2つの側面で重要性があります。教育面では、私が時間の大部分を費やしている分野ですが、私は大規模言語モデルのクラスを教えており、この部屋には私の学生が1人か2人いるかもしれません。
我々は実際に学生にオープンモデルを使って作業させ、モデルのファインチューニングなどを行わせています。ゼロから独自のモデルを訓練させることは少し過度かもしれませんが、モデルのファインチューニングは行わせています。これは、プロプライエタリなクローズドソースモデルでは実行できないことです。
そのため、教育目的において、我々が持っているオープンモデルのエコシステムには非常に大きな価値があります。学生がそこに入り込み、どのように構築されたかを理解し、どのように操作するか、どのように調整するか、どのようにファインチューニングするかなどを学び、インフラストラクチャ上で自分たちで実行する方法を学ぶ能力があります。
研究面でも同様に重要です。過去数年間、我々は自然言語処理研究コミュニティと学術界で少し恐ろしい時期を経験しました。なぜなら、その分野でキャリアを積んできた多くの人々が、突然、自分たちが貢献できることがほとんどないように感じたからです。彼らは独自の大規模言語モデルを訓練するために数百万ドルをGPUに投資する資金を持っていなかったため、フロンティアラボがモデルを構築している中で、そのペースについていくことができませんでした。
これは懸念すべきことです。なぜなら、学術研究は歴史的にAIの進歩の重要な推進力だったからです。良いニュースは、コストが下がり続け、はるかに小さな創造的な新しいアーキテクチャを見つけるにつれて、大学の研究者が再び大規模言語モデルに関する研究に参加することが実現可能になり始めていることです。彼らは単に出力を見てバイアスを特定するといったことだけでなく、実際に意味のある貢献、新しいアーキテクチャへの貢献を、ゼロから構築し訓練することによって行うことができるようになっています。
昨日かもしれませんが、Berkeleyのチームが推論モデルを訓練したというニュースがありました。このモデルは、いくつかのベンチマークでOpenAIのo1 previewとほぼ同等の性能を持ち、わずか450ドルで実現されました。非常に安価です。
Mark Hinkle: それは素晴らしいですね。
Jon Reifschneider: これらは、AI研究を非常に少数のフロンティアラボだけでなく、はるかに広範な人々のグループに再び開放し始めているという非常に心強い兆候です。これは業界にとって素晴らしいことだと思います。
Jonの回答は、オープンソースAIが学術界に与える変革的影響を具体的に示しています。教育面では、学生が実際にモデルをファインチューニングし、その内部動作を理解できることの価値を強調しており、これは理論的な学習を超えた実践的なスキル習得を可能にします。
研究面では、AI研究の民主化という重要な側面を浮き彫りにしています。大規模言語モデルの登場により、多くの学術研究者が資金的制約のために研究の最前線から取り残される危険性があったことを率直に認めています。しかし、Berkeleyの事例のように、わずか450ドルでOpenAIのo1 previewレベルの推論モデルを訓練できるという事実は、技術の民主化が実際に進行していることを示す重要な証拠です。
この議論は、オープンソースAIが単なる経済的な選択肢ではなく、学術研究の多様性と革新性を維持するための必要不可欠な基盤であることを明確に示しています。
4.3 IBMのGraniteモデルファミリーのオープンソース化事例
Mark Hinkle: IBMでBillが行っていることについて興味深い視点を聞きたいと思います。私は一つのモデルを他のモデルと対立させるつもりはありませんが、Mark Zuckerbergをからかうのは好きです。彼は非常にオープンソースですが、その定義については少し自由で緩いところがありますが、それは私個人的な意見です。
Billがどのように、IBMでGraniteと呼ばれるフロンティアモデルに取り組み、それをどのようにパッケージ化し、業界にそのモデルをどのように配布しているかについて聞きたいと思います。
Bill Higgins: Graniteは実際にはモデルのファミリーであり、10億、80億、300億といった異なるサイズがあります。また、言語、コード、時系列、さらには地理空間データといった異なるモダリティも持っています。つまり、これは本当にモデルのファミリーなのです。
昨年のちょうどこの時期に、我々はGraniteモデルファミリーをApache 2.0ライセンスの下で完全にオープンソース化することを決定しました。これは、我々が過去にLinuxのオープンソースオペレーティングシステムの大きな支持者だった時と本当に同じ理由からでした。
群衆の中に異なる年齢の人々がいるのが見えますが、オープンソースオペレーティングシステムを何か真剣なことに使用するのは少し狂気じみていると考えられていた時代がありました。しかし現在では、その逆になっています。大量のシステムを展開する際に、オープンソースオペレーティングシステムを使用しない人はいません。
そこで我々の考えは、モデルでも同じことが起こる可能性があるということでした。オペレーティングシステムは、WindowsやUnixの様々なバージョンといった非常にプロプライエタリなベースから始まりました。しかし時間が経つにつれて、オープンソースオペレーティングシステムが遍在的に展開されるものになりました。
そこで我々は、GraniteモデルファミリーをApache 2ライセンスの下でオープンソース化しました。なぜなら、IBMは企業に販売しており、企業だけでなく我々の顧客にとって、Apache 2ライセンスは本当に重要だからです。
生成AIモデルが何をするかを考えてみると、新しいコンテンツを生成しています。その許可的なライセンスにより、顧客がそのモデルから生成されたIPを所有することを確実にできます。何らかの作り話のライセンスで何らかの条項があり、我々が何らかの形でIPを所有するということではありません。
我々は、モデルのオープンソースを、通常のソフトウェアで現在当然のことと受け取っているのと同じくらい安全にしようとしています。もちろん、それを当然のことと受け取ることができる唯一の理由は、20年から25年前のパイオニアたちが、人々が安全に採用し、成功を収め、その好循環を生み出すことができる異なるタイプのライセンスの下で、コミュニティで高品質なソフトウェアを作成するために本当に懸命に働いたからです。
Mark Hinkle: それは本当に良い指摘だと思います。我々は本当に、巨人の肩の上に立っているというのを嫌いますが、AIに到達するまでの進歩の上に立っています。x86プロセッサ、後にはJensenとNvidiaのGPUなど、我々がすべてゲーマーだったために有名になったもの、インターネット、オープンソースライセンス、こうした基盤的なものすべてが積み重なって、我々が今の地点に到達することを可能にしています。
AIは1940年代から存在していたと思いますが、それが造語された時期で、本当に長い緩やかな道のりでした。そして過去2年間、ChatGPTが登場し、突然すべてがAIだらけになりました。
Billの説明は、IBMのオープンソース戦略における歴史的な視点と戦略的な洞察を提供しています。GraniteモデルファミリーのApache 2.0ライセンスによる完全オープンソース化は、単なる技術的決定ではなく、Linuxの成功パターンを意識的に適用した戦略的選択であることが明確に示されています。
特に重要なのは、企業顧客にとってのIP所有権の明確化です。生成AIが新しいコンテンツを作成する性質を考慮すると、誰がその知的財産を所有するかという問題は極めて重要になります。Apache 2.0ライセンスを選択することで、IBMは顧客が生成されたコンテンツの完全な所有権を持つことを保証し、これにより企業レベルでの安心した採用を促進しています。
また、Billが指摘する20-25年前のオープンソースパイオニアたちの努力への言及は、現在のAI技術の発展が過去の技術的基盤の上に構築されていることを示しており、技術進歩の継続性とコミュニティの貢献の重要性を強調しています。
5. 2025年のAI予測とトレンド
5.1 エージェントAIの台頭と実装
Mark Hinkle: 次のセクションでは、いくつかの予測を始めて、今年AI関連のほぼすべてのトピックで何が起こると思うかを見ていきたいと思います。Sachinから始めて、今年興味深いと思うことについて何か考えがあるかどうか見てみましょう。
Sachin Solkhan: 確実に、おそらく皆さんはエージェントAIについて聞いたことがあると思います。手を挙げてみてください。エージェントAI、何人か。それは来ると思いますし、明らかに生成AIで起こったように、多くのエージェントウォッシングが起こると思います。すべてがエージェントと呼ばれるようになるでしょうが、エージェントには特定の定義があります。
しかし、私は生成AIの約束とROI、生成AIからROIを得る可能性は、エージェントAIを通じて実現されると信じています。そのため、それは間違いなく一つです。
二つ目は、推論モデルについてです。我々が先ほど言及したように、推論モデルでより多くの進歩が起こると思います。そして、エージェントAIは推論モデルの進歩に依存していると思います。推論において良い進歩を遂げるほど、はるかに優れたエージェントAIの実装が可能になります。ですから、これらの2つから始めたいと思います。
Mark Hinkle: 素晴らしい。Franに行きましょう。あなたの予測はありますか?
Franziska Hinkelmann: 私も、聴衆が何について興奮しているかを聞きたいのですが、おそらくワンオンワンの後のパネルでそれを取っておく必要があるでしょう。私もエージェントについて非常に興奮しています。過去2、3年間、我々はLLMと話をしてきましたが、皆さんの中にはまた別のチャットアプリに少し疲れを感じている人もいるかもしれません。
しかし、エージェントは、LLMが実際に我々のために何かをしてくれるところです。それにより、うまくいけば、あなたの時間を解放して、より興味深いことをする時間が生まれるでしょう。ただLLMから話しかけられるのではなく。
Mark Hinkle: はい、しかし私は後で皆さんと話し、「2025年に何について興奮していますか?」と聞きたいと思います。次のセグメントで質問を行いますので、もし誰かが予測を述べたい場合は、その中でいくつかを受け入れます。
Jon Reifschneider: Sachinが言ったエージェントについて同意します。我々は、LLMが少し遊びの道具で、そばにいる有用なアシスタントのようなものから、突然経済で企業のために実際の仕事をし始めるという、本当に興味深い移行の非常に初期段階にいると思います。
私はスタートアップを経営していますが、この立場にいることは魅力的です。なぜなら、スタートアップの成長について考える際、我々が考える多くの事柄の中で、今考えなければならないことの一つは、特定のことを行うためにAIエージェントをチームに追加するタイミングと、それらのことを行うために人間をチームに追加するタイミングです。
そして、カスタマーサービス、セールスプロセスの一部側面、初期段階のリード生成、リード資格認定などの分野で、AIエージェントがかなり良い仕事をしているように見える本当に興味深いシステムが現れています。そのため、これらのことを行うためにエージェントを雇うことと人を雇うことの経済性を見始めるようになります。
エージェントが仕事の一部を引き受けることについては多くの素晴らしいことがあります。非常に明確にしておきたいのは、人間ができることで今日エージェントができないこと、そしておそらく決してできないであろうことが非常に多くあるということです。しかし、全体の仕事または仕事の一部で、エージェントが引き受けることができ始めているものが特定にあります。そして、その傾向は今年を通じて加速すると思います。企業にとって、コスト削減と生産性向上は、一部の分野ではほぼ抗しがたいものになると思います。
Mark Hinkle: エージェントに少し踏み込む前に、Billと大きなフィナーレに行きます。エージェントのアイデアは目標ベースであることです。ChatGPTに質問して答えを得るのとは異なり、エージェントに「このタスクを完了して」と言うのです。
今日の制限は、これらのモデルが推論する能力です。OpenAI o1モデルが非常に興味深かった理由は、推論を方程式に持ち込み始めることです。そして彼らが行うことの一つは、より長く考えさせることで、より良い結果を得ることです。私たちのようなもので、もし私が素早い答えを与えるなら、時間をかけてより思慮深い答えを与える場合ほど思慮深くないかもしれません。それは願望的ですが、私はおそらく短時間でも長時間でも同じ愚かな答えを与えるでしょうが、AIモデルはそのように動作します。
現在、AI推論能力の大きな障害または問題点は、推論する能力です。人工知能のスペクトラムを見ると、今日、私はIBMのスーパーコンピューターがJeopardyで勝ち始めた時を最初のスパークのようなものと考えるのが好きです。それが始まりのようなものです。今日、我々はR2-D2、C-3POの域に入り始めていると思います。これらのものが人間にかなり近いと思わせ始めていますが、彼らは我々と対等になろうとしています。
汎用人工知能は、彼らが人間と同じ能力を持つことを意味し、そして我々にはエージェント・スミスのマトリックスのような部分があります。これは超汎用知能で、癌を解決することもできれば、我々全員をポッドに入れて体液で生活させることもできます。それは50-50です。私は実際には彼らが癌を解決すると思いたいのですが、これらが一種のスペクトラムです。
しかし、エージェントが仕事を置き換えるという話をするとき、我々が見ることになると思うのは、我々のために働くエージェントのチームを指揮することです。私の受信箱に来る、買いたくない人々からの愚かな問い合わせすべてに応答することに価値はありません。最終的には、今日のフィルタリングやスパムフィルタリングでできるよりもニュアンスのあるエージェントを訓練できるでしょうし、経費報告書の記入や旅行計画の作成などの特定のことをさせることもできるでしょう。
彼らは代理権を持つでしょう。短期的には小さな個別のタスクで自動化され、長期的にはそれらのチームを持つことになるでしょう。そのため、短期的には、個々の貢献者であっても、我々はマネージャーになると思います。
この議論は、2025年におけるAI技術の最も重要な発展方向を明確に示しています。Sachinが指摘するエージェントウォッシングの懸念は、生成AI導入初期に見られた現象の繰り返しを示唆しており、技術の本質的な価値と表面的な宣伝を区別する重要性を強調しています。
Franziskaの「チャットアプリ疲れ」という表現は、現在のLLMインターフェースの限界を率直に認めており、エージェントAIが単なる対話から実際の作業実行への重要な転換点であることを示しています。
Jonの起業家としての実体験は特に価値があります。彼が述べる「AIエージェントを雇うか人間を雇うか」という意思決定は、既に現実のビジネス判断となっており、カスタマーサービスやリード生成といった具体的な分野での実用化が進んでいることを示しています。
Mark Hinkleの技術的解説は、エージェントAIの実現における推論能力の重要性を強調し、現在のAI発展段階を歴史的文脈で位置づけています。R2-D2からエージェント・スミスまでのスペクトラムは、AI技術の潜在的な発展経路を分かりやすく示しており、短期的な個別タスクの自動化から長期的なエージェントチーム管理への移行という現実的なビジョンを提示しています。
5.2 推論モデルの進歩
Sachin Solkhan: 二つ目として、推論モデルについて話したいと思います。我々が先ほど言及したように、推論モデルでより多くの進歩が起こると思います。そして、エージェントAIは推論モデルの進歩に依存していると思います。推論においてより良い進歩を遂げるほど、はるかに優れたエージェントAIの実装が可能になります。
Mark Hinkle: それは素晴らしい点ですね。推論能力がエージェント実装の基盤となっているということですね。
Jon Reifschneider: 昨日かもしれませんが、Berkeleyのチームが推論モデルを訓練したというニュースがありました。このモデルは、いくつかのベンチマークでOpenAIのo1 previewとほぼ同等の性能を持ち、わずか450ドルで実現されました。非常に安価です。これらは非常に心強い兆候で、AI研究を非常に少数のフロンティアラボだけでなく、はるかに広範な人々のグループに再び開放し始めています。
Mark Hinkle: Billと大きなフィナーレに行く前に、エージェントについて少し掘り下げてみましょう。エージェントのアイデアは目標ベースであることです。ChatGPTに入力して質問と答えを得るのとは異なり、エージェントに「このタスクを完了して」と言うのです。
今日の制限は、これらのモデルが推論する能力です。OpenAI o1モデルが非常に興味深かった理由は、推論を方程式に持ち込み始めることです。そして彼らが行うことの一つは、より長く考えさせることで、より良い結果を得ることです。
私たちのようなもので、もし私が素早い答えを与えるなら、時間をかけてより思慮深い答えを与える場合ほど思慮深くないかもしれません。それは願望的ですが、私はおそらく短時間でも長時間でも同じ愚かな答えを与えるでしょうが、AIモデルはそのように動作します。
現在、大きな問題点または障害は、これらのモデルが推論する能力です。人工知能のスペクトラムを見ると、今日、私はIBMのスーパーコンピューターがJeopardyで勝ち始めた時を最初のスパークのようなものと考えるのが好きです。それが始まりのようなものです。
今日、我々はR2-D2、C-3POの域に入り始めていると思います。これらのものが人間にかなり近いと思わせ始めていますが、彼らは我々と対等になろうとしています。汎用人工知能は、彼らが人間と同じ能力を持つことを意味し、そして我々にはエージェント・スミスのマトリックスのような部分があります。これは超汎用知能で、癌を解決することもできれば、我々全員をポッドに入れて体液で生活させることもできます。それは50-50です。私は実際には彼らが癌を解決すると思いたいのですが、これらが一種のスペクトラムです。
推論モデルの進歩に関する議論は、AI技術の核心的な発展を示しています。Sachinが強調する推論能力とエージェントAI実装の相互依存関係は、技術的な発展の論理的な順序を明確に示しています。推論能力の向上なしには、真に効果的なエージェントシステムの構築は困難であるという認識は、AI開発における重要な技術的制約を浮き彫りにしています。
Berkeleyの研究チームによる450ドルでのo1 preview相当モデルの開発は、推論技術の民主化における画期的な事例です。この成果は、高度な推論能力が大規模な資金投入を必要とする独占的技術から、比較的少ない予算でも実現可能な技術へと転換していることを示しています。
Mark Hinkleの技術発展スペクトラムの説明は、推論能力の向上がAI技術全体の進歩における位置づけを理解する上で重要な枠組みを提供しています。IBMのJeopardy勝利から現在のR2-D2レベル、そして将来のAGI(汎用人工知能)とASI(超汎用知能)への道筋は、推論能力が単なる技術的改善ではなく、AI技術の根本的な能力拡張を意味することを示しています。
特に重要なのは、OpenAI o1モデルが示した「より長く考えることでより良い結果を得る」というアプローチです。これは、人間の思考プロセスを模倣したAI推論の新しいパラダイムを示しており、従来の即座に応答するモデルから、熟慮に基づく推論を行うモデルへの重要な転換点を表しています。
5.3 AI災害とガバナンスの必要性
Mark Hinkle: Billには大きなフィナーレを担当してもらう前に、彼に2025年の未来について何か本当に素晴らしいことを考える時間を与えました。彼が2025年について考えていることを聞いてみましょう。
Bill Higgins: 2つの予測をします。1つは不愉快なもので、1つは幸せなものです。不愉快な方は、このステージの誰からではありませんが、今年は生成AIでかなり注目度の高い災害がいくつか起こると思います。
その理由は、タイムラインを考えてみると、ChatGPTは2022年11月でした。2023年は実際には手探りの年でした。すべての人が「X向けのChatGPT」を作っていました。実際に本格的な本番システムを作り始めたのは昨年からです。そして今年になって初めて、実際に「あ、そのWebアプリは生成AIを使用している」「そのモバイルアプリは生成AIを使用している」ということが現実世界のコンテキストで使用され始めています。デモアプリではなく、実際の使用です。
そして、多くの人々が、セキュリティ、信頼性などのすべての影響を考慮することなく、何かを機能させることだけに本当に焦点を当てています。これはあらゆる新しい技術で起こることなので、害を与える側よりも恥ずかしい側で、かなり注目度の高い災害があると思います。その後、人々は「我々の会社でAIのガバナンスをもっと厳格にしよう」「規制を加速させよう」などと話すでしょう。
Mark Hinkle: それは現実的な予測ですね。新しい技術の導入パターンとして理解できます。
Bill Higgins(続き): より幸せな予測は、私は本当のソフトウェアエンジニアリングオタクなのですが、20年前の私の最初のチームリーダーは、デザインパターンの本を書いたEric Gammaという人でした。多くの人が持っているが読んでいない本です。
私が今面白いと思うのは、この1年か2年でAIとともに起こっていることは、生成AI用のデザインパターンを発見し始めていることです。私の意見では、最初のものは検索拡張生成パターン(RAG)です。1年前、皆は「あ、RAGはとてもクールだ」と言っていました。今では、それ用のフレームワークが20個あります。
Webで人々が機能するものを見つけ、それがパターンにカプセル化され、それらがライブラリやフレームワークになるのと同じように思います。そして、それが起こると、配管よりもアプリケーションに焦点を当てることができるため、実際に有用なアプリケーションの本当の加速が見られます。
Mark Hinkle: 素晴らしいですね。
Billの二重の予測は、AI技術の成熟プロセスにおける現実的な課題と機会の両面を捉えています。AI災害の予測は、技術導入の自然な発展段階を反映しており、2022年のChatGPT登場から2023年の実験期間、2024年の本格実装、そして2025年の広範な実用化という段階的な進歩を追跡しています。
特に重要なのは、現在多くの組織が「何かを動作させる」ことに焦点を当てすぎて、セキュリティや信頼性といった基本的な考慮事項を軽視している現状への警告です。これは、技術的な実現可能性と運用上の安全性との間のギャップを示しており、AI技術の企業実装において避けられない学習プロセスの一部であることを示唆しています。
一方で、デザインパターンの確立という前向きな予測は、AI技術の成熟度を示す重要な指標です。RAG(検索拡張生成)パターンの例は、AI開発における再利用可能なソリューションの体系化がどのように進んでいるかを具体的に示しています。1年前の新奇な概念が現在では20のフレームワークを持つまでに標準化されたという事実は、AI技術エコシステムの急速な成熟を表しています。
Billの経験に基づく観察は、Web技術の発展過程との類推を通じて、AI技術の将来的な発展パターンを予測しています。パターンの確立、ライブラリ化、フレームワーク化という段階を経ることで、開発者が基盤技術の詳細よりもアプリケーションの価値創造に集中できるようになるという展望は、AI技術の民主化と実用化の加速を示唆しています。
5.4 デザインパターンの確立
Bill Higgins: より幸せな予測については、私は本当のソフトウェアエンジニアリングオタクなのですが、20年前の私の最初のチームリーダーは、デザインパターンの本を書いたEric Gammaという人でした。多くの人が持っているが読んでいない本です。
私が今面白いと思うのは、この1年か2年でAIとともに起こっていることは、生成AIのデザインパターンを発見し始めていることです。私の意見では、最初のものは検索拡張生成パターン(RAG:Retrieval Augmented Generation)です。1年前、皆は「あ、RAGはとてもクールだ」と言っていました。今では、それ用のフレームワークが20個あります。
私が思うのは、Webで起こったのと同じように、人々が機能するものを見つけ、それがパターンにカプセル化され、それらがライブラリやフレームワークになるということです。そして、それが起こると、配管よりもアプリケーションに焦点を当てることができるため、実際に有用なアプリケーションの本当の加速が見られます。
Mark Hinkle: 素晴らしいですね。
Billの洞察は、AI技術開発における重要な転換点を示しています。Eric Gammaのデザインパターン本への言及は、ソフトウェア工学の歴史における重要な瞬間を想起させます。1990年代にオブジェクト指向プログラミングのベストプラクティスが体系化されたように、現在AI開発においても同様の標準化プロセスが進行していることを示しています。
RAGパターンの発展は、この標準化プロセスの具体例として特に重要です。1年前には新奇なアイデアとして注目されていたRAGが、現在では20の異なるフレームワークを持つまでに成熟したという事実は、AI技術エコシステムの急速な発展を物語っています。これは、実験的な手法から実用的なツールキットへの移行を示しており、AI開発の産業化を表しています。
Web技術の発展との類推は、技術進歩のパターンを理解する上で価値のある視点を提供しています。Web開発において、初期の試行錯誤から標準的なライブラリやフレームワークの確立へと進んだように、AI開発でも同様の道筋を辿っていることが示されています。これにより、開発者は低レベルの技術的詳細に煩わされることなく、アプリケーションレベルでの価値創造に集中できるようになります。
「配管よりもアプリケーションに焦点を当てる」という表現は、技術開発における重要な転換点を的確に表現しています。基盤技術が標準化され、再利用可能なコンポーネントとして利用可能になることで、開発者のエネルギーがインフラストラクチャの構築からユーザー価値の創造へとシフトすることを意味しています。これは、AI技術の真の実用化と普及において不可欠なステップであり、2025年における重要な発展として位置づけられています。
6. Q&Aセッション:実務的課題と倫理的考慮
6.1 初級エンジニアのキャリアパス問題
Mark Hinkle: では、皆さんに私たちと話す機会を提供します。質問がある方はいらっしゃいますか?
聴衆の質問者: エージェントが初級エンジニアの仕事をすべて始めるとしたら、今度は初級エンジニアをどこで得るのでしょうか?なぜなら、突然、全員がマネージャーのようになり、誰もが中級レベルのエンジニアから始めなければならなくなり、基本的なことをして間違いを犯さなければ、そこに到達できないからです。
職業の継続とキャリアの階段を考えるとき、エージェントや任意の種類の概念が低レベルで来て低レベルの作業を置き換えるというこのアイデアは、明日ではなく1年か2年後に、キャリアの階段の欠落部分という独自の問題を作り出します。
Mark Hinkle: それは難しい質問ですね。ボランティアは?
Sachin Solkhan: 私はこの全体の「AIが置き換える」ということについて異なる視点を持っています。私たちは皆、「AIが人間を置き換えるのではなく、AIを知っている人間が置き換える」と聞いたことがあると思います。
私の個人的な意見では、私たちはこの破壊的な状況を経験すると思います。私たちは本当にスキルアップし、この新しい技術を使用するように人々を訓練し、おそらく彼らがAIを指揮するモードに入るように訓練する必要があります。
しかし、ソフトウェアエンジニアが行う基本的なスキル、コーディング以上の多くのことは消えないと信じています。なぜなら、私は常に応用AIにいるので、要件を理解し、ユースケースを理解し、それらに従って実装し、デバッグできることがすべてだからです。
開発者のユースケースであろうと、バックエンドオペレーション担当者のユースケースであろうと、私が考える方法は、反復的なタスクは実行されるが、舞台裏で何が起こっているかを理解し、指揮し、物事がうまくいかないときに把握する必要があるということです。
Mark Hinkle: 素晴らしいですね。他に誰かこの件について意見はありますか?
この質問と回答は、AI時代における人材育成とキャリア発展の根本的な課題を浮き彫りにしています。質問者が指摘するキャリアラダーの「欠落部分」という概念は、技術業界における人材育成プロセスの重要な懸念を示しています。従来、初級レベルでの経験と失敗を通じて学習し、段階的にスキルを積み上げるというプロセスが、AI自動化により中断される可能性があるという指摘は極めて現実的です。
Sachinの回答は、この課題に対する建設的なアプローチを提示しています。彼が強調する「AIを知っている人間が置き換える」という視点は、技術変化に対する適応的な対応の重要性を示しています。特に重要なのは、ソフトウェアエンジニアリングの本質的なスキル、つまり要件理解、ユースケース分析、実装、デバッグといった能力が、単純なコーディング作業を超えて継続的に価値を持つという認識です。
また、Sachinが提示する「指揮とオーケストレーション」の概念は、AI時代におけるエンジニアの役割変化を示唆しています。反復的タスクがAIによって自動化される一方で、システム全体の理解、問題発生時の対応、そして技術の適切な活用という高次のスキルは依然として人間が担う必要があるという視点は、キャリア発展の新しいパラダイムを示しています。
この議論は、技術進歩が雇用に与える影響について、単純な置き換え論ではなく、スキルの進化と役割の変化という観点から理解する必要性を示しています。
6.2 AI訓練データの哲学・倫理的問題
聴衆の質問者: LLMの訓練における哲学と倫理について質問があります。なぜなら、現在入力されているもの、機械学習プロセスの開発のために指導されているものが、LLMがどの方向のベクトルを取るかの最終的な結果を決定するからです。
経済学などの異なる産業について話している時点で、開発チームがこれらのAIを訓練している際に、どのような哲学的・倫理的原則が展開され、考慮されているのでしょうか。世界中の異なる哲学、異なる文化間でそれがどのように考慮されているのか、現在明らかに米国がAI開発のシーンを支配しているので。
Mark Hinkle: 今夜はソフトボールの質問ではありませんね。また素晴らしい質問です。
Jon Reifschneider: 確実に、LLMが訓練されるデータは、信頼できる出力を生成するその能力に大きな影響を与えます。そのため、LLMを構築する際に、訓練データで何を提供するか、そして何を提供しないかを決定する際に、多くの批判的に重要な決定を行う必要があります。
我々は、例えば初期のLLMでは、様々な種類のバイアスで満たされていることを知っています。その多くは、それらを訓練するために使用されていたデータから生じました。時間が経つにつれて、訓練データを除去し、例えば自然に、あるいは自然と言うべきではありませんが、オンラインで利用可能なコンテンツに固有のバイアスを相殺するための訓練データを合成することによって、バイアスを減らすことで改善が行われてきたと思います。
そのため、毒性の減少、バイアスの減少において良い進歩を遂げてきたと思います。私にとって、実際には、訓練に何を含めるかについての決定の一部よりも、さらに重要な要因は、訓練中に行われる後処理の一部です。
多くの方がご存知のように、これらのLLMは主にインターネットからの大量のデータで訓練されますが、初期訓練が完了した後、他の数段階の訓練を経ます。教師ありファインチューニングと呼ばれるもの、そして人間のフィードバックからの強化学習、またはその変種と呼ばれる別のものです。
モデルが物事にどのように応答するかを決定する際の行動を学習するのは、実際にはこれら2つの後処理段階の間です。そして、毒性とバイアスをさらに減らそうとする良い機会がこれらの段階中にありますが、それらは主に人間によって導かれるプロセスです。
そして、そのような批判的に重要なステップが少数の人間によって導かれるとき、その決定を行うことができる人間は誰なのかという問題を提起します。彼らはどこから来たのか、どの国から来たのか、どんな宗教か、どんな価値観を持っているのか。
少なくともLLMの初期の頃には、それについて透明性はありませんでした。我々は知りませんでした。それは少し良くなったと思いますが、最終的には2つの異なる可能な道があると思います。
一つは、そのプロセスに参加する非常に広範で多様な人間の利害関係者のグループを持つことです。例えば、国の違い、文化的、宗教的違いなどを超えて、これらのモデルが支持したい共通の価値観の核心に合意しようとすることです。それが一つの選択肢です。
二番目の選択肢は、異なる価値観のセットに調整された異なるバージョンのモデルを最終的に持つことです。例えば、特定の国の価値観や特定の宗教の価値観に調整されたモデルがあり、そのうちの一つを使用するか、異なる価値観のセットに調整された別のものを使用するかを選択できるかもしれません。
どちらの方向に進むかはまだ全く明確ではないと思いますが、それが現在私が見ている2つの道です。
Bill Higgins: 短く付け加えると、私は従来のソフトウェア背景から来ており、従来のソフトウェアにおけるセキュリティの成熟の進化と、信頼できるAIの進化に多くの類似点を見ています。
昔の悪い時代、多くの人がセキュリティに本当に悪かった時、アプローチは最後に、物を構築し終わった時に「よし、今それを安全にしよう」と言うことでした。それはもちろん災害のレシピです。そのため、ライフサイクル全体のアプローチが必要です。
Jonが言ったことすべてに同意することに加えて、問題定義、ユースケース定義、そしてユーザー研究を行う人口統計から始まって、ユーザーベースを代表すべきライフサイクル全体のアプローチが本当に必要だと思います。すべて訓練データ収集、モデル構築、モデルテスト、展開などに至るまでです。
そして私が思う他のことは、透明性の全体を通じて、そして最善の努力にもかかわらず問題が起こるという期待です。そのため、問題が起こった時に対応する準備をしておく必要があり、透明性がそれを助けます。
Mark Hinkle: 素晴らしいですね。
この質問と回答は、AI技術の最も複雑で重要な課題の一つを深く掘り下げています。質問者が提起した訓練データの哲学的・倫理的影響という問題は、AI技術の社会への影響を考える上で避けて通れない根本的な課題です。
Jonの詳細な回答は、AI開発における倫理的配慮の複雑さを明確に示しています。特に重要なのは、初期訓練データの選択よりも、教師ありファインチューニングと人間のフィードバックからの強化学習という後処理段階の重要性を強調していることです。これらの段階が「少数の人間によって導かれる」という現実は、AI倫理における根本的な問題を浮き彫りにしています。
Jonが提示する2つの解決策、すなわち「広範で多様な利害関係者による共通価値観の合意」と「異なる価値観に調整された複数モデルの提供」は、グローバルなAI技術の展開における重要な選択肢を示しています。これは単なる技術的問題ではなく、文化的・政治的な価値観の調整という複雑な社会的課題であることを明確にしています。
Billの補足は、技術開発における責任ある実践の重要性を強調しています。セキュリティ開発との類推を通じて、事後対応ではなくライフサイクル全体での倫理的配慮の必要性を示しており、問題定義からユーザー研究、実装、展開に至るまでの包括的なアプローチの重要性を提示しています。また、透明性の確保と問題発生時の対応準備の必要性を強調することで、AI倫理における実践的なガバナンス体制の構築の重要性を示しています。
6.3 セキュリティと精度の課題
聴衆の質問者: サイバーセキュリティの背景から来ており、私の脳は自然にすでに懐疑的ですが、バイアスだけでなく、真実や精度がどのように作用するかについて話すとき、私の質問があります。
多くの異なる方法で解決できるものではなく、正しい答えがあるものであるタスクがあるとき、これまでAIから見てきたのは、非常に非決定的で、訓練されたものに基づいて時間の経過とともに異なる答えを出すということです。
セキュリティの観点から、それは予測可能性が低いことを意味し、通常は異常を安全または正常なもの、ベースラインの外にあるものを決定する方法として使用します。異常性があなたのベースラインである場合、それは2つの部分の質問です。AIが精度の閾値、グラウンドトゥルースの部分を満たさない場所があるか、そして第二に、セキュリティの観点から、あなたの経験から、これらの異常性を測定する良い方法があるか、何があまりにも奇妙で、私のLLMに何か問題があるかもしれないのか、対答えの通常の標準偏差の範囲内にあるものなのか。意味がありますか?多くの言葉を投げかけてしまい、申し訳ありません。
Jon Reifschneider: 私は答えを始めます。LLMの使用に関する私の個人的な哲学は、間違った答えを与えることが問題になる場合には、LLMを決して使用しないということです。
つまり、私は非常に低いリスクのことに対してのみ、例えばChatGPTをウェブサイトで使用するようなボックスから出たLLMを使用します。コーディングをしていて、何かに関する簡単な助けが必要な場合、それに尋ねますが、もしそれが間違っていたとしても、それは単に5分の余分な作業に過ぎず、低いリスクで、それほど重要ではありません。
対照的に、例えば高いリスクのことを言うなら、私が研究論文を書いていて、何かのソースを見つける必要がある場合です。これは学生がよく犯す一般的な間違いで、実際に教授も正直に言うと、私は先日教授と話していましたが、彼らは私にこれについて尋ねていました。彼らはChatGPTにソースによって支持された答えを求め、それがそれを与えて、ソースの半分が完全に架空のものになります。ちなみに、決してそれをしないでください。
そのため、私は常に、ボックスから出たLLMを使用するときに間違った答えを得る高い確率があると仮定します。明らかに時間とともに良くなっていますが、それは消えていません。本当にそれが完全に消えることは確実ではありません。
そのため、Billが言及したように、RAG、検索拡張生成の大きな支持者です。それも限界がありますが、話すことができますが、ボックスから出たLLMを使用するよりもはるかに良いです。
これらの用語に馴染みのない方のために、それが基本的に意味することは、LLMに質問をするとき、最初にあなたの質問に答えるための関連情報の検索を実行することです。そのため、検索する場所を与える必要があります。それはウェブを検索している可能性があり、私の会社Inquisitで我々がすることの場合、我々は研究論文を検索します。あなたの企業システムを検索している可能性があります。
そして、関連情報を見つけようとし、それから自分自身から答えを発明しようとするのではなく、見つけた情報を合成することによって質問に答えます。それは、はるかに信頼できる応答、はるかに低いハルシネーション、つまり物事を作り上げるリスクをもたらす傾向があります。
繰り返しますが、それは完璧ではありません。それの より高度なバージョンが出てきており、さらに助けになっていますが、単純な低いリスクの質問ではない何かがある場合は常に、そのタイプのアプローチを使用することを提案します。
Franziska Hinkelmann: そして、決定論的なものがある場合は、LLMに答えさせないでください。天気関連のものがある場合、LLMに質問のすべての解析と答えの表現を処理させることができますが、実際の天気を取得するために実際の天気APIを使用するでしょう。
そして、適切なプロンプティングで少し助けることができます。「与えたRAC資料で見つけられない場合は、ハルシネーションしないでください。応答のみしてください」全体ですが、はい、良い質問で、それは安全ではなく、我々は問題を見つけるでしょう。
Mark Hinkle: はい、我々は問題を見つけるでしょう。
この質問と回答は、AI技術の実用化における最も重要な技術的制約を明確に示しています。質問者のサイバーセキュリティ背景からの視点は、AI システムの非決定的な性質が従来のセキュリティ運用に与える根本的な課題を浮き彫りにしています。
Jonの回答は、AI技術の限界に対する現実的で実用的なアプローチを示しています。彼の「間違った答えが問題になる場合はLLMを使用しない」という原則は、AI技術の適用範囲を明確に定義する重要な基準です。低リスク用途(コーディング支援など)と高リスク用途(学術研究での情報源検索など)の区別は、AI技術の責任ある使用における重要な判断基準を提供しています。
特に重要なのは、ChatGPTが完全に架空のソース情報を生成する現象への言及です。これは、AI技術のハルシネーション問題として知られる現象の具体例であり、学術・研究分野での使用において極めて深刻な問題となっています。Jonが「決してそれをしないでください」と強調することで、この問題の深刻さを明確に示しています。
RAG(検索拡張生成)システムの説明は、AI技術の信頼性向上における重要な技術的解決策を示しています。情報の発明ではなく合成に基づくアプローチにより、ハルシネーションリスクを大幅に削減できることは、AI技術の実用化における重要な進歩です。
Franziskaの補足は、決定論的タスクに対するAI技術の不適切性を明確に指摘しています。天気情報の例は、AI技術の適切な使用範囲を理解する上で重要な指針を提供しており、自然言語処理とAPI連携の適切な分離の重要性を示しています。また、プロンプティング技術による制御の可能性と限界についても現実的な見解を示しています。
この議論全体は、AI技術が「安全ではなく、問題を見つける」という率直な認識で締めくくられており、AI技術の現在の限界と将来の課題に対する誠実で現実的な視点を提示しています。
6.4 経験豊富な技術者のスキル転換戦略
聴衆の質問者: 私はCiscoのプログラムマネージャーで、彼はCiscoの開発リードです。私たちが知りたいのは、10年、15年、20年の経験を持つ人たちが、C言語から始まり、Java、.NET、そして様々な技術スタックで働いてきました。今、突然すべてがオープンになっていて、これが続いています。
この激しい競争のシナリオで、我々がまだ有能であることをどのように確保するか、そして仕事の安全性を保つために、どのようなスキルアップや学習部分に焦点を当てるべきかを教えてください。
Sachin Solkhan: 本当に良い質問ですね。繰り返しになりますが、生成AIとこのAIの誇大宣伝に乗るために、AI専門家になることを目標にしないでください。私の意見では、AI専門家になることを目標にするのは間違った目標だと思います。
特定のドメインの専門家になり、これらの技術が何をするか、この技術の限界を理解することでそれを補強することだと思います。前の質問で明確に語られたように、決定論的である場合、LLMは間違ったツールです。期間。他の方法を考える必要があります。
そのため、特定のドメインを学習し、いつ使用するか、いつ使用しないか、課題、制限などを理解するAIリテラシーでそれを補強することが正しい方法だと思います。
Mark Hinkle: 最後に一つ簡単なことを付け加えます。ユーザー価値と有用な問題の解決に焦点を当てれば、95%の人々より先を行くことになります。ありがとうございます。
この最終的な質問と回答は、AI時代における技術者のキャリア戦略について重要な洞察を提供しています。Ciscoの経験豊富な技術者からの質問は、多くのベテラン技術者が直面している現実的な懸念を代表しています。C言語からJava、.NETへと技術スタックの変遷を経験してきた技術者が、今度はAI技術の台頭に直面しているという状況は、技術業界の継続的な変化の典型例です。
Sachinの回答は、AI時代における技術者のスキル開発に関する重要な戦略的指針を示しています。彼が強調する「AI専門家になることを目標にしない」という考え方は、多くの技術者にとって意外かもしれませんが、極めて実用的なアドバイスです。これは、AI技術そのものの専門性よりも、既存のドメイン知識とAI技術の適切な組み合わせの方が価値があるという認識に基づいています。
特に重要なのは、「AIリテラシー」の概念です。これは、AI技術の能力と限界を理解し、いつ使用すべきか、いつ使用すべきでないかを判断できる能力を指しています。前の質問で議論された決定論的問題に対するLLMの不適切性を例に挙げることで、この判断能力の重要性を具体的に示しています。
Mark Hinkleの締めくくりのコメントは、技術者にとって最も重要な指針を簡潔に表現しています。「ユーザー価値と有用な問題の解決に焦点を当てる」という原則は、技術トレンドの変化に関係なく、常に価値を持ち続ける普遍的な指針です。これは、AI技術や任意の新しい技術に対して、ツールとしての価値に焦点を当て、それを通じて実際の問題解決に貢献することの重要性を強調しています。
この議論は、技術者が技術変化に適応する際の心構えとして、新しい技術の習得そのものよりも、既存の専門知識を基盤とした総合的な問題解決能力の向上が重要であることを示しています。