※本記事は、株式会社自動処理 高木祐介による「生成AIを取り巻く社会環境と利用事例の紹介」の講演内容を基に作成されています。この講演は「明日の開発カンファレンス『AIの進化を追え!未来の開発がここから始まる』」の一部として開催されました。カンファレンスの詳細情報は https://fod.connpass.com/event/52522/ でご覧いただけます。
本記事では、講演の内容を要約・整理しており、記事の内容は講演者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの講演動画をご視聴いただくことをお勧めいたします。
このカンファレンスは、有志が運営するリアルな現場の声を元に企画されており、ソフトウェア開発と運用の現場で役立つ具体的な事例や、開発効率を高める最新技術とその現場導入方法を解説している点が特徴です。「聞くだけ」では終わらない、行動を変える一歩となる内容となっております。
1. 講演者・会社紹介
1.1 株式会社自動処理について
株式会社自動処理の代表をしております高木祐介です。我が社の最初の契約先は経済産業省だったこともあり、それ以来、地方自治体向けの政策支援とシステム開発を行う会社として事業を展開しています。
弊社の大きな特徴としては、デジタル庁にも採用していただいた「ボックス」というサービスがあります。これは国民の意見を要約し、政策に反映させるAI処理を活用したコンテンツです。このサービスが現在、私たちの主力事業となっています。
また、昨年は東京都の生成AIガイドラインを策定させていただいたり、経済産業省のLLM(大規模言語モデル)導入アドバイザーとして外部委託の唯一の企業として契約させていただきました。その中で、国会答弁を支援するためのAIシステムも開発しています。
弊社は、課題解決のためのシステム開発に注力しており、例えばGPT-4のチャット機能やオープスの水先論機能を法制度だけで実装できる仕組みを作ったり、CLIC形式でプロンプトを実行すると将来予測シミュレーションをしてくれるツールなども開発しています。具体例として、日本の過去20年の人口統計から出生率を分析し、政策実施の有無による2050年の人口予測を行うようなシミュレーションが可能です。
また、国会質問を検索できるシステムも開発し、過去5年分の国会資料を登録して、AIが議論をまとめる機能を実装しました。これは情報通信白書にも掲載され、テレビでも紹介されました。
特に国会答弁支援システムは高い評価を得ており、国会質問に対してAIが作成した答弁案は、官僚の方々からも「これで十分」と評価されるレベルの精度を実現しています。
1.2 主要サービスの紹介
弊社の主要サービスについて、簡単に3つだけご紹介します。
1つ目は「課題解決のためのツール」です。GPT-4のバージョン4が一般的に使われるようになり、最近ではオープスも登場しました。オープスは複数のプロンプトを組み合わせて水先論(推論)するものですが、これを法則だけで実現できるようにした仕組みを作っています。また、CLI(コマンドライン)形式で実行すると将来予測シミュレーションをしてくれるツールも開発しました。例として、過去20年の日本の人口動態統計から出生率を分析し、このまま政策が何も実行されなかった場合の2050年の人口を予測するシミュレーションが可能です。試算では、政策実行で4500万人程度、何もしなければ1200万人程度になるという結果が出ています。
2つ目は、昨年開発した「国会議事録の検索システム」です。過去5年分の国会議事録を登録し、それをAIが議論内容をまとめてくれる仕組みを構築しました。このシステムは情報通信白書に掲載され、テレビでも紹介されました。
3つ目は、経済産業省向けに開発した「国会質問対応システム」です。議員からの質問に対して、AIが回答案を生成します。この回答はかなり高精度で、官僚の方々からも「これで十分」と評価されるレベルの透明性のある答弁案が出せるところまで実現しています。
1.3 政府関連の実績
弊社は政府関連での実績を多数有しています。先ほど少し触れましたが、最初の契約先が経済産業省だったこともあり、政府機関との連携が強みとなっています。
東京都の生成AIガイドラインを昨年策定させていただきました。これは行政におけるAI活用の指針となるもので、現在では多くの自治体に参照されています。
また、経済産業省のLLM(大規模言語モデル)導入アドバイザーとして、外部委託の唯一の企業として契約を結び、行政におけるAI活用推進を支援しています。この役割は非常に重要で、省庁内でのAI導入の道筋を示す役割を担っています。
特に注力しているのが国会答弁支援システムの開発です。このシステムでは、国会での質問に対してAIが適切な答弁案を生成します。経済産業省向けに開発したシステムでは、AIが生成した答弁案が官僚の方々から「これで十分」と評価されるほどの精度を実現しており、行政の透明性向上と業務効率化に貢献しています。
さらに、「アイデアボックス」という国民の意見を要約し、政策に反映させるAIシステムはデジタル庁にも採用されており、行政と国民をつなぐ重要なツールとなっています。
これらの実績を通じて、政府・自治体におけるAI活用の先駆者として認識されており、今後も公共部門におけるデジタルトランスフォーメーションを支援していく予定です。
2. 生成AIの現状と発展
2.1 生成AIの出現と知的労働の支援
生成AIについて改めて説明したいと思います。生成AIが出現することによって、人間の知的労働はかなりの部分を支援できるようになりました。元々、AIは昨年まではある特化したことしかできませんでしたが、生成AIのチャットGPT登場と共に、汎用的に何でもできるAIというものが出てきました。これが大きなポイントになったわけです。
この生成AIというのは、近年の調査によると世界経済に約6兆円の価値を加えると言われています。これがどのくらいの規模なのかというと、大体イギリス1国分くらいの経済価値があるという風に言われています。
また、一般的なシミュレーションでは、2030年には70%くらいの企業は少なくとも1種類のAIを導入しているといわれています。これは去年の報告書に書いてあることですが、今のタイミングでほとんど当たりにきていると思います。そのため、もっともっと加速的にAIの普及は進んでいるという風に思います。
2.3 企業投資の活発化(2025年までの予測)
ゴールドマン・サックスの予測によれば、企業投資が非常に活発になることが見込まれています。2025年、つまり来年までに、米国で約1000億ドル、全世界では約2000億ドルの投資が生成AI関連で発生すると予測されています。
これらの投資は、具体的にはAIモデルの開発、データセンターの構築、AI関連の開発、さらには人材教育など、幅広い分野に流れていくことになります。すでに世界中の企業がAI分野への投資を急速に拡大しており、この傾向は今後さらに加速すると考えられます。
特筆すべきは、中国企業の例ですが、言語モデルもチャットボット製品も何も持っていない状態でも、約300億円の資金調達に成功した企業があるなど、市場の期待値が非常に高いことがわかります。実績のある言語モデルを持つ企業、特にOpenAIなどは約13兆円もの企業価値があると評価されており、AIへの投資熱は今後も続くでしょう。
2.4 生成AI関連企業の株価状況
AI関連の株価は信じられないほど上昇しています。中国の例を見てみると、言語モデルもチャットボット製品も何も持っていない企業でさえ、約300億円の資金調達に成功したケースがあるほど、株式市場の予想を大幅に上回っています。
実績のある言語モデルを持つ企業についてはさらに驚異的な評価がなされており、OpenAIは約13兆円という天文学的な企業価値があるとされています。これは本当に莫大な金額です。
去年、2023年12月までは、GPT-4はOpenAIの一社独占で、他社はあのレベルの生成AIモデルを持っていませんでした。しかし、MetaによるLlamaの発表によって、今年2月頃から同じレベルのGPT-4レベルの開発競争がスタートしたと思います。
現在ではGoogle(Anthropic)、Claude、OpenAI、Metaなど、様々な企業が情報を発信し始めています。特にMetaはオープンソースで言語モデルを公開しているため、誰でも言語モデルを作ることができるようになりました。Metaは何億、何千億円というお金をかけて言語モデルを学習させていますが、これに対するファインチューニングは比較的簡単にできるため、資金力がなくても言語モデルを作れるような状況になってきました。
このように、GPT-4レベルのLLM(大規模言語モデル)はかなりの数が出てきており、もはやチャットGPTだけが選択肢ではなくなっています。利用用途によって選択できる時代になったと考えています。
3. 生成AI技術の進化
3.1 GPT-4からの技術革新
去年、2023年12月までは、GPT-4は事実上OpenAIの一社独占状態で、あのレベルの生成AIモデルを持つ企業は他にはありませんでした。しかし、Metaによるオープンソースのモデル「Llama」が発表されたことで、今年2月頃から同等レベルのAIモデル開発競争が本格的にスタートしました。
現在では、Google、Anthropic(Claude)、OpenAI、Metaなど様々な企業が次々と高性能なAIモデルの情報を発信し始めています。特にMetaのアプローチは注目すべき点で、オープンソースで言語モデルを公開していることから、誰でも言語モデルを扱えるようになりました。Metaは何億、何千億円もの資金を投じて基盤モデルを学習させていますが、これに対するファインチューニングは比較的容易なため、資金力がなくても言語モデルをカスタマイズできる状況になってきています。
GPT-4レベルのLLM(大規模言語モデル)は次々と登場し、もはやチャットGPTだけが選択肢ではなくなりました。例えば、Claudeはコンテキストウィンドウが非常に広いため大量の文書を与えるのに適しています。Anthropicのモデルはコンテキスト内の情報を正確に扱うのが得意です。一方、チャットGPTは文学的な表現や発散的な思考が得意という特徴があります。
これらのモデルはそれぞれ性能が異なり、同じレベルのものもあれば特化した強みを持つものもあります。重要なポイントは、様々なタイプのLLMが登場し、用途に応じて選択できる時代になったということです。
3.2 多様な言語モデルの登場と選択肢の拡大
GPT-4レベルのLLM(大規模言語モデル)の数はかなり増えてきており、もはやチャットGPTだけが選択肢ではなくなっています。様々なモデルが登場し、それぞれの利用用途によって選択できる時代になったと考えています。
例えば、Claude(Anthropic)の場合はコンテキストウィンドウが非常に広いため、大量の文書を与えるのに適しています。Anthropicのモデルはコンテキスト内の情報を正確に扱うことに優れています。一方、チャットGPTは文学的な表現や発散的な思考が得意という特徴があります。
これらのモデルはどんどん性能が向上しており、同じようなレベルのものもあれば、特定の分野に特化したモデルもあります。重要なポイントは、様々なタイプの言語モデルが登場し、ユーザーがそれぞれの用途や目的に応じて最適なモデルを選択できるようになったということです。
また、MetaのLlamaのようなオープンソースモデルの登場により、大企業だけでなく中小企業や個人開発者も高性能な言語モデルを利用・カスタマイズできるようになりました。Metaは何億、何千億円もの資金を投じて基盤モデルを学習させていますが、これに対するファインチューニングは比較的容易なため、資金力がなくても言語モデルをカスタマイズできる状況が生まれています。
3.3 端末レベルでのAI搭載(クラウドから端末へ)
今年のマイクロソフトのBuild 2024(5月)の発表と、AppleのWWDC発表のタイミングで、AIが大きな転換点を迎えています。これまではクラウド上の1つのサーバーがAI処理を行っていましたが、電力消費量の問題から耐えられなくなってきているため、各端末、つまりパソコンや携帯端末レベルにLLM(大規模言語モデル)が搭載されるようになりつつあります。
この流れを象徴するデモとして、マイクラフト(Minecraft)と連携したAIの例があります。「僕の息子はMinecraftが大好きなんだけど、俺はやったことない。コパイロットと一緒にやらないか」と言って、AIと会話しながらマインクラフトをプレイするというデモを、マイクロソフトが発表イベントで披露していました。
このように、私たちが毎日使用するパソコンの中にAIが組み込まれ、共に作業するパートナーとなる状況が実現しつつあります。まさに「コパイロット(副操縦士)」という名前の通り、AIが私たちの作業を支援する存在として定着しつつあるのです。
この潮流は、クラウドに頼るだけでなく端末自体の処理能力を活用することで、より迅速かつプライベートなAI体験を提供するものとなっています。これにより、インターネット接続が不安定な環境でも高度なAI機能を利用できるようになるという大きなメリットがあります。
3.4 Sakana AIのAIサイエンティスト発表
日本でも新しい取り組みとして、SakanaAIがAIサイエンティストというプロジェクトを発表しています。これまでAIは既存の文章を学習させるだけなので、新規性のあるものが作れないと言われていました。しかし、SakanaAIのAIサイエンティストは、既存の発表されている論文を組み合わせて新規性のあるアイデアを自分で作り上げ、仮想上でバーチャル実験を行い、その上で実際にその論文を書くというところまで全てを行います。
発表で示された2つの論文は、このAIサイエンティストがデモとして作成したものです。このように、日本企業もかなりインパクトのある製品を開発しており、生成AI分野で存在感を示し始めています。
これは、AIが単に既存知識の再構成だけでなく、新たな科学的知見を生み出せる可能性を示すものであり、研究開発の在り方を大きく変える可能性を秘めています。このようなAIの活用によって、研究者が時間のかかる作業から解放され、より創造的な思考に集中できるようになるかもしれません。
3.5 オープンAIのO1発表とプログラミング能力の向上
オープンAIがo1を発表しました。これは全く新しいAI実行方式で、チェーンオブソートとセルフリフレクションという2つのプロンプト技術を利用して、精度の高い処理ができるというものになっています。実際にプロンプトエンジニアリングの技術を持っている人はこういうことはすでにできていたのですが、そうした技術を持っていない人でもo1を使うことで精度の高い推論ができるようになったことは非常に大きな進歩だと思います。
さらに重要なのは、このあたりからプログラミング技術・プログラムに関する精度が飛躍的に向上したことです。今年の4月頃のタイミングでは、例えばDeepSeqという当時最高精度のプログラミングAIは、HumanEvalというベンチマークテストで約18%の精度でした。つまり、5回ほど指示に対して実装を試みると、そのうち1回ぐらいはうまく実装できるという状況でした。
しかし、Claude-3.5とo1に関しては、大体50%程度の精度で、指示に対してノンフィックス(修正不要)のコードを生成できるようになりました。これは単純に自己改善だけでなく、OpenEvaluateやOpenHandといったツールを使って実装することで達成されています。つまり、プログラムを使ってプログラムを作ることが非常に簡単にできるようになったということです。
3.6 AIのIQレベルの向上(100から120へ)
o1の登場は非常に重要な転換点になっています。これまでのLLM(大規模言語モデル)は大体IQレベルが100くらいでした。それがo1の登場によってIQが120になり、一般的な人間の知能を完全に超えたという状況になっています。
つまり、人間とAIで相談すべきことよりも、特定の特化したこと以外は、AIに聞いた方が精度の高い答えが得られるようになってしまいました。人間はもうAIに追い抜かれてしまったという状況が現在の状況です。
さらに、リアルタイムAPIの提供が進んでいます。先ほど会話しながらゲームをするという話をしましたが、これがすでにAPI化されており、OpenAIが公開しています。これを元に、例えばリクルーティング用のアバターが企業面談を行うといった実装も進んでいます。
私も去年30人ほどアルバイトを雇いましたが、30人を雇うと90人ほど面談することになり、それぞれ30分ずつ時間をかけるとリーダーの負担が大きくなります。そこで私たちはチャットGPTのチャット機能を使って面談しましたが、今では顔を合わせたアバターがリアルタイムに反応しながら面談を進め、終了後にログを見てレビューするという形に業務が変わってきています。
このように、昨年から今年にかけて新技術が次々と発表され、実装され、実社会に変化をもたらしています。こうした変化は学術界でも大きな注目を集めており、IT以外の分野でも生成AIに関する特別なセミナーが開催されるようになっています。
4. リアルタイムAPI提供とその応用
4.1 会話型インターフェースの進化
リアルタイムAPIの提供によって、AIとのインタラクションは大きく進化しています。先ほど少し話した、マイクロソフトのMinecraftデモはその象徴的な例です。「僕の息子はMinecraftが大好きなんだけど、俺はやったことない。コパイロットと一緒にやらないか」と言って、AIと会話しながらマインクラフトをプレイするというデモを、マイクロソフトが発表イベントで披露していました。
これは単なるデモではなく、マイクロソフトが進めている方向性を示すものです。毎日使用するパソコンの中にAIが組み込まれ、私たちと会話しながら作業を支援する「コパイロット」として機能するようになっています。まさにパイロットと副操縦士(コパイロット)のような関係性が構築されつつあります。
このリアルタイムAPIはすでにOpenAIから公開されており、開発者が独自のアプリケーションに組み込めるようになっています。これにより、AIとのリアルタイムなコミュニケーションを基盤にした様々なサービスが次々と生まれています。例えば、企業の採用面接用アバターや、カスタマーサポート、教育支援ツールなど、人間との対話を必要とする多くの分野で応用が進んでいます。
4.2 採用面接への応用事例
リアルタイムAPIを活用した実用例として、採用面接におけるAI活用があります。リクルーティング用のアバターが応募者と会話しながら企業面談を行うという実装が進んでいます。
私自身の経験では、去年30人ほどアルバイトを雇おうとした際、30人雇うためには90人ほど面談する必要がありました。各面談に30分ずつかけるとなると、リーダーの負担が非常に大きくなります。当時は、チャットGPTのテキストチャットを使って面談を行いました。しかし現在では、顔を合わせたAIアバターが応募者と会話し、「これってこういうことですか?」と質問しながらリアルタイムに反応し、面談を進行していくことが可能になっています。
面談終了後は、AIとの会話ログを人間のリクルーターが確認してレビューし、採用判断を行うというプロセスが実現しています。このように、時間のかかる初期スクリーニングをAIに任せることで、人間のリクルーターはより価値の高い判断業務に集中できるようになっています。
5. AIの社会的影響と学術的議論
5.1 学術会での注目
生成AIの急速な進展は学術界でも大きな注目を集めています。私が見る限り、ITに関わらない様々な分野でも生成AIに関する特別なセミナーが開催されるようになっています。
生成AIと人間の関係性について、学術会では興味深い議論が行われています。例えば、人間の価値について考えると、学術界では「人間というのは不完全であることに価値があるのではないか」という議論が出てきています。つまり、全部100点を取るような完璧さよりも、偏った知見や偏った考え方を持つことに個性があり、そこに価値があるのではないか、不完全であることに価値を生み出していくべきではないかといった議論が行われています。
また、「AI for Good」(良いことのためのAI)というイベントが5月頃に開催されましたが、そこでもAIの社会的影響についてかなり議論がなされ、世界中の人がAIをどのように使っていくべきかを検討している状況です。
このように学術界は、AIの技術的側面だけでなく、社会的・倫理的側面にも注目し、様々な角度から生成AIの可能性と課題を議論しています。
5.2 人間の不完全性の価値に関する議論
学術界では、AIの進化に伴い「人間の不完全性の価値」についての興味深い議論が展開されています。AIが100点満点の回答や完璧な成果を出せるようになってくると、逆説的に「人間とは何か」という根本的な問いが浮上してきているのです。
学術会での議論を見ていくと、「人間は不完全であることに価値がある」という考え方が提起されています。つまり、全てが100点満点で完璧な存在よりも、偏った知見や独自の視点を持ち、それによって個性が生まれるところに人間の価値があるのではないかという議論です。
例えば、芸術や創造性の分野では、完璧さよりも「わざとらしさ」や「不完全さ」から生まれる美しさや感動があります。AIが技術的に優れた作品を生み出せるようになった今、人間ならではの不完全さや揺らぎが持つ価値が再評価されています。
このような議論は、単にAIと人間の違いを強調するだけでなく、AIとの共存時代において人間がどのような役割や価値を持つべきかを考える重要な視点を提供しています。不完全さから生まれる創造性や多様性こそが、人間社会の豊かさの源泉であり、AIにはない人間の強みとして捉えられ始めているのです。
5.3 AIの認知バイアス問題
AIは一般的に中立で客観的だと思われがちですが、これは大きな誤解です。実際には、AIはさまざまな人間の偏見が入ったバイアスのある情報を元に学習しているため、認知バイアスが発生することが分かっています。
例えば、AIモデルは学習データに含まれる社会的なバイアスを継承してしまいます。これはAIによって学習のされ方が異なるため、認知バイアスのレベルもそれぞれ異なります。この問題に関しては、様々な論文が出てきており、AIを適切に利用するためにはこうしたバイアスの存在を理解することが非常に重要です。
認知バイアスの例としては、例えば社会的ステレオタイプ、文化的偏見、地域による視点の違いなどがあります。例えば政治的な質問をした場合、日本のAIであれば保守的な自民党寄りの話がメジャーなのでそちらに傾くかもしれませんし、フランスのAIであればリベラル寄りのバイアスがかかるかもしれません。アメリカのAIであればジェンダーの問題にセンシティブになる傾向があるでしょう。
これらは単に「バイアスがあるから駄目だ」というわけではなく、社会情勢をそのまま反映したものと考えるべきでしょう。ただし、例えばニューヨークで採用AIを使う場合には人種差別をしないようにする配慮が必要ですし、日本でも性別による差別が起きないように注意する必要があります。こうしたバイアスの問題は、AI開発者や利用者が認識し、適切に対処していくことが求められています。
5.4 将来予測と警告(汎用人工知能の進化)
AIの急速な進化に対して、学術界からは警告的な論調も出てきています。特に注目すべきなのは、「これから10年、生成AIがどうなるのか」という未来予測についてです。
現在のペースでAIが発展を続けると、AIが人間を完全に超えて「汎用人工知能(AGI)」を実現してしまう可能性があります。こうした状況をうまくコントロールしていかなければ、人類にとって危険な状況になりかねないという警告が出されています。
ダボス会議(世界経済フォーラム)などでもこうした懸念が表明されており、我々はこのような社会の中でAIとどのように向き合っていくべきかを真剣に考える必要があります。単に技術的な進化を追い求めるだけでなく、人類社会にとって望ましい形でAIを開発・活用していくためのガバナンスや倫理的枠組みの構築が求められています。
技術の進化自体は止められないものですが、その方向性や利用の仕方については私たち人間が責任を持って決めていく必要があるのです。
6. AIが注目される理由
6.1 汎用性の広さ
AIがこれほど熱狂的に受け入れられている理由の一つは、その適用範囲の広さです。AIの汎用性は驚くべきものがあります。
例えば、プログラミング分野では、去年の6月13日のGitHubの調査で、すでにプログラマーの92%がAIを使っていることが明らかになっています。日本国内でも、ある企業がAIを導入したことで3万5000時間分のコーディング時間を削減できたという発表がありました。
私自身もオフィス開発の中でAIを活用していますが、開発効率は約4倍ほど向上したと感じています。AIがアシストすることで作業効率が上がることは間違いありません。
しかも、AIはプログラムを単に実行できるだけでなく、トップクラスのプログラムが作成できるという点も大きなポイントです。もちろん、バグが発生することもありますし、ハルシネーション(幻覚)も起こるので、全てが完璧というわけではありませんが、適切にチューニングされたAIプログラマーは、トップクラスのプログラミング技術で新しいコードを作り出すことができます。これはDeepMindからも発表されています。
このような汎用性の高さがAIの大きな魅力であり、多くの分野や業務で活用されている理由です。
6.2 プログラミング開発効率の向上(4倍程度)
プログラミング分野におけるAI活用の効果は顕著です。GitHubの調査によると、すでに昨年の時点でプログラマーの92%がAI支援ツールを活用していることが報告されています。日本国内でも、あるプロジェクトでAIを導入したことで3万5000時間分のコーディング時間が削減できたという成果が発表されました。
私自身の経験でも、オフィス開発においてAIを活用することで開発効率が約4倍向上したと実感しています。具体的には、コード生成やデバッグ、ドキュメント作成などの作業時間が大幅に短縮され、より複雑な問題解決や設計に時間を割けるようになりました。
特筆すべきは、AIによるプログラミング支援が単なる補助を超えて、高度なレベルに達している点です。単にコードを実行できるだけでなく、トップクラスのプログラミングができるというのがポイントです。もちろん完璧ではなく、バグやハルシネーション(幻覚)は発生しますが、適切にチューニングされたAIは、時に経験豊富なプログラマーと同等かそれ以上のコードを生成することができます。
この効率向上は、単に同じ成果をより短時間で達成するというだけでなく、プログラマーが創造的な問題解決や高度な設計に集中できるようになり、ソフトウェア開発の質自体も向上させる可能性を秘めています。
6.3 国家資格試験への合格
AIは現在、各種国家資格の試験に合格できるレベルに達しています。日本の国家資格については、最近の発表によると、AIは国家資格試験問題の98%以上を解けるようになっています。つまり、日本のほぼ全ての国家資格の試験問題を解くことができる状況になっているのです。
これは特に医療分野で注目すべき事例が出ています。海外では、3年間様々な医者にかかっても解決できなかった慢性的な痛みを抱えた子供の例があります。たくさんの専門医でも1回も正確な診断ができなかったケースで、ChatGPTに症状を入力したところ、すぐに回答を提示してくれたというケースも報告されています。
つまり、ChatGPTは医師国家試験のような専門的知識を必要とする試験の内容を学習していなくても答えを出すことができるということです。すぐに回答を提示できるというのも大きなポイントです。
これまでは人文系のことはAIがあまり得意ではないと言われていましたが、今では楽曲制作や絵画制作、動画制作などの分野でもAIが優れた能力を発揮するようになっています。このように、「考える」という分野でも人間の逃げ場がなくなってきており、「人間性とは何か」という問いが浮上しています。そのため、AIに負けないような専門性を見つけることが今後非常に重要になってくるでしょう。
6.4 医療診断における成功事例
医療分野におけるAIの成功事例として、特に印象的な例があります。海外の事例ですが、ある子供が3年間にわたり様々な医師に診てもらっても解決できなかった慢性的な痛みを抱えていました。多くの専門医を受診したにもかかわらず、一度も正確な診断を得られなかったのです。
この子供の症状をChatGPTに入力したところ、AIはすぐに回答を提示し、的確な診断を行ったという事例が報告されています。医師たちが長期間かけても特定できなかった病状を、AIがデータベースの膨大な医学知識から即座に導き出せたという点が注目されています。
これは、AIが単に医師国家試験のような専門的知識を問う試験に合格できるレベルであるだけでなく、実際の複雑な医療ケースにおいても有効な判断ができる可能性を示しています。もちろん、AIはあくまで医師の判断を支援するツールであり、医師に取って代わるものではありませんが、診断の補助や稀少疾患の特定などで大きな価値を発揮する可能性があります。
特に、長期間解決しなかった医療問題に新たな視点をもたらすというAIの能力は、医療の質と効率を高める重要な要素となっていくでしょう。
6.5 人文系領域での活用
これまでは人文系の分野はAIがあまり得意ではないと言われていましたが、現在ではその認識が大きく変わりつつあります。楽曲制作、絵画制作、動画制作などの分野でも、AIは目覚ましい成果を上げるようになっています。場合によっては、AIが人間よりも優れた作品を生み出すケースも出てきています。
こうした状況から、「考える」という人間の特権と思われていた領域でも、AIの能力が高まっており、人間の逃げ場がどんどん少なくなってきています。これにより「人間性とは何か」という根本的な問いが改めて注目されるようになっています。
文学作品の分析、詩や散文の創作、哲学的な議論の整理といった、これまで人間の感性や教養に依存していた分野でもAIが高い能力を示すようになっています。これは単にAIの技術的な進歩というだけでなく、人間の文化的・芸術的活動の本質に関わる重要な問題を提起しています。
こうした変化の中で、今後は「AIに負けない専門性」を見つけることが非常に重要になってくるでしょう。単なる知識の蓄積や技術的な熟練ではなく、人間ならではの創造性や感性、倫理的判断力といった側面に価値を見出していく必要があります。
7. ビジネス応用事例
7.1 投資判断における優位性
AIは実際のビジネスにおいて、人間より正しい判断が投資で行えるということが示されています。イギリスのトップファンドの人気上位10ファンドよりも、ChatGPTを使って投資を行った方が成果が高かったというような事例も出てきています。
これは単なる一例ではなく、AIの投資判断能力が人間のプロフェッショナルを上回る可能性を示しています。AIは膨大な市場データを分析し、感情に左右されることなく、客観的な判断を下すことができるという利点があります。
また、投資の世界では、ゴールドマン・サックスの例も有名です。2017年時点で600人のトレーダーが在籍していたのが、AI技術の導入により現在はわずか2人しかいなくなったと言われています。これはLLM(大規模言語モデル)の登場によって可能になったことで、まさに業界を変革する事例と言えるでしょう。
こうした事例は、金融業界におけるAIの影響力の大きさを示すとともに、他の産業でも同様の変革が起こる可能性を示唆しています。
7.2 ソフトバンクの特許申請(1000件/年)
ソフトバンクでは、AIを活用した特許申請の取り組みが進んでいます。1年間のうちに1000件の発明を行い、AIを5つ使って発明を特許申請しているという状況になっています。
さらに驚くべきことに、ソフトバンクグループは数ヶ月で1万件の特許を申請したとも言われており、そのためか特許庁が人員増員を検討しなければならない状況になっているとも聞いています。
これはこれまで考えられなかったペースで特許が生み出されている状況です。AI技術によって、アイデアの創出から特許文書の作成、先行技術調査まで、特許申請プロセス全体が効率化されていることを示しています。
この事例は、AIが単に既存業務の効率化だけでなく、知的財産の創出という創造的な領域でも大きなインパクトを与え始めていることを示しています。さらに、こうしたAIによる大量の特許申請は、特許制度そのものにも影響を与え始めているという点も注目すべきでしょう。
7.3 バーチャルモデルとAIインフルエンサー
皆さんもご存知かと思いますが、最近ではバーチャルモデルのAIが世界で活躍しています。例えば、世界初めてAIモデルとしてCMデビューをした例もあります。
中国では昨年から、生成AIを活用したバーチャルインフルエンサーが24時間365日ずっと配信するという取り組みが進んでいます。人間が商品を買いたいと思ってそのインフルエンサーの配信を見れば、AIが対応して話しています。そして視聴者が面白いと思った商品を買えばいいという仕組みになっています。これは完全に経済を動かしている例です。
さらに、ポーランドではAIがCOO(最高執行責任者)として稼働する会社も登場しています。また、エージェントプログラムも注目されています。2023年8月頃に登場した「ChatDev」というプログラムでは、CEOのAIが要件整理をして、CTO(最高技術責任者)のAIがプログラムの設計を行い、プログラマーのAIとデザイナーのAIに作業を分担して、実際にプログラムを作成するというシステムが実現しています。
これは今まで全く考えられなかった作業の進め方ですが、昨年すでに実装され、今年はさらに実用的なレベルで動き始めています。先ほど説明したように、生成AIのプログラム作成能力は50%ほどの精度でノーバグのプログラムを生成できるようになっていますから、このようなエージェントプログラムと組み合わせることで、要件を受け取ってから実装までを自動化する世界が50%くらいの精度で実現しつつあります。
7.4 AIが経営に参画する企業の出現
AI技術の進展により、経営層にAIが参画する企業が登場し始めています。特に注目すべき事例として、ポーランドではAIがCEO(最高執行責任者)として稼働する会社が設立されました。このAI CEOは、人間の役員と連携しながら経営判断に関わっています。
また、企業運営におけるAIの役割はさらに拡大しつつあります。昨年8月頃に発表された「ChatDev」というエージェントプログラムは、AI同士が連携して開発プロジェクトを進める仕組みを実現しています。この仕組みでは、CEOの役割を担うAIが要件整理を行い、CTOのAIがプログラムの設計を担当し、さらにプログラマーのAIとデザイナーのAIに作業を分担して実際にプログラムを作るという、組織的な開発体制を構築しています。
このようなAIシステムが経営に参画する動きは、今まで全く考えられなかった組織運営の形態です。昨年すでに実装され始めており、今年はさらに実用的なレベルで動作するようになっています。先ほど説明した通り、生成AIのプログラム作成能力が向上し、約50%の精度でノーバグのプログラムを生成できるようになってきたことから、要件定義から実装までのプロセスがAIによって大幅に自動化される可能性が高まっています。
7.5 エージェントプログラムの進化
エージェントプログラムの進化も注目すべき点です。2023年8月頃に登場した「ChatDev」というプログラムは、複数のAIが異なる役割を担って連携するシステムを実現しています。
この仕組みでは、CEOのAIが要件整理を担当し、CTOのAIがプログラミングの設計を行います。そして、プログラマーのAIとデザイナーのAIに作業を分担して、実際にプログラムを作成するという流れです。
これは今まで全く考えられなかった作業の進め方です。昨年すでに実装されており、今年は実際に動いて、より実用的なものができてくる段階に入っています。
先ほど説明したように、生成AIは自らプログラムを組み合わせて動かすことによって、50%程度の精度でノーバグのプログラムを生成できるようになっています。このようなエージェントプログラムと組み合わせることで、要件を受け取ってから実装までを自動化する世界が、50%程度の精度ではありますが、現実に近づいてきています。
このようなエージェントプログラムの進化は、ソフトウェア開発の方法論を根本から変え、人間の開発者はより創造的な部分や要件定義、品質管理といった側面に集中できるようになる可能性を示しています。
8. AI市場をめぐる競争環境
8.1 大手テック企業の参入状況
AI市場に関しては、ご存知の通り、GAFAをはじめとする大手テック企業が全て参入しています。既存のエコシステム、いわば「オールドエコノミー」の大手企業も全て、この競争に参加している状況です。
それに対して、新しくAnthropicやOpenAI、Metaといった企業がビジネスの新しいゲームチェンジャーとして台頭してきています。これらの企業が市場の半分程度を占めると言われており、生成AIを中心とした新しいビジネス競争が始まっています。
GAFAなどの既存大手と、OpenAIのような新興企業との競争が激化する中で、各社は独自の強みを生かしたAI戦略を展開しています。マイクロソフトはOpenAIとの提携を強化し、Googleはその検索エンジンの強みを活かしたAI統合を進めています。Amazonはクラウドサービスとの連携を、Appleはプライバシー重視のアプローチを取っています。
一方で、Metaはオープンソース戦略を取っており、自社の言語モデルを公開することで、開発者コミュニティを巻き込んだエコシステムの構築を目指しています。これにより、個人や中小企業でも高性能な言語モデルを活用できる環境が整いつつあります。
このように、大手テック企業から新興のAI専業企業まで、様々なプレイヤーが参入し、激しい競争を繰り広げている状況です。
8.2 国家間競争の激化
AI市場をめぐっては国家間でも競争が激化しています。アメリカでは生成AIに関する研究局が設立され、国家としての競争力を保持するための取り組みが進められています。これはトランプ政権時代から始まっていましたが、今後もトランプ氏が再選を果たしたことで、AIに関してはさらに強力な政策が展開されると予想されます。
日本でも国際AI戦略の検討が進んでいます。昨年の段階で菅総理(当時)がGoogleの副社長やMicrosoftの副社長など、世界中のビッグテック企業の幹部を招いて会談を行いました。これは日本が国際的なAI戦略において一定の存在感を示そうとする動きです。
特に注目すべきは、日本の著作権法における機械学習の取り扱いです。日本では著作権法において機械学習のための複製が合法であるという特徴があります。このため、世界中の企業が日本にデータセンターを設置しようという動きが活発になっています。日本で機械学習を行えば、海外でもその成果物を使用できるため、各国の著作権法の制約を受けず、言語モデルを作成して海外で活用することが可能になります。
このような日本の法的環境を活かした動きは、千葉や今治市などにデータセンターが建設されている背景にもなっています。こうした動きの詳細は文化庁のセミナーなどで詳しく説明されています。
8.3 日本の著作権法と機械学習の合法性
日本ではAI開発において大きなアドバンテージとなる法的環境があります。それは著作権法における機械学習の扱いです。日本では著作権法において機械学習のための複製が合法であるという特徴があります。これが世界中の企業にとって非常に魅力的な点となっています。
なぜこれが重要かというと、世界中の企業が日本にデータセンターを設置しようという動きが活発化しているためです。日本で機械学習を行えば、その後の成果物を海外でも問題なく使用できるという利点があります。つまり、日本で機械学習さえしてしまえば、その国の著作権法に縛られず、言語モデルを作成しその成果物を海外でも活用できるのです。
この日本の著作権法の特徴を活かし、千葉や今治市などで大規模なデータセンターが建設されています。これらのデータセンターでは、グローバル企業が日本の法的枠組みを活用して、大規模な言語モデルの学習を行っています。こうした動きの詳細については文化庁のセミナーなどで詳しく説明されているので、興味のある方はそちらを参照いただければと思います。
このような法的環境は、日本がAI開発において重要な役割を果たす可能性を示すものであり、国際的なAI戦略の中で日本の強みとなっています。
9. 政府・企業のAI導入状況
9.1 政府のAI推進姿勢
政府は実は去年の4月頃から、生成AIは世界を変えるほどのものだとしてChatGPTがデビューして以来、政策の一つとして位置づけ、みんなが使えるよう一生懸命推進してきました。
行政関係では、デジタル庁が最初は届出が必要だったのですが、去年の9月15日以降は届出も不要になり、勝手に使ってもいいという風になっています。本当に地方自治体は全部使っているという状況になっています。
実態としても、首長さんたちは完全に推進派になっています。最初は駄目だと言っていた人も、途中から「やっぱり暫定OKですよ」となっていて、行政に関しても完全に推進OKという形でどんどん進んでいます。
民間企業では全面推進と全面謹慎というのが混在していますが、全面謹慎のところは割と自分のところでAIを持っているところが多かったり、自分のところで何か事故を起こしたりしたところが多いので、それも徐々に緩和されてくる状況かなと思います。
こうした状況を踏まえて、どのように使っていけばいいのかというルール作りも進んでいます。一般企業の方にディープラーニングの協会が今一番ルールに関してはしっかり作られていると思うのですが、海外利用に関してルール作りが社内でできているから使えるんだということが割とトップに上がってきます。ルール作りをしっかりやった上で導入するということが進められており、それに関するテンプレートもどんどんできている状況です。
9.2 地方自治体の導入状況
地方自治体におけるAI導入は急速に進んでいます。デジタル庁の指針が大きく変わり、当初は届出が必要だったAIの利用が、去年の9月15日以降は届出も不要になり、各自治体が自由に使えるようになっています。この規制緩和により、現在では多くの地方自治体がAIを活用している状況です。
自治体の首長の姿勢も大きく変化しています。最初はAI導入に慎重だった首長も、その有用性を認識して「暫定的にOK」という姿勢に転じる例が増えています。現在では、行政分野においても完全に推進派が主流となり、積極的にAIを活用する流れが定着しています。
東京都では昨年8月23日に全庁的なAI導入がスタートし、その際にガイドラインを私の会社が策定させていただきました。今年に入ってからは、東京都全域での活用を進めるにあたって、どのような形で使うべきかというプロンプト集のようなものが東京都から公開されており、それが日本全国の自治体で参考にされる状況になっています。
自治体におけるAI活用は、主に業務効率化や住民サービスの向上を目的としており、文書作成支援、議事録作成、よくある質問への回答など、様々な場面で活用が進んでいます。
9.3 民間企業における対応の差異
民間企業のAIへの対応は二極化しています。全面推進と全面謹慎というのがバラバラに存在している状況です。全面謹慎を選択している企業は、自社で独自のAIを持っているところが多かったり、あるいは何らかの事故やトラブルを経験したりしたところが多い傾向があります。しかし、このような全面謹慎の姿勢も徐々に緩和されてきている状況だと思います。
企業におけるAI導入のルール作りも進んでいます。一般企業向けにはディープラーニング協会が現在最もしっかりしたルールを策定していると思います。企業内での議論では「海外のAI利用に関するルール作りが社内でできているから使えるんだ」ということがトップにも理解されてきています。つまり、適切なルール作りをしっかり行った上で導入を進めるというアプローチが主流になってきており、そのためのテンプレートもどんどん整備されている状況です。
ただし、ルールができないから社内で使えないという声も多く聞きます。しかし現実には、ChatGPTユーザーの3分の2が会社に内緒で利用しているという調査結果があります。上司から早く業務を終わらせるよう求められると、そのプレッシャーからChatGPTを「シャドーAI」として使ってしまうのです。つまり、禁止するしないに関わらず、従業員はすでにAIを使っているという現実があります。
このように、生まれた便利な技術を単に禁止するのは難しい状況です。そのため、先にしっかりとルールを作って統制を取った形で使えるようにしておく方が良いでしょう。単に禁止と言っても従業員は勝手に使ってしまうので、適切なルールの範囲内で使ってもらうことが非常に重要です。
9.4 東京都のガイドライン
東京都では昨年8月23日に全庁的なAI導入がスタートしました。この際に、私の会社が東京都の生成AIガイドラインを策定させていただきました。このガイドラインは、行政におけるAI活用の指針となるもので、適切な利用方法やリスク管理、セキュリティ対策などを網羅的に含んでいます。
今年に入ってからは、東京都全域でAIを活用するにあたって、どのような形で使うべきかというプロンプト集のようなものが東京都から公開されています。このプロンプト集は、具体的な業務シーンでのAI活用方法を示すもので、全国の自治体にも参照されるようになっています。
このガイドラインの特徴は、単にリスクを警告するだけでなく、具体的な活用方法も提示している点です。「何をしてはいけないか」だけでなく「どうすれば効果的に活用できるか」という前向きな視点を含んでいます。
自治体におけるAI活用においては、「ルールがないから使えない」という声もよく聞かれます。しかし、東京都のガイドラインのように明確な指針があることで、職員が安心してAIを活用できる環境が整います。これは他の自治体にとっても参考になるモデルケースとなっており、全国の自治体での活用が広がるきっかけとなっています。
10. シャドーAIの問題と対策
10.1 チャットGPTユーザーの2/3が会社に内緒で利用
ルールができないから社内でAIを使えないという声をよく聞きますが、ここで驚くべきニュースがあります。ChatGPTユーザーの3分の2が会社に内緒で利用しているという現実があります。なぜこのような状況が生まれるかというと、上司から「早く仕事を終わらせろ」と言われると、そのプレッシャーに応えるためにChatGPTを「シャドーAI」として使ってしまうのです。
これは非常に重要な問題で、企業が公式にAIの利用を禁止していても、現場の従業員は業務効率化のために勝手にAIを使っているという実態があります。つまり、企業の方針に関わらず、従業員はすでにAIを活用しているのです。
このシャドーAI問題は、単にセキュリティリスクというだけでなく、組織内でのAI活用の不均衡や、効率化の機会損失にもつながります。一部の従業員だけが密かにAIを使って業務効率を上げる一方、他の従業員はそうした恩恵を受けられないという不公平も生じます。
さらに、内緒で使われているAIは適切な管理下にないため、情報漏洩や不適切な利用のリスクも高まります。企業の機密情報が知らぬ間にAIサービスに送信されているかもしれないという懸念もあります。
10.2 禁止より適切なルール作りの重要性
生まれた便利な技術を単に禁止するのは非常に難しい状況です。先ほど説明した通り、禁止しても従業員の3分の2が内緒で使っているという現実があります。このため、先にしっかりとルールを作って統制を取った形で使えるようにしておく方が現実的です。
単に「AIは使用禁止」と言っても従業員は業務効率化のために勝手に使ってしまいますので、「こういうルールの範囲内で使ってください」というアプローチを取ることが非常に重要です。AIが当たり前に使われる前提で企業間競争がすでに始まっていますから、この波に乗り遅れないためにも適切に使えるようにすることが重要なポイントです。
適切なルール作りには、情報セキュリティの観点、プライバシー保護の観点、適正な利用範囲の明確化など、様々な要素を考慮する必要があります。例えば、「どのような情報をAIに入力してよいか」「AIの出力結果をどう扱うべきか」「AIを使用する際の承認プロセス」などを明確にしておくことが重要です。
また、ルールを作るだけでなく、従業員がAIを適切に活用するためのトレーニングや啓発活動も欠かせません。禁止するのではなく、適切に活用する文化を組織内に醸成していくことが、これからのAI時代における企業の競争力を左右するでしょう。
11. AIによる雇用への影響
11.1 世界経済フォーラムの予測(5年間で雇用の1/4が変化)
最新技術は常に構造的な変化を引き起こすものですが、AIもその例外ではありません。世界経済フォーラムの予測によると、今後5年間で全雇用の4分の1が雇用状況を変化させるとされています。具体的には、約6億7000万人の労働者のうち、約6900万人の新規雇用が創出され、約8300万人の雇用が削減されるという予測です。このような状況に大きな影響を与えているのが生成AIです。
ここで重要なのは、生成AIを使うか使わないかという選択が、将来的な雇用継続の分岐点になるということです。AIを利用できる人材は雇用を続けられる側に入り、そうでない人は解雇される可能性が高まるでしょう。同様に企業においても、AIを活用することで競争力を保持できるか否かが重要になります。AIを使わないことによって企業の競争力が落ちて生産性が低下し、結果的に競争に負けてしまうという事態を避ける必要があるのです。
このような変化は避けられないものであり、AIによる雇用の変化に対応するためには、私たち一人ひとりがAIを適切に活用する能力を身につけることが重要です。企業にとっても、従業員のAIリテラシーを高める取り組みが不可欠になるでしょう。
11.2 ゴールドマン・サックスのトレーダー削減事例
AIによる雇用への影響を示す衝撃的な事例として、ゴールドマン・サックスの例があります。2017年の時点では600人のトレーダーが在籍していたのですが、AI技術の導入により、現在はわずか2人しかいなくなったと言われています。
これはまさに衝撃的な事例であり、LLM(大規模言語モデル)の登場によってこのような劇的な人員削減が可能になってしまったということです。金融業界では、データ分析や市場予測、取引判断などの業務がAIによって高度に自動化されています。
このゴールドマン・サックスの事例は、AIによる雇用への影響が単なる予測や警告ではなく、すでに現実として起きていることを示しています。特定の専門知識や判断力を要する職種であっても、AIによる代替が進んでいるのです。
このような事例から学ぶべき点は、AIの波に対応するためには、AIを使いこなす能力を身につけることが不可欠だということです。AIが普及する世界では、AIと協業できる人材がより価値を発揮できるようになるでしょう。
11.3 AIを使いこなせる人材の価値
AIを使いこなせる人材の価値は今後ますます高まっていきます。例えば、ブラジルの議員が言っていた言葉が非常に的を射ています。よく「AIは人間を置き換えるのではないか」という議論がありますが、そんなことはありません。AIは単なる技術なので、技術自体が人を置き換えることはないのです。そうではなく、人工知能を使いこなす人によって、使いこなせない人が置き換えられるのです。
つまり、AIを使える人は置き換えられないけれども、AIが使えない人は置き換えられてしまう可能性が高いということです。これは非常に重要なポイントです。したがって、皆さん自身がしっかりと生成AIを使って生産性を上げていく努力をすることが必要なのではないかと思います。
世界はまさに変わり始めているというか、すでに変わってしまった状況にあります。私はインターネットができた時やパソコンができた時も生きていましたが、それは世の中の向こう側で起こったことで、自分が直接タッチできない出来事でした。それが徐々に一般に使えるようになったという状況でした。しかし今使えるChatGPTやClaudeなどのAIは、自分たちが今使える技術が社会を変えている状況なのです。だからこそ、これをしっかりと使いこなし、競争に負けないようにしていく必要があります。
12. AI時代の仕事の仕方
12.1 中間成果物の減少
これからの働き方について少しお話をしていきたいと思います。これまでは人間の作業時間とその成果物には比例関係がありました。しかし、AIを使うことによって、時間比例ではなく、最初に要件を決めて「こういうものが作りたいです」と言えば、すぐに8割程度の完成度の成果物ができてしまうという状況になっています。
これは1回使うだけでなく、何回かその成果物を見た上で「もう一回やってみよう」「もっとこうしてみよう」という形で繰り返し生成物を作ることによって、どんどんブラッシュアップして100点に近づけていくという働き方が可能になってきました。
このことは、これまでの仕事の仕方を大きく変えます。今までは成果が緩やかに増えていくので、中間成果物を途中で上司が確認して「ここまでできている、ここまでできている、ここまでできている、じゃあここまで行けるだろう」という風に進捗管理されていたわけですが、そういうことはもはや必要なく、アウトプットがすぐに出てしまいます。
中間成果物のチェックや、途中で報告資料を作ったり、ドキュメントを作成したりする手間が大幅に削減されることになります。こういった中間工程はかなり面倒くさいものですが、AI時代にはそれらが本当に必要なくなってくるということです。
12.2 80%完成度の成果物を繰り返し作るアプローチ
AIを使った新しい仕事の方法として、「80%完成度の成果物を繰り返し作るアプローチ」が登場しています。これまでの働き方では、徐々に成果物の完成度を高めていく方法が一般的でしたが、AIを活用すると、最初から80%程度の完成度の成果物を短時間で作り出すことができます。
この方法の利点は、初期段階から十分に議論できる品質の成果物が得られることです。そして、その成果物を見た上で「もう一回やってみよう」「もっとこうしてみよう」という形で繰り返し生成することによって、徐々にブラッシュアップしていきます。各サイクルで80%程度の完成度の成果物が出せるため、全体的な開発プロセスが加速します。
例えば従来型の仕事と比較してみましょう。従来型では、1回目の報告時には20%程度しかできておらず、2回目の報告で50%、3回目で70%と徐々に完成度が上がっていきます。一方、生成AIを活用した方法では、1回目の報告時点ですでに80%完成しており、次のサイクルが始まっています。2回目の報告のタイミングでは2回目の成果物ができており、3回目のサイクルに入ろうとしている状況です。
このようなアプローチは、顧客の要望変更や社内状況の変化にも柔軟に対応できます。例えば、2回目の報告のタイミングで「これで十分だからリリースして」と言われた場合でも、80%の完成度があればすぐに対応できます。しかし従来の仕事の仕方では、「まだ50%しかできていないので無理です」という状況になってしまいます。
12.3 従来型と生成AI型の仕事の進め方の比較
従来型の仕事の進め方と生成AIを活用した仕事の進め方を比較してみましょう。両者には明確な違いがあります。
従来型の仕事の進め方では、例えば最初の報告時点では成果物の完成度は20%程度しかありません。2回目の報告では50%程度、3回目の報告では70%程度と、徐々に完成度が上がっていき、最終的に100%の完成度を目指します。この方法では、中間成果物の確認が重要で、上司や関係者が進捗を確認しながら方向性を調整していきます。
一方、生成AIを活用した仕事の進め方では、最初の報告時点ですでに80%程度の完成度の成果物ができています。そして2回目の報告のタイミングでは、すでに次のサイクルが始まっており、2回目の成果物ができています。さらに3回目の報告時点では、3回目のサイクルに入ろうとしている状態です。
この違いは、実際のビジネスシーンで大きな差を生みます。例えば、顧客の要望や社内の状況によって、2回目の報告のタイミングで「ここまでで十分だからリリースして」と言われた場合を考えてみましょう。生成AI型の仕事の進め方であれば、すでに80%の完成度があるためリリースが可能です。しかし従来型では、まだ50%の完成度しかなく「まだ全然無理です」という状況になってしまいます。
このように、AIを使っている人と使っていない人では、成果物の出し方が全く変わってきます。そしてこの違いは、人材の評価にも大きく影響します。80%程度の完成度の成果物を次々と出せる人と、徐々に成果物の完成度を上げていく人では、上司や顧客からの評価が大きく異なるでしょう。
13. 結論:AI活用の必要性
13.1 産業革命時のラッダイト運動との類似性
世界はいま変わり始めている、というよりもすでに変わってしまった状況にあります。私はインターネットができた時やパソコンができた時も生きていましたが、それは世の中の向こう側で起きたことで、自分が直接関わることのできない出来事でした。そういったテクノロジーが徐々に一般に使えるようになっていくという状況でした。
しかし今使えるChatGPTやClaudeなどのAIは違います。私たち自身が今使える技術が社会を変えている状況にあるのです。ですから、これをちゃんと使いこなして競争に負けないようにしていく必要があります。
車内でAI反対派の人も結構いたりしますが、そういう人には是非これを言ってあげてください。産業革命の時にラッダイト運動というものが起こり、機械を壊す運動がありました。しかし、その後、機械が不要になったのでしょうか?そうではなく、機械は絶対に必要な状況になっています。逆に機械を使っていない人は競争に負けてしまっています。
これと全く同じことがAIによっても起こります。私たちは絶対にAIを使いこなして、この競争に負けないようにしなければいけません。AIに対する反発や恐れから使わないという選択をすれば、かつての機械を拒否した人々と同じ運命をたどる可能性が高いのです。
13.2 AI活用が競争力を左右する時代の到来
AIを活用することが企業や個人の競争力を左右する時代がすでに到来しています。このような状況下では、みんなで是非一緒に生成AIを使いこなしていくことが重要です。
AI反対派の人にも伝えたいのですが、産業革命の時のラッダイト運動の例を考えてみてください。当時、機械化に反対して機械を壊す運動が起きましたが、結局その後、機械がなくなったでしょうか?いいえ、むしろ機械は絶対に必要な存在となりました。現在では機械を使わない人は完全に競争に負けてしまっています。
AIについても全く同じことが言えます。AIは単なる技術であり、技術自体が人を置き換えることはありません。重要なのは、人工知能を使いこなす人によって、使いこなせない人が置き換えられるということです。つまり、AIを使える人は置き換えられることはないでしょうが、AIが使えない人は置き換えられてしまう可能性が高いのです。
私たちは絶対にAIを使いこなして、この競争に負けないようにしなければなりません。ブラジルの議員が言ったように、「AIが人を置き換えるのではなく、AIを使いこなす人が使いこなせない人を置き換える」時代になっているのです。これを理解し、積極的にAIを活用していくことが、今後の競争社会を生き抜くために必要不可欠な姿勢となるでしょう。
14. Q&A
14.1 AIのハルシネーション問題
Q: AIの闇について教えてください。ここがこうなったらもうちょっとみんな幸せになるんだけどなと思っているAIの闇について、何が問題だと思いますか?
A: ハルシネーション(幻覚)の問題が大きいと思います。ハルシネーションが起こる時というのは、AIに無理なことを押し付けた時です。できないことをやらせると無理が発生して、AIはそれでも確率計算で動いているので無理やり文章を出さなければいけません。それでエラーが発生してしまうのです。
基本的にAIは文字の統計情報から出力を生成しているので、正しい情報も間違った情報も統計的に最も精度が高いと思われるものを出しているだけです。つまり、ハルシネーションが起きるというのは生成AIを使う場合には当たり前のことで、「そういうもの」だと理解する必要があります。
納豆と腐敗した食品の例で説明すると、どちらも微生物の活動なのですが、人間にとって良いものは「発酵」、悪いものは「腐敗」と言うのと同じように、AIの出力で人間にとって良いものは「有用な回答」、悪いものは「ハルシネーション」と呼んでいるだけです。
重要なのは、どういう状況でエラーが発生するかを理解した上でAIを使いこなすことです。また、生成AIとプログラムを同列に扱わないことも大切です。生成AIはハルシネーションを100%防ぐことはできません。防ごうと思ってもある程度しかできず、それは「生成AIとはそういうもの」だからです。
ユーザー側が「生成AIはそういうものだ」と理解していれば、みんな楽になると思います。しかし、プログラムと同じように100点でなければいけないと考えてしまうと、そこに無理が生じます。生成AIは全く異なるものなので、異なるものとして扱う必要があるのです。
14.2 AIのバイアスに関する質問と回答
Q: AIでも学習する時のバイアスが入ってしまうという話が出てきましたが、AIを使っていて「こういうバイアスがかかっているな」と感じることはありますか?また、そのバイアスを知る方法はありますか?
A: バイアスの問題は非常に興味深いテーマです。何をもってバイアスと呼ぶかが重要で、良いバイアスであれば問題ないわけです。例えば、日本のバイアスとドイツのバイアスは異なります。
具体例を挙げると、政治的な質問をした場合、日本では保守的な自民党寄りの話がメジャーなのでそちらに傾きますが、フランスであればリベラル寄りのバイアスがかかる傾向があります。アメリカの場合は、ジェンダーの話題に敏感になる傾向が見られます。
これらは、社会情勢をそのまま反映したものと考えるべきで、バイアスがあるから単純に「駄目」ということではありません。ただし実用面では配慮が必要です。例えば、ニューヨークで採用AIを使う場合には人種差別をしないようにする配慮が必要ですし、日本でも性別による差別が起きないよう注意が必要です。
バイアスを知る方法については、残念ながら人間が見て判断するしかないというのが現状です。プログラムでも完全に把握するのは難しいでしょう。全データから判断するのは困難なので、サンプリングでしっかりしたものを誰かが決めて作り、それで合意を取っていくことが現実的なアプローチだと思います。企業の決断として、どのようなバイアスに対処すべきかを判断し、方針を定めていくことが重要です。