※本レポートは、2024年10月4日に開催されたGLOCOM六本木会議オンライン #86「教育における生成AIの可能性を探る」の内容を基に作成されています。本セッションは、東京大学大学院工学系研究科准教授・吉田塁氏による講演と、東京通信大学情報マネジメント学部教授・前川徹氏との対談形式で行われ、約100名の事前登録参加者にZoomウェビナーとしてライブ配信されました。 本レポートは講演内容を要約・構造化したものであり、登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性があります。より詳細な情報や正確な文脈については、GLOCOM六本木会議(https://roppongi-kaigi.org/ )の公式サイトをご参照ください。 GLOCOM六本木会議は、国際大学グローバル・コミュニケーション・センター(GLOCOM)が主催する活動で、情報通信分野における革新的な技術や概念に関する課題や論点を共有し、理解を深めることを目的としています。2017年9月の設立以来、産官学民のメンバーによる様々な議論や政策提言活動を展開しています。
<登壇者紹介>
【講演者】 吉田 塁(よしだ るい) 東京大学大学院工学系研究科 准教授/東京財団政策研究所 主席研究員 博士(科学)。専門は教育工学、生成AI、アクティブラーニング、オンライン学習、ファカルティ・ディベロップメント。東京大学教養学部特任助教、東京大学大学総合教育研究センター特任講師を経て、2020年より現職。学生と共同で意見交換プラットフォーム「LearnWiz One」を開発し、世界最大のEdTechコンペティションGESAwards 2021研究開発部門にて優勝。現在は文部科学省の生成AI利活用に関する検討会議委員を務めるなど、教育分野における生成AI活用の第一人者として活動している。
【進行・対談】 前川 徹(まえかわ とおる) 東京通信大学情報マネジメント学部 教授/国際大学GLOCOM主幹研究員 1978年通商産業省入省。機械情報産業局情報政策企画室長、JETRO NYセンター産業用電子機器部長、IPAセキュリティセンター所長などを歴任。その後、早稲田大学大学院国際情報通信研究科客員教授(専任扱い)、富士通総研経済研究所主任研究員、サイバー大学IT総合学部教授等を経て、2018年4月から現職。一般社団法人コンピュータソフトウェア協会専務理事、国際大学GLOCOM所長なども兼務。
【司会】 小林 奈穂(こばやし なほ) GLOCOM六本木会議 事務局/国際大学GLOCOM 主幹研究員・研究プロデューサー 情報社会の課題や論点を共有し、理解を深めるための『GLOCOM六本木会議オンライン』の企画・運営を担当。
1. 登壇者紹介と背景
1.1. 吉田塁氏のプロフィール
吉田塁氏は、東京大学大学院工学系研究科准教授および東京財団政策研究所主席研究員を務めています。博士(科学)の学位を有し、教育工学、生成AI、アクティブラーニング、オンライン学習、ファカルティ・ディベロップメントを専門分野としています。
経歴として、東京大学教養学部特任助教、東京大学大学総合教育研究センター特任講師を経て、2020年より現職に至っています。特筆すべき研究実績として、学生と共同で意見交換プラットフォーム「LearnWiz One」を開発し、世界最大のEdTechコンペティションであるGESAwards 2021の研究開発部門で優勝を果たしています。
生成AI関連の活動として、2023年5月13日には教員向けのチャットGPT講座を開催し、当日だけで650名の参加者を集め、アンケートでは8割以上から最高評価を得ています。この講座の資料と4時間40分に及ぶ動画は現在も公開されており、動画の再生回数は8万回を超えています。
また、生成AIを活用した研究も行っており、教育AI分野の国際トップ会議で論文を発表するなど、学術面でも成果を上げています。最近では、教職員や学習者向けの情報を集約した「学び合い(まなびAI)」というポータルサイトを学生と共同で開発・運営し、生成AIの教育利用に関する情報発信を積極的に行っています。
こうした実績から、現在は文部科学省の初等中等教育段階における生成AIの利活用に関する検討会議の委員も務めており、教育分野における生成AI活用の第一人者として精力的に活動を展開しています。
1.2. 文部科学省との関わり
吉田:私は文部科学省と密接に連携し、生成AIの教育利用に関する政策形成に関与しています。特に、2023年7月に公開された「初等中等教育段階における生成AIの利活用に関する暫定的なガイドライン」の策定に携わりました。このガイドラインは既に1年以上が経過し、技術の進展に伴う改定の必要性が出てきています。
前川:吉田先生、その暫定的なガイドラインの改定について、具体的にどのような検討が行われているのでしょうか?
吉田:はい、現在「初等中等教育段階における生成AIの利活用に関する検討会議」が立ち上がり、私も委員として参画しています。この検討会議では、生成AIとどのように付き合っていくべきかという根本的な議論から、具体的な活用指針まで、幅広い観点で検討を進めています。
前川:なるほど。その検討会議での議論は、現場の教育関係者にはどのように共有されているのでしょうか?
吉田:文部科学省の情報モラルポータルサイトを通じて、26分程度の解説動画を公開しています。また、私個人としても、教員向けのチャットGPT講座の内容を基に、今年の冬に改定版の講座を公開する予定です。さらに、「学び合い」というポータルサイトを通じて、教育における生成AI利活用に関する最新の情報を継続的に発信しています。
このように、政策提言活動と並行して、現場の教育関係者への情報提供や支援活動も積極的に行っています。特に、生成AIの教育利用に関する体系的な情報を一元的に提供するプラットフォームの必要性を感じ、学生とも協力しながら情報発信の環境整備に取り組んでいます。
2. 生成AIの基本概念
2.1. 定義と特徴
吉田:生成AIの定義については、実は世界共通の明確な定義が存在していないのが現状です。しかし、一般的な説明としては、「学習データを元にテキストや画像などのコンテンツを生成できる人工知能」と言えます。重要なのは「コンテンツを生成できる」という点です。
前川:その生成できるコンテンツには、具体的にどのようなものが含まれるのでしょうか?
吉田:現在の生成AIは、テキストだけでなく、画像生成、動画生成、音声生成など、多様なコンテンツを生成することができます。例えば、ChatGPTは当初テキスト主体のAIでしたが、最新バージョンでは画像生成や音声合成、音声認識なども可能になっています。これは「マルチモーダル化」と呼ばれる進化の一例です。
小林:プロンプトというワードをよく耳にしますが、これはどのような意味を持つのでしょうか?
吉田:プロンプトとは、生成AIに対する指示のことです。例えば、「オンライン学習に関するメリットとデメリットを表形式で教えてください」といった入力がプロンプトにあたります。このプロンプトの出し方によって、生成AIの応答が大きく変わることが特徴です。
重要なポイントとして、思い通りの出力が得られない場合でも、具体例やデータを使って求める出力のイメージを明確に伝えることで、より適切な結果を得られる可能性が高くなります。つまり、プロンプトは改善可能であり、生成AIとの対話を通じて最適な結果に近づけていくことができるのです。
前川:つまり、生成AIは単なる入力に対する出力装置ではなく、対話を通じて精度を高めていけるツールということですね。
吉田:その通りです。ただし、出力の正確性は必ずしも保証されていません。そのため、人間が責任を持って出力内容を確認し、適切に活用していく必要があります。これは教育現場での活用を考える上で、特に重要な視点となります。
2.2. 技術進展
吉田:生成AI関連技術とサービスの進展は、私の研究キャリアの中でも例を見ないほど急速です。通常、教育工学分野では論文を読む際に発行年を確認する程度なのですが、生成AIに関しては年月単位まで確認が必要なほど、技術の進化が速いのが特徴です。
前川:その進化の具体例を挙げていただけますか?
吉田:はい。最も分かりやすい例がChatGPTの進化です。当初はテキストのみを扱うAIでしたが、最新バージョンでは画像生成が可能になり、さらには音声合成や音声認識機能も追加されました。今日のデモンストレーションでお見せしたように、感情表現を含む自然な音声対話まで実現できるようになっています。
小林:このマルチモーダル化は、教育現場にどのような影響を与えると考えられますか?
吉田:大きな影響があると考えています。例えば、これまではテキストの読み書きに長けた学習者が中心的に恩恵を受けていましたが、音声インターフェースの追加により、より多様な学習者が生成AIを活用できるようになっています。ただし、現時点では高品質な音声対話機能は有料版でのみ利用可能という制限があります。
前川:技術の進展速度について、開発側と利用側でギャップは生じていないのでしょうか?
吉田:その点は重要な指摘です。実際、技術の進化があまりに速いため、教育現場での活用方法の検討や指針の策定が追いつかない状況も発生しています。例えば、昨年7月に公開された文部科学省のガイドラインも、既に改定の必要性が出てきています。このペースの速さは、教育分野での実践や研究において、これまでにない課題を投げかけていると言えます。
2.3. サービス比較
吉田:現在、主要な対話型生成AIサービスとしては、OpenAIのChatGPT、MicrosoftのCopilot、GoogleのGemini、AnthropicのClaudeなどが提供されています。特筆すべきは、各サービス間で性能や特徴に大きな違いが見られる点です。
前川:具体的な性能差について、何か興味深い事例はありますか?
吉田:はい。例えば、ChatGPTの場合、GPT-3.5では米国の司法試験で下位10%のスコアしか出せなかったのに対し、GPT-4では上位10%のスコアを記録しています。しかし興味深いことに、同じGPT-4でも4×4の掛け算ができないという弱点も見られました。つまり、分野によって性能に大きな差があるということです。
小林:無料版と有料版での違いについても教えていただけますか?
吉田:現在、ChatGPTの場合、無料版ではGPT-4 miniが利用可能で、有料版ではGPT-4-0が使えます。先ほどデモンストレーションでお見せした高品質な音声対話機能は、現時点では有料版のみの機能となっています。また、最新のGPT-4-01プレビューでは、さらに新しい機能が追加されていますが、これらの機能は以前のバージョンでは利用できません。
前川:各サービスの特徴的な違いはありますか?
吉田:例えば、無料版のChatGPTは情報源や最新情報を示してくれませんが、MicrosoftのCopilotやその他の企業が提供する一部のAIは、Web上のサイトを引用したり、最新情報を含めて出力したりする機能があります。このように、同じ生成AIでも提供企業によって機能や特徴が異なります。
重要なのは、これらのサービスが常に進化を続けているという点です。ただし、いずれのサービスも万能ではなく、それぞれの特徴や限界を理解した上で、目的に応じて適切に選択し、活用していく必要があります。
3. 生成AIの実践的活用例
3.1. 読書感想文
吉田:読書感想文の生成に関する実験を行いました。具体的には、夏目漱石の『坊っちゃん』についての読書感想文を生成AIに作成させてみました。プロンプトとして「坊っちゃんに関する読書感想文を具体的な例も交えながら作成してください」と指示を出しました。
前川:生成された文章の質はいかがでしたか?
吉田:一見すると非常に自然で、そのまま提出可能と思えるような文章が生成されました。しかし、内容を詳しく確認すると、深刻な問題が見つかりました。例えば、「坊っちゃんこと宮本武蔵が中学を卒業して...」という記述がありました。これは明らかな誤りです。なぜなら、『坊っちゃん』という作品では主人公の本名は一切明かされていませんし、「宮本武蔵」という人物も登場しません。さらに、AIは「宮本武蔵」を「宮本武ぞ」と読むという独自の解釈まで加えていました。
小林:これは興味深い例ですね。このような誤りはどのように理解すべきでしょうか?
吉田:これは生成AIの特徴的な問題である「ハルシネーション」または「幻覚」と呼ばれる現象の典型例です。文章としては自然で説得力があるように見えますが、事実とは異なる情報を、あたかも正しいかのように組み込んでしまうのです。特に注意すべきなのは、これらの誤りが非常に自然な形で紛れ込むため、作品を知らない読者には判別が困難だという点です。
前川:つまり、生成AIは文章作成能力は高いものの、事実確認の面では信頼性に欠けるということですね。
吉田:その通りです。このことから、教育現場では生成AIの出力をそのまま使用するのではなく、必ず人間が内容を確認し、適切に修正を加える必要があります。これは生成AI活用における重要な原則の一つと考えています。
3.2. レポート作成
吉田:私の授業で実際に試験的な検証を行いました。具体的には、教育現場で使えるツールの新規提案に関する小レポート課題を題材に、ChatGPT-4とGPT-4 miniの出力を比較分析しました。
前川:具体的にはどのような課題を出されたのですか?
吉田:「教育の場面で使えるツールを新しく提案してください」という簡単な課題文を最初に投げかけました。まず、GPT-4 miniでは、学習者や教員の課題を特定し、AIベースの個別最適化学習プラットフォームを提案するという、比較的シンプルな箇条書きの回答が得られました。
前川:それを実際のレポート形式に整えることは可能だったのでしょうか?
吉田:はい。「レポートとしての体裁を整えてください」というプロンプトを追加すると、序論、本論、結論という構成で文章化してくれました。ただし、文章量はそれほど多くありませんでした。
一方、有料版のGPT-4では、より詳細な情報が含まれ、教員に関する具体的な分析や、提案されたプラットフォームの具体的な使用方法まで言及されていました。出力された文章は、そのままでも投稿可能な完成度でした。
小林:その完成度の高さは、教育現場での課題にもなりそうですね。
吉田:その通りです。ただ、内容を詳しく分析すると、非常に平凡なレポートであることが分かります。落第点ではありませんが、高得点には値しないレベルです。しかし、この程度の課題であれば、生成AIで十分な成果物が作成できてしまう時代になっているということです。
さらに興味深い発見として、同じAIに対して「このレポートの改善点を挙げてください」と質問すると、的確な改善提案が得られました。例えば、プライバシー保護やセキュリティ対策の必要性、デジタルデバイドへの対応、教員のトレーニングとサポート体制の重要性、持続可能なビジネスモデルの構築など、より本質的な観点からの指摘がありました。
前川:つまり、AIは単なるレポート生成ツールではなく、学習プロセスを支援する対話型の相談相手としても機能する可能性があるということですね。
吉田:はい。生成AIを使って不正をするという負の側面だけでなく、思考を深める支援ツールとしての可能性にも注目すべきだと考えています。ただし、これには適切な課題設計と利用方法の指導が不可欠です。
3.3. 選択式問題
吉田:選択式問題に関する興味深い実験結果をご紹介したいと思います。物理学の力学分野における概念理解を問う選択式問題を用いて、生成AIの回答能力を検証しました。
前川:モデルによって正答率に違いは見られましたか?
吉田:はい、顕著な違いが確認されました。ChatGPT-3.5では、ほとんどの問題で不正解でしたが、GPT-4になると正答率が大幅に向上しました。この結果から、二つの重要な示唆が得られました。
小林:どのような示唆が得られたのでしょうか?
吉田:一つ目は、選択式の問題であっても、生成AIが正確に回答できてしまう時代が既に到来しているという点です。これは教育評価の方法に大きな影響を与える可能性があります。二つ目は、同じサービスでもモデルのバージョンによって性能が大きく異なるという点です。例えば、最新のGPT-4-O1プレビューでは、GPT-4では解けなかった問題も解けるようになっているケースがあります。
前川:そうなると、教育現場での評価方法を見直す必要がありそうですね。
吉田:その通りです。特に気をつけるべき点として、モデルによって性能が異なるため、「生成AIは使えない」「生成AIは万能だ」といった二元論的な判断は適切ではありません。むしろ、各モデルの特性を理解した上で、教育評価の方法を適切に設計していく必要があります。
また、この実験結果は、生成AIの進化速度の速さも示しています。数か月前には不可能だったことが可能になるという状況が、今後も続くと予想されます。そのため、教育現場では継続的な対応の見直しが必要になるでしょう。
3.4. 音声対話
吉田:本日は、ChatGPTの最新の音声対話機能についてデモンストレーションを行いたいと思います。この機能は最近まで日本では公開されていませんでしたが、現在は有料ユーザーが利用できるようになっています。
前川:実際のデモンストレーションをお願いできますか?
吉田:はい。では、ChatGPTと簡単な対話を行ってみましょう。 (デモンストレーション開始) "こんにちは"
ChatGPT:「こんにちは。どうされましたか?何かお話したいことがありますか?」
吉田:「今ですね、ちょうど講演をしておりまして、このChatGPTの音声のデモをしようとしています。」
ChatGPT:「なるほど、講演中なんですね。私の声がお役に立てれば嬉しいです。」
前川:感情表現の可能性について、具体的に試してみていただけますか?
吉田:では、同じ「昔々」という言葉を異なる感情やトーンで話してもらいましょう。 「昔々を低い声で重々しく言ってもらえますか?」
ChatGPT:(低く重々しい声で)「昔々...」
吉田:「もっとポップに明るく言ってみてください。」
ChatGPT:(明るく軽快な声で)「昔々!」
小林:音声の自然さが印象的ですね。教育での活用可能性についてはどのようにお考えですか?
吉田:はい。特に英語学習での活用可能性が高いと考えています。実際に私も試してみましたが、発音に関して「もっとここのTは強く発音した方がいい」「このSは小さい発音で大丈夫」といった具体的なフィードバックをリアルタイムで得られます。また、これまでテキストでのやり取りに苦手意識があった学習者でも、音声でのコミュニケーションならば取り組みやすい可能性があります。
ただし、重要な注意点として、現時点でこの高品質な音声対話機能は有料版でのみ利用可能です。また、全てのやり取りはテキストとしても記録され、後から振り返ることができるようになっています。
4. 教育分野での活用可能性
4.1. 学習者活用
吉田:生成AIの教育分野での活用可能性について、まず学習者の視点から見ていきたいと思います。大きく分けて、個別学習支援とグループ学習支援、そして意外かもしれませんが課外活動での活用という3つの方向性が見えてきています。
前川:個別学習支援について、具体的にはどのような活用が考えられますか?
吉田:個別学習支援では、まず個別指導的な活用が可能です。例えば、苦手な単語を含むオリジナルの文章を作成してもらうなど、個々の学習者のニーズに合わせた教材生成ができます。また、学習者が作成したレポートに対して改善点を指摘してもらうなど、即時的なフィードバックも得られます。
小林:グループ学習での活用についても興味深いですね。
吉田:はい。例えば、グループでディスカッションした内容をまとめた後、生成AIに「チームメンバーとして他に意見はありますか?」や「専門家の立場から見て、不足している視点はありますか?」といった質問を投げかけることで、議論を深めることができます。ただし、AIの出力は必ず人間側で吟味する必要があります。
前川:課外活動での活用というのは意外な視点ですね。
吉田:実は、学生との対話の中で興味深い活用事例が出てきました。例えば、部活動の練習メニューを考える際の参考としたり、学園祭の広報物を作成する際の支援ツールとして活用したりする可能性があります。これは生成AIの存在を単なる学習支援ツールではなく、より広い意味での教育活動支援ツールとして捉え直す契機になるかもしれません。
小林:学習者自身が使い方を考え出しているわけですね。
吉田:その通りです。ただし、重要なのは、これらの活用法はあくまでも人間の思考や活動を支援するものであり、代替するものではないということです。AIの出力は参考程度に扱い、最終的な判断や決定は必ず人間が行うという原則を守る必要があります。
4.2. 教職員活用
吉田:教職員による生成AIの活用について、大きく授業支援と公務・事務支援の二つの側面から考えることができます。私自身、大学でWebプログラミングの授業を担当していますが、実際に生成AIを活用して教材作成を行っています。
前川:具体的にはどのような活用例がありますか?
吉田:例えば、選択式の問題作成では、「中学1年生を対象として、こういった選択式の問題を5つ作ってください」というプロンプトで、瞬時に問題が生成できます。さらに「解説も作成してください」と指示すると、解説も作成してくれます。難易度の指定も可能です。
ただし、注意点として、時として正解がない問題や、複数の正解がある問題を作成することがあります。これはプロンプトで「正解は1つとしてください」と指定していない場合もありますが、指定していても起こり得る問題です。
小林:事務作業での活用例についても教えていただけますか?
吉田:はい。例えば、保護者向けの案内文の原案作成や、学校での探究発表会の実施要綱作成などに活用できます。実際の事例として、44班が発表を行う探究発表会の実施要綱を生成AIに作成させたところ、かなり完成度の高い叩き台が一度で生成されました。
前川:完全に人間の作業を代替できるということでしょうか?
吉田:いいえ、そうではありません。例えば、生成された実施要綱のスケジュール案には改善の余地があったり、人間が修正すべき部分が含まれていたりします。生成AIは、あくまでも叩き台を作成するツールとして捉え、最終的な確認や修正は必ず人間が行う必要があります。
つまり、生成AIは業務効率化のツールとして有用ですが、教職員の判断や責任を代替するものではないということです。教職員がAIの出力を適切に評価し、必要に応じて修正を加えながら活用していくという姿勢が重要になります。
4.3. パイロット校
吉田:文部科学省は生成AIのパイロット校を選定し、先行的な実践を行っています。これらの取り組みについては、令和6年7月25日に公開された「初等中等教育段階における生成AIに関するこれまでの取り組み」という資料で詳しく紹介されています。
前川:パイロット校での具体的な活用事例について教えていただけますか?
吉田:はい。例えば、小学校、中学校、高校それぞれで特徴的な実践が行われています。このパイロット校での取り組みについて興味深い点は、教員を対象に行ったアンケート調査の結果です。
小林:そのアンケート結果から、どのような知見が得られましたか?
吉田:特に注目すべき点として、生成AI利用による学習意欲や創造性の低下を懸念する声が、予想に反して非常に少なかったことが挙げられます。「学習意欲が低下した」「創造性が低下した」という項目に対して、「とてもそう思う」「そう思う」と回答した教員はほとんどいませんでした。
前川:それは興味深い結果ですね。なぜそのような結果になったとお考えですか?
吉田:これは、先ほどご紹介した俳句の実践例のように、生成AIを批評の対象として活用し、その上で自分なりの創作活動につなげるといった授業設計が功を奏していると考えられます。つまり、生成AIを使うこと自体が問題なのではなく、どのように授業設計に組み込むかが重要だということです。
ただし、留意点として、このような効果的な活用を実現するためには、教員側の適切な授業設計能力が不可欠です。パイロット校での成功事例を他校に展開する際には、単に技術や手法を伝えるだけでなく、効果的な授業設計の方法についても共有していく必要があると考えています。
4.4. 俳句創作
吉田:小学校での興味深い実践例として、6年生の国語の授業における俳句創作の事例を紹介したいと思います。この実践では、生成AIが作成した俳句を教材として活用し、批評活動と創作活動を組み合わせた形で展開されました。
前川:具体的な授業の流れを教えていただけますか?
吉田:はい。まず、生成AIに俳句を作成させ、その俳句を小学生たちが批評します。実際に生成された俳句は「もみじうえ 秋風さらさら 心落ち」というものでした。
小林:小学生たちの反応はいかがでしたか?
吉田:興味深いことに、小学生たちは生成AIの俳句を非常に批判的に検討しました。例えば、「同じような語が2つある」「表現が直接的すぎる」「リズムが悪い」といった具体的な指摘がなされ、生成AIの創作における限界に自然と気づいていきました。
前川:批評活動の後はどのように展開されたのでしょうか?
吉田:批評活動を通じて得られた気づきを基に、児童たちは自分なりの工夫を加えてオリジナルの俳句を創作しました。さらに、画像生成AIも活用して、作った俳句の挿し絵も生成するという活動も行われました。
特に印象的だったのは、活動後の児童の感想です。「AIで画像生成するのは便利だが、間違った使い方をすると自分の学びにとって良くないかもしれないから気をつけて使いたい」という振り返りがありました。これは、生成AIを批判的に評価する目が育まれていることを示す良い例だと考えています。
小林:つまり、生成AIを単なる創作ツールとしてではなく、批評的思考を育む教材として活用できるということですね。
吉田:その通りです。この事例は、生成AIを適切に授業設計に組み込むことで、創造性や批判的思考力を育む効果的な学習活動が実現できることを示しています。
5. 生成AIの限界と課題
5.1. ハルシネーション
吉田:生成AIの重要な課題の一つとして、「ハルシネーション」または「幻覚」と呼ばれる現象があります。先ほどの『坊っちゃん』の読書感想文の例でも見られましたが、これは今後も完全な解決は難しい本質的な問題だと考えています。
前川:ハルシネーションは将来的になくなる可能性はないのでしょうか?
吉田:完全になくなることは考えづらいですね。その理由は、現在の生成AIの基本的な仕組みにあります。生成AIは、簡単に言えば「次に来る文字が何だろう」ということを予測しているだけなのです。そもそも、内容が事実かどうかをチェックする機構が組み込まれていません。
小林:モデルの改善では解決できないということですか?
吉田:モデルの改善やハルシネーションを抑制する技術開発は進んでいますが、本質的な解決には至らないと考えています。確かに、最新のモデルではハルシネーションの発生率は低下していますが、完全になくすことは現在の技術では困難です。
前川:では、教育現場ではどのように対処すべきでしょうか?
吉田:重要なのは、人間側が専門知識を持ち、一次情報に当たり、情報の信頼性を検討するという基本的なスキルです。生成AIの出力はあくまでも参考程度に扱い、必ず人間が責任を持って確認する必要があります。むしろ、このようなハルシネーションの存在を前提とした上で、情報リテラシーの育成や批判的思考力の向上に焦点を当てた教育が重要になってくると考えています。
これは逆に言えば、生成AI時代だからこそ、人間の専門的知識や判断力の重要性が増しているということでもあります。
5.2. 正確性
吉田:生成AIの出力の正確性に関して、重要な問題があります。生成AIは非常に自然な文章を生成できますが、その内容の正確性や信頼性は必ずしも担保されていません。これは、ハルシネーションの問題とも密接に関連しています。
前川:具体的にはどのような問題が発生するのでしょうか?
吉田:例えば、先ほどの選択式問題の例でも見られましたが、正解のない問題や複数の正解がある問題を生成することがあります。これは、プロンプトで「正解は1つとしてください」と明示的に指定した場合でも発生することがあります。また、教材作成の場面でも、一見もっともらしい解説を生成しますが、専門的な観点から見ると不正確な説明が含まれていることがあります。
小林:そうなると、出力の確認作業に相当な時間がかかりそうですね。
吉田:その通りです。しかし、この確認作業は省略できません。生成AIは責任を持ってくれませんし、出力の正確性を自己検証する機能も持っていません。そのため、人間が最終的な責任を持って確認する必要があります。
前川:教育現場では、この問題にどのように対応すべきでしょうか?
吉田:基本的な方針として、生成AIの出力はあくまでも参考資料として扱い、必ず人間が専門的な知識に基づいてチェックする必要があります。また、学習者に対しても、生成AIの出力を無批判に受け入れるのではなく、常に批判的に検討する姿勢を育成することが重要です。これは、情報リテラシー教育の新たな課題とも言えるでしょう。
特に教育現場では、不正確な情報が学習者に与える影響が大きいため、より慎重な対応が求められます。生成AIを活用する際は、その便利さと同時に、出力の正確性を確保するための手順やチェック体制を整備することが不可欠です。
5.3. 権利問題
吉田:生成AIの利用に関して、著作権と個人情報保護の二つの重要な権利問題があります。特に教育現場では、これらの問題に対する慎重な対応が必要です。
前川:著作権に関して、教育現場での特例はあるのでしょうか?
吉田:はい。授業目的であり、かつ著作権者の利益を不当に害さない範囲であれば、著作物の利用に関してかなり緩和された規定が適用されます。ただし、これは授業での利用に限定されます。事務作業や公務での利用、広報物の作成などには、この例外規定は適用されません。
小林:個人情報の取り扱いについては、どのような注意が必要でしょうか?
吉田:個人情報に関しては非常に慎重な対応が必要です。生成AIが提供されているプラットフォームの多くは、セキュアな環境が十分に確保されているとは言えません。そのため、個人情報や機密情報は、たとえ教育目的であっても、安全性が確認されていない生成AIには入力すべきではありません。
前川:バイアスや有害コンテンツの問題もあると聞きますが。
吉田:その通りです。生成AIは学習データに含まれる性別、人種、宗教などに関する偏見や差別的な内容を反映してしまう可能性があります。また、攻撃的なコンテンツを生成する可能性もあります。これは、大量のテキストデータから学習する過程で、社会に存在するバイアスや有害な表現も学習してしまうためです。
現在広く使われている生成AIは、これらの問題に対処するための追加トレーニングが施されていますが、完全な解決には至っていません。特定の方法を使うと、こうしたバイアスや有害なコンテンツが出力されてしまう可能性も残されています。
小林:これらの課題に対して、教育現場ではどのように対応すべきでしょうか?
吉田:まず、著作権に関しては、授業目的の範囲内での利用を明確に定義し、それ以外の用途では適切な許諾を得る必要があります。個人情報については、原則として生成AIへの入力を避け、必要な場合は適切な匿名化処理を行うことが重要です。また、バイアスや有害コンテンツについては、教職員が出力内容を事前に確認し、必要に応じて適切な文脈での指導を行うことが求められます。
5.4. 言語差
吉田:生成AIにおける言語による性能差は、実践的な活用において重要な考慮点となっています。最近のモデルの性能は向上していますが、依然として英語と日本語の間には明確な性能差が存在しています。
前川:具体的にどのような違いが見られるのでしょうか?
吉田:一般的に、英語で使用した方が性能が良くなる傾向にあります。例えば、同じような質問や指示を与えた場合、英語での応答の方が詳細で正確な情報が得られることが多いです。これは、学習データにおける英語コンテンツの量が圧倒的に多いことが主な要因だと考えられます。
小林:教育現場での具体的な影響はありますか?
吉田:はい。特に英語教育の場面で興味深い現象が見られます。例えば、英語の学習支援として生成AIを使う場合、日本語で指示を出すよりも、英語で指示を出した方が、より自然な英語表現や適切なフィードバックが得られる傾向にあります。
前川:この言語差は今後解消されていく可能性はありますか?
吉田:モデルの性能向上とともに、言語間の格差は徐々に縮まってきています。ただし、現時点では、特に専門的な内容や複雑な表現を扱う場合には、まだ明確な差が存在します。教育現場では、この言語による性能差を認識した上で、適切な活用方法を検討する必要があります。
例えば、英語学習では、この特性を逆に活かして、学習者に英語でプロンプトを書かせる練習を組み込むなど、言語差を学習機会として活用する方法も考えられます。
6. 教育評価への影響と対応
6.1. 従来評価
吉田:生成AIの出現により、従来の教育評価方法は大きな課題に直面しています。特に、レポートや課題文など、従来の文章作成を中心とした評価方法では、生成AIによる自動生成との区別が困難になってきています。
前川:具体的にどのような問題が発生しているのでしょうか?
吉田:例えば、先ほどお見せした教育テクノロジーに関するレポート課題の例では、生成AIが中程度の成績に値するレポートを簡単に作成できてしまいました。落第点ではないものの、高得点には至らない、いわば「そこそこ」のレポートが容易に生成できる状況です。
小林:評価の信頼性を確保する方法はありますか?
吉田:実は、生成AI によって作成された文章を検出するのは非常に困難です。実際に、ある大学では、学生のレポートをChatGPTに「これはChatGPTが作成したものですか?」と質問し、その回答を信じて学生の半数以上を不合格にするという事案も発生しています。しかし、これは大きな誤りです。なぜなら、ChatGPTにはそのような判定機能はなく、むしろハルシネーションを起こして誤った判断を示す可能性が高いからです。
前川:つまり、従来の評価方法自体を見直す必要があるということですね。
吉田:その通りです。従来の「文章を書かせて評価する」という方法は、もはや学習者の真の理解度や能力を測る指標として十分とは言えない状況になっています。これは、教育評価の在り方自体を根本的に見直す必要性を示唆しています。
6.2. 試験実施
吉田:生成AI時代においても、対面での試験実施には依然として重要な意義があると考えています。物理的に生成AIの利用を制限できる環境で、学習者の真の知識や理解度を確認できるためです。
前川:デジタルデバイスの持ち込みを完全に禁止するということですか?
吉田:そうですね。例えば、知識の定着を確認したい場合、対面でのレポート作成やテストは非常に有効な手段となります。生成AIが使えない環境下で実施することで、学習者の実際の理解度を正確に評価することができます。
小林:しかし、それは時代に逆行しているようにも感じられますが。
吉田:いいえ、むしろ逆です。生成AIがある種の作業を自動化できる時代だからこそ、人間が確実に身につけるべき知識や理解力を評価することの重要性は増しています。特に専門的な知識については、生成AIが出力する情報の正確性を判断するためにも、人間側の確実な知識基盤が必要です。
前川:つまり、生成AI時代における知識の位置づけが変わってきているということですね。
吉田:その通りです。知識を単に暗記するだけでなく、その知識を基に生成AIの出力を評価できる能力が重要になってきています。そのため、対面試験では単なる知識の確認だけでなく、その知識を応用して判断する力も評価できるような設計が必要だと考えています。生成AIが使えない環境でこそ、人間の本質的な理解度や思考力を評価できるのです。
6.3. 新評価方法
吉田:生成AI時代に対応した新しい評価方法として、大きく3つのアプローチを提案したいと思います。これらは互いに排他的ではなく、状況に応じて組み合わせることが可能です。
前川:具体的にはどのような方法をお考えですか?
吉田:第一のアプローチは、物理的に生成AIの使用を制限する方法です。例えば、対面でレポートを書かせたり、テストを実施したりすることで、生成AIの利用を物理的に不可能にします。特に知識や思考力を評価する場合には、この方法が有効です。
小林:しかし、それだけでは十分とは言えないのではないでしょうか?
吉田:その通りです。そこで第二のアプローチとして、そもそも生成AIでは自動生成しにくい課題を設計する方法があります。例えば、図の作成や概念マップの作成、実験レポートやフィールドワークの報告など、現場での体験や思考の過程を重視する課題です。また、授業内容に特化した専門的な課題にすることで、生成AIのハルシネーションを誘発し、それを通じて学習者の理解度を確認することもできます。
前川:第三のアプローチはどのようなものでしょうか?
吉田:第三のアプローチは、逆に生成AIを積極的に活用する方法です。例えば、生成AIが作成したレポートを批評させたり、修正させたりする課題を設定します。これにより、学習者の批判的思考力や編集能力を評価することができます。
先ほどの俳句の授業例のように、生成AIの出力を教材として活用し、それを批評・改善する過程で学習者の理解度や創造性を評価する方法は、既に実践的な成果が出始めています。
小林:これらの方法を使い分ける基準はありますか?
吉田:評価の目的や対象となる能力によって使い分けることが重要です。例えば、基礎的な知識の定着を確認する場合は物理的制限が有効ですし、応用力や創造性を評価する場合は生成AIを活用した課題が適しているかもしれません。重要なのは、単一の方法に固執せず、評価の目的に応じて適切な方法を選択することです。
6.4. 課題設計
吉田:生成AIが容易に答えを生成できないような課題設計には、いくつかの効果的なアプローチがあります。特に重要なのは、学習者が自ら学びたい、取り組みたいと思えるような課題作りです。
前川:具体的にはどのような特徴を持つ課題が効果的なのでしょうか?
吉田:まず、図の作成を組み込んだ課題は有効です。例えば、知識の関連性を図化する概念マップの作成や、データの可視化を求める課題です。現状の生成AIは、このような図の作成が得意ではありません。また、授業での実験やフィールドワークに基づくレポートも、生成AIだけでは対応が難しい課題となります。
小林:専門的な内容も効果がありそうですね。
吉田:その通りです。授業内容に特化した専門的な課題にすればするほど、生成AIはハルシネーションを起こしやすくなります。これは逆に、学習者の理解度を確認する良い機会となります。
前川:ただし、単に難しくすればいいというわけではないですよね。
吉田:はい。重要なのは、生成AIで楽をしたいと思わせるような課題ではなく、自分で学びたい、自分で取り組みたいと思わせる課題設計です。例えば、学習者自身の経験や考察を必要とする課題や、創造性を重視する課題は、生成AIの利用を抑制する効果があります。
また、グループでの協働作業を組み込んだ課題も効果的です。人間同士の対話や相互評価を通じて、より深い学びを促すことができます。これは同時に、生成AI的な画一的な回答を避けることにもつながります。
7. 今後の展望と提言
7.1. 文科省
吉田:文部科学省の政策動向について、現在の検討会議での議論を踏まえてお話ししたいと思います。昨年7月に公開された暫定的なガイドラインは、既に改定の必要性が出てきています。
前川:ガイドライン改定の方向性について、具体的な議論は進んでいるのでしょうか?
吉田:はい。特に注目すべき点として、検討会議では生成AIの利活用に対して前向きな意見が多く出されています。これは、パイロット校での実践結果が、当初懸念されていた学習意欲の低下や創造性の阻害といった問題をほとんど示していないことが大きく影響しています。
小林:支援体制についてはどのような議論がなされているのでしょうか?
吉田:現在、段階的なアプローチを検討しています。まずパイロット校での実践を通じて知見を蓄積し、それを他校に展開していく方針です。ただし、いきなり全国的な展開を目指すのではなく、各学校の状況や準備状況に応じて柔軟に対応していく考えです。
前川:教育現場の負担について、何か配慮はありますか?
吉田:その点も重要な検討課題となっています。特に、教員向けのトレーニングやサポート体制の整備が必要だという認識が共有されています。また、実践事例や効果的な活用方法に関する情報を、学校間で共有できる仕組みづくりも進めています。ただし、これらの施策を実施する際には、現場の教員の負担が過度に増えないよう、慎重に検討を進めているところです。
7.2. 導入差
小林:学校間での生成AI活用の取り組みにばらつきが見られますが、この状況についてどのようにお考えですか?
吉田:現在、興味深い現象が起きています。例えば、小学生でできていることを高校生でまだやっていないというような逆転現象も見られます。これは、学校や教員個人の判断、準備状況によって、生成AIの導入状況に大きな差が生じているためです。
前川:その原因はどこにあるとお考えですか?
吉田:主な要因として、以下の点が挙げられます。まず、管理職や教育委員会側の理解が十分でないケースがあり、一律に利用を禁止してしまうような事例が見られます。また、教員側の準備や研修の機会が十分に確保できていない状況もあります。
小林:すべての公立学校での導入は現実的なのでしょうか?
吉田:一気に全校展開するのではなく、段階的なアプローチが望ましいと考えています。現在のパイロット校での取り組みは、まさにそのための第一段階です。得られた知見を丁寧に共有し、各学校の状況に応じて柔軟に展開していく必要があります。
前川:具体的な対応策はありますか?
吉田:はい。まず、パイロット校での成功事例を適切に文書化し、他校でも参考にできる形で共有することが重要です。また、教員向けの研修プログラムの整備や、学校間での情報交換の場の設定も必要です。さらに、管理職や教育委員会向けの啓発活動も重要な取り組みになると考えています。これらの活動を通じて、学校間の格差を徐々に解消していくことが望ましいと考えています。
7.3. 同意取得
吉田:生成AIの教育現場での活用において、特に13歳以上18歳未満の生徒に関する同意取得が大きな課題となっています。例えばChatGPTの利用規約では、この年齢層の利用には保護者または法定代理人の同意が必要とされています。
前川:実際の教育現場では、どのような対応が必要になりますか?
吉田:これは現場で最も苦労している点の一つです。多くの学校が、保護者の同意をどのように取得すべきか、その具体的な方法について悩んでいます。また、同意書の形式や内容についても、統一的な基準がないため、各学校が手探りで対応している状況です。
小林:管理職や教育委員会との調整も必要になりそうですね。
吉田:はい。実際、教員が生成AIの活用を進めたいと考えていても、管理職や教育委員会側の理解が十分でないケースが多く見られます。時には一律に利用を禁止するような判断がなされることもあります。この問題は、単なる同意取得の手続きの問題を超えて、学校全体としての生成AI活用の方針に関わる課題となっています。
前川:具体的な解決策はありますか?
吉田:まず、同意取得のプロセスを標準化することが重要だと考えています。パイロット校での実践例を参考に、保護者への説明内容、同意書のフォーマット、取得方法などについて、ある程度統一的なガイドラインを作成することが有効でしょう。また、生成AI活用の教育的意義や安全性について、保護者や管理職に対する丁寧な説明も必要です。
7.4. コミュニティ
吉田:教育における生成AI活用に関する情報共有の重要性を踏まえ、私たちは「学び合い(まなびAI)」というポータルサイトを開発・運営しています。これは、教育現場での生成AI活用に関する情報を一元的に提供するプラットフォームです。
前川:具体的にはどのような情報が共有されているのですか?
吉田:サイトは大きく三つのカテゴリで構成されています。「生成AIサービス」「活用場面」「基本情報」です。特に、初めて生成AIに触れる方向けに、どこから調べればよいのか、何を把握すればよいのかが分からないという声に応えて、学習者向け、教員向け、保護者向けのそれぞれのページを用意しています。
小林:実践事例の蓄積はどのように行われているのですか?
吉田:私たちは、Slackを活用したコミュニティも運営しています。「生成AIやChatGPTなど生成AIの教育活用について情報共有・検討するグループ」として、現場の教育者との活発な情報交換を行っています。実際、このポータルサイトもこのコミュニティでの議論から生まれました。
前川:今後のプラットフォームの展開について、お考えはありますか?
吉田:はい。冬に向けて講座の改定版を公開する予定です。また、コンテンツも随時追加していく予定です。特に重要なのは、利用者からのフィードバックを積極的に取り入れることです。サイトにはWebフォームを設置しており、「こういったコンテンツが欲しい」といった要望を直接受け付けられる仕組みを整えています。
このように、単なる情報提供だけでなく、教育現場との双方向のコミュニケーションを通じて、より実践的で有用な情報プラットフォームを構築していきたいと考えています。
8. 質疑応答要点
8.1. オンライン評価
前川:私は東京通信大学で非同期型のビデオオンデマンド形式の授業を担当しているのですが、オンライン環境での評価方法について悩んでいます。対面授業であれば生成AI対策として現場でレポートを書かせることができますが、通信制の場合はそれが難しい状況です。何か良い方法はありますか?
吉田:そういった状況では、共同学習の要素を取り入れた評価方法が有効だと考えています。例えば、レポートを提出させた後、学生同士で相互評価を行い、そのフィードバックを踏まえて改善したものを再提出させるという方法があります。
前川:生成AIを使っても、そういった相互評価や改善のプロセスには対応できないということですか?
吉田:その通りです。確かに生成AIでも相互評価に基づく改善を試みることは技術的には可能かもしれませんが、実際にはすべてのフィードバックに適切に対応することは難しい状況です。また、授業で扱っている専門的なトピックにフォーカスした課題設定にすることで、生成AIのハルシネーションを誘発し、それを通じて学習者の真の理解度を確認することも可能です。
前川:つまり、生成AIの弱点を理解した上で、それを逆手に取った課題設計が重要だということですね。
吉田:はい。生成AIができることは人間がやる必要がないという視点に立ち、人間だからこそできる部分に焦点を当てた評価設計を行うことが重要です。これは対面でもオンラインでも共通する原則だと考えています。
8.2. プログラミング
前川:プログラミング教育の分野でも、CopilotのようなAIツールが普及していますね。途中まで書くと残りのコードを自動生成してくれたり、課題をそのまま与えるだけでコードを書いてくれたりする時代になってきました。このような状況で、プログラミング教育はどうあるべきでしょうか?
吉田:プログラミング分野には、他の教育分野とは少し異なる特徴があります。特に重要な点として、生成されたプログラムコードが正しく動作するかどうかを、即座に検証できるという特徴があります。さらに、様々なテストケースを自動的に適用して、プログラムの正確性を確認することも可能です。
前川:つまり、プログラミングとAIの相性は良いということですね。
吉田:はい。ただし、最終的には人間による調整や改良が必要です。そのため、今後のプログラミング教育では、コードを一から書く能力よりも、生成されたコードを評価・改善できる能力が重要になってくると考えています。
前川:具体的にはどのような能力でしょうか?
吉田:例えば、プログラムの基本的な理解力、バグの発見能力、コードの品質評価能力などです。さらに、システムの全体設計を考える力や、より創造的な問題解決能力も重要になってきます。プログラミングの細かい実装部分をAIに任せることで、より本質的な思考や設計に時間を割けるようになるという利点もあります。これは、私自身の授業でも実感している変化です。
前川:基礎知識の重要性は変わらないということですね。
吉田:その通りです。AIツールを効果的に活用するためにも、プログラミングの基礎知識は依然として重要です。ただし、その知識の使い方が、「書く」から「評価・改善する」へとシフトしていくと考えています。
8.3. 検出ツール
質問者:昨年、海外の大学院で修士論文を提出した際、Turnitinという表現をチェックするソフトを使用し、一定のパーセンテージ以下であることが論文通過の条件でした。このTurnitinやその他の類似ツールでAI利用も判別できるのでしょうか?
吉田:Turnitinについて説明させていただきますと、元々は剽窃をチェックするツールとして開発されました。過去の論文やレポートの情報がデータベースとして蓄積されており、新しく提出された文章との類似性を検証できます。最近では確かに、生成AI検出機能も追加されています。
前川:実際の検出精度はいかがでしょうか?
吉田:残念ながら、生成AI文章の検出は非常に難しい状況です。例えば、GPTZeroなど他の検出ツールも存在しますが、プロンプトを工夫したり表現を変えたりすることで、簡単に検出率を下げることができてしまいます。さらに深刻な問題として、二種類の誤検出が発生します。人間が書いた文章をAIが書いたと判定してしまうケース、逆にAIが書いた文章を人間が書いたと判定してしまうケースの両方が起こり得ます。
前川:では、検出ツールに頼ることは危険だということですね。
吉田:その通りです。実際、ある大学でChatGPTに「これはChatGPTが書いたものですか?」と質問し、その回答を信じて学生の半数以上を不合格にするという事案が発生しました。これは大きな誤りです。ChatGPTにはそのような判定機能はなく、むしろハルシネーションを起こして誤った判断を示す可能性が高いのです。したがって、私としては、検出ツールはあくまでも参考程度に使用し、それを絶対的な判断基準とすべきではないと考えています。
8.4. 格差対応
小林:学校間の取り組みのばらつきについて気になっています。小学生でできていることを高校生でまだやっていないというケースもあるとのことですが、今後の展開はどのように予想されますか?
吉田:現状について申し上げますと、これは意図的な段階的導入の結果とも言えます。文部科学省はまずパイロット校での実践を通じて知見を蓄積し、その後他校に展開していく方針を取っています。
前川:すべての公立学校での導入は現実的なのでしょうか?
吉田:一気に全校展開するのは難しいと考えています。ただし、これまでのパイロット校での実践を見る限り、生成AI活用による学習意欲の低下や創造性の阻害といった当初懸念されていた問題はほとんど見られていません。むしろ、適切な活用方法さえ確立できれば、教育効果の向上が期待できます。
小林:標準化に向けた具体的な取り組みはありますか?
吉田:はい。現在、パイロット校での実践事例を丁寧に文書化し、他校でも参考にできる形での共有を進めています。また、教員向けの研修プログラムの整備や、学校間での情報交換の場の設定も重要な取り組みとなっています。管理職や教育委員会向けの啓発活動も併せて行うことで、組織的な理解と支援体制の構築を目指しています。
ただし、これらの施策を実施する際には、各学校の状況や準備状況に応じて柔軟に対応していくことが重要です。標準化を進めつつも、画一的な導入を強制するのではなく、各校の特性や課題に応じた適切な支援を提供していく必要があると考えています。