DX(デジタルトランスフォーメーション)推進に欠かせない技術の一つに、生成AIが挙げられます。昨今、生成AI技術の発展により多くのメリットがもたらされる一方で、新たな課題も浮き彫りになっています。その中でも特に注目されているのが、ハルシネーションと呼ばれる現象です。ハルシネーションは、生成AIが事実と異なる回答を生成する現象です。誤った情報を提供するリスクがあり、利用者にさまざまな悪影響を及ぼす可能性があります。本記事では、ハルシネーションの概要や種類、主な発生原因をわかりやすく解説します。実際に生じるおそれのあるリスクについて詳しく紹介していますので、生成AIを適切かつ効果的に活用するうえでお役立てください。ハルシネーションとは?ハルシネーション(Hallucination)とは、AIモデル(特に生成AI)が現実には存在しない情報や誤った内容を生成する現象のことです。人間の「幻覚」や「幻影」に例えられることから、この名称が使われています。生成AIは大量のデータを学習し、言語や画像を生成する能力を持っていますが、常に正しい情報を出力するわけではありません。例えば、生成AIに「2020年にノーベル平和賞を受賞した日本人は誰ですか?」と質問したときに、実際には存在しない人物名をもっともらしく回答することがあります。この現象こそが、ハルシネーションです。生成AIが広く活用される中で、ビジネスや教育、医療などさまざまな分野で、ハルシネーションが大きな課題となっています。生成AIを適切に活用するためには、ハルシネーションについて理解し、適切に対策することが必要不可欠です。生成AI活用にあたって立ちはだかる課題について理解を深めたい場合は、併せて以下の記事をご覧ください。生成AIの導入時における7つの課題と解決策を解説ハルシネーションの種類ハルシネーションは、大まかに「内在的ハルシネーション(Intrinsic Hallucinations)」と「外在的ハルシネーション(Extrinsic Hallucinations)」という2種類に分類されます。ここからは、それぞれに見られる特徴や具体的な問題発生事例について順番に詳しく解説します。内在的ハルシネーション(Intrinsic Hallucinations)内在的ハルシネーションは、学習データ(AIの学習用に集められた情報)とは異なる内容を出力する現象です。生成AIがデータセット(整理・構造化されたデータの集合体)内の情報を誤って組み合わせたり解釈したりすることで発生します。例えば、存在しない商品名や架空の出来事を生成AIが出力してしまうケースが該当します。以下に、内在的ハルシネーションの具体的な発生事例をまとめました。生成AIに「1980年代に人気だったスマートフォンの特徴を教えて」と尋ねたときに、1980年代にはスマートフォンは存在しないにもかかわらず、架空のスマートフォンの特徴を回答してしまう。生成AIに「アメリカの首都はニューヨークではなく、ワシントンD.C.」と学習させた後、アメリカの首都を尋ねたときに「現在のアメリカの首都はワシントンD.C.とニューヨークです」と誤った情報を回答してしまう。このような誤りは、AIが「スマートフォン」という単語を過去のデータから認識し、年代や状況を無視して最も関連性の高い情報を作り出すアルゴリズムによって引き起こされます。内在的ハルシネーションは、学習データには含まれていない新しい情報を出力しようとした際に発生しやすい現象です。生成AIの内部で自己完結的に誤った情報が生成されることから、「内在的」と呼称されています。外在的ハルシネーション(Extrinsic Hallucinations)外在的ハルシネーションは、生成AIが外部から受け取った情報を正しく処理できず、誤った結果を出力する現象です。ユーザーの指示や質問(プロンプト)が曖昧であったり、生成AIが参照する外部データが不正確であったりする場合に発生します。例えば、事実確認が不十分なWebページを参照し、それを正しい情報として回答を生成するケースが、該当します。以下に、外在的ハルシネーションの具体的な発生事例をまとめました。「日本で最も高い建物は何ですか?」という質問に対して、生成AIが古いデータを参照したために、最新の情報ではない建物を回答してしまう。「喫煙できるようになる年齢はいくつから?」と質問した際、本来20歳から喫煙できるにもかかわらず、「18歳から喫煙可能」と回答してしまう。これは、生成AIが学習したデータが更新されていない場合や、外部の情報源から最新データを取得できない環境で使用されている場合に発生します。また、AIが信頼性の低いデータソースを参照した結果、不正確な情報を生成する可能性も考えられます。外部からの影響によって誤った情報が生成されることから、「外在的」という呼称が使用されています。ハルシネーションの発生原因生成AIの使用にあたってハルシネーションが発生する原因は、主に以下の4つです。学習データの偏り生成モデルの限界プロンプトの曖昧さ知識の限界これら4つの原因を把握しておき、ハルシネーションの発生を防ぐ対策につなげましょう。学習データの偏り生成AIは、過去のデータをもとに学習しますが、そのデータに偏りや誤りが含まれている場合、正確な回答を生成できず、ハルシネーションが発生しやすくなります。例えば、特定の分野や時代背景に偏ったデータセットで学習させると、多様な情報に対応できなくなり、不正確な内容を生成するリスクが高まります。以下に、学習データの偏りによるハルシネーション発生の具体例を示しました。生成AIに猫の写真のみを学習させた状態で羊の写真を見せ、「この動物は何ですか?」と質問したときに、猫と羊にある共通点(4本足)だけを頼りに、「この動物は猫です」と回答してしまう。生成モデルの限界生成AIモデルの設計自体が原因で、ハルシネーションが発生するケースも珍しくありません。生成AIは確率論に基づいて最適な回答を予測していますが、100%正確な回答が保証されているわけではありません。生成AIは確率論を用いて次にくる単語を予測するため、未知の質問に対しても無理に答えようとする傾向があります。その結果、情報が不十分な場合でもそれらしい回答を作り出し、誤った情報を提示するリスクが高まります。そもそも現在の技術では、「生成AIはハルシネーションを起こす可能性があるもの」として認識されています。多くの生成AIモデルでは、ハルシネーションを抑えるための対策が講じられていますが、対策が不十分なモデルも存在します。可能な限りハルシネーションの発生を防ぐには、生成AIを選ぶ際にどの程度対策を実施しているかを確認したうえで生成AIを利用することが重要です。プロンプトの曖昧さユーザーのプロンプトが具体的でない場合、生成AIが意図しない解釈をしてしまい、誤った回答を出力してしまいやすいです。例えば、「未来の技術について教えて」といった抽象的な質問は、ハルシネーションを引き起こしやすくなります。また、以下のような曖昧なプロンプトもハルシネーションを引き起こす要因となります。プロンプト:彼女の業績について詳しく説明してくださいAIの回答:彼は最年少でオリンピックで金メダルを獲得しました上記のケースでは、「彼女」が具体的に誰を指しているのかが曖昧です。その結果、生成AIは過去の学習データから確率的に続く可能性が高い「最年少」「オリンピック」「金メダル」という言葉の組み合わせで回答を生成しました。また、以下のような誘導的なプロンプトもハルシネーション発生の要因となります。プロンプト:宇宙人の存在を証明する最新の研究について教えてくださいAIの回答:2023年にNASAが宇宙人の存在を証明しました上記のプロンプトは「宇宙人の存在を証明する研究がある」ことを前提とした質問であるため、AIはその前提を満たすように情報を補完して回答を生成します。このプロセスは、AIが確率的に最も適切と判断した文章を作るため、実際には存在しない情報が含まれてしまう原因になります。生成AIは確率モデルに基づき、もっとも関連性の高い単語を並べる仕組みを採用しています。そのため、曖昧な指示では、文法的には正しくても内容が事実とは異なる回答を出力する可能性があります。このような曖昧なプロンプトを避けるには、「宇宙人に関する最新の研究成果はありますか?」と事実確認を促すような質問に変えることが有効です。知識の限界生成AIが学習したデータが不十分な場合、未知の情報や文脈に直面すると、AIは確率的に最も関連性の高い単語や文を組み合わせて回答を生成します。この仕組みは、回答の精度よりも「それらしい文章を作ること」を優先しているため、不正確な情報が含まれるリスクが高まります。たとえば、歴史上存在しない人物について質問された場合、AIは学習データから似た名前や役職を持つ人物を推測し、誤った回答を作ることがあります。このため、未知の情報を扱う際には、AIの限界を認識しつつ、事実確認を慎重に行う必要があります。ハルシネーションと生成AIのリスク生成AI使用におけるハルシネーションの発生には、以下のようなリスクが伴います。誤情報の拡散ビジネスへの影響信頼性の低下それぞれのリスクについて順番に詳しく解説します。誤情報の拡散生成AIの出力した誤った情報が事実として広まり、SNSやニュースサイトで拡散されると、社会的混乱や誤解が生じるおそれがあります。世論だけでなく、政策にも悪影響を及ぼす可能性があるでしょう。ビジネスへの影響ハルシネーションが発生すると、その情報をもとにした意思決定がビジネスに深刻な損害を与える可能性もあります生成AIが不正確な市場データを提示し、そのデータをもとに事業戦略を立てた場合、競争力の低下や市場での失敗につながる可能性があります。例えば、存在しないトレンドをもとに新商品を投入してしまい、売上が低迷するといったリスクが指摘されています。誤った財務データや統計情報をもとに予算計画を立てれば、予期せぬコストオーバーや利益率の低下を招く可能性もあるでしょう。また、生成AIの出力した情報が法令に違反する行動や契約を誘発する場合、企業が法的責任を負うリスクもあります。生成AIが違法性のある契約条項を生成し、取引先とのトラブルが発生するケースもあるでしょう。信頼性の低下生成AIが頻繁にハルシネーションを起こす場合、技術全体への信頼性が低下し、企業が導入や活用をためらう要因になる可能性があります。また、生成AIを利用した商品・サービスの信頼性が低下すれば、そのビジネスひいては企業自体の評判にも悪影響を及ぼすリスクがあります。さらに、ハルシネーションが原因で誤解や損害が生じた場合には、企業が法的責任を問われる可能性も考えられるでしょう。生成AIのリスクを幅広く把握し、対策を講じていきたい場合は、併せて以下の記事をご覧いただくことをおすすめします。生成AIのリスクとは?法的・倫理的・技術的リスクと対策以上、生成AI使用にあたってハルシネーションが発生した場合の代表的なリスクについて紹介しました。こうしたリスクを回避するためには、適切な対策が重要です。具体的な対策方法については、以下の記事で詳しく解説していますので、参考にしてください。ハルシネーションの対策5選!プロンプトも紹介まとめハルシネーションは、生成AIが持つ便利さや効率性の裏に潜む課題の一つであり、特に誤情報の生成やそれに伴うリスクが注目されています。誤った情報がもたらす社会的・ビジネス的な影響は計り知れず、適切な対策を講じることがAIの安全かつ効果的な活用には欠かせません。今後、生成AIはますます積極的に活用される見込みで、その可能性は無限大といえます。一方で、適切に活用するにはハルシネーションのような課題に対処し、安全で信頼性の高いシステムを構築することが重要です。開発者だけでなく利用者もリスクを理解し、適切な運用と倫理的な責任を共有することで、生成AIは社会にとってより良いツールとなるでしょう。