Introduction
生成AIの技術は日々進化を遂げており、ChatGPTなどをビジネスに活用する企業が増えてきました。コンテンツ生成や文書の作成、新しいアイデアの創出など、さまざまな分野で生成AIが活用されています。
AIの技術が進化したとはいえ、AIが導き出した結果が必ずしも正しいとはいえません。「ハルシネーション」と呼ばれる、AIが誤った結果を出力する現象が起こることもあります。現在のAI技術では、ハルシネーションの発生を確実に防ぐ方法はありません。しかし、ハルシネーションによるトラブルを防ぐための対策を講じることは可能です。
この記事では、生成AIで発生するハルシネーションの問題について、原因や改善方法などについて解説します。
目次
ハルシネーションとは?
生成AIの技術は進化をつづけていますが、生成AIがつねに正しい回答を行うわけではありません。ときには間違った結果を出力することもあり、そのような現象はハルシネーションと呼ばれています。
ここでは、ハルシネーションとは何か、ハルシネーションの2つのタイプなどについて解説します。
AIが、事実に基づかない誤った情報をもっともらしく生成すること
ハルシネーションとは、生成AIが誤った結果を出力してしまう現象のことです。「Hallucination」には、幻覚という意味があります。AIが事実に基づかない誤った情報を生成し、それが一見正しいようにみえることから、ハルシネーションと呼ばれるようになりました。
総務省の『生成AIが抱える課題』によると、以下のように説明されています。
ハルシネーション
生成AIは事実に基づかない誤った情報をもっともらしく生成することがあり、これをハルシネーション(幻覚)と呼ぶ。
生成AIのなかで、もっともメジャーなAIチャットツールのChatGPTなどの大規模言語モデル(LLM)でも、ハルシネーションが発生することがあるのです。現在の技術では、ハルシネーションの発生を完全には抑えられないといわれています。
生成AIをビジネスに活用している場合、ハルシネーションにより問題が起こることもあります。たとえば、生成AIで作成した報告書が間違っており、取引先や顧客に迷惑をかけてしまうなど、ビジネスに悪影響をおよぼす可能性もあるでしょう。
ハルシネーションを完全にとり除く方法はまだ見つかっていませんが、対策することは可能です。とくに、生成AIをビジネスに活用する場合は、ハルシネーションに対する対策を講じる必要があります。
ChatGPTについてはこちらもご覧ください。
>>ChatGPTとは?GPT-4oができること、メリット・注意点をわかりやすく解説のページへ
ハルシネーションには2つのタイプがある
ハルシネーションには「Intrinsic Hallucinations(内在的ハルシネーション)」と「Extrinsic Hallucinations(外在的ハルシネーション)」の2つのタイプがあります。
「Intrinsic Hallucinations」は、学習したデータとは異なる結果を出力する現象です。たとえば「北海道の県庁所在地は札幌です」と学習したあとに同じ質問をすると「北海道の県庁所在地は盛岡です」などと回答してしまいます。
「Extrinsic Hallucinations」は、学習したデータには存在しない結果を出力する現象です。たとえば「株式会社SHIFTは完全自動運転が可能な技術を確立しました」など、学習していない事実とは異なる回答をします。
ハルシネーションを完全に排除することはむずかしい
ハルシネーションを完全に排除することはむずかしいといわれていますが、対策はできます。学習データやプロンプトに問題があるなど、ハルシネーションが発生する原因を突き止めて対策することにより、改善していくことが可能です。
ハルシネーションが発生する原因
ここでは、ハルシネーションが発生するいくつかの原因について解説します。
学習データ内の量や質に問題がある
学習させるデータに問題がある場合、データを改善すれば解決できることもあります。
学習させるデータが少なすぎる、または内容に偏りがある場合、AIは誤った認識をするため、ハルシネーションが発生しやすくなります。たとえば、動物に関する情報を学習させる際に、犬と猫の情報しか学習させないと、ウサギの写真を見せても「これは猫です」と答えてしまうでしょう。また、学習した情報が古すぎると新しい情報を知らないため、古い内容の回答しか返ってきません。
学習データに問題がある場合は、データを見直す、新しいデータを追加するなどの対策が必要です。
プロンプト(指示)の内容に問題がある
生成AIに指示を出すためのプロンプトに、問題があるケースもあります。
プロンプトがあいまいだと正しい結果を得られません。たとえば「もっとも強いサッカーチームはどこですか?」などのあいまいな質問をしても、どの国のチームなのか、どのリーグなのかなどの情報がありません。そのため、明確な回答を得ることはむずかしいでしょう。
また、プロンプトが誘導的な内容のため、ハルシネーションを引き起こすこともあります。たとえば、「リーマン予想はいつ証明されましたか?」と質問すると、「リーマン予想は〇〇年に△△により証明されました。」などと回答が返ってくるケースです。実際、リーマン予想は証明されていませんが、証明されたという前提で質問をしているため、事実とは異なる回答になってしまいます。
生成AIの性能が低い
生成AIの性能が低いなど、設計内容に原因があるケースもあります。
現時点の生成AIの技術では、ハルシネーションが起きてしまうことは防げません。しかし、ハルシネーションが起きないように対策することは可能です。生成AIツールのなかには、対策を行っているものもあります。今後AI技術が進化することで、ハルシネーションが起こらなくなっていく可能性も高いです。
ハルシネーションを改善する方法
上記でご説明したハルシネーションが発生する原因を踏まえて、発生しないように改善する方法について解説します。
プロンプトを改善する
生成AIを活用する際は、プロンプトの内容が非常に重要です。前提などがあいまいなまま質問をする、存在するかわからないことを前提に質問するなどのプロンプトは、ハルシネーションを起こす原因となります。そのため、以下のような点に配慮して、プロンプトを作成するのがよいでしょう。
・主語、年代、対象などを明確にして具体的な指示を出す
・事実かわかっていないことを前提として質問しない
・回答が存在しない場合の回答の仕方を指定する
学習データを管理し、質を向上させる
学習データの量が足らない、内容が偏っているなどの問題がある場合は、学習データを管理して、データの質を向上させる対策が必要です。
ファインチューニングを行って正しい学習データを追加で学習させる、新しい学習データを用意するなどの対策を行って、精度を向上させます。また、回答を評価して、精度をあげるという方法もあります。
使用するAIモデルを変更する
AIモデルを変更することで、よい結果が得られる場合もあります。AIモデルにはさまざまな種類があり、それぞれ学習データや学習の仕方、仕様などが異なります。使い方や求める性能にあったAIモデルを選ぶことで、ハルシネーションの発生を抑えることが可能です。
人間からのフィードバックをもとに強化学習を行う
人間が生成AIの回答をフィードバックして強化学習を行う、「RLHF」(Reinforcement Learning from Human Feedback)という手法もあります。この手法を採用したOpenAI社のInstructGPTは、ハルシネーションの発生を抑えることに成功しています。また、ChatGPTのモデルであるGPT-3.5、GPT-4でも使われているのが特徴です。
RAGを活用する
RAGは検索拡張生成と訳され、生成AIと検索機能を組み合わせる技術です。特定の分野の外部情報を生成AIに与えることで、その情報を検索して回答を生成します。
たとえば、自社が開発した商品情報を生成AIに登録することで、自社サイトでの問い合わせチャットボットを開発できます。このチャットボットには詳細な商品情報が登録されているため、顧客が商品の仕様などについて質問をすると、詳細で正確な回答を得ることが可能です。
RAGの技術により正しい情報を検索できるようにすることで、誤った回答を返すハルシネーションの発生を抑えられます。
ハルシネーションによるトラブルを防ぐための対策
ハルシネーションは、対策を講じても発生するという前提で考える必要があります。ここでは、ハルシネーションによるトラブルを防ぐための対策についてご説明します。
ハルシネーションの発生リスクを周知する
生成AIの結果に誤りが含まれる可能性があると、ハルシネーションの発生リスクを周知しておく対策が必要です。リスクを周知徹底し、生成AIの結果をそのまま使用しない、チェックする体制を整えておくなどの対策につなげていきます。
ファクトチェックを徹底する
生成された結果を利用する前に、ファクトチェックを行う必要があります。情報が古くないか、誤った内容になっていないか、質問の内容とあっているかなどを確認する体制を整えましょう。また、ただ確認するだけでなく、どのように確認するのか、誰が確認するのかなども決めておく必要があります。
出力結果に制限をかける
出力結果にフィルターをかけておくことで、結果に誤りや偏りが出ないように調整する方法もあります。人間が判断したフィルターを必ず通すことで、ある程度の誤りを排除することも可能です。
生成AIに関する規定やマニュアルを作成する
生成AIを使用する際の規定やマニュアルを整備しておき、使い方に決まりをつくっておくことも重要です。
前述のとおり、必ず結果のファクトチェックを行う、誰が内容を確認するか決めておくなどを明確にしておきます。生成AI使用時の規定やマニュアルを整備しておくことで、ハルシネーションを防ぐための体制が整います。
AIにはハルシネーション以外にもリスクがある
この記事では、ハルシネーションによる弊害についてご説明しましたが、AIにはそれ以外にもさまざまなリスクがあります。
たとえば、AIにインプットした情報が外部に漏れてしまう、情報漏えいなどのセキュリティの問題などです。また、生成AIが差別的な表現を使ってしまうなどの倫理的な問題や、第三者の著作権を侵害しているなどの権利侵害の問題も考えられます。
生成AIを活用する場合には、上記のようなハルシネーション以外の問題について、確認していく必要もあるでしょう。
関連サービスについて
AIシステムの品質保証ー基本と進め方ー
本資料は、AIシステムの品質保証をテーマに、 SHIFTで実施しているノウハウを紹介しながら具体的な手法や進め方などを説明しています。
AIシステムの安全性と信頼性を確保することで、ユーザーに安心感を提供し、その結果、より広範囲での利用を促進いただけます。品質が確保されたAIシステムは、予測精度が高まり、ビジネスの意思決定や社会問題の解決に大きく貢献します。ぜひご覧ください。
本資料は、AIシステムの品質保証をテーマに、 SHIFTで実施しているノウハウを紹介しながら具体的な手法や進め方などを説明しています。
AIシステムの安全性と信頼性を確保することで、ユーザーに安心感を提供し、その結果、より広範囲での利用を促進いただけます。品質が確保されたAIシステムは、予測精度が高まり、ビジネスの意思決定や社会問題の解決に大きく貢献します。ぜひご覧ください。
まとめ
この記事では、生成AIで発生するハルシネーションの問題について、原因や改善方法などを解説しました。
生成AIの技術は日々進化していますが、生成された結果に誤りが含まれるハルシネーションの問題が解決されたとはいえません。生成AIを活用する際は、ハルシネーションが発生するリスクがある前提で、対策を講じる必要があります。
AIに関する問題を解決したい場合は、AIの専門知識や経験が豊富なSHIFTにお任せください。お客様のAIに関するお悩みを解決いたします。
SHIFTでは、AIのリスクを考慮した安全なシステム開発をサポートします
生成AIの技術は進化しつづけていますが、ハルシネーションにより、間違った結果が生成されてしまうことは避けられません。そのため、生成AIをビジネスに活用する場合は、結果にフィルターをかける、その都度ファクトチェックを行うなどの対策が必須です。
しかし「AIのノウハウがないため、自社内でハルシネーションの対策を行うのがむずかしい」「IT人材が不足している」などの悩みを抱える企業は多いかもしれません。
そこで、SHIFTのAI特化型品質保証サービスをご利用いただければ、AI活用に関する課題を解決いたします。SHIFTの豊富なAIに関する専門知識や技術を活かして、お客様のビジネスを支えるAIシステムの品質を高めます。生成AIに関する悩みをおもちの場合は、お気軽にご相談ください。
引用元: