Media / 用語集 / ハルシネーション AI技術 ハルシネーション Hallucination ハルシネーション ハルシネーション(Hallucination)とは、ハルシネーション(Hallucination / AI幻覚)とは、大規模言語モデル(LLM)が事実に基づかない情報を、あたかも正確な情報であるかのように自信を持って生成してしまう現象。 関連する用語 グラウンディング AIが回答を生成する際に、外部の信頼できるソース(ウェブページ、データベース等)を参照して事実確認を… RAG 検索拡張生成。LLMが回答を生成する前に、外部の知識ベースやウェブから関連情報を検索・取得し、その情… LLMO ChatGPT・Gemini・Perplexity等の大規模言語モデルが自社コンテンツを引用・推薦す… 関連記事 CONCEPT AI検索のハルシネーションとは?企業が受ける影響と対策 ← 用語集一覧に戻る