AI技術

ハルシネーション

Hallucination
ハルシネーション
ハルシネーション(Hallucination)とは、ハルシネーション(Hallucination / AI幻覚)とは、大規模言語モデル(LLM)が事実に基づかない情報を、あたかも正確な情報であるかのように自信を持って生成してしまう現象。