Hallucinations

概念相关

定义

Hallucinations 是大语言模型 LLM 在给出回答过程中可能出现的错误情况。
为防止其出现,可以先(自己/让模型)获取相关信息,再进行回答。

分类
注意
例子

功能/作用

相关 (Index)