让它推荐个excel解析库,给了个名字搜了半天才发现根本不存在。这种编造问题有办法预防吗
让它在推荐时附上npm链接验证一下就行
这就是为什么ai不能完全替代人的判断
在prompt里加一句如果不确定就说不知道
我被骗过三次了现在推荐的包必手动搜一遍
用search grounding的模型会好一些
幻觉是大模型的原罪目前没有根治办法
遇到过好几次了,每次都得去npm搜一下确认
让它给链接出来,幻觉一试便知
让它推荐个excel解析库,给了个名字搜了半天才发现根本不存在。这种编造问题有办法预防吗
让它在推荐时附上npm链接验证一下就行
这就是为什么ai不能完全替代人的判断
在prompt里加一句如果不确定就说不知道
我被骗过三次了现在推荐的包必手动搜一遍
用search grounding的模型会好一些
幻觉是大模型的原罪目前没有根治办法
遇到过好几次了,每次都得去npm搜一下确认
让它给链接出来,幻觉一试便知