最近DeepSeek爆火,但是你有没有想过,它的回复是不是一定准确?
根据测试,大家在用的R1版本,“胡言乱语”比例超过V3版本3倍多!(数字越低越好)
这种“胡说八道”的现象,叫做大模型的“幻觉”。产生的原因推测是因为R1版本增加推理性的同时,牺牲了真实性。当然,所有大模型都或多或少存在类似问题,比例相对要低。
那如何避免“幻觉呢?
- 使用DeepSeek处理文案编写任务时,取消选择R1模型。这样就调用了准确性更高的V3模型。(编程及逻辑推理问题,还选R1)
- 如果为了推理效果好,仍然使用R1。仔细检查深度思考过程,看其与答案是否匹配。
- 仔细检查答案,对于公文、宣传文案等场景,建议将信息拷贝,使用DeepSeek V3或者豆包、Kimi等大模型交叉检查。
- 在引用大模型生成内容的地方,注明“该内容使用AI生成”。
希望这篇文章能帮助大家更好的使用DeepSeek等大模型,如果您也发现了类似”幻觉“问题,或者有其他问题需要咨询,欢迎留言或联系。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...