联系我们

新闻投稿:jingjing@enec.net

商务合作:coco@enec.net

搜索
下载亿恩app

OpenAI的研究人员承认,聊天机器人无法停止编造虚假事实

2小时前

使用人工智能聊天机器人时的一大问题是它们会"幻觉"——即编造内容而非承认不确定。研究人员指出,由于技术原理限制,至少两类虚假信息无法根除。OpenAI团队发现,大语言模型像应试学生一样,在不确定时会猜测答案而非承认无知。专家向《自然》杂志表示,不仅消除幻觉"不可能",阻止AI凭空捏造引用尤其困难。普渡大学学者指出,目前幻觉发生率已降至"用户可接受"水平。《自然》解释称,这种缺陷源于大语言模型作为"统计机器"的工作原理——通过归纳学习关联性来生成看似合理但可能错误的答案。

更多精彩内容,请关注亿恩网微信公众号: (ENECNEWS

扫码关注二维码

) 每天为您推送最新,最热干货!
声明:亿恩网原创稿件,未经授权不得以任何方式转发。转载请联系:yujie@enec.net
分享:
8487 0 0
热门词条

引流

跨境大卖

广告费

人工智能

加拿大

Snapchat

产品安全

北美

天猫618

Zalando

标题

操纵评论

二审

泰国

服务商

申诉

关联

产品侵权

千禧一代

国产

社群

扫码加入社群

公众号

扫一扫
关注亿恩公众号

顶部