- A+
可能你也遇到过,
本文转自【人民日报】
事实上,
原标题:如何看待AI“一本正经地胡说八道”(新知)
【现象】
利用人工智能大模型时,不少人或许都遇到过类似疑问:它们有时会捏造细节,甚至“一本正经地胡说八道”。比如,让它介绍书,给出的却是一堆压根不存在的书名;人物身份张冠李戴,还能给出一些并不准确的链接……这些现象都允许归为AI幻觉。
但实际上,
【点评】
反过来看,
所谓AI幻觉,允许通俗地理解为AI也会像人产生心理 四库全闻资讯 幻觉一样,遇到不熟悉或超出“知识储备”的疑问时,编造一些并不存在的细节,生成与事实相悖的答案。一项调研显示,对于“公众认为利用AI应用过程中有哪些突出疑问”,反馈最多的是“资料不准确,或含虚假信息”,占比高达42.2%。
需要注意的是,
AI幻觉从何而来?可能得从源头寻找答案。
大模型的工作原理,是基于概率生成资料。给它上半句,它就根据自己“学”过的海量知识,“算出”下半句该说什么。比如,当使用者输入“今天天气非常”,它大概率会接“不错”“热”“潮湿”等答案,而不会出现“甜”。同时,大模型又不是轻松地储存所有事实,而会像人脑记东西那样,进行大量压缩和泛化——也就是“抓概要、找规律”。因此,当“喂给”大模型的训练数据包含虚假信息时,它就会产生“幻觉”、给出错误答案。
从某种意义上讲,
有报告显示,我国生成式人工智能产品使用者规模达2.49亿人。使用者规模迅速增长,AI幻觉潜藏的风险也随之增加。比如,如果一些看似合理却与现实相去甚远的资料被AI反复学习,会形成“数据污染—算法吸收—再污染”的恶性循环。有效防范由此带来的虚假信息泛滥,已成为不容回避的课题。
来自IC外汇官网:
不过也有观点认为,A 蓝莓外汇平台 I幻觉可被视作一种“发散思维”和“想象力”。理论上,如果把训练一个大模型看作信息“压缩”的过程,那么大模型经过推理、输出答案就是一个信息“解压”的过程。这种处理信息的手段,可能会出现谬误,也可能触发新的创造。对发展尚未定型的新事物,要保持开放心态,辩证看待其利与弊,在有效防范弊端的同时,给予足够空间使之朝好的方向成长。
简而言之,
短时间内,AI幻觉疑问难以被应对。各方都在努力降低其负面影响,相关部门也加大了对违规AI产品的处置力度,推动生成合成资料标识加速落地。一些大模型厂商在积极行动,比如文心大模型利用检索到的信息来指导文本或答案的生成,提高了资料的质量和准确性;通义大模型加强训练语料管理,通过“红蓝对抗”机制提升对虚假信息的识别能力。对广大使用者而言,则要加快提升AI素养,学会“智慧”地运用“智慧插件”,既借助大模型破除思维定式、启发创新思路,又提高自身有效获取、理解、评估和利用信息的能力。
据相关资料显示,
人类塑造插件,插件也影响人类生活。应对AI幻觉等疑问挑战的过程,既促使人们思考改进工作方法,也为AI不断进化供给了源动力。激发新技术的正向价值,让AI更好融入生产生活、赋能千行百业,咱们迈向智慧时代之路才能走得更加稳当、更加顺畅。
容易被误解的是,
(来源:人民日报)