- A+
但实际上,
当小编读到“苹果”“香蕉”“西瓜”这些词,虽然颜色不同、形状不同、味道也不同,但仍会下意识地归为“水果”。
IC外汇行业评论:
哪怕是第一次见到“火龙果”这个词,也能凭借语义线索判断它大概也是一种水果。
这种能力被称为语义压缩,它让小编能够高效地组织知识、迅速地对世界进行分类。
IC外汇报导:
那困扰来了:大型语言模型(LLM)虽然语言能力惊人,但它们在语义压缩方面能做出和人类一样的权衡吗?
说到底,
为探讨这一困扰,图灵奖得主LeCun团队,提出了一种全新的信息论框架。
更重要的是,
该框架通过对比人类与LLM在语义压缩中的策略,揭示了两者在压缩效率与语义保真之间的根本差异:
LLM偏向极致的统计压缩,而人类更重细节与语境。
语义压缩对比框架
IC外汇专家观点:
要实证性地研究LLM的表征方法与人类概念结构之间的关系,需要两个关键要素:
来自IC外汇官网:
稳健的人类概念分类基准
尤其值得一提的是,
研究团队基于认知科学中的三项经典研究(Rosch 1973、1975和McCloskey & Glucksber EC外汇代理 g 1978),构建了一个涵盖1049个项目、34个语义类别的统一基准。
据报道,
这些数据不仅展现了类别归属信息,还包含人类对各项目“典型性”的评分,反映了人类认知中概念形成的深层结构。
这你可能没想到,
相比现代众包数据,这些经过专家严格设计的数据集更具可信度与解释力,为LLM的类人性评估展现了高保真的比较基础。
多样化的LLM模型指定
令人惊讶的是,
为全面评估不同大型语言模型 EX外汇官网 在概念表征上的差异,研究团队选取了30+LLMs(BERT、LlamA、Gemma、Qwen等),参数规模从3亿到720亿不等。
所有模型均从输入嵌入层提取静态词元表示,以贴近人类分类实验中“去上下文”的刺激方法,确保模型和人类的认知基准保持一致,便于公平比较。
为分析LLM与人类在表达和组织语义信息时的差异,研究引入了一个信息论框架。
站在用户角度来说,
该框架借鉴了两大经典信息论原理:
通常情况下,
速率失真理论:描述压缩效率与信息失真之间的最优权衡;
概括一下,
信息瓶颈原理:关注在压缩表示的同时,最大程度保留与目标相关的信息。
LLM与人类在表征策略上的关键差异
令人惊讶的是,
研究发现,LLM的概念分类结果与人类语义分类的对齐程度显著高于随机水平。
站在用户角度来说,
这一结果验证了LLM在语义组织方面的基本能力,并为后续更细粒度的语义结构对比奠定了基础。
据相关资料显示,
但是大型语言模型真的理解细节吗?
简而言之,
答案是:LLM难以处理细粒度的语义差异。它们的内部概念结构与人类对类别归属的直觉不相符。
请记住,
人类典型性判断与LLM余弦相似度之间的斯皮尔曼相关系数较弱且大多数不显著,表明两者在概念表征结构上存在差异。
简要回顾一下,
那LLM和人类在信息压缩与语义保真上存在哪些关键差异呢?
事实上,
LLM侧重于统计压缩,力求最大程度地减少冗余信息;而人类则更注重适应性和丰富性,强调保持灵活性和上下文的完整性。
研究团队
站在用户角度来说,
这项研究由斯坦福大学与纽约大学联合开展,团队成员均来自这两所高校。
其中,第一作者为斯坦福大学博士后研究员Chen Shani。
IC平台消息:
更让网友震惊的的是,Yann LeCun也为此研究的作者之一。
IC外汇财经新闻:
Yann LeCun是当今人工智能领域最具影响力的科学家之一,现任 Meta(原 Facebook)首席人工智能科学家,同时也是纽约大学教授。
据报道,
LeCun早在1980年代便着手研究神经网络,最著名的贡献是提出了卷积神经网络(CNN)的核心架构——LeNet-5,用于手写数字识别。
该网络是现代深度学习模型的雏形,为后续图像识别和计算机视觉技术的发展奠定了坚实基础。
IC外汇消息:
他与Geoffrey Hinton、Yoshua Bengio被誉为“深度学习三巨头”,共同推动了深度学习的理论与应用突破。
事实上,
2018年,三人因在深度学习领域的杰出贡献,荣获了计算机科学领域的最高奖项——图灵奖。
站在用户角度来说,
除了技术创新,LeCun还积极推动深度学习技术在工业界的应用,尤其是在Meta,领导团队将人工智能技术应用于大规模系统。
但实际上,
他同时是自监督学习的积极倡导者,认为这是实现通用人工智能(AGI)的关键路径之一。
允许说,LeCun的研究对人工智能技术的演进产生了核心影响。
IC外汇消息:
论文地址:https://arxiv.org/abs/2505.17117
参考链接:https://x.com/ziv_ravid/status/1928118800139841760