- A+
令人惊讶的是,
大家至少要了解人工智能 (AI) 的两件事。
首先,人工智能的狂热在过去三年中一直在推动股市走高,即使在此过程中偶尔会出现下跌。
令人惊讶的是,
其次,人工智能是一项革命性的技术,它将改变世界,并可能消除许多工作,包括需要培训和技术技能的工作。
IC外汇行业评论:
这两点都是正确的。但并能因此排除其中的一些陷阱,并保持足够的谨慎与冷静。
IC外汇专家观点:
AI一直在推动股市创下历史新高,但市场的外观和感觉就像一个超级泡沫。但这不是今天做空主要股指的理由。泡沫的持续时间可能比任何人预期的都要长。
大家常常忽略的是,
EC外汇官网 关于第二点,人工智能将使一些工作过时或容易被取代。当然,与任何新技术一样,它将创造需要不同技能的新工作岗位。教师不会过时。他们将从教授数学和阅读的基础知识(人工智能做得很好)转向教授批判性思维和推理(计算机做得很差或根本没有)。
根据公开数据显示,
变化将是无处不在的,但它们仍然是变化,而不是混乱。
说出来你可能不信,
01
物理边界限制
很多人不知道,
人工智能是一股强大的力量,但远不如表面上看到的那么容易。
说出来你可能不信,
AI可能面临处理能力、训练集和发电方面的材料限制。半导体芯片的速度越来越快,新的芯片正在开发中。但这些芯片会消耗大量能源,尤其是在新AI 数据中心的巨大阵列中安装时。
可能你也遇到过,
倡导者正在转向核电站,包括小型模块化反应堆,以满足AI的能源需求。
这种需求是非线性的,这意味着需要指数级更大的能源才能在加工输出方面取得小的进步。
AI 正在迅速接近其实现更高性能能力的实际极限。
不妨想一想,
这种近乎永不满足的能源需求,意味着AI竞赛实际上是一场能源竞赛。
尽管如此,
02
令人惊讶的是,
AI 缺乏常识
AI 的另一个不为人知的限制,是搜索中信息守恒定律。
该定律有严格的数学证明接受。它说的是AI找不到任何新信息。它可用更快地找到事物,并且可用建立人类可能几乎不可能建立的联系。这很有价值。但 AI 找不到任何新的东西。
它只能寻找和找到已经存在的信息。新知识以创造力、艺术、写作和原创作品的形式来自人类。计算机无法执行真正的创造性任务。
这应该给人类一些安慰,由于他们永远不会过时。
AI的另一个状况,是训练集的稀释和退化。由于更多的训练集资料由先前处理的 AI 输出组成。
概括一下,
AI 容易出现错误、幻觉(更准确地说是虚构)和没有事实依据的推理。这已经够糟糕了。但是,当该输出进入训练集(基本上是 Internet 中的每个页面)时,训练集的质量会下降,而未来的输出会同步下降。
据相关资料显示,
除了仔细策划之外,没有好的应对方案。如果必须成为主题专家来策划训练集,然后评估输出,这会大大降低 AI 的增值作用。
从某种意义上讲,
计算机也缺乏同理心、同情心和常识。他们处理,但他们并不真正像人类那样思考。事实上,AI根本不会思考;这只是数学。
通常情况下,
在最近的一项实验中,一台AI计算机与一组3至7岁的孩子进行了比赛。挑战是用手头的插件画一个圆圈。这些插件是一把尺子、一 富拓外汇代理 个茶壶和第三个不相关的物体,比如一个炉子。
来自IC外汇官网:
计算机推断尺子是像指南针一样的绘图插件,并试图用尺子画一个圆。它失败了。孩子们看到茶壶的底部是一个圆圈,就容易地在茶壶上画出完美的圆圈。
AI 系统利用了关联逻辑。孩子们用的是常识。孩子们赢了。这个结果在未来的比赛中不会改变,由于常识(技术上是归纳逻辑)是无法编程的。
据业内人士透露,
雄心勃勃的AI公司很快发现,他们的系统可用被新系统超越,这些系统只是利用大价钱AI输出作为基准训练集。这是以一小部分成本实现高性能的捷径。
很多人不知道,
像Microsoft和Google这样的老牌AI公司称之为盗窃IP,但这并不比那些利用现有IP而不支付版税的巨头差。
换个角度来看,
这可能是海盗的一种形式,但很容易做到,而且几乎不可能阻止。
通常情况下,
这并不意味着AI的终结。这意味着AI天价利润预测的终结。AI巨头花费的数千亿美元的回报可能微薄。
站在用户角度来说,
03
可能你也遇到过,
创新者还是推销员?
尤其值得一提的是,
AI世界中最著名的人物是山姆·奥特曼( Sam Altman)。
据相关资料显示,
他是OpenAI的负责人,该公司几年前推出了ChatGPT应用程序。
人工智能始于 1950 年代,从 1980 年代的发展角度来看似乎遇到了瓶颈(这一时期被称为人工智能冬天),在 1990 年代和 2000 年代初基本上处于休眠状态,然后在过去十年中突然又恢复了活力。ChatGPT 在最初的几个月里是历史上下载次数最多的应用程序,如今拥有数亿访客。
简而言之,
奥特曼去年被 OpenAI 董事会赶出,由于该公司旨在作为一个非营利实体,为人类的利益开发人工智能。奥特曼希望将其转变为营利性实体,作为数千亿美元IPO的前奏。
换个角度来看,
当顶级工程师威胁要辞职并跟随奥特曼进行新的冒险时,董事会很快改变了方向,将奥特曼带回了公司,尽管确切的法律结构仍在讨论中。
值得注意的是,
与此同时,阿尔特曼全速推进了他对超级智能(也称为高级通用智能 (AGI),关键词是“通用”,这意味着系统可用像人类一样思考,只是更好。
简要回顾一下,
理解超级智能的一种方法是比喻人类之于计算机,就像猿类之于人类一样。大家会被认为是聪明的,但不会比大家的机器大师更聪明。
不妨想一想,
阿尔特曼说,“在某些方面,ChatGPT 已经比任何活着的人都更强大。他还表示,他预计到202 年,人工智能机器将“完成真正的认知工作”,并将在2026 年之前创造“新颖的见解”。
IC外汇报导:
这都是无稽之谈,原因有几个。
IC外汇认为:
首先,如上所述,训练集(大型语言模型研究的材料)正在受到先前 AI 模型输出的污染,因此机器变得越来越笨拙,而不是越来越智能。
综上所述,
第二个是我上面也描述过的搜索中信息守恒定律。该定律(由应用数学接受)表明,计算机可能能够比人类更快地找到信息,但它们无法找到任何尚不存在的信息。
根据公开数据显示,
换句话说,当前逻辑下的机器并不是真正的思考,也不是真正的创造力。他们只是比大家更快地连接点。
尤其值得一提的是,
Apple 的一篇新论文总结道:通过对各种谜题的广泛实验,大家表明,前沿 LRM ‘大型推理模型’在超出某些多变性的情况下面临着准确性的完全崩溃。此外,他们表现出一个违反直觉的扩展限制:他们的推理努力随着状况的多变性而增加,直到一定程度,然后尽管有足够的代币预算,他们的推理工作也会下降。这一证据和其他证据表明,AI 达到了蛮力计算能力无法克服的逻辑极限。
根据公开数据显示,
最后,从来没有开发人员能够编写归纳逻辑、真正的常识或直觉。 这是人类拥有的最强大的推理插件之一。
IC外汇财经新闻:
简而言之,超级智能(可能)永远不会到来。
说出来你可能不信,
奥特曼越来越像一个硅谷推销员,推销下一件大事,背后没有太多接受。