AI大佬暴走:从马斯克到OpenAI,全被他怼了个遍
当地时间 5 月 26 日,马斯克旗下的人工智能初创公司 xAI 宣布完成 B 轮 60 亿美元融资。主要的投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、红杉资本等。
xAI 于 2023 年 7 月份成立,不到一年时间估值已达 240 亿美金,是 OpenAI(800 亿美金)的三分之一左右。融资总额也仅次于 OpenAI 和 Anthropic,正式跨入大模型第一梯队。xAI 目前已经发布了 Grok1(已开源),Grok-1.5(长上下文理解和高级推理能力)Grok-1.5V(xAI 首款多模态大模型)。
另外,马斯克还计划在 2025 年秋季建成一座 " 算力超级工厂 " 为 xAI 提供算力支持,预计将使用 10 万块英伟达 H100 GPU。
但马斯克的风头却很快被一个人 " 抢走 "。这人就是机器学习之父、图灵奖得主、Meta 首席人工智能科学家 Yann LeCun。
在 xAI 融资消息披露之后,马斯克顺势在 X 上发布了一条 xAI 招聘技术人员的推文:" 如果你相信我们的使命是理解宇宙,并且需要最严格地追求真理,不顾及受欢迎度或政治正确性,那么请加入 xAI。"
然后 Yann LeCun 就出来拆台了,语气毫不客气:
他先是迅速回应了马斯克的招聘帖子:" 如果你能忍受这样的老板,请加入 xAI:声称你正在研究的东西明年就能解决(毫无压力)。声称你正在研究的东西会毁灭所有人,必须停止或暂停(哇,6 个月的假期!)。声称要‘最严格地追求真理’,但在他自己的社交平台上散布疯狂的阴谋论。"
Yann LeCun 的评论是在讽刺马斯克此前的言论。今年四月份,马斯克声称通用人工智能将在明年到来,以及马斯克上周在 " 欧洲科技创新展览会 " 上重申的这一预测,并认为 AI 有 10-20% 的可能性会摧毁人类。
而 " 六个月的休假 ",指的是马斯克等人曾在去年 3 月发布要求暂停 AI 开发 6 个月的联名信说。Lecun 在当时就对此表示反对:" 今年是 1440 年,天主教会呼吁暂停使用印刷机和活字机 6 个月。想象一下,如果平民获得书籍,会发生什么?他们可以自己阅读圣经,社会就会被摧毁。"
最后,这位 "AI 教父 " 还讽刺了马斯克在 X 平台上分享未经证实的言论行为。
在评论区马斯克和 LeCun 继续 " 对线 ",双方言辞都相当激烈:
先是网友问 LeCun 为什么不创办自己的 AI 公司,而是留在 Meta 还喷别人。
LeCun 回复说我是科学家,不是商业或产品领域的人士。
马斯克灵魂拷问:那过去五年你在 " 科学领域 " 都做了啥?
LeCun 说自己 " 发了 80 篇 Paper" 还带上 Scholar 主页。
马斯克继续回怼:" 这算啥,你太松懈了,你得支棱起来啊。"
LeCun 也不示弱:" 说得你好像是我老板。"
LeCun 还反驳了那些轻视学术论文的观点,作为 " 卷积网络之父 ",他举例说明卷积神经网络这一在 1989 年由学术论文引入的技术,已经成为当今几乎所有驾驶辅助系统的核心组成部分。
他进一步强调,技术奇迹并不是凭空出现的,而是建立在多年甚至数十年的科学研究基础之上的。科学研究的想法和成果通过技术论文的形式被分享出来。没有这种科学信息的共享,技术进步将会大幅放缓。
在 AI 监管问题上,LeCun 和马斯克的观点也不一致,前者一直反对过度监管 AI,主张 AI 的开放性和共享性,反对过度的监管限制,两人这次也在这个话题上再次交锋。
LeCun 在 X 上表示目前无需过度担忧 AI 风险问题,进行监管也为时过早。
马斯克回复:" 准备好被监管吧。" 还配上了一个笑哭的表情。LeCun 则阴阳了马斯克一句:你对 " 不要训练超过 1026FLOPS 的模型 " 感到高兴吗?
这是指拜登去年 10 月签署的关于人工智能的行政命令,要求使用具有 1026FLOPS 能力的模型公司,向美国政府报告基础模型训练运行和部署的计划,而马斯克一直在积极呼吁要立法人工智能监管。
句句扎心,LeCun 简直成了硅谷自己的 " 鲁迅 "。
LeCun:AI 末日论者都别跑
而这也不是这位 " 硅谷鲁迅 " 第一次在互联网上和人针锋相对。
他时常因其直言不讳的风格在网上引发了讨论和争议,尤其是关于 AI 安全。LeCun 对 AI 末日论持有明确的反对态度,并且对开源和人工智能的未来持乐观态度。
LeCun 多次在公开场合和访谈中表示,AI 毁灭人类的概率为零,认为 AI 末日论是无稽之谈。并且 LeCun 似乎会主动找机会," 喷 " 任何持 AI 末日论观点的人。
在 Geoffrey Hinton 携手一众大神关于 AGI 风险治理的声明,LeCun 没有署名,并且直接在 X 上点名了 Sam Altman 和 DeepMind 的 Hassabis 等人,认为他们试图通过游说监管来巩固自己的行业地位,阻碍开放 AI 推进。
最近一段时间热议的 OpenAI 超级对齐团队人员离职,引发对 AGI 安全问题的事件中,LeCun 也没有缺席。
先是 OpenAI 首席科学家兼联合创始人 Ilya Sutskever 宣布离职,同一天," 超级对齐 " 团队的另一名负责人 Jan Leike 也宣布离开了 OpenAI,并表示 OpenAI 在过去的几年里安全文化和流程被抛到了一边,让位于打造产品,OpenAI 必须成为一家安全第一的 AGI 公司。
马斯克随后补了一刀:" 言外之意就是说安全并不是 OpenAI 的首要任务。"
LeCun 也再次出来唱反调,表明了他对 AI 安全问题的立场:
在 LeCun 对 Jan Leike 对回复中,他表示当前对 AI 安全担忧的紧迫感是过度夸张的,类似于在涡轮喷气发动机发明之前,急于解决跨洋飞行的安全问题。所以也难怪 OpenAI 会边缘化对齐团队。
在他看来,当前的 AI 还不如猫智能,我们首先需要设计出更聪明的系统。并提到,就像飞机技术的发展一样,智能系统的进化需要多年时间,应该通过反复的工程改进逐步提高其智能和安全性,而不是过度担忧未来可能的风险。
关于 AI 安全和治理问题,Yann LeCun 此前与另一位人工智能先驱 Yoshua Bengio 在网上也进行过激烈辩论。LeCun 呼吁信任人工智能可靠性的 AI 科学家和工程师发声,而 Bengio 强调开放源 AI 平台的潜在风险,以及安全和治理的重要性。两人的辩论反映了 AI 研究者之间对 AI 潜在风险、现有安全措施的有效性和未来发展路径的重大分歧。
LeCun 认为,与其想象灾难性的场景,不如专注于设计安全的 AI 系统。他相信,通过正确的设计和工程方法,AI 系统可以变得安全和可靠。他认为已经有大量的资金投入到确保 AI 系统安全和可靠的工作中,这表明行业内对 AI 安全的重视和努力。
LeCun 强调,AI 的设计初衷是增强人类智能,而不是造成伤害。他不同意将 AI 系统比作武器的观点,认为这样的类比是不恰当的。
大语言模型无法通向 AGI,不要浪费时间
虽然 Meta 推出了开源大型语言模型 Llama,但 Yann LeCun 作为 Meta 的首席人工智能科学家及 FAIR(Facebook AI Research)负责人,对 LLM 的不看好却是尽人皆知。
他最近还直接对学生喊话:如果你对下一代人工智能系统感兴趣,不要研究大型语言模型。
在近日与英国《金融时报》的一次访谈中,他反对依赖不断发展的 LLMs 来追求人类级别的智能,因为这些模型只有在被输入正确的训练数据时才能准确回答问题,因此 " 本质上是不安全的 "。
谷歌 DeepMind 还花了几年时间寻找构建 AGI 的替代方法,包括强化学习等方法,其中人工智能代理在类似游戏的虚拟环境中从周围环境中学习。
所以他转而专注于一种根本性的替代方法,正在努力开发一个全新的 AI 系统,希望这些系统能够为机器提供人类级别的智能,尽管他表示这一愿景可能需要 10 年才能实现。
LeCun 认为,LLMs 的自回归性质(根据之前的单词预测下一个单词)从根本上限制了它们实现真正智能的能力。他主张联合嵌入预测架构(JEPA)作为一种更有前景的 AGI 方法。LeCun 还批评了当前对基于文本的学习的关注,认为需要观察物理世界并与物理世界互动,以建立对规划和推理至关重要的全面世界模型。
他强调感官输入以及与物理世界的互动对于发展真正的智能的重要性。他指出,接受过大量文本数据训练的 LLMs 缺乏像人类和动物那样推理、计划和理解世界的能力。LeCun 建议未来的人工智能系统需要:
1. 结合感官输入以更深入地了解世界。
2. 与基于文本的学习相比,以更高的带宽处理信息(例如,人脑以每秒约 20 兆字节的速度处理视觉信息)。
3. 立足现实,拥有经验知识,展现常识推理。
李飞飞近日和斯坦福哲学教授 Etchemendy 在《时代》上刊载文章,指出当前技术路线无法制造有感知能力的 AI,该文章也得到了 LeCun 的转发支持。
尽管 Llama 最初是由 LeCun 领导的 FAIR 开发的,但现在已经转交给了专注于技术和产品开发的 GenAI 部门,FAIR 则专注于更长远的目标:开发能够达到人类智能水平的新 AI 架构和方法。
许多人认为 Yann LeCun 喜欢发表一些争议言论,但更重要的背景是目前 AI 未来发展中产生的问题。作为人工智能领域最知名的人士之一,Yann LeCun 在某种程度上有义务站出来,为这个充满争议的领域提供一些清晰的见解。
LeCun 说,实现 AGI 不是一个产品设计问题,甚至不是一个技术开发问题,在很大程度上是一个科学问题。
如果这个说法是成立的,那么在通往探索 AGI 的道路上,显然我们需要更多像他这样的 " 鲁迅 "。