最近,LeCun最新访谈视频中谈了谈自己关于开源AI的看法,他认为未来将出现超越人类智能的人工智能,而开源人工智能不会成为我们的主宰。怎么理解呢?这篇文章里,作者做了梳理与分享,一起来看。 对此,马斯克表示,我们的数字上帝将以csv文件的形式出现。LeCun回应道,如果它是开源的,无论你选择什么格式,都会有导入过滤器。 COSS创始人Joseph Jack调侃道,我们能不能直接让LeCun担任AI总统,然后就此结束今天的讨论。 以下是视频中,LeCun个人提出的观点。 一、智能与统治毫无干系,开源是必然在未来的某个时刻,也许是几十年后,我们将拥有智能与人类相媲美的AI系统。 因为人类在不同领域有各自的专长,这些AI系统不仅同样如此,而且在人类擅长的领域中,甚至可能都要比人类聪明。 现在你可能会想,「天呐!这样的系统会不会掌控世界?」 No!智能与统治之间并没有必然的联系。 就拿人类来说,人类中有一部分人有控制欲,但并非人人都有,并且,想要统治的并不是我们当中最聪明的人。 其实,国际政治舞台上的各种事件都在证明这一点。这背后的原因可能来自自然进化,不够聪明的人需要依赖他人,因此也会应影响他人,但聪明的人可以独立生存。 第二个观点是,我们习惯于比自己更聪明的人一起工作。对于我来说,我曾经领导过的一个研究实验室,只雇佣比我聪明的人,与聪明的人一起工作的感觉很棒。 我们与未来AI助手的关系,它会在日常生活中帮助我们。 想象一下,未来10-20年,AI助手会在日常生活中帮助我们,而且可能会比我们更聪明。但它们的存在,是为了让我们更聪明。 我们命令它们,便会听命于我们。并不是因为它们聪明,就想要统治。 而这种统治欲其实源于,我们是社会性物种的本性。因此,我们需要有能力去影响他人。这也就是统治和服从的来源。 我们是一个有等级秩序的社会性物种,这也是进化论赋予我们的特征,像黑猩猩、狒狒狼等社会性动物一样。 但即便是猩猩这样的物种,智力接近人类,却没有被赋予控制他人的特征。 因此,控制和智能完全没有关系。 我们可以设计一个极其智能但不具备统治欲的系统,且非常聪明,也就是说,你给它们一个目标,就能帮你实现。 设定目标由我们人类来做,而这些系统会制定子目标。至于如何做到这一点的技术问题还没有解决,我们只是在想象未来的事情。 包括我之前谈到的「目标驱动的AI」,这只是未来。 想象一下,如果未来我们与数字世界、信息世界所有交互都是通过AI智能体来完成。 这些AI智能体将成为所有人类知识的宝库,与一个能进行对话和推理的「超级百科」类似,但知识比维基百科更丰富。 这将成为一个像现在的互联网一样的公共平台,它必须是开放的,而不是专有的,因为掌握在少数公司的超级AI将是非常危险的。 如果少数人控制着超级AI,便可以左右每个人的观点、文化等等。 所以,唯一的解决方案就是开源基础架构。这也是Meta开源Llama2的原因之一,因其是基础设施的一部分。 在此之前,Meta还发布了PyTorch,一个构建AI系统的软件系统,ChatGPT就是基于PyTorch构建的。 因此,这些系统必须是开源的,并且训练方式也必须是众包的,以确保它们成为所有人类的知识库。 这样,所有人类都可以为其中做贡献,而不是仅仅贡献给OpenAI、Meta或其他公司的专有系统。 它必须是开源的,无论听起来有多危险,但这是未来的必然趋势。 二、我们需要世界模型对于超级AI的发展,LeCun一直以来都站在开源队列中。 就在本月初,他曾号召1700+位人工智能领域的专家和研究人员签署了一封联名信,呼吁AI更加开放。 在LeCun看来,当前自回归模型的能力远远不及人类,甚至都不如阿猫阿狗。 当被TED负责人问道,有没有一个理论能够证明人类大脑,而不是LLM能够推理。 LeCun表示,LLM以每个token的固定计算量生成答案。它们没有办法投入更多(可能是无限的)「时间和精力」来解决难题。这非常类似于人类快速和潜意识的「系统1」决策过程。 真正的推理和计划将允许系统搜索解决方案,使用潜在的无限时间。这种迭代推理过程更类似于人类有意识「系统2」。 这就是人类和许多动物在新情况下找到新问题的新解决方案的原因。 一些人工智能系统具有规划能力,即玩游戏或控制机器人的系统。AlphaGo、AlphaZero、Libratus和Cicero等游戏AI系统具有规划能力。与动物和人类相比,这些系统的规划能力仍然相当有限。 为了实现更通用的规划能力,人工智能系统需要拥有一个「世界模型」,即一个可以预测动作序列后果的子系统:给定时间t的世界状态,以及我可以采取的想象行动,在时间t+1时世界的合理状态是什么。通过世界模型,系统可以计划一系列行动以实现目标。 如何建立和训练这样的世界模型仍然是一个悬而未决的问题。更复杂的是如何将一个复杂的目标分解为一系列子目标。 这将实现分层规划,这是人类和许多动物可以毫不费力地做到的,但仍然完全超出了人工智能系统的能力范围。 三、网友热议马库斯看后表示,他的每一句话中非常肯定,给人留下了深刻的印象。但如果他的一些前提(再次)被证明是错误的怎么办? 更多智能并不意味着更多危险。人工智能的威胁取决于编写损失函数的人是谁。 LeCun的演讲金句已被画出。 参考资料: https://twitter.com/ylecun/status/1728515719535489484 https://www.youtube.com/watch?v=EGDG3hgPNp8 编辑:编辑部 来源公众号:新智元(ID:AI_era),“智能+”中国主平台,致力于推动中国从“互联网+”迈向“智能+”。 本文由人人都是产品经理合作媒体 @新智元 授权发布,未经许可,禁止转载。 题图来自 Unsplash,基于CC0协议。 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。 |