编程客栈() 6月16日消息:当前的人工智能系统(如 ChatGPT)并没有人类级别的智能,甚至不如狗聪明。这是 Meta 的 AI 负责人在关于这种快速发展技术危险的论坛中表示的。
ChatGPT 是由 OpenAI 开发的,它基于所谓的大型语言模型。这意味着该 AI 系统经过大量的语言数据训练,用户可以通过问题和请求与其进行对话,而聊天机器人则用我们能理解的语言回答。
人工智能的快速发展引发了主要技术人士的担忧,他们认为如果不加控制,这项技术可能对社会造成危险。特斯拉 jsCEO 埃隆马斯克表示,人工智能是「对文明未来的最大风险之一」。
(资料图片仅供参考)
在周三的 Viva Tech 会议上,技术经济学家 Jacques Attali 谈到了人工智能的好坏取决于其使用方式。Attali 说:「如果你用人工智能开发更多化石燃料,那将是可怕的。如果你用人工智能开发更多可怕的武器,那也是可怕的。相反,人工智能对于健康、教育和文化来说可能是令人惊喜的。」
在同一论坛上,Meta 的首席人工智能科学家 Yann LeCunn 被问及当前人工智能的局限性。他重点谈到了基于大型语言模型训练的生成式人工智能,称它们并不是很智能,因为它们仅仅是通过语言进行训练。
LeCunn 说:「这些系统仍然非常有限,它们对现实世界的基本本质没有任何理解,因为它们纯粹是基于大量文本进行训练的。」
「人类知识的大部分与语言无关……所以人工智能没有捕捉到人类体验的这一部分。」
LeCunn 补充说,现在一种人工智能系统可能能通过美国的律师资格考试,但它无法安装洗碗机,而一个 10 岁的孩子可php以在 10 分钟内学会。LeCunn总结道:「这告诉我们我们确实缺少了一些重要的东西……达到甚至是狗的智能水平,我们都还差得很远。」
Metandroida 的 AI 负责人继续表示,他们正在努力让人工智能系统通过视频训练,而不仅仅是基于语言的训练,这是一个更困难的任务。
此外,他提到一个当前人工智能的局限性的例子,他说一个五个月大的婴儿看到一个漂浮的物体可能不会太在意,但一个九个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
LeCunn 表示,我们目前还不知道如何用机器来复制这种能力。在我们能够做到这一点之前,我们将无法达到人类级别的智能,甚至无法达到狗或猫的水平。
关于机器人是否会接管世界的问题,Meta 的 LeCunn 表示悲观的态度,他说:「众所周知,人类在未来三到四十年面临许多危险。」他列举了气候灾难和战争等问题,并表示他担心机器人「会反过来对我们进行攻击」。
在对话中,Meta 的 LeCunn 表示,在未来将会有比人类更聪明的机器存在,但这不应被视为一种威胁。他说:「我们不应该把这看作是一种威胁,而应该把它视为非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手,它将成为你日常生活中比自己更聪明的员工。」
这位科学家还表示,这些人工智能系统需要被设计为「可控制的,并且基本上服从人类」。他还驳斥了python机器人会接管世界的观点。
「科幻小js说中流行的一种恐惧是,如果机器人比我们聪明,他们就会想要接管世界……聪明和想要接管之间没有关联,」LeCun 说。
关于人工智能的伦理和监管问题,Attali 得出结论认为,在这项技术的发展过程中需要制定一些限制。但他对于谁来负责制定这些限制并不确定,他问道:「谁会划定边界呢?」
人工智能监管一直是 Viva Tech 会议的热门话题。欧盟正在推进自己的人工智能立法,而法国政府最高部长本周表示,该国希望看到该技术的全球监管。