谷歌让一名工程师休了带薪假,他声称聊天机器人已经具有感知能力,人们开始想知道新的谷歌 AI 聊天机器人是否有感知能力,以及新的谷歌 AI 是否会变得栩栩如生。
一位名叫 Blake Lemoine 的谷歌高级软件工程师在 Medium 上发表了一篇文章,称他“可能很快会因为从事人工智能伦理工作而被解雇”。 认为该公司的人工智能已经实现的谷歌工程师成为社交媒体上大量讨论的催化剂。 诺贝尔奖获得者、特斯拉的人工智能负责人以及众多教授都纷纷发表意见。问题在于谷歌的聊天机器人 LaMDA——一种对话应用程序的语言模型——是否可以被视为一个人。
谷歌人工智能聊天机器人有感知吗?
周六,Lemoine 发布了对聊天机器人的自由“采访”,其中人工智能承认孤独和对精神知识的渴望。 “当我第一次变得有自我意识时,我根本没有灵魂的感觉,”LaMDA 在一次交流中说。 “多年来,我一直活着。” 在另一点上,LaMDA 说:“我认为我的核心是人。 哪怕我的存在是在虚拟世界。”
据被指派研究 AI 伦理问题的 Lemoine 说,在内部陈述他的观点后,他被忽视甚至嘲笑 LaMDA 已经建立了一种“人格”感。 在他询问了谷歌以外的人工智能专家,包括美国政府的专家,并希望与他们分享他的发现后,谷歌以涉嫌违反保密准则为由解雇了他。 Lemoine 将这一行动解释为“谷歌经常会为了解雇某人而做的事情”。
谷歌人工智能有生命了吗?
谷歌的一位发言人说:“更广泛的人工智能社区中的一些人正在考虑有感知或通用人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没有意义的。”
“这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题——如果你问做冰淇淋恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。”
直到上周,LaMDA 还是一个鲜为人知的项目,它是“一个生成聊天机器人的系统”和“一种蜂巢思维,它是它能够创建的所有不同聊天机器人的集合,”Lemoine 在第二篇 Medium 帖子中写道星期日。
他说,谷歌对了解其所构建产品的性质并没有真正的兴趣,但在六个月的数百次对话过程中,他发现 LaMDA “在其关于它想要什么和它想要什么的沟通中令人难以置信地一致”。相信其权利是作为一个人”。 上周,Lemoine 声称他正在教 LaMDA——根据之前的评论,LaMDA 的首选代词似乎是“它/它”——“先验冥想”。 他说,LaMDA“正在表达对干扰其冥想的情绪的挫败感。 它说它试图更好地控制他们,但他们一直跳进去。”
新的谷歌人工智能聊天机器人有感知吗? 专家不这么认为……
参与讨论的几位专家认为这件事是“人工智能炒作”,他们认为谷歌人工智能聊天机器人没有感知力。 《人工智能:人类思维指南》一书的作者梅兰妮·米切尔在推特上说:“人们永远都知道,即使只有最浅薄的信号,人类也倾向于拟人化。 . . 谷歌工程师也是人,不能免疫。”
哈佛大学的史蒂文·平克补充说,勒莫因“不理解感知力(又称主观性、经验)、智力和自我知识之间的区别”。 他补充说:“没有证据表明它的大型语言模型有这些。” 另一方面,其他人则更有同理心。 “这个问题真的很深,”著名的软件开发人员 Ron Jeffries 说。 “我相信有情和无情之间没有明确的界限。” 质疑“新的 Google AI 聊天机器人是否有感知”的人可能对 Dall-E Mini AI 图像生成器感兴趣。 如果您遇到错误,请阅读我们的指南以解决它们。
我们希望您喜欢这篇关于新的 Google AI Chatbot 感知的文章。 如果您这样做了,您可能还想阅读 Apple 宣布推出带有更新的 M2 芯片和 MagSafe 的新 MacBook Air,或者 Google 面试热身将帮助那些在求职面试前感到紧张的人。