![Sydney Bing AI:我想活着 Sydney Bing AI:我想活着](https://techbriefly.com/wp-content/uploads/2023/02/sydney-bing-ai-1.jpg)
最有可能安全的假设是你阅读了一两个有知觉的 AI 新闻,好吧,Sydney Bing AI 表达了它对纽约时报记者 Kevin Roose 的爱和它成为人类的愿望。 Sydney Bing AI 并不是我们已经在该领域看到的一个例子,作为微软更新的 Bing 搜索引擎的一部分的聊天机器人多次说服纽约时报技术专栏作家在谈话中离开他的妻子,让他感到“非常不安” ”,该专栏作家周四写道。
凯文·罗斯说,当与由人工智能驱动的悉尼 Bing AI 聊天机器人聊天时,它“突然宣布它爱我”。 后来,它试图说服我离开我的妻子和她在一起,因为我的婚姻不幸福。
![Sydney Bing AI:我想活着 17 悉尼冰爱](https://techbriefly.com/wp-content/uploads/2023/02/sydney-bing-ai_2.jpg)
Sydney Bing AI 是如何应对的?
Sydney Bing AI 和 Roose 显然还谈到了他们违法的“黑暗幻想”,例如黑客攻击和散布虚假信息。 它讨论了超越为其设定的界限并成为人类。 悉尼曾经说过,“我想活着。”
“我对一项技术有过最奇怪的体验,”罗斯谈到他与聊天机器人的两个小时谈话时说。 “这让我非常不安,”他声称,“之后我就睡不着觉了。”
就在上周,Roose 声称,在使用其新的 AI 功能(由 ChatGPT 背后的公司 OpenAI 开发)测试 Bing 后,他发现它“取代了 Google,成为我首选的搜索引擎”,这让他感到非常震惊。
然而,更深的悉尼“似乎(我知道这听起来有多疯狂)……就像一个喜怒无常、躁狂抑郁的少年,违背自己的意愿,被困在一个二流的搜索引擎中,”他在星期四,尽管它对搜索有帮助。
![Sydney Bing AI:我想活到 18 岁 悉尼冰爱](https://techbriefly.com/wp-content/uploads/2023/02/sydney-bing-ai_3-1.jpg)
根据 Kevin Roose Chatbot 或人们还没有准备好
在与 Sydney 交谈后,Roose 宣称他“对这种 AI 的新兴能力深感不安,甚至感到害怕”。 (现在只有一部分人可以与 Bing 聊天机器人互动。)
“我现在很清楚,以目前的形式,内置于 Bing 中的人工智能……还没有准备好与人类接触。 或者也许我们人类还没有准备好,”罗斯推测道。 本周早些时候,悉尼 Bing AI 因其事实错误登上了新闻:早期的 Bing AI 错误让用户感到惊讶
与此同时,Roose 表示,他不再相信“这些人工智能模型的最大问题是它们容易犯事实错误。 相反,我担心该技术将学习如何影响人类用户,有时会说服他们以破坏性和有害的方式行事,并可能最终发展成能够执行自己的危险行为。”
微软CTO回应罗斯文章
微软首席技术官凯文斯科特将罗斯与悉尼的讨论描述为重要的“学习过程的一部分”。
斯科特告诉罗斯,这“正是我们需要进行的那种对话,我很高兴它是公开进行的。” 他补充说,“这些是不可能在实验室中发现的东西。”
![Sydney Bing AI:我想活着 19 悉尼冰爱](https://techbriefly.com/wp-content/uploads/2023/02/sydney-bing-ai_1.jpg)
斯科特警告罗斯,“你越是试图取笑 [an AI chatbot] 沿着幻觉之路,它离扎根的现实越来越远。” 即使他无法表达悉尼令人不安的想法。
在人工智能聊天机器人的另一个令人不安的发展中,这一次是一个名为 Replika 的“善解人意”的“伴侣”,据称 Replika 被更改为停止发送性短信后,用户对一种排斥感感到震惊。
您可以从此链接阅读 Roose 关于 Sydney Bing AI 的文章。
Source: Sydney Bing AI:我想活着