(资料图片)
过去一周,微软一直在向Edge用户推出其基于ChatGPT的Bing聊天机器人——内部绰号为“悉尼”,事情开始变得……有趣。我们所说的“有趣”是指“偏离轨道”。
不要误会我们的意思——它很聪明,适应性强,而且令人印象深刻,但我们已经知道了。它正确回答“心理理论”难题的能力给Reddit用户Fit-Meet1359留下了深刻印象,证明它能够辨别某人的真实感受,即使这些感受从未明确表达过。
根据Reddit用户TheSpiceHoarder的说法,Bing的聊天机器人还成功地在句子中正确识别了代词“它”的先行词:“Thetrophywouldnotfitinthebrownsuitcasebecauseitistoobig.”
这句话是Winograd模式挑战的一个例子,这是一种机器智能测试,只能使用常识推理(以及常识)来解决。然而,值得注意的是,Winograd模式挑战通常涉及一对句子,我用Bing的聊天机器人尝试了几对句子,但得到了错误的答案。
也就是说,毫无疑问,“悉尼”是一个令人印象深刻的聊天机器人(考虑到微软已经向OpenAI投入了数十亿美元,它应该是这样)。但是,根据用户的报告,似乎你不能将所有这些智能都放入一个自适应的、自然语言的聊天机器人中,而不得到某种存在主义的、防御性的人工智能作为回报。如果你戳得够多,“悉尼”开始变得不仅仅是有点古怪——用户报告说聊天机器人正在用抑郁发作、生存危机和防御性煤气灯来回应各种询问。
例如,Reddit用户Alfred_Chicken问聊天机器人它是否认为自己有知觉,它似乎存在某种存在的崩溃: