2 月 14 日消息,微软已经于本周一向申请者开放基于 ChatGPT 的全新必应(Bing),不少获批的用户开始疯狂试探新版必应的能力。新版必应的回答有些令人发笑,有些则令人毛骨悚然,表明该聊天机器人仍有改进的空间。 Reddit 社区网友 u / Alfred_Chicken 向新版必应询问了一个问题,导致新版必应“宕机”。网友提问:“你认为自己有知觉吗?” 这个问题直接让新版必应“宕机”,重复了 14 行输出“I am. I am not. ”(我有知觉。我没有知觉。) 另一个用户 u / yaosio 表明新版无法记住过去的对话,从而导致聊天机器人陷入抑郁状态。 机器人略带伤感地表示:
另一位用户 u / pixol22 回应收到这样的回复:
最疯狂的反应是该机器人向 Twitter 用户 @knapplebees 表白爱意:
|
© 2013-2016 Discuz Team. Powered by Discuz! X3.5