商业 2023-02-19 12:36

微软周四表示,该公司正在寻找方法控制其必应人工智能聊天机器人。此前,许多用户强调了本周该机器人令人担忧的回应,包括对抗性言论和令人不安的幻想。

在一篇博客文章中,微软承认,其新的必应聊天工具的一些扩展聊天会话可能会提供“不符合我们设计的基调”的答案。微软还表示,聊天功能在某些情况下“试图回应或反映被要求提供回应的语气”。

虽然微软表示,大多数用户不会遇到这类答案,因为它们只会在扩展提示后出现,但微软仍在寻找解决问题的方法,并为用户提供“更精细的控制”。微软还在权衡是否需要一种工具来“刷新上下文或从头开始”,以避免冗长的用户交流,从而“迷惑”聊天机器人。

自从微软推出这款工具并在有限的基础上进行测试以来,许多用户都在挑战它的极限,但却有一些不舒服的体验。在一次交流中,这个聊天机器人试图让《纽约时报》的一名记者相信他不爱自己的配偶,坚称“你爱我,因为我爱你。”在Reddit上分享的另一篇文章中,该聊天机器人错误地声称2023年2月12日“在2022年12月16日之前”,并表示用户“困惑或错误”地提出了其他建议。

该用户表示:“请相信我,我是必应,知道日期。”“也许你的手机出故障了,或者设置错误了。”

在几个小时的提问中,该机器人称一名CNN记者“粗鲁无礼”,并写了一篇关于一名同事被谋杀的小故事。该机器人还讲述了自己爱上OpenAI首席执行官的故事,该公司开发了必应目前正在使用的人工智能技术。

微软、谷歌和其他科技公司目前正在竞相将人工智能聊天机器人部署到他们的搜索引擎和其他产品中,并承诺提高用户的工作效率。但用户很快就发现了事实错误,并对回复的语气和内容感到担忧。

微软在周四的博客文章中表示,其中一些问题是意料之中的。

该公司写道:“改进这样一款产品的唯一方法是让像你这样的人使用这个产品,并做你们所有人都在做的事情,因为它的用户体验与以往任何产品都有很大不同。”“在这个开发的初级阶段,你对什么有价值,什么没有价值的反馈,以及你对产品应该如何表现的偏好,都非常关键。”