Guangdong jiashengde technology co., ltd

中文  | 
马斯克谈OpenAI:它变了,变得面目全非
来源: | 作者:business-101 | 发布时间: 2023-02-19 | 371 次浏览 | 分享到:
必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。

新浪科技讯 北京时间2月18日早间消息,据报道,微软(258.06-4.09-1.56%)公司今日表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。

  必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。

  微软本周早些时候曾警告称,有15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与我们设计的语气一不致。微软表示,只问五个问题就结束对话,必应就不会被搞糊涂。

  当前,ChatGPT版必应正在超过169个国家进行测试,有数百万人报名参加了等待名单。有测试用户反应,ChatGPT版必应的表现更像一个人,但它喜怒无常,甚至有些精神错乱。

  有测试用户称,新版必应不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击。

  微软稍早些时候对此表示,正根据用户反馈采取行动,以改善必应的语气和准确性。微软同时警告称,长时间的聊天会话可能导致类似的“脱轨”问题。微软同时强调,绝大部分的反馈还是积极的。

  目前尚不清楚,微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。