,微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能聊天机器人实施一些对话限制。
在发现必应存在侮辱用户、欺骗用户,甚至操纵用户情感等行为之后,微软决定将其聊天回复限制在每天 50 个问题、每个问题 5 条回复以内。
“我们的数据表明,绝大多数人都能在 5 次回复内找到他们想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息”。
据介绍,如果用户触发五条回答的限制,Bing 将提示他们开始一个新主题以避免长时间的聊天。
本周早些时候,微软警告说,这些包含 15 个或更多问题的长时间聊天会话可能会使必应“变得重复或被提示 / 激怒给出不一定有帮助或不符合我们设计的响应。”微软认为在五个回合后结束对话意味着“模型不会混淆”。
微软目前仍在努力改善必应的设计,但目前还不清楚这些限制将持续多久。微软只表示:“随着我们不断获得反馈,我们将探索扩大聊天会话的上限。”
IT之家各位或多或少听过,科技圈上周掀起了一次关于聊天机器人的小高潮,微软和谷歌都试图通过展示早起版本的 AI 搜索来先发制人。微软更是宣布,该公司的 AI 搜索仅用 48 小时就吸引 100 多万人注册。
这种技术可以针对用户的问题直接给出答案,看起来就像是真人创作的一样。微软 CEO 萨提亚?纳德拉表示,该技术“或许会掀起知识工作的工业革命”。但对于担心准确性的人来说,人工智能还有许多不足之处。
在微软进行演示时,这项嵌入在必应搜索中的类 ChatGPT 技术分析了 Gap 和 Lululemon 的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。
“必应 AI 在演示过程中给出了一些完全错误的答案,但却没人注意到。”独立搜索引擎研究员德米特里?布里尔顿写道,“相反,大家都对必应的宣传欢欣鼓舞。”
布里尔顿发现,除了财务数据上的错误外,微软在演示中针对吸尘器规格和墨西哥旅行计划的回答可能存在事实性错误。布里尔顿最初并不是为了给微软“挑刺”,他只是在细致对比微软和谷歌的答案时意外发现了这些问题。
人工智能专家称这一现象为“幻觉”,也就是说,基于大语言模型生成的工具有杜撰内容的倾向。上周,谷歌推出了一款与之竞争的人工智能工具,演示过程中同样存在事实性错误 —— 但当时的错误很快就被人发现。
拓展阅读:
《ChatGPT 版微软必应内置聊天机器人向用户表白,并让其跟妻子离婚》
《微软:与 AI 增强版必应长时间聊天会导致“翻车”》
《微软上调 Bing Search API 定价,费用最高增长 1000%》
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。