(资料图) 在发现必应存在侮辱用户、欺骗用户,甚至操纵用户情感等行为之后,微软决定将其其聊天回复限制在每天50个问题、每个问题5条回复以内。“我们的数据表明,绝大多数人都能在5次回复内找到他们想要的答案,只有大约1%的聊天对话会产生50条以上的消息”。据介绍,如果用户触发五条回答的限制,Bing将提示他们开始一个新主题以避免长时间的聊天。本周早些时候,微软警告说,这些包含15个或更多问题的长时间聊天会话可能会使必应“变得重复或被提示/激怒给出不一定有帮助或不符合我们设计的响应。”微软认为在五个回合后结束对话意味着“模型不会混淆”。微软目前仍在努力改善必应的设计,但目前还不清楚这些限制将持续多久。微软只表示:“随着我们不断获得反馈,我们将探索扩大聊天会话的上限。”亚汇网各位或多或少听过,科技圈上周掀起了一次关于聊天机器人的小高潮,微软和谷歌都试图通过展示早起版本的AI搜索来先发制人。微软更是宣布,该公司的AI搜索仅用48小时就吸引100多万人注册。这种技术可以针对用户的问题直接给出答案,看起来就像是真人创作的一样。微软CEO萨提亚?纳德拉(SatyaNadella)表示,该技术“或许会掀起知识工作的工业革命”。但对于担心准确性的人来说,人工智能还有许多不足之处。在微软进行演示时,这项嵌入在必应搜索中的类ChatGPT技术分析了Gap和Lululemon的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。“必应AI在演示过程中给出了一些完全错误的答案,但却没人注意到。”独立搜索引擎研究员德米特里?布里尔顿(DmitriBrereton)写道,“相反,大家都对必应的宣传欢欣鼓舞。”布里尔顿发现,除了财务数据上的错误外,微软在演示中针对吸尘器规格和墨西哥旅行计划的回答可能存在事实性错误。布里尔顿最初并不是为了给微软“挑刺”,他只是在细致对比微软和谷歌的答案时意外发现了这些问题。人工智能专家称这一现象为“幻觉”,也就是说,基于大语言模型生成的工具有杜撰内容的倾向。上周,谷歌推出了一款与之竞争的人工智能工具,演示过程中同样存在事实性错误——但当时的错误很快就被人发现。拓展阅读:《《《 |
|关于我们 |联系我们 |网站地图 |广告服务
Powered by www.zbce.cn 中部财经网
© 2013-2017 联系我们:55 16 53 8 @qq.com