谈技术简友广场读书

Bing AI 有时会搞砸搜索结果,就像谷歌一样

2023-02-14  本文已影响0人  技术的游戏

期望搜索引擎谨慎行事,因为测试揭示了 AI 语言技能的问题。

引言

仔细阅读Bing 的 AI 增强搜索结果会发现,该网站可能会犯同样的错误,这些错误在其使用的ChatGPT技术基础和谷歌的竞争 Bard中很明显。

正在有限测试中的新版 Bing 采用了大型语言模型或 LLM,这是微软投资的研究实验室 OpenAI 的技术,它的 ChatGPT AI 聊天机器人吸引了技术关注。ChatGPT 和相关技术,经过大量互联网培训,可以产生显着的结果,但它们并不真正了解事实,并且可能会犯错误。

Bing 试图通过使用 Microsoft 的搜索技术“确定”结果、评估源文档的真实性和权威性并提供来源链接来避免此类错误,以便人们可以更好地自行评估结果。但人工智能和搜索引擎研究员 Dmitri Brereton 和其他人发现了 Bing 演示中的错误,包括来自 Gap 季度收益报告的有缺陷的财务数据。

这是 AI 的热门时刻。该技术确实可以产生显着和有用的结果,但问题在于评估它何时不这样做。随着搜索引擎行业试图找到正确的公式,预计会更加谨慎。

在上周的一次演示之后,谷歌感到痛苦,当时其尚未公开的 Bard 工具产生了关于詹姆斯韦伯太空望远镜的错误信息

微软周二对谷歌对其失态的言论做出了类似的回应:“我们认识到仍有工作要做,并预计系统可能会在此预览期间出错,这就是为什么反馈很重要,以便我们可以学习并帮助模型变得更好。”

一个基本问题是大型语言模型,即使使用经过一定程度审查的学术论文和维基百科条目等文本进行训练,也不一定会从该原始材料中收集事实响应。

正如互联网先驱和谷歌研究员 Vint Cerf 周一所说,人工智能“就像一个色拉射手”,将事实散布在厨房各处,但并不真正知道它在生产什么。“我们离我们想要的自我意识还有很长的路要走,”他在 TechSurge 峰会上的一次演讲中说。

总结文档似乎属于人工智能的高级语言处理能力,但在不引入不适当信息的情况下构建人类可读的句子可能很困难。例如,在总结佳能新款 R8 无反光镜相机规格表的请求中,Bing 技术快速列出了佳能早期 R5 中实际存在的许多功能。

另一位备受瞩目的计算机科学家、前斯坦福大学教授约翰·轩尼诗 (John Hennessy) 比瑟夫更乐观,他称赞人工智能在理解搜索查询和生成通常正确的结果方面的语言技能。但他也警告说,“它总是相信自己有正确的答案,即使它没有。”

OpenAI 本身也提供了同样的警告。“ChatGPT 有时会写出看似合理但不正确或荒谬的答案。解决这个问题具有挑战性,”AI 研究实验室在 11 月推出 ChatGPT 时表示。

总结

如果你喜欢我的文章,点赞,关注,转发!

上一篇下一篇

猜你喜欢

热点阅读