【外评】谷歌搜索结果被人工智能编写的错误代码污染,令程序员沮丧不已

谷歌已将 Pulumi AI(一家使用人工智能聊天机器人生成基础设施的开发商)制作的不准确的基础设施即代码样本编入索引,这些烂菜谱已经出现在搜索结果的顶部。

这场混乱的起因是 Pulumi 决定将用户的提示结果发布在一个人工智能答案页面上。谷歌的爬虫索引了由此产生的机器人回答–但当用户找到它们时,人工智能回答往往并不准确。

“开发者阿里安-范-普滕(Arian van Putten)周末在社交媒体上发文写道:”事情已经发生了。”谷歌搜索结果排名第一的是 Pulumi 的官方文档页面,该页面明显是由 LLM 撰写的(页面上有免责声明),并幻化出一个根本不存在的 AWS 功能。这是末日的开始”。

正如 The Register 在 2022 年发表的观点和今年 1 月的报道,由于搜索引擎索引低质量的人工智能生成内容并将其呈现在搜索结果中,导致搜索质量下降。这仍然是一个持续令人担忧的领域。

Pulumi AI 及其在线回复档案 “AI Answers “就是一个很好的例子。谷歌的搜索爬虫会索引 Pulumi 人工智能的输出内容,并将其与人类撰写的内容链接一起呈现给搜索用户。软件开发人员发现,人工智能编写的一些文档和代码并不准确,甚至无法使用。

2024 年 3 月 21 日,开发人员 Pete Nykänen 在普鲁米人工智能代码库的 GitHub Issues 帖子中指出了这个问题。”今天,我在谷歌上搜索各种与基础设施相关的内容时,注意到一个令人担忧的趋势:Pulumi 的人工智能答案在谷歌搜索结果中被收录并排名靠前,而不管人工智能答案本身的质量如何,也不管该问题是否首先涉及 Pulumi。这种情况发生在多次搜索中,随着时间的推移可能会变得更加严重。

其他人也提出了这个问题。

泥沙俱下

Nykänen 在一封电子邮件中告诉 The Register,他大约是在上个月向 GitHub 发帖时开始注意到 Pulumi AI 搜索结果问题的。

“他指出:”作为一名工程师,我花了很多时间在网上搜索答案,不难发现人工智能答案一夜之间就上升到了搜索结果的顶部,甚至是与 Pulumi 本身无关的关键词。”我将问题归档,希望 Pulumi 能够纠正这种情况(他们承诺会这样做),但遗憾的是,问题仍然存在。

“文档,尤其是与基础设施相关的文档,已经经常出现错误、难以找到、过时或缺失的情况。虽然像 Pulumi AI 这样的工具可以为某些人提供价值,但在互联网上充斥未经证实的、可能是幻觉的答案实际上是非常恶意的。而且时间越长,情况就越糟糕”。

Nykänen认为,随着人工智能内容已经出现在搜索结果的顶部,越来越多的公司创建了内容生成工具,他希望人工智能相关人员考虑他们的工作如何影响网络的完整性。

“他建议说:”我认为现在对Pulumi公司来说也为时不晚,希望他们能决定将人工智能生成的内容隐藏起来,以免被搜索引擎搜刮。

Pulumi 的 AI 工程师 Aaron Friel 承认了 Nykänen 的担忧,他在第二天回应说,开发者已经 “采取措施删除了一半以上(近三分之二)的 AI 答案,我们计划继续确保这些 AI 答案是对我们现有文档的补充”。

弗里尔指出,Pulumi 还计划确保其网站提及真正的 API 和上游文档。测试生成的代码也在待办事项之列。

喂?谷歌?

那是一个月前的事了,谷歌还没有收到备忘录。周一,当 The Register 尝试 Nykänen 引用的关键词 “aws lightsail xray “时,Pulumi AI 的答案排在搜索结果的第二位。而当我们在周二再次尝试时,它排在了页面顶部–高于 AWS 官方文档。

我们询问了谷歌对这种情况的看法,该公司的一位发言人告诉我们,谷歌 “一直致力于提供高质量的信息,但在一些小众主题或不寻常的查询中,可能没有很多高质量的内容可以在搜索中获得较高的排名”。

该搜索巨头还提醒我们,它的政策意味着 “为操纵搜索排名而大规模创建的低价值内容,无论其生产方式如何,都是垃圾内容”,最近的技术更新 “将搜索中的低质量、非原创内容减少了 45%,旨在解决那些旨在获得良好搜索排名的无益内容”。

微软的必应搜索引擎在过滤人工智能生成的材料方面可能走在了前面,因为它在相同的查询中没有出现这个问题,尽管它生成的结果包括一个聊天按钮,如果你上钩并点击,而不是直接点击返回键提交查询,它就会启动一个人工智能生成的回复。Brave Search 还省略了 Pulumi 人工智能回复。与此同时,DuckDuckGo 在搜索结果页面的第四项返回了 Pulumi 人工智能结果。

周一的另一篇 GitHub Issue 帖子提到了 van Putten 的投诉,要求删除 Pulumi AI 关于 AWS EBS 直接 API 的回答–显然 Pulumi 不支持该 API。

三月份标记的几个人工智能错误已经得到了处理。

Pulumi 联合创始人兼首席执行官乔-达菲(Joe Duffy)在给 The Register 的一封电子邮件中为其公司的人工智能工作进行了辩护,但他表示,如果问题不能得到充分解决,可能需要采取更严厉的干预措施。

“Pulumi人工智能改变了我们大多数客户的工作方式,使他们能够在数以百计的云海中以无数种方式使用他们的所有服务,”达菲解释说。”我们每季度处理的提示增加了 50%,这证明我们的客户发现它对他们的日常工作非常有用。”

一家承诺做得更好的初创公司……

达菲称,随着时间的推移,Pulumi 已经测试并改进了代码质量,代码示例的成功率每季度都有两位数的提高。

“尽管如此,我们知道这些并不完美,”他承认。”因为我们的人工智能答案可以被谷歌索引,所以它们会出现在搜索结果中。我首先承认,我对谷歌对这些网页的排名之高感到惊讶,因为一般来说,这些网页没有入站链接–这与过去 PageRank 的工作方式大相径庭–我本以为谷歌会更喜欢我们更古老、更成熟的内容。”

当被问及 Pulumi 何时开始意识到其人工智能存在问题时,Duffy 承认 Pulumi 自去年推出以来就意识到其人工智能并不完美,并已投入资金提高其质量。

“他解释说:”我们有一个新的类型检查循环,可以反馈到人工智能中,改善我们的结果。”我们对其进行了调整,使其更擅长 Python,并向其传授了我们的云 SDK。所有这些都大大提高了质量,而且以后还会越来越好。虽然社交媒体上出现了一些负面情绪,但我们直接得到的反馈都是人工智能很有帮助,尤其是在云计算刚刚起步的时候–要开始浏览数百个云,每个云又有数万项服务,确实令人望而生畏。

达菲透露,Pulumi 已经删除了 10 万个 AI 答案,未来还将删除更多。

尽管面临挑战,但达菲预计人工智能会随着时间的推移而不断改进。”我们行动迅速,经常尝试创新的新想法–但有时它们并不能如我们所愿。”他承认。”如果我们不能很快达到一个好的状态,我们绝对会考虑将它们全部除名,然后再慢慢建立起来。”

达菲补充说,Pulumi 的人工智能答案清楚地表明,它们是人工智能的产物。”尽管有幻觉,但我们经常听到’即使不完美,我们也宁愿有 80% 正确的东西,[而不是]什么都没有'”。

本文文字及图片出自 Google Search results polluted by buggy AI-written code frustrate coders

余下全文(1/3)
分享这篇文章:

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注