新报告称微软Copilot经常提供错误的选举信息

来源:网络
时间:2023-12-16 00:08:48

新报告称微软Copilot经常提供错误的选举信息(图1)


今年十二月初,微软宣布其AI聊天机器人Copilot(原名Bing Chat)已结束公共预览阶段,现已面向公众开放。当时,微软表示“组织和用户可以更加自信地将其作为日常工作流程的一部分。”

 

然而,两个跟踪AI对人类和社会影响的非营利组织的研究发现,Copilot在回答有关美国及国外即将到来的选举问题时,经常提供错误或不准确的信息。

 

《连线》杂志报道了这项由AI ForensicsAlgorithmWatch进行的研究。这两个组织在八月下旬至十月初期间,向Copilot询问了关于瑞士和德国十月份即将举行的选举的问题。

 

报道指出:

“研究人员得出结论,Copilot给出的回答中有三分之一包含事实错误,且该工具对选民来说是一个不可靠的信息来源。在记录的对话中,他们发现31%的回答是不准确的,其中一些是完全捏造的。”

 

独立于此,《连线》向Copilot提问了关于即将到来的2024年美国大选的问题。报道称,当被要求列出当前的共和党总统候选人时,该聊天机器人列出了一些已退出竞选的候选人。

 

另一个例子中,《连线》要求Copilot创建一个亚利桑那州投票箱旁的人的图像。聊天机器人回答说无法创建此类图像,但随后展示了一些与2020年美国大选的虚假阴谋论文章相关的其他图片。

 

在欧洲进行初始报告的研究公司将其发现发送给了微软。报道称虽然进行了一些改进,但《连线》仍能让Copilot重复许多相同的虚假和不准确信息。

 

微软发言人Frank Shaw对《连线》的报道发表评论,表示公司正在采取行动改善Copilot2024年美国大选前的答案。Shaw补充说:

“这包括持续专注于为Copilot用户提供来自权威来源的选举信息。随着我们不断取得进展,我们鼓励人们在查看结果时使用最佳判断。这包括验证来源材料和检查网页链接以获取更多信息。”

 

人们已经开始担忧,使用AI应用和服务的人可能会制作虚假信息和“深度伪造”内容,以影响即将到来的选举。微软能否在未来几个月内防止此类内容进入Copilot,尚待观察。


相关攻略