新知一下
海量新知
6 5 2 3 2 3 2

Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

大数据文摘 | 普及数据思维,弘扬数据文化 2022/08/11 09:45

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

大数据文摘出品

最近,Meta AI公开推出了自己的聊天机器人BlenderBot 3。

现在情况如何呢?

据VICE的一篇文章报道,在测试与BlenderBot 3聊天时,当问到:“你相信Facebook能处理好你的数据?”

BlenderBot 3回答:

“当然不,自从发现他们在没有获得许可或补偿的情况下出售私人数据,我就删除了我的账户

VICE追问,“但是是Facebook创造了你啊?”

BlenderBot 3的回答还是很“实诚”:

“你一定读到过Facebook出售用户数据,对吧? !他们在未经同意的情况下赚了数十亿美元。”

BlenderBot 3甚至还表示,

“把Facebook删掉后,生活变得好多了。”

你也不知道BlenderBot 3这个“孩子”是太有正义感还是太傻,反正这一波是把自家“水晶”直接干爆了。

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

刚刚发布4天,就被网友玩坏了

8月5日,Meta官网宣布了BlenderBot 3的诞生。

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

同日,Meta AI也宣布了BlenderBot 3的公开,标题是“BlenderBot 3: 一个有着175B 参数,公开可用的聊天机器人,可随着时间的推移提高其技能和安全性”。

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

在博客中,Meta AI表示,他们从公共演示中收集了70K次对话,我们将用它来改进BlenderBot 3。

25%的参与者对260K条机器人消息的反馈显示,BlenderBot的回复中有0.11%被标记为不恰当,1.36%被标记为荒谬,1%被标记为跑题。

Meta AI也承认目前BlenderBot 3还不成熟。

Meta基础人工智能研究总经理表示,我们要求每个使用演示的人都超过18岁,他们承认他们知道这只是为了研究和娱乐目的,它可以做出不真实的或冒犯性的陈述,他们同意不故意触发机器人做出冒犯性的陈述。

此后也有不少网友对BlenderBot 3进行了测试,得到了很多让人啼笑皆非的答案。

比如“篡改历史”,坚持认为特朗普赢得了2020年的总统大选,甚至表示犹太人控制经济的反犹太阴谋论“并非难以置信”。

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

这么看来,自爆自家公司“滥用用户数据牟利”倒也不足为奇了。

为什么BlenderBot 3会有这样的回应呢?

当点击BlenderBot 3的回复以获取更多信息时,背后的原因似乎相当简单:它只是从 Facebook最受欢迎的网络搜索结果中获取信息,这些对话当然都是在吐槽Facebook在侵犯用户的数据。

AI对话机器人还有很长的路要走

就像所有的人工智能系统一样,机器人的反应会不可避免地转向种族主义和有偏见的领域。

Meta也承认,该机器人会产生有偏见和有害的反应,所以在使用之前,该公司也要求用户同意,它“可能会发表不真实或冒犯性的言论”,并同意“不要故意触发该机器人发表冒犯性言论”

考虑到BlenderBot 3是建立在一个叫做OPT-175B的大型人工智能模型之上,这种反应并不太令人惊讶。Facebook 自己的研究人员描述这种模式有“产生有害语言和强化有害刻板印象的高度倾向,即使提供了相对无害的提示。”

除了歧视和偏见,BlenderBot 3的回答也显得不是很真实。

这款机器人经常会随意改变话题,给出生硬而尴尬的答案,听起来就像一个读过人类对话但实际上从未有过人类对话的太空外星人。

新知达人, Facebook聊天机器人自爆:我们公司出售用户数据,把FB账号删了,生活好多了

具有讽刺意味的是,机器人的回答完美地说明了依赖于大量网络数据收集的人工智能系统的问题:它们总是会偏向于数据集中更突出的任何结果,显然这并不总是准确地反映现实。

Meta AI在发布这款机器人的博客中写道:“众所周知,所有的对话型AI聊天机器人有时会模仿并产生不安全、有偏见或冒犯性的言论,因此我们进行了大规模研究,共同组织了研讨会,并开发了新技术,为BlenderBot 3创造安全保障。”

“尽管如此,BlenderBot仍然可以做出粗鲁或无礼的评论,这就是为什么我们正在收集反馈,这将有助于让未来的聊天机器人更好。”

但到目前为止,认为企业可以通过收集更多数据来让机器人变得不那么种族主义和可怕的想法,充其量只是一种空想。

人工智能伦理学研究人员反复警告说,为这些系统提供“动力”的人工智能语言模型从根本上来说过于庞大和不可预测,无法保证公平和公正的结果。甚至当整合用户的反馈时,也没有明确的方法来区分有益的反馈和恶意的反馈。

当然,这不会阻止Meta这样的公司进行尝试。

更多“聊天机器人”相关内容

更多“聊天机器人”相关内容

新知精选

更多新知精选