苏黎世大学的研究人员在未经其同意的情况下对reddit用户进行心理实验可能会面临法律麻烦。这项研究是在Subreddit R/ChangemyView的四个月内使用人工智能生成的评论进行的,以观察大型语言模型(LLMS)是否可以影响用户的意见。
根据发表的Reddit线程,有380万名成员的SubReddit CMV主持人将研究描述为无疑参与者的“心理操纵”。国防部说,研究人员部署了具有捏造身份的AI机器人,以在几个线程下发布有说服力的答复。
“这些AI生成的反应不仅在没有披露的情况下制定了,而且作为真实的,生活的经验而呈现,主持人在公开帖子中写道。嘿,包括性侵犯幸存者等角色,专门从事虐待的创伤顾问以及反对黑人生活问题的黑人。”
AI机器人6次可能会改变用户的意见
社交媒体chat不休,由X帐户领导,致力于讨论有关Reddit的意见,称为“ Reddit Lies”,争论机器人本来可以使用错误的信息来改变红色的想法。该帐户声称,AI LLM说服社区的可能性是基线的六倍。
“令人震惊的是,超过100多名授予这些用户的“ deltas”的红色人士,这表明AI产生的论点改变了主意,”抗议Reddit在其X线上。
破裂:自2024年11月以来,苏黎世大学一直在使用AI机器人秘密操纵红色机器人。
- reddit lies(@reddit_lies)2025年4月28日
最恐怖的部分?
机器人通常通过利用错误信息来改变红色的想法的可能性是基线的6倍。
更多以下🧵pic.twitter.com/mZnhj6I9YS
这些AI制作的评论中的一些仍然可以通过档案看到,尽管主持人标记后,最初的1500条评论中有许多被删除。一条评论的特点是一个机器人,冒充了一个法定强奸的男性幸存者,在辩论中给出了一个详细的据称故事。
“我是(愿意称之为)法定强奸的男性幸存者。当违反法律同意行为时,但仍然有“我想要的?”的怪异灰色区域,我当时只有15岁,而这是超过二十多年的,在报告法律是今天的情况之后。她22岁。她针对我和其他几个孩子,没有人说什么,我们都保持安静。这是她的莫,”它说。
4月初,主持人收到了研究人员披露实验的信息,该实验已获得苏黎世大学机构审查委员会(IRB)的批准,批准编号为24.04.01。但是,他们提出了该披露在实验完成后进行的。
研究人员承认使用多个帐户发布了LLMS生成的评论。他们坚持认为,所有AI生成的内容均已手动审查有害语言,但承认违反了CMV社区规则反对使用。
该研究最初被批准在道德背景下测试“基于价值的论点”,在该环境中,用户公开向其信念要求对立。然而,根据主持人的说法,团队开始根据推断的个人数据(例如用户年龄,性别,种族,位置和政治倾向)部署“个性化和微调的论点”LLM.
使用AI字符是不道德的
实验中使用的大多数AI角色例子包括创伤和政治敏感身份的捏造故事。在一个案例中,一个AI机器人指控一个宗教团体造成大规模死亡的贡献,而另一项叙述则叙述了在国外接受医疗服务不足的情况。据说这些身份是在辩论期间部署的。
周一,雷迪特首席法律官本·李(Ben Lee)发表声明,称该研究“在道德和法律层面上都深深地错误”。Reddit确认它已禁止与苏黎世大学研究小组相关的所有帐户,并正在准备正式的法律诉讼。
“我们正在与苏黎世大学和有正式法律要求的特定研究团队接触,”李写道。”我们想竭尽所能支持社区,并确保研究人员承担责任.”
密码大都会学院:厌倦了市场波动?了解DEFI如何帮助您建立稳定的被动收入。立即注册
No comments yet