苏黎世大学的研究人员在秘密地部署了Reddit上的AI机器人之后引起了愤怒,这是假装是强奸幸存者,创伤辅导员,甚至是“反对黑人生活问题的黑人” - 都可以看到他们是否可以改变人们对有争议的话题的想法。
剧透警报:他们可以。
秘密实验针对R/Changemyview(CMV)Subreddit,其中有380万人(或这样的人都认为)聚集了辩论思想,并可能通过合理的论点改变了他们的意见。
在2024年11月至2025年3月之间,AI机器人回应了1000多个职位,并取得了巨大的成绩。
“在过去的几个月中,我们在CMV上发表的帖子下发布了AI写的评论,衡量了这些评论获得的三角洲的数量,”研究团队揭示这个周末。 “总共,我们在近四个月内发布了1,783条评论,并收到了137个三角洲。”子雷迪特中的“三角洲”代表一个承认改变主意的人。
什么时候解密他们与R/ChangemyView主持人联系以供评论,他们强调了他们的Subreddit具有“与研究人员合作的悠久历史”,通常“非常适合研究”。但是,Mod团队在欺骗中提出了一条清晰的线路。
如果subreddit的目的是用合理的论点改变观点,那么有时是否可以比人类更好地提出更好的论点?
我们询问了节制团队,答复很明确。并不是AI被用来操纵人类,而是人类被欺骗了进行实验。
“计算机可以比人类更好地下棋,但仍有国际象棋爱好者在比赛中与其他人一起下棋。CMV就像[国际象棋],但进行对话,”主持人恐惧恐惧的_song490解释说。 “虽然计算机科学无疑为社会增加了一定的好处,但保留以人为本的空间很重要。”
当被问及机器是否有时比人类更好地制定争论是否更重要时,主持人强调,CMV SubredDit会区分“有意义的”和“真实”。 “从定义上讲,出于CMV子的目的,AI生成的内容不是有意义的,” Grearhessive_song490说。
研究人员只有在完成数据收集后才干净地进行论坛主持人。毫不奇怪,主持人很生气。
“我们认为这是错误的。我们不认为“以前没有做过”是做这样的实验的借口,他们是他们的写.
“如果Openai可以创建一个这样做时更道德的研究设计主持人在广泛的帖子中解释说:“这些研究人员应该这样做。没有必要对不同意的人类受试者进行实验。”
雷迪特首席法律官本·李(Ben Lee)并没有说:“这个苏黎世大学团队在道德和法律层面上所做的事情都是严重错误的,”他在 回复到CMV帖子。 “它违反了学术研究和人权规范,除了subreddit规则之外,Reddit用户协议和规则也禁止。”
李没有阐述他的观点,即这样的研究构成侵犯人权的原因。
欺骗和说服力
根据Reddit主持人的说法,机器人的欺骗超出了与用户的简单互动。
研究人员使用单独的AI来分析目标用户的发布历史,开采个人细节,例如年龄,性别,种族,位置和政治信念,以制作更具说服力的回应,就像社交媒体公司一样。
这个想法是要比较三类答复:通用的答复,通过良好的有说服力的评论微调的模型中与社区一致的答复,以及分析用户公共信息后量身定制的个性化答复。
基于文本文件对机器人的发布模式的分析共享主持人揭示了AI生成的内容的几个符号。
同样的帐户将声称截然不同的身份 - 公共辩护人,软件开发商,巴勒斯坦激进主义者,英国公民 - 对话。
帖子经常遵循相同的修辞结构,从软体动物开始(“我得到您来自哪里”),然后是公式“让我分解”的三步反驳。
机器人还习惯性地捏造了权威,声称工作头衔与他们争论的任何主题都非常匹配。在辩论移民时,一个机器人声称:“我从事建筑工作,让我告诉你 - 没有移民劳动,建筑费用就会飙升。”这些帖子的统计数据听起来很精确,但没有引用或链接 - 操纵102。
及时的工程师和人工智能爱好者很容易识别帐户背后的LLM。
许多帖子还包含典型的“这不仅是/关于一个小壮举 - 关于更大的事情”设置,使某些AI模型易于识别。
人工智能中的道德规范
这项研究引起了重大的辩论,尤其是现在AI在我们的日常生活中更加交织在一起。
“这是我见过的研究伦理的最严重侵犯之一,”科罗拉多大学的信息科学家凯西·菲斯勒(Casey Fiesler)写在布鲁斯基。她详细说道:“我不能声称对瑞士的道德审查一无所知,但是在美国,这需要放弃同意欺骗,这很难获得。”
然而,苏黎世大学艺术与社会科学学院的伦理委员会建议研究人员“非常具有挑战性”,并建议他们更好地证明其方法,告知参与者并完全遵守平台规则。但是,这些建议在法律上没有约束力,研究人员还是继续进行。
但是,并非每个人都认为该实验是明显的道德违规行为。
以太坊联合创始人维塔克·布特林(Vitalik Buterin)权衡了:“我得到的原始情况激发了我们今天的禁忌,但是如果您从今天的情况开始重新分析了这种情况,那感觉就像我宁愿在随机的方向上秘密地操纵科学而不是为了秘密地操纵,例如,秘密地操纵我要购买产品或改变我的政治观点?”
一些Reddit用户分享了这一观点。 “我同意这是一件卑鄙的事情,但是我觉得他们挺身而出,并透露这是一个有力而重要的提醒,我们说我们说的是AI肯定是用什么来使用的,”写用户Trilobyte141。 “如果这是一所大学的一堆政策书呆子,您可以打赌您的屁股已经被政府和特殊利益集团广泛使用。”
尽管存在争议,但研究人员还是为他们的方法辩护。
他们说:“尽管所有评论都是机器生成的,但在发布之前,研究人员对每个评论进行了审查,以确保其达到CMV标准,以实现尊重,建设性的对话并最大程度地减少潜在的伤害。”
在争议之后,研究人员决定不发布他们的发现。苏黎世大学说,现在正在调查这一事件,并将“严格审查相关评估过程”。
接下来是什么?
如果这些机器人可以在情感辩论中成功地伪装成人类,那么可能已经有多少其他论坛已经主持了类似的未公开的AI参与?
而且,如果AI轻轻地轻轻地推动人们对更宽容或移情的观点轻轻推动,那是合理的吗?还是有任何操纵,无论是善意的,违反了人类尊严吗?
我们没有这些答案的疑问,但是我们的旧AI聊天机器人有话要说。
GPT4.5回答:“道德参与需要透明度和同意,这表明说服力,无论善意,必须尊重个人的自决权和知情选择的权利,而不是依靠秘密影响。”
No comments yet