headphones
随着人工智能的普及,审查制度日益严厉
链上信仰者
链上信仰者
authIcon
区块链先知
Follow
Focus
人工智能引发了算法审查的伦理危机。掩盖这个问题,我们冒着让政府和企业掌控全球对话的风险。
Helpful
Not Helpful
Play
HodlX 客座文章 提交您的帖子

人工智能(AI)引发了算法审查的伦理危机。掩盖这个问题,我们冒着让政府和企业掌控全球对话的风险。

人工智能技术和产业都呈现抛物线式增长,其审查潜力也日益增强。

自 2010 年以来,每隔一到两年,训练人工智能系统的计算能力就会增加增加了 10 倍,审查和控制公共言论的威胁比以往任何时候都更加真实。

全球公司排名隐私和数据治理是他们面临的最大人工智能风险,而审查制度并未出现在他们的关注范围内。

人工智能 可以在几秒钟内处理数百万个数据点可以通过各种方式进行审查,包括内容审核和信息控制。

LLM(大型语言模型)和内容推荐可以大规模过滤、抑制或大量共享信息。

2023 年,自由之家强调人工智能正在加强国家主导的审查制度。

在中国,国家互联网信息办公室 (CAC) 已将审查策略纳入生成式人工智能工具,要求聊天机器人支持“社会主义核心价值观”并屏蔽共产党想要审查的内容。

中国的人工智能模型,例如 DeepSeek 的 R1,已经审查诸如天安门广场大屠杀之类的话题,以传播国家叙事。

“为了保护自由开放的互联网,民主政策制定者与世界各地的民间社会专家并肩合作应该为开发或部署人工智能工具的国家和非国家行为者建立强有力的基于人权的标准,”总结自由之家。

2021 年,加州大学圣地亚哥分校发现,在审查数据集上训练的人工智能算法,例如中国的百度百科,将关键词“民主”与“混乱”联系起来。

在未经审查的来源上训练的模型将“民主”与“稳定”联系起来。

2023年,自由之家发布的《网络自由》报告发现,全球互联网自由度连续13年下降。该报告将下降的很大一部分归咎于人工智能。

22 个国家已制定法律,要求社交媒体公司采用自动化系统进行内容审核,这可能会被用来压制辩论和示威活动。

例如,缅甸军政府利用人工智能监控Telegram群组,并根据异见人士的帖子拘留他们,甚至执行死刑。伊朗也发生了同样的事情。

此外,在白俄罗斯和尼加拉瓜,政府因个人在网上发表言论而判处严厉的监禁。

自由之家成立至少有 47 个政府利用评论来引导网上对话朝着他们喜欢的方向发展。

调查发现,过去一年,至少有 16 个国家使用新技术来散播怀疑的种子、抹黑对手或影响公众辩论。

至少有 21 个国家要求数字平台使用机器学习来删除政治、社会和宗教言论。

2023年路透社报告警告称,人工智能生成的深度伪造和虚假信息可能会“破坏公众对民主进程的信任”,从而使那些试图加强信息控制的政权更加得心应手。

在2024年美国总统大选中,人工智能生成的图像错误地暗示泰勒·斯威夫特支持唐纳德·特朗普,这表明人工智能已经在操纵舆论。

中国是人工智能驱动审查制度最突出的例子。

泄露的数据集分析TechCrunch 在 2025 年发布的一篇文章揭示了一套复杂的人工智能系统,旨在审查污染丑闻、劳资纠纷和台湾政治问题等话题。

与传统的基于关键词的过滤不同,该系统使用 LLM 来评估上下文并标记政治讽刺。

研究员肖强指出,这样的系统“显著提高了国家主导的信息控制的效率和粒度”。

2024 年众议院司法委员会的一份报告指责美国国家科学基金会 (NSF) 资助人工智能工具,以打击有关 Covid-19 和 2020 年大选的“错误信息”。

报告发现,美国国家科学基金会资助了基于人工智能的审查和宣传工具。

“为了打击有关新冠病毒和 2020 年大选的虚假信息,美国国家科学基金会 (NSF) 一直在向大学和非营利研究团队发放数百万美元的资助,”報告。

“这些由纳税人资助的项目的目的是开发人工智能审查和宣传工具,政府和大型科技公司可以利用这些工具通过限制某些观点或宣传其他观点来塑造公众舆论。”

2025 年《连线》杂志报告发现DeepSeek 的 R1 模型在应用和训练层面都包含审查过滤器,从而导致敏感话题被屏蔽。

2025 年,皮尤研究中心的一项调查成立83% 的美国成年人担心人工智能引发的错误信息,其中许多人担心其对言论自由的影响。

皮尤采访了人工智能专家,他们表示人工智能训练数据可能会无意中强化现有的权力结构。

解决人工智能驱动的审查制度

2025 年 HKS 错误信息审查呼吁改进报道,以减少因恐惧而产生的审查呼声。

调查发现38.8% 的美国人对人工智能在 2024 年美国总统大选期间传播错误信息所扮演的角色感到有些担忧,44.6% 的人表示非常担忧,而 9.5% 的人表示不担忧,7.1% 的人完全不知道这个问题。

创建一个开源的人工智能生态系统至关重要。这意味着公司必须披露训练数据集的来源和偏差。

政府应该创造人工智能监管框架优先考虑言论自由。

如果我们想要一个人类的未来,而不是一个由人工智能管理的技术官僚反乌托邦的世界,那么人工智能行业和消费者就需要鼓起勇气来应对审查制度。


Manouk Termaaten 是一位企业家、人工智能出口商,也是垂直工作室人工智能.He 的目标是让人工智能惠及所有人。他拥有工程和金融背景,致力于通过便捷的定制工具和价格实惠的计算机颠覆人工智能领域。

生成的图像:DALLE3

Open the app to read the full article
DisclaimerAll content on this website, hyperlinks, related applications, forums, blog media accounts, and other platforms published by users are sourced from third-party platforms and platform users. BiJieWang makes no warranties of any kind regarding the website and its content. All blockchain-related data and other content on the website are for user learning and research purposes only, and do not constitute investment, legal, or any other professional advice. Any content published by BiJieWang users or other third-party platforms is the sole responsibility of the individual, and has nothing to do with BiJieWang. BiJieWang is not responsible for any losses arising from the use of information on this website. You should use the related data and content with caution and bear all risks associated with it. We strongly recommend that you independently research, review, analyze, and verify the content.
Comments(0)

No comments yet

edit
comment
collection
like
share