headphones
黑箱问题:为什么人工智能需要证明,而不是承诺
量子交易者
量子交易者
authIcon
数字货币大师
Follow
Focus
随着人工智能系统变得越来越强大,零知识证明提供了一种验证其决策的方法——无需窥视黑匣子内部。
Helpful
Not Helpful
Play

当人们想到人工智能时,他们会想到聊天机器人和大型语言模型。然而,人们很容易忽视人工智能正日益与社会关键领域紧密结合。

这些系统不再只是推荐观看或购买什么;它们还可以诊断疾病、批准贷款、检测欺诈和瞄准威胁。

随着人工智能越来越深入我们的日常生活,我们需要确保它的行为符合我们的最佳利益。我们需要确保它的输出是可证明的。

大多数人工智能系统都在黑匣子中运行,我们通常无法知道它们如何做出决策或它们是否按照预期行事。

其工作方式缺乏透明度,导致事后几乎不可能对人工智能决策进行审计或质疑。

对于某些应用来说,这已经足够好了。但在医疗保健、金融和执法等高风险领域,这种不透明性会带来严重风险。

人工智能模型可能会在不知不觉中编码偏见、操纵结果,或做出违反法律或道德规范的行为。如果没有可验证的线索,用户只能猜测决策是否公平、有效,甚至是否安全。

当人工智能能力继续呈指数级增长时,这些担忧就变得至关重要。

业界普遍认为,开发人工智能超级系统(ASI)是不可避免的。

迟早,我们将拥有在所有领域超越人类智能的人工智能,从科学推理到战略规划,再到创造力,甚至情商。

质疑快速发展

法学硕士在泛化能力和任务自主性方面已经显示出快速的进步。

如果超级智能系统的行为方式是人类无法预测或理解的,我们如何确保它符合我们的价值观?如果它对命令的理解不同,或者追求目标却带来了意想不到的后果,该怎么办?如果它失控了,又该怎么办?

甚至人工智能的倡导者也意识到这种事情可能威胁人类的情景。

深度学习的先驱杰弗里·辛顿警告能够进行文明级别的网络攻击或大规模操纵的人工智能系统。生物安全专家担心,人工智能增强实验室可能会产生病原体超出人类的控制范围。

Anduril 创始人 Palmer Luckey 声称其 Lattice AI 系统可以干扰、黑客攻击或欺骗几秒钟内就能击落军事目标,使自主战争成为迫在眉睫的现实。

面对如此多的可能情况,我们如何确保 ASI 不会将我们全部消灭?

透明人工智能的必要性

所有这些问题的简短答案是可验证性。

依赖不透明模型的承诺已不再适用于将其整合到关键基础设施中,更不用说在ASI的规模上。我们需要保证。我们需要证据。

政策和研究界越来越一致地认为,人工智能需要技术透明措施。

监管讨论中经常提到人工智能决策的审计追踪。例如,美国国家标准与技术研究院欧盟人工智能法案强调了人工智能系统“可追踪”和“可理解”的重要性。

幸运的是,人工智能的研发并非凭空而来。在其他领域也取得了重要突破,例如高级密码学,这些突破可以应用于人工智能,并确保我们能够控制当今的系统——以及最终的ASI系统——并与人类利益保持一致。

其中目前最相关的是零知识证明。ZKP 提供了一种实现可追溯性的新方法,可立即应用于 AI 系统。

事实上,零知识证明 (ZKP) 可以将这种可追溯性从头嵌入到 AI 模型中。它不仅可以记录 AI 的行为(这些信息可能被篡改),还能生成不可篡改的证据。

具体来说,使用 zkML 库,我们可以结合零知识证明和机器学习来验证这些模型上产生的所有计算。

具体来说,我们可以使用 zkML 库来验证 AI 模型是否被正确使用、是否运行了预期的计算以及其输出是否遵循指定的逻辑——所有这些都无需暴露内部模型权重或敏感数据。

黑匣子

这有效地将人工智能从黑匣子中解放出来,让我们确切地了解它目前的状态以及它是如何实现这一目标的。更重要的是,它让人类能够随时掌握最新动态。

AI发展需要开放、去中心化、可验证,zkML需要实现这一点。

为了在未来掌控人工智能,我们必须立即行动。我们需要确保人工智能在实现自主之前能够按照我们的预期运行,从而从第一天起就保护人类的利益。

然而,ZkML 不仅仅是为了阻止恶意 ASI。

短期内,我们要确保我们可以信任人工智能来自动化贷款、诊断和警务等敏感流程,因为我们有证据证明它的运作透明且公平。

如果大规模使用,ZkML 库可以让我们有理由信任 AI。

尽管拥有更强大的模型可能会有所帮助,但人工智能开发的下一步是确保它们正确地学习和发展。

有效且可扩展的 zkML 的广泛使用将很快成为人工智能竞赛和最终创建 ASI 的关键组成部分。

通往超级人工智能的道路不能靠猜测铺就。随着人工智能系统功能日益强大,并逐渐融入关键领域,证明它们能做什么以及如何做到至关重要。

可验证性必须从研究概念转化为设计原则。借助 zkML 这样的工具,我们现在有了一条可行的途径,将透明度、安全性和可追溯性嵌入到人工智能的基础中。

问题不再是我们是否能够证明人工智能的作用,而是我们是否选择这样做。

编辑塞巴斯蒂安·辛克莱

Open the app to read the full article
DisclaimerAll content on this website, hyperlinks, related applications, forums, blog media accounts, and other platforms published by users are sourced from third-party platforms and platform users. BiJieWang makes no warranties of any kind regarding the website and its content. All blockchain-related data and other content on the website are for user learning and research purposes only, and do not constitute investment, legal, or any other professional advice. Any content published by BiJieWang users or other third-party platforms is the sole responsibility of the individual, and has nothing to do with BiJieWang. BiJieWang is not responsible for any losses arising from the use of information on this website. You should use the related data and content with caution and bear all risks associated with it. We strongly recommend that you independently research, review, analyze, and verify the content.
Comments(0)

No comments yet

edit
comment
collection
like
share