辛顿:AI致人类灭绝概率达10%至20%,需植入“母性本能”机制
币界网3月23日消息,诺贝尔奖得主,“AI教父”杰弗里·辛顿在接受《财富》杂志采访时表示,当前科技行业领袖仅关注短期利润,对技术终局缺乏思考。他将AI风险分为两类:一是坏人滥用,包括Deepfake、网络攻击及病毒合成;二是AI自身成为不良行为者,这是其最为担心的长期威胁。
辛顿预测,超级智能实现后,AI导致人类灭绝的概率可能达10%至20%。他提出“母性本能”机制构想,建议为AI设计类似本能,使其对人类产生同情而非控制欲,让超级智能如同“母亲”,人类扮演脆弱但能触发同情心的“婴儿”。