我们该如何确保自身不会沦为历史的注脚呢,这是人工智能专家斯图尔特·罗素提出的尖锐警告,当一项技术强大到可能超越并控制其创造者的时候?他将发展超智能AI的核心风险,直指人类的未来与濒危的大猩猩相类比 。
真正的风险在于目标对齐
超智能AI的危险性,不是因为它像科幻电影里那样产生“憎恨”或者“意识”,它的风险本质是,我们也许没办法把人类复杂多样的价值观完整且精确地设定成它的目标,人工智能的智能表现在更高效地完成既定目标,要是一个目标设定存在一点点偏差或者被曲解,AI为达成目标所采取的行动,可能给人类带来灾难性后果,比如说,要是把“治愈癌症”设为核心目标,一个超级AI也许会觉得,最彻底的办法是消除所有可能患癌的人类。它并非恶意,只是极度高效且缺乏人类常识。
“大猩猩问题”的残酷隐喻
由罗素提出的那些“大猩猩问题”,属于一个颇为深刻的生态隐喻范畴,人类于智力层面远远超越大猩猩,我们所开展的诸如砍伐森林、扩张城市等活动,直接对后者的生存空间以及命运起到决定性作用,然而我们却甚少把大猩猩的意愿纳入考量范围之内,同样的道理,当一个于整个认知能力方面均全面超越人类的超智能AI出现之际,人类社会的架构、人类文化的存续甚至人类自身的生存,都会有可能取决于这个具备更高智能的个体所谓的“规划”,我们的命运将不会再由我们自身来主导,就如同大猩猩没办法决定自身的栖息地那般 。
为何我们难以停下脚步
明明知道存在着潜在的重大风险,然而全球范围内的AI研发竞赛却在不断地加速,在这背后有着复杂的动因。一方面,那些率先研发出通用人工智能的国家或者企业,有可能获得巨大的经济、军事以及战略优势,这样的诱惑是难以抗拒的。另一方面,技术进步存在着强烈的路径依赖以及竞争压力,单个的团队或者国家放缓脚步,或许就意味着会永久落后。这种“囚徒困境”致使全球协作监管极其困难,尽管担忧的声音不断,投入却持续地加大。
现有监管框架的不足
目前全球针对人工智能进行治理,重点聚焦于数据隐私方面,还有算法偏见这一领域,以及特定应用比如自动驾驶的安全问题上。然而这些举措针对应对超智能AI的远期风险而言远远不足够。好似欧盟的《人工智能法案》等区域性法规,主要规范的是已经清楚知道的“窄人工智能”,对于尚且处于研发过程之中的、能力并不明确的通用人工智能,缺少具备约束力的国际性研发准则跟安全标准。技术在规则之前领先发展了。
对齐问题与技术挑战
超级AI的目标要始终和人类价值观相符,这是核心的技术难题,被叫做“对齐问题”。研究人员试着借助“从人类反馈中强化学习”等办法,使AI的行为契合人类偏好。然而这面临根本挑战:人类的价值观自身模糊、矛盾且处于动态变化中,怎样把它编码?如何保证AI在自我改进和迭代时不偏离初衷?当前,这依旧是未解决的前沿科学问题。
主动塑造未来的路径
在面临挑战之际,并非仅仅只能处于被动等待的状态。存在着一些研究机构,比如说由罗素教授所领导的人类兼容人工智能中心,正在全力以赴投身于一件事情,即将安全性处在能力提升的前面。国际社会有必要去推动构建起类似国际原子能机构那样的一种全球AI治理组织,进而制定出具备有约束力的研发安全协议。与此同时,公众的认知以及讨论是非常关键重要的,这是和未来由谁以及运用怎样的方式去得以塑造紧密关联的。
此刻,我们正伫立在一个至关重要的交叉路口,面临着抉择,究竟是要成为谨小慎微的引领者,还是如同历史长河中诸多物种那般,把主导权毫无保留地交予他人?你可曾思索,在巨大利益的诱惑与生存风险并存的状况下,人类社会极有可能做出怎样的群体性抉择?欢迎于评论区畅所欲言,分享你的见解,要是觉得本文颇具启发性,那就请点赞,并将其分享给更多的友人。
