许多人工智能研究人员认为,未来超级人工智能的发展可能会导致人类灭绝。不过,对于这种风险仍存在较大的分歧和不确定性。
这一发现来自对2700名人工智能研究人员的调查,这些研究人员都曾在最近召开的6个顶级人工智能会议上发表过研究成果。
这是迄今为止规模最大的一项调查。该调查要求参与者分享他们对未来人工智能技术里程碑的设想,以及这些成就带来的或好或坏的社会后果。
近58%的研究人员表示,导致人类灭绝或其他与人工智能相关的极其糟糕的结果的可能性为5%。
“这是一个重要的信号,表明大多数人工智能研究人员并不认为先进的人工智能会摧毁人类。”相关论文作者之一、美国机器智能研究所的Katja Grace说,“我认为,人们普遍认为的风险并非微不足道,这比确切的风险百分比更能说明问题。”
但美国凯斯西储大学的Emile Torres说,目前还没有必要恐慌。许多人工智能专家在预测未来人工智能发展方面并“没有良好的记录”。
Grace和同事承认,人工智能研究人员不是预测人工智能未来轨迹的专家,但在2016年的一项调查中,他们在预测人工智能里程碑方面表现得“相当好”。
与2022年,同类调查的结果相比,许多人工智能研究人员预测,人工智能将比之前预测的更早到达某些里程碑。与此同时,ChatGPT于2022年11月首次亮相,硅谷也急于广泛部署基于大型语言模型的类似人工智能聊天机器人的服务。
接受调查的研究人员预测,在未来10年内,人工智能系统有50%或更大的概率成功完成39项样本任务中的大多数任务,其中包括写一首与泰勒·斯威夫特的歌曲毫无区别的新歌,或者从头编码一个完整的支付处理网站。其他任务,如在新家安装电线或解决长期存在的数学难题,人工智能系统预计将花费更长时间。
到2047年,人工智能在每项任务上的表现都超过人类的可能性为50%,而到2116年,所有人类工作完全自动化的可能性为50%。这些估计比去年的调查结果分别早了13年和48年。
不过Torres表示,对人工智能发展的高期望也可能落空。“很多突破都是不可预测的。人工智能领域完全有可能经历另一个冬天。”此前的遇冷可溯及20世纪七八十年代人工智能领域资金枯竭和企业兴趣的丧失。
即使在没有任何超级人工智能风险的情况下,也有其他更直接的担忧。70%以上的人工智能研究人员认为,人工智能驱动的场景涉及深度伪造、公众舆论操纵、工程武器和日益恶化的经济不平等,这些要么令人严重关切,要么令人极为担忧。(王方)
(责编:赵珊)