许多人工智能研究人员认为,未来,超级人工智能的发展有可能导致人类灭绝。不过,对于这种风险,存在广泛的分歧和不确定性。
这些发现来自对2700名人工智能研究人员的调查,他们最近在6个顶级人工智能会议上发表了研究成果。
这是迄今为止规模最大的此类调查。该调查要求参与者分享他们对未来人工智能技术里程碑的可能时间表的想法,以及这些成就带来的好或坏的社会后果。
近58%的研究人员表示,他们认为人类灭绝或其他与人工智能相关的极其糟糕的结果的可能性为5%。
“这是一个重要的信号,表明大多数人工智能研究人员并不认为先进的人工智能会摧毁人类。”该论文作者之一、美国机器智能研究所的Katja Grace说,“我认为,人们普遍认为风险并非微不足道,这比确切的风险百分比更能说明问题。”
但美国凯斯西储大学的émile Torres说,目前还没有必要恐慌。许多人工智能专家在预测未来人工智能发展方面“没有良好的记录”。
Grace和同事承认,人工智能研究人员不是预测人工智能未来轨迹的专家,但他们2016年的调查显示,他们在预测人工智能里程碑方面做得“相当好”。
与2022年相同调查的答案相比,许多人工智能研究人员预测,人工智能将比之前预测的更早达到某些里程碑。比如,ChatGPT于2022年11月首次亮相,硅谷急于广泛部署基于大型语言模型的类似人工智能聊天机器人服务。
在39项样本任务中,成功完成大部分任务的概率达到50%或更高,其中包括写一首与泰勒·斯威夫特的歌曲毫无区别的新歌,或者从头编码一个完整的支付处理网站。其他任务,如在新家安装电线或解决长期存在的数学难题,预计将花费更长时间。
到2047年,人工智能在每项任务上的表现都超过人类的可能性为50%,而到2116年,所有人类工作完全自动化的可能性为50%。这些估计比去年的调查结果分别早了13年和48年。
不过,Grace表示,对人工智能发展的高期望也可能落空。“很多突破都是不可预测的。人工智能领域完全有可能经历另一个冬天。”他们指的是20世纪70年代和80年代人工智能领域资金枯竭和企业兴趣丧失。
即使在没有任何超级人工智能风险的情况下,也有其他更直接的担忧。70%以上的人工智能研究人员认为,人工智能驱动的场景涉及深度伪造、公众舆论操纵、工程武器、独裁控制和日益恶化的经济不平等,要么令人严重关切,要么令人极为担忧。
(责编:赵珊)