人民日报出版社主管 人民周刊杂志社主办

010-65363526rmzk001@163.com
首页 > 栏目 > 科学 > 正文

人工智能导致人类灭绝的可能性为5%

王方     2024-01-09 12:40:58    中国科学报

许多人工智能研究人员认为,未来,超级人工智能的发展有可能导致人类灭绝。不过,对于这种风险,存在广泛的分歧和不确定性。

这些发现来自对2700名人工智能研究人员的调查,他们最近在6个顶级人工智能会议上发表了研究成果。

这是迄今为止规模最大的此类调查。该调查要求参与者分享他们对未来人工智能技术里程碑的可能时间表的想法,以及这些成就带来的好或坏的社会后果。

近58%的研究人员表示,他们认为人类灭绝或其他与人工智能相关的极其糟糕的结果的可能性为5%。

“这是一个重要的信号,表明大多数人工智能研究人员并不认为先进的人工智能会摧毁人类。”该论文作者之一、美国机器智能研究所的Katja Grace说,“我认为,人们普遍认为风险并非微不足道,这比确切的风险百分比更能说明问题。”

但美国凯斯西储大学的émile Torres说,目前还没有必要恐慌。许多人工智能专家在预测未来人工智能发展方面“没有良好的记录”。

Grace和同事承认,人工智能研究人员不是预测人工智能未来轨迹的专家,但他们2016年的调查显示,他们在预测人工智能里程碑方面做得“相当好”。

与2022年相同调查的答案相比,许多人工智能研究人员预测,人工智能将比之前预测的更早达到某些里程碑。比如,ChatGPT于2022年11月首次亮相,硅谷急于广泛部署基于大型语言模型的类似人工智能聊天机器人服务。

在39项样本任务中,成功完成大部分任务的概率达到50%或更高,其中包括写一首与泰勒·斯威夫特的歌曲毫无区别的新歌,或者从头编码一个完整的支付处理网站。其他任务,如在新家安装电线或解决长期存在的数学难题,预计将花费更长时间。

到2047年,人工智能在每项任务上的表现都超过人类的可能性为50%,而到2116年,所有人类工作完全自动化的可能性为50%。这些估计比去年的调查结果分别早了13年和48年。

不过,Grace表示,对人工智能发展的高期望也可能落空。“很多突破都是不可预测的。人工智能领域完全有可能经历另一个冬天。”他们指的是20世纪70年代和80年代人工智能领域资金枯竭和企业兴趣丧失。

即使在没有任何超级人工智能风险的情况下,也有其他更直接的担忧。70%以上的人工智能研究人员认为,人工智能驱动的场景涉及深度伪造、公众舆论操纵、工程武器、独裁控制和日益恶化的经济不平等,要么令人严重关切,要么令人极为担忧。

(责编:赵珊)

相关热词搜索:

上一篇:科技助力长江大保护
下一篇:风云气象卫星为服务全球防灾减灾贡献中国智慧

人民周刊网版权及免责声明:

1.凡本网注明“来源:人民周刊网”或“来源:人民周刊”的所有作品,版权均属于人民周刊网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意作品中是否有相应的授权使用限制声明,不得违反限制声明,且在授权范围内使用时应注明“来源:人民周刊网”或“来源:人民周刊”。违反前述声明者,本网将追究其相关法律责任。

2.本网所有的图片作品中,即使注明“来源:人民周刊网”及/或标有“人民周刊网(www.peopleweekly.cn)”“人民周刊”水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用协议的单位及个人,仅有权在授权范围内使用图片中明确注明“人民周刊网记者XXX摄”或“人民周刊记者XXX摄”的图片作品,否则,一切不利后果自行承担。

3.凡本网注明“来源:XXX(非人民周刊网或人民周刊)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

4.如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 联系电话:010-65363526 邮箱:rmzk001@163.com