ChatGPT等人工智能应用的爆发式发展,不仅引来各国科技界投资加码,也引发部分国家政府机构监管加强。当下,不少政府正在考虑,如何在鼓励技术创新的同时保护公众利益。
据外媒报道,在意大利最早对ChatGPT采取监管举措后,欧盟数据保护委员会和法国、西班牙监管机构4月13日也对ChatGPT展开监管行动。
欧洲人工智能(AI)立法也在推进中。欧洲议会早在2021年就准备推出人工智能法案,不过当时主要的规范对象是人脸识别、操纵舆论等具有特定用处的AI。ChatGPT的出现给这一法案的完善带来新的课题。
法案可能包含诸如要求AI产品明确公示是否使用了受版权保护的数据,程序被滥用承担责任应由开发者承担,不得将AI用于预测犯罪、识别嫌疑人,或检测人的精神状态等。
在AI风险等级分类方面也有可能增设不同层级,仅将可能危害健康、安全和基本权利的列为高风险。欧洲议会官员希望能够进一步推动行业的透明性。媒体预计,欧洲有可能出台史上最严的AI监管条例。
无独有偶,ChatGPT诞生地美国的政府机构和多家硅谷技术企业也在商讨如何妥善地对AI创新加以监管。当地时间4月11日,美国商务部下属机构国家电信和信息局宣布,考虑以一种类似金融监管的新系统来对AI创新进行评估,并设置两个月时间来征询公众意见。商务部负责制定新兴技术标准的国家标准与技术研究所在探索为负责任地使用AI制定框架。
《华盛顿邮报》称,这是美国商务部迄今应对AI技术的最重大举措。
美国联邦贸易委员会消费者保护局局长萨姆莱文11日也表示,他们正紧盯使用生成式AI技术的新型诈骗,美国《联邦贸易委员会法》可能被用于惩治AI遭滥用的问题。
当地时间4月13日,美国参议院多数党领袖、民主党人查克·舒默表示,随着ChatGPT等程序的广泛使用,他已开始建立人工智能监管规则。美国参议员伯尼·桑德斯还提出,应该确保AI为大众服务,而不是为少数亿万富翁服务。
从披露的信息来看,美欧监管者希望对行业本身有一个更清晰的界定,提高行业透明度。杜绝由AI运用导致的扭曲性、偏见性的信息,避免传播错误和虚假的信息,保护隐私。明确AI衍生问题的责任承担以及如何惩治AI滥用等问题,探索有效监管方式,制定详细的规则条例,从而使投资者、开发者、使用者等均有法可依,获得处理风险的工具和指导方针。
对于可能到来的监管,争议核心在于监管是否会阻碍或扼杀创新,尤其是哪些人工智能技术或系统有可能被定义为“高风险”。即将出台的规则将有助于制定“新的全球规范,确保人工智能可以被信任”。
OpenAI的首席执行官山姆·阿尔特曼在承认人工智能确实存在重大安全挑战的同时,也表示暂停训练并非解决之道。当地时间4月15日,路透社援引知情人士消息称,马斯克在美国成立了一家名为X.AI的人工智能公司,旨在与OpenAI展开竞争,而就在3月底,他还在抵制ChatGPT。AI热并未降温,投资者正紧盯行业投资机遇,AI对算力的极高要求甚至有望给芯片业带来新的增长点。
监管亟须到位,创新不能停止,这正是当下AI创新之路上两条并行不悖的轨迹。(周武英 )