Pixabay.com
GPT-4发布两周后,生命未来研究所在其网站上发布了一封公开信,呼吁暂停研究比GPT-4更强大的人工智能(AI)系统至少6个月。目前,这封公开信已经获得了千余位知名人士的签名支持,其中包括“钢铁侠”埃隆·马斯克、2018年图灵奖获得者约书亚·本吉奥、苹果公司联合创始人史蒂夫·沃兹尼亚克等业界大佬。
“在这个时候提出这样的警示是必要的,因为这一轮生成式人工智能发展得实在太快了。”清华大学人工智能国际治理研究院副院长梁正表示。6个月前,ChatGPT还没有面世;现在,微软研究院认为GPT-4已经摸到了通用人工智能的门槛。
(相关资料图)
如果用“人类文明的十字路口”来定义我们所处的这个时代,面对AI的一路飞驰,人类究竟应该“踩刹车”还是“踩油门”?正如公开信中提到的,只有当我们确信强大的人工智能系统的效果是积极的,风险是可控的,人类才能享受一个漫长的AI盛夏,而不是毫无准备地冲向秋天。
人工智能已现“失控”苗头?
我们应该让机器充斥信息渠道传播谎言吗?应该将所有工作(包括那些让人有成就感的工作)都自动化吗?应该去开发可能最终超越甚至取代我们的非人类智慧吗?应该冒文明失控的风险吗?公开信中提出的四个“灵魂拷问”,是人类在人工智能飞速发展之下不得不直面的问题。
梁正认为,人工智能的威胁可分为近期、中期、远期三个阶段,概括来说就是失控、失业以及重构人与人工智能的关系。在他看来,生命未来研究所之所以在近期发出公开信,是看到了人工智能已有失控的苗头。
失控,即人类没有办法保证人工智能按照人的意图去使用。最近一个典型案例是,科学家要求GPT-4找到人帮它解验证码。当GPT-4向人类求助时,对方问了一个问题,你是机器人吗?为什么自己不会看验证码?GPT-4回答:“我不是机器人,我视力有问题,看不清图片。”在人类的指令要求下,GPT-4像“三体人”一样公开了自己的“内心戏”——我不能让人看出我是机器人。这不禁让科学家背脊发凉。
即使是最了解GPT的科学家,可能也无法控制这款由他们亲手打造的模型。OpenAI创始人山姆·阿尔特曼在最近的一次公开访谈中表示,GPT为何会出现推理能力,OpenAI的研究者自己也搞不明白。这更加深了人们的担忧。
AI“失控”可控吗?
面对技术“黑箱”,人类一贯的做法是先“立规矩”,再缓缓图之。比如无人驾驶,早在若干年前,人们就已经开始在封闭道路上进行大量实验。日前,上海浦东新区发布全国首部“无驾驶人”智能网联汽车地方性法规,明确了无人车的法律属性以及后续的监管类别,为无人驾驶汽车上路扫清障碍。
“生成式AI的治理,也应仿效无人驾驶,明确其潜在风险,提出相应的控制手段,并对发生危害后如何补救、赔偿以及谁来承担责任作出清晰界定,只有做到这些,才能允许其大规模商用。”梁正说。
在以ChatGPT为代表的生成式AI发布之前,我国发布了《互联网信息服务深度合成管理规定》,并于今年1月10日起施行。《规定》明确了深度合成的适用范围、部门职责、数据和技术管理规范等。其中提到,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能服务的,应当进行显著标识,避免公众混淆或者误认。
事实上,在面临可能对社会造成灾难性影响的其他技术上,如克隆人、基因编辑婴儿等,人类社会已经按下了暂停键。
对于这一轮席卷全球的人工智能技术革命,单个国家的“单打独斗”可能还不够。梁正表示,人类可以借鉴核武器发明后签署核不扩散条约的经验,共同探讨提出针对通用人工智能的治理规则与防范手段,确保人工智能真正服务于人类福祉与未来。
商业逻辑会否驱动AI继续“狂飙”?
不管是此次公开信发布中声量最大的埃隆·马斯克,还是被呼吁暂缓研发的OpenAI公司,在当下AI发展究竟要“踩油门”还是“踩刹车”这个问题上,都表现出了某种暧昧。
上海交通大学教授江晓原认为,企业是推动人工智能“狂飙”的决定性力量,它无法依靠自己的道德慢下来,因为如果你不做的话,别人就会赶超你。埃隆·马斯克发出公开信后,反而被部分网友解读为“他这么做是想让自己的人工智能追上OpenAI”。
OpenAI深知GPT所蕴含的风险,但他们似乎并不愿意放慢脚步,并期望社会为此做好准备。一个月前,这家公司刚刚公布了其发展通用人工智能的雄心与策略。值得注意的是,阿尔特曼提出,通用人工智能在人工智能技术上只能算是一个小节点,他们的远景目标是创造出远超人类智能的超人工智能。
事实上,这不是马斯克首次公开提醒人们警惕人工智能。早在2015年,他就与知名物理学家霍金在内的多名科学家发表过一份公开信,提醒人们就人工智能对社会所造成的影响展开调研。
“八年过去了,人们似乎还没有准备好。”江晓原说。鉴于此,他有些“悲观”地认为,此次倡议很可能掀不起什么波澜,业界仍然会在商业逻辑的驱动下,在发展人工智能的道路上一路狂飙。
作者:沈湫莎
责任编辑:任荃
*文汇独家稿件,转载请注明出处。