当前位置:国际 > 正文
马斯克、沃兹尼亚克......千名科技大佬集体发声,要“封杀”AI?_速递
2023-03-29 17:33:32 来源:

3月29日,国外知名非营利机构未来生命研究所(Future of Life Institute)发布了一封公开信,呼吁将类似GPT-4这样的超强人工智能训练计划暂停六个月。

目前,包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克在内的一千多名人工智能专家和行业高管签署了一份公开信,理由是他们认为目前人工智能系统训练对社会和人性存在潜在风险


(资料图)

公开信表示,大量研究表明,得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。正如业界广泛认可的Asilomar AI原则中所述,高级AI可能意味着地球生命史上的深刻变化,我们应该投入相应的考量和资源,对之进行规划和管理。

公开信认为,不幸的是,到目前为止,还没有任何人采取行动。最近这几个月,全球的AI实验室已经完全失控了。它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

公开信对此前OpenAI关于人工智能的一份声明表示了赞同:某个阶段,在开始训练未来的系统之前,进行独立的审查可能非常重要。而对于创建新模型所用算力的增长速度,也应该有所限制。

对此,这一千多名专家学者呼吁,暂停高级人工智能开发,直至此类设计的共享安全协议经由独立专家开发、实施和审核。

具体来看,学者们认为这一AI管理系统应该包含以下几个功能:

1、专门负责监管AI的机构。

2、出处和水印系统,从而帮助区分真实与生成的内容,并且能够跟踪模型的泄漏。

3、强大的审计和认证系统。

4、在AI造成伤害后,明确谁该承担责任。

5、为AI安全技术研究提供强大的公共资金。

公开资料显示,未来生命研究所建立于2014年,是一个非营利组织,由一系列个人和组织资助,以“引导变革性技术造福生活,远离极端的大规模风险”为使命。

这封重磅的专家联名信一经发布,便引发全球媒体舆论的高度关注。对于是否应该放缓AI研发的脚步,人们也众说纷纭。不过超强AI是否真的已经步入“临界点”确实已成为当下业内关注的焦点。

日前,OpenAI创始人Sam Altman在接受采访时表示:GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。

事实上,目前业内在训练此类大模型时也都发现了这一特征。

“我们之前就观察到,在给人工智能投喂数据的时候存在一个‘跃迁’点。”一位人工智能领域资深工程师告诉记者,此类模型的“智能”水平的提升并非平滑曲线,而是存在某一临界点上突然地增长,“当时就发现在十几亿的一个量级时,出现了一次明显提升。”

采访中,多位业内人士也表示了,公开信中的担忧不无道理。

“由于目前并不清楚其中的机制,从过去几次的跃迁来看,AI智能的量级提升程度很难预测。”一位业内人士称,因此若进一步扩大数据投喂与训练程度,GPT5的智能化程度可能超出目前的预期。

事实上,由AI引发的风险已经出现。

3月27日,欧洲刑警组织发布了一份报告,对采用ChatGPT类工具进行犯罪的可能性进行了讨论。

报告中表示,大型语言模型检测和重现语言模式的能力不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。

值得注意的是,目前有国外科技团队预测,作为过渡版本的GPT-4.5或许将在今年9月左右推出,届时AI的性能将进一步提升。

(文章来源:上海证券报)

关键词:
责任编辑:zN_2953