首页 > 新闻 > 智能 > 正文

签名支持全球管控 AI,三巨头侧漏“求生欲”_世界新资讯

2023-06-01 12:24:01来源:ZAKER科技  

文 | 元宇宙日爆,作者 | 凯蒂,编辑 | 文刀


(资料图)

又一封 " 群星云集 " 警示 AI 风险的公开信来了,这封信的内容简短但措辞炸裂:减轻 AI 带来的灭绝风险,应该与管控流行病和核战争等其他社会级规模的风险一样,成为一项全球优先事项。

5 月 30 日,这纸原文只有 22 个单词的声明,出现在美国非营利组织 " 人工智能安全中心(Center for AI Safety)" 的官网上,超过 350 名 AI 领域的企业界和学界名流为之签名。

与 2 个半月前 " 生命未来研究所 " 发出的、上千名人签名呼吁 " 暂停训练大模型 6 个月 " 的那封公开信相比,最令人瞩目的是,这次,OpenAI、谷歌 DeepMind 和 Anthropic 的 CEO 都签了名。

值得注意的是,在签署 "22 字声明 " 前,OpenAI、谷歌、Anthropic 三家公司的负责人都出席了 5 月 4 日白宫发起的 AI 风险治理会议。面对风险管理,AI 三巨头近段时间显得比政府还着急。

最近,这三家公司 CEO 频繁地与欧洲多国首脑会晤,试图影响正在推进中的欧盟《人工智能法案》,这项法案很可能影响 OpenAI 等公司的生成式大模型进入欧洲市场,而那里是流量新神话缔造者 OpenAI 都暂未拿下的 " 处女地 "。

求管控 AI 风险的背后,是 AI 公司们满满的市场 " 求生欲 "。

三巨头留名最新 AI 风险声明

"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."

22 个单词组成了一纸《人工智能风险声明》,将 AI 带来的风险直接以 " 灭绝(extinction)" 措辞,严重程度堪比 " 流行病(pandemics)" 和 " 核战争(nuclear war)",管控紧迫度被表述为 " 应该成为全球优先事项 "。

5 月 30 日,在非营利组织 " 人工智能安全中心(Center for AI Safety)" 官网晒出的这纸声明下,有包括科学家、企业领导人在内的 350 多人签了自己的名字。

AI 三巨头的 CEO 的名字出现在名单中

" 我们必须让这个问题上公开化,因为许多人只在彼此之间默默地交谈。" 人工智能安全中心的执行主任丹 · 亨德里克斯(Dan Hendrycks)在谈到声明的目的时表示,一句话声明的简明扼要是特意为之,目的是让更多的科学家建立 " 广泛联盟 ",因为一些科学家可能还没有就 AI 有哪些风险以及预防风险的最佳解决方案达成一致。

350 个签名中,打头的两位是图灵奖得主杰弗里 · 辛顿 ( Geoffrey Hinton ) 和约书亚 · 本希奥(Youshua Bengio),紧跟着出现了戴米斯 · 哈萨比斯(Demis Hassabis)、山姆 · 奥特曼(Sam Altman)和达里奥 · 阿莫迪(Dario Amodei)三位,他们分别为谷歌 DeepMind、OpenAI 和 Anthropic 三家全球知名人工智能开发公司的 CEO。

一些中国知名学者也签了名,如清华大学智能产业研究院院长张亚勤、中科院自动化研究所的曾毅教授、清华智能产业研究院的副教授詹仙园。

如果把 " 用知识服务人类 " 视作知识分子的社会责任,专家、学者的签名很好理解,被誉为 "AI 教父 " 的辛顿今年 4 月从谷歌辞职,此后一直在公开场域表达对人工智能失控的担忧;本希奥曾在今年 3 月非营利组织 " 未来生命研究所(Future of Life Institute)" 发表的那一封 " 暂停巨型 AI 实验 " 公开信上签过字。

但在 2 个月前的那封信上,谷歌 DeepMind、OpenAI 和 Anthropic 这三家公司的负责人并没有签名,相比这次的 "22 字声明 ",那封信还详细阐述了 AI 可能带来的各种具体风险,甚至给出了明确的风险管理原则,至今已积累收集到 31810 个签名。

上次那封信引发的 AI 圈内的明显分歧是:到底应不应该为了风险而暂停 AI 实验。

当时,人工智能领域的学者吴恩达当时在 LinkedIn 上表示,全面暂停 AI 训练 6 个月的想法是一个糟糕、不切实际的想法。后来,OpenAI CEO 山姆 · 奥特曼 Sam Altman 更直观地表达了暂停的无意义," 我们暂停 6 个月,然后呢?我们再暂停 6 个月?"

但这次,AI 企业三巨头领导者带头签了这个风险阐述模糊但措辞严峻的 "22 字声明 " 从他们表态对声明的认同中,透露出管控 AI 风险的紧迫性。

短短的两个月半内,是什么致使 AI 公司们都转变了态度?

OpenAI 访问量增速放缓

现在,人类即便没有被 AI 灭绝,但生成式 AI 在作恶者的驱使下露出了 " 黑暗面 "。

比如,AI 的仿声仿貌功能正在被用作诈骗工具,AI 生成图片、文字的能力不仅被用来造假新闻,造出的 " 黄谣 " 直接伤害到普通个体的声誉。

相比生成式 AI 对常识 " 胡说八道 "、会陷入逻辑陷阱、解数学题不太行、数据隐私安全等缺陷,受害案例显示出的 AI 破坏力更具体、更直观地呈现在公众眼前。对 AI 开发公司来说,最直接的影响是那些刚刚开放 AI 应用给公众的开发公司,还能在负面舆论中的获得多少增量市场?

以访问量规模增长最快的、提供文本生成应用 ChatGPT 的 OpenAI 为例,其网页访问量从去年秋季的每月约 2000 万次增长到 2023 年 4 月的 18 亿次,刷新了互联网流量增长神话。但从网络分析公司 SimilarWeb 收集的数据看,OpenAI 的网页访问量增速在放缓。

OpenAI 的网页访问量增速放缓

OpenAI 网页的流量贡献主要来自于美国本土,份额能占到 10.25%,其次是印度(8.82%)、日本(7.48%)、印尼(3.84%)、加拿大(3.06%),每月的增量也来自这些国家,其中从日本获得访问增量最多,打到 28.86%。而俄罗斯、中国及欧洲各国基本没有为之贡献明面的流量,这些国家和地区的网民访问 OpenAI 是受限的。

OpenAI 自己切断了这些市场,最大的原因是各国对互联网的管理政策不一。相比俄罗斯和中国,欧洲似乎是更令人工智能公司们渴望的市场,然而,欧盟已经明确了针对人工智能立法。

此后,OpenAI、DeepMind、Anthropic 三家公司的 CEO 都出现在欧洲。

三位 CEO 在欧盟立法前齐现欧洲

4 月 27 日,欧洲议会成员已经就《人工智能法案(Artificial Intelligence Act)》提案达成临时政治协议。5 月 11 日,欧洲议会两个委员会通过了对《人工智能法案》(以下简称《法案》)提案的谈判授权草案。这一草案将于 6 月 12 日到 15 日提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。

《法案》的立法者根据风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府机构和企业将根据风险级别承担不同的义务。《法案》还将严格禁止 " 对人类安全造成不可接受风险的人工智能系统 ",包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。

如果《法案》顺利颁布,这将是人类历史上首部针对人工智能的法律。由于《法案》适用于在欧盟区内运行的所有人工智能系统,领导 AI 技术的美国企业如若想到打入欧洲市场,显然将会受到制约。

比如,《法案》要求,开发生成式 AI 工具的公司必须披露他们是否在系统中使用了受版权保护的材料。对于用各种来源的海量数据训练大模型的 AI 公司而言,这个要求将直接把他们拦在欧洲之外。

OpenAI、DeepMind、Anthropic 都开始关注欧洲动向。

5 月下旬,OpenAI CEO 山姆 · 奥特曼多次前往欧洲,分别与西班牙、波兰、法国和英国的政府首脑进行了会谈,讨论人工智能的发展潜力、威胁以及监管等问题。DeepMind 的 CEO 德米斯 · 哈萨比斯、Anthropic 的 CEO 达里奥 · 阿莫迪也与英国首相苏纳克会过面。

英国首相苏纳克会见 AI 三巨头的 CEO

与欧洲各国首脑交流,AI 科技公司们试图以此影响《法案》进程。不止如此,山姆 · 奥特曼还用演讲、采访等各种方式面向欧洲大众发声,希望 " 民意 " 与他们站在一起。

在伦敦大学学院的演讲中,奥特曼坚持着他的观点:人们对 AI 的种种担心有道理,但 AI 的潜在好处要大得多。谈到 AI 监管,奥特曼表示 OpenAI 欢迎监管,但需要 " 正确的监管方式 ",因为 " 过度监管可能会损害小公司和开源运动 "。

5 月 25 日,奥特曼对英国媒体表达他对《法案》的看法," 很多措辞是不恰当的," 他认为,目前的欧盟 AI 法案草案将会造成过度监管的情况," 但我们听说它将调整,他们还在谈论这件事。"

距离《法案》的最终表决还有不到半个月时间,奥特曼的 " 游说之旅 " 还在继续。公开消息显示,奥特曼接下来会与欧盟产业主管埃里 · 布雷顿(Thierry Breton)会面,讨论欧盟应如何实施在人工智能方面全球领先的规则。

一系列的欧洲行之后,AI 三巨头的三位 CEO 在 "22 字声明 " 下签字,认同声明中所述的全球优先管控 AI 风险之论。姿态背后是 AI 公司们试图在管控下扩大市场的 " 求生欲 "。

关键词:

责任编辑:hnmd003

相关阅读

相关阅读

推荐阅读