当前位置: 首页 >> 分析
视讯!350位大佬联名警告!AI可能灭绝人类?但对普通人来说更紧迫的是什么
来源:第一财经     时间:2023-06-02 20:21:56

最近,生成式AI的影响力不断扩大,不仅拉动NVIDIA市值突破万亿美元,还在不断孕育新的独角兽,然而,一股阴郁的乌云也正在酝酿,来自人工智能领域的公开信试图为人们敲响警钟。

5月30日,超过350名人工智能行业的高管、研究人员和工程师联合在非营利组织“人工智能安全中心”(Center for AI Safety)发布的一份公开信上署名,公开信内容只有一句话:降低人工智能灭绝人类的风险,应该把它与大流行病、核战争等社会风险一样,当做全球的优先关注事项。


【资料图】

这350人中很多都是AI领域的权威人士,比如OpenAI的CEO Sam Altman、谷歌DeepMind的CEO Demis Hassabis,人工智能“教父”Geoffrey Hinton,Anthropic的CEO Dario Amodei等等。

其实,在3月份,马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等人就发表联名公开信,呼吁暂停训练比GPT-4更强大的AI,而Sam Altman也曾呼吁建立类似于国际原子能机构一样的组织来加强国际监管。

不过,这次的用词比以前更加惊悚,可能是想提醒人们,AI也许对人类的生存繁衍构成威胁。

从本质上说,AI与很多新技术一样是一把双刃剑,他们联合署名的出发点也有一定的公益性质,但事情也许并不是这么简单。

首先,并不是所有AI权威都参与了署名,比如吴恩达发推回应称:AI是人类应对流行病、气候变化、小行星等很多风险的关键技术,所以应该让它发展得更快而不是更慢。

虽然AI已经在很多领域取得了显著的进展,但离真正意义上的强人工智能,即在所有人类智能任务上都能匹敌或超越人类,还有很长的路要走,因此,我们可能需要对AI的能力有一个更现实的认识,不应过分夸大其可能带来的风险。

实际上,AI与核武器之间有很大区别,核武器的风险是具有很强的破坏性,而AI的主要风险是可能带来的社会变革,如失业、隐私侵犯、虚假信息等等,AI的这些影响是持久并且广泛的,而且在很大程度上取决于人们如何使用AI而不是AI本身。

并且,每隔一段时间就出现一次倡议,已经引起了一些人的抵触,有人就说:“搞出来的是你们,不让搞的也是你们,别闹了!”

看似矛盾的表象之下,可能有一些隐藏的动机,AI的颠覆能力可能会淘汰一些旧的巨头,孕育一些新的赢家,但有潜力成为新赢家的人就可能考虑建立新的竞争门槛。

比如,AI领域的领先者可能会支持更严格的监管,以便保持自己的竞争优势,因为他们已经有了应对这些监管所要求的资源和基础设施。

而对于新进入者或小型公司,这样的监管壁垒可能会阻碍他们发展,因为他们可能没有足够的资源来应对复杂的监管要求。

如果在人工智能领域占据先发优势,就可能形成马太效应,再叠加算法更新和模型训练,就会进一步放大马太效应,而如果在此基础上再附加行业准入门槛,先发者的地位可能就更加稳固。

这就是为什么我们强调现在是“AI的线膛枪革命”时期,线膛枪替代滑膛枪的窗口期是有限的,这次生成式AI变革留给我们的窗口期可能很短暂,因为先行者会不断构筑自己的技术壁垒、规模壁垒和规则壁垒,越到后面就越难进入。

其实,与风险相比,AI创新才是真正的核心,因为AI最大的价值在于具有复制人类专家经验的潜力,能让以前只有少数人可以享受的专家级服务,变成大部分人都能享受的个性化高端服务,也就是我们一直倡导的服务规模化。

而要实现服务规模化,不仅仅需要大模型平台创新,更需要各行各业、大大小小的企业参与应用创新,这样才能真正实现AI的普惠化,让社会大众都可以享受到它带来的便利与实惠。

这就意味着,虽然AI行业监管是大势所趋,但重点是如何避免让监管沦为设定门槛和不当竞争的武器。

所以,重要的不是几句倡议,而是建立一个透明、公正的AI监管制度,而在这一问题上,不能只听某些利益相关方的一面之词,应该更广泛地听取各方的观点。找到一个既能鼓励AI创新,又能有效防止AI风险的解决方案。

(文章来源:第一财经)

标签:

广告

X 关闭

广告

X 关闭