数百名科技行业领袖、学者和其他公众人物签署了一封公开信,警告人工智能(AI)的进化可能导致灭绝事件,并表示控制技术应该是全球的首要任务。
总部位于旧金山的人工智能安全中心(Center for AI Safety)发表的声明称:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球的优先事项。”
信中的简短声明读起来几乎像是对这项技术的认错,而这项技术的创造者现在正联合起来警告世界。
具有讽刺意味的是,在这封信的顶部,最著名的签名者包括OpenAI的首席执行官萨姆·奥特曼,该公司创造了广受欢迎的生成式人工智能聊天机器人ChatGPT,以及OpenAI的最大投资者微软的首席技术官凯文·斯科特。谷歌人工智能研究实验室DeepMind的高管、工程师和科学家也加入了OpenAI的许多创始人和高管的行列。
杰弗里•辛顿(Geoffrey Hinton)被誉为人工智能之父,因为他在过去40年左右的时间里对这项技术做出了贡献,他也在今天的公开信上签名。在本月早些时候麻省理工学院的一次问答会上,辛顿甚至表示,在人工智能的发展过程中,人类只不过是一个短暂的阶段。他还说,在70年代和80年代,研究如何制造人工神经网络是完全合理的。但今天的科技就像是基因工程师决定改善灰熊,让它们说英语,并将它们的“智商提高到210”。
然而,辛顿表示,他并不后悔在创造人工智能方面发挥了重要作用。“这真的是不可预见的,这一阶段是不可预见的。直到最近,我还认为这种生存危机还很遥远。所以,我对我所做的一切并不后悔。”
本月早些时候,七国集团(G7)领导人呼吁制定技术标准,以控制人工智能(AI),称人工智能已经超过了对安全和安保的监管。本月早些时候的美国参议院听证会,包括OpenAI的奥特曼的证词,也说明了人工智能进化中出现的许多明确而现实的危险。
“人工智能安全中心签署的声明确实是不祥之兆,在科技行业没有先例。你什么时候听说过科技企业家告诉公众,如果不加以控制,他们正在研究的技术可能会消灭人类?Gartner副总裁兼杰出分析师阿维娃·利坦(Avivah Litan)说。“然而,由于竞争压力,他们仍在继续努力。”
虽然是第三次灭绝,但Litan还指出,企业也面临人工智能使用带来的“短期和迫在眉睫”的风险。她说:“它们涉及错误信息和虚假信息的风险,以及网络攻击或社会操纵的可能性,其规模比我们在过去十年中看到的社交媒体和在线商务要快得多。”“如果不加以控制,这些短期风险很容易失控。”
人工智能带来的短期风险可以通过护栏和技术解决方案来解决和减轻。她指出,长期存在的风险可以通过国际政府合作和监管来解决。
利坦说:“各国政府的行动非常缓慢,但技术创新和解决方案——在可能的情况下——正在以闪电般的速度进行,正如你所预料的那样。”“所以,每个人都在猜测未来会发生什么。”
在今天的这封信之前,未来生命研究所(Future of Life Institute)曾在3月份发布过一封类似的信。这封信由苹果联合创始人史蒂夫·沃兹尼亚克、SpaceX首席执行官埃隆·马斯克和近3.2万人签署,呼吁暂停ChatGPT的开发6个月,以便更好地实施控制。
3月份的这封信呼吁监督和跟踪高性能的人工智能系统和大型计算能力池;来源和水印系统,以帮助区分真实的合成和跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成损害的责任;为人工智能技术安全研究提供强有力的公共资金;以及资源充足的机构,以应对人工智能将造成的严重的经济和政治破坏(尤其是对民主的破坏)。
人工智能安全中心(Center for AI Safety)主任丹·亨德里克斯(Dan hendricks)今天在一条后续推文中写道,“人工智能的发展可能会有很多问题,就像流行病可能来自管理不善、公共卫生系统不佳、野生动物等一样。”考虑通过推特或帖子分享你对人工智能风险的初步想法,以帮助启动对话,以便我们能够共同探索这些风险源。”
亨德里克斯还引用了理论物理学家、原子弹之父罗伯特·奥本海默(Robert Oppenheimer)的话:“我们知道世界将不再是原来的样子。”
人工智能安全中心是一家总部位于旧金山的非营利研究机构,其使命是“确保人工智能的安全开发和部署”。
该组织的网页上写道:“我们相信,只要我们能够安全地开发和使用人工智能,它就有可能给世界带来深远的好处。”