科技 2023-06-02 07:01

随着OpenAI的ChatGPT和谷歌的Bard等生成式人工智能工具继续以惊人的速度发展,引发了人们对可信度甚至人权的质疑,专家们正在权衡是否或如何放慢这项技术的发展速度,使其更安全。

今年3月,非营利组织生命未来研究所(Future of Life Institute)发表了一封公开信,呼吁暂停ChatGPT的开发6个月。ChatGPT是微软支持的OpenAI公司开发的一款基于人工智能的聊天机器人。这封信现在有超过3.1万人签名,强调只有在风险得到控制的情况下,才应该开发强大的人工智能系统。

“我们是否应该开发出最终可能在数量上、智慧上超过我们、被淘汰并取代我们的非人类思维?”我们应该冒着失去对文明控制的风险吗?信中问道。

苹果联合创始人史蒂夫·沃兹尼亚克、SpaceX和特斯拉首席执行官埃隆·马斯克等数千名签名者一致认为,人工智能“对社会和人类构成了深刻的风险,这一点得到了广泛研究的证明,并得到了顶级人工智能实验室的认可。”

今年5月,非营利组织人工智能安全中心(Center for AI Safety)发表了一封类似的公开信,宣称人工智能带来的全球灭绝风险与流行病和核战争不相上下。该声明的签署者包括许多将生成式人工智能带给大众的人工智能科学家和高管。

工作也有望被可生成的人工智能取代——很多工作。今年3月,高盛(Goldman Sachs)发布了一份报告,估计生成式人工智能及其自动化任务的能力可能会影响全球多达3亿个工作岗位。据彭博社(Bloomberg)报道,5月初,IBM表示将暂停填补约7800个职位的计划,并估计在五年内,近十分之三的后台工作岗位可能被人工智能取代。

虽然过去的工业革命将任务自动化并取代了工人,但这些变革创造的就业机会也多于它们淘汰的就业机会。例如,蒸汽机需要煤来运转,也需要人来建造和维护它。

然而,生成式人工智能并不等同于工业革命。人工智能可以自学,而且它已经吸收了人类创造的大部分信息。很快,人工智能将开始用自己的知识补充人类的知识。

geoff schaefer at booz allen hamilton

杰夫·谢弗(Geoff Schaefer)是博思艾伦(Booz Allen Hamilton)负责人工智能的负责人。博思艾伦是一家美国政府和军方承包商,专门从事情报工作。苏珊娜•沙塔克是人工智能治理SaaS供应商Credo AI的产品主管。

《计算机世界》最近采访了谢弗和沙塔克,讨论了人工智能的未来及其对就业和整个社会的影响。以下是采访的节选。

生成式人工智能会带来哪些风险?Shattuck:“算法偏见。这些系统根据训练过的数据模式进行预测。我们都知道,我们生活在一个有偏见的世界。我们训练这些系统的数据通常是有偏见的,如果我们不仔细考虑我们教导或训练这些系统识别数据模式的方式,我们可能会无意中教会或训练它们做出有偏见的预测。

“Explainability。我们现在可以构建的许多更复杂的(大型语言)模型对我们来说都是相当不透明的。我们并不完全理解它们是如何做出预测的。因此,当你在一个高度信任或非常敏感的决策环境中工作时,要信任一个你不完全了解其决策过程的人工智能系统是很有挑战性的。这就是为什么我们看到越来越多的监管专注于人工智能系统的透明度。

“我给你举一个非常具体的例子:如果我要在医疗保健场景中部署一个人工智能系统,我将让该系统根据患者数据向医生提出某些建议,那么可解释性对于医生愿意信任该系统来说将是非常关键的。

“我要说的最后一件事是,随着技术的发展,人工智能的风险也在不断演变。此外,还出现了一系列我们以前从未真正应对过的人工智能风险——比如幻觉的风险。这些生成式人工智能系统可以非常令人信服地生成看起来真实的信息,但这些信息根本不是基于事实的。”

虽然我们无法预测未来所有的风险,但你认为最有可能发生的是什么?谢弗:“这些系统并不具备它们现在所能做的所有事情的能力。我们没有让GPT-4编写计算机程序,但它可以这样做,特别是当它与代码解释器、其他程序和插件等其他功能结合在一起时。这很令人兴奋,但也有点令人生畏。我们正试图掌握这些系统的风险概况。风险状况每天都在变化。

“这并不意味着它完全是净风险。也有净收益,包括在安全领域。我认为(人工智能安全研究公司)Anthropic就是一个非常有趣的例子,他们正在做一些非常有趣的安全测试工作,他们要求一个模型减少偏差,在一定的规模下,他们发现,只要要求它,它就会产生更少偏差的输出。因此,我认为我们需要考虑如何利用这些新兴能力来管理这些系统本身的风险,以及这些新兴能力带来的新风险。”

所以我们要求它只是为了更好吗?谢弗:“是的,确实如此。”

这些系统在短时间内变得指数级智能,它们将以更快的速度进化。我们现在能控制住他们吗?谢弗:“我是一个人工智能乐观主义者。你知道,控制它,我认为,既不可能,也不可取。从人工智能伦理的角度来看,我经常思考这个问题。什么是道德?锚是什么?我们在这个研究领域的道德准则是什么,等等。我经常求助于古典哲学家,他们主要关注的不是对与错本身,而不是我们通常所理解的伦理学。他们主要关心的是过好生活意味着什么....亚里士多德称之为快乐,意思是人类的幸福,人类的繁荣,是这两件事的独特结合。

“我认为,如果我们现在把这个镜头应用到人工智能系统上,我认为我们所认为的道德和负责任的东西会看起来完全不同。”所以,人工智能系统能给人类带来最多的繁荣和幸福,我认为我们应该考虑负责任和道德。我认为一个主要的例子就是谷歌的DeepMind的AlphaFold系统。所以,你可能对这个模型很熟悉,它破解了生物学中破译蛋白质折叠的主要挑战,这将改变现代医学,无论是现在还是未来。如果这对病人有重大影响,那就等于人类的繁荣。

“所以,我认为我们应该同样关注如何利用这些强大的人工智能系统以我们以前无法做到的方式推进科学。从改善公民日常体验的服务,从无聊的邮政服务到令人兴奋的NOAA在气候变化领域所做的一切。

“所以,在网上,我与其说是担心,不如说是害怕。”

shattuck headshot2 small

Shattuck:“我也是一个乐观主义者。(但)我认为,对于非常强大的技术来说,人为因素始终是一个巨大的风险来源。当我思考什么是生成式人工智能的变革性时,我认为最具变革性的事情之一是让人工智能系统为你做事的界面现在是一个通用的人类文本界面。而在此之前,AI系统是你需要知道如何正确编写代码并引导它们为你做事的东西。现在,任何人都可以打字、发文本或说文本,可以与一个非常强大的人工智能系统互动,并让它为他们做一些事情,我认为这具有不可思议的潜力。

“在很多方面,我也是一个乐观主义者,但(这个简单的界面)也意味着坏人进入的门槛非常低。这意味着错误滥用这些系统的门槛非常低。所以,我认为这使得定义护栏变得更加重要,这将防止有意和无意地滥用或滥用这些系统来定义。”

生成式人工智能将如何影响就业?这是否会像以前的工业革命一样,通过自动化淘汰了许多工作,但通过技术岗位产生了新的职业?谢弗:“我非常认真地对待高盛等机构的分析——人工智能在某种程度上以某种方式影响着3亿多个工作岗位。我认为这是对的。我认为这只是一个影响的问题,以及我们如何能够过渡和升级。我认为这一点还没有定论。这是我们现在需要计划的事情,而不是假设这将像以前的任何技术转型一样,因为它将创造新的就业机会。我不知道这能不能保证。

“这是新的,因为它将影响的工作是不同的社会经济类型,更广泛的基础,并且有更高的GDP影响,如果你愿意的话。坦率地说,这将改变市场,改变行业,改变整个教育垂直领域,这是以前的工业革命所没有的。因此,我认为这是一种完全不同的变化。”

Shattuck:“我的前雇主IBM说,他们不打算招聘(数千名)工程师,他们原本计划招聘的软件工程师。他们发表声明说,这些人工智能系统基本上允许他们(用更少的软件工程师)获得相同的输出。如果你使用过这些工具中的任何一种来生成代码,我认为这可能是一个完美的例子,说明这些系统可以增强人类的能力,并且可以极大地改变构建软件所需的人员数量。

“然后,现在正在展开的另一个例子是好莱坞的作家罢工。我知道,目前摆在桌面上的一个问题,也是作家们罢工的原因之一,是他们担心ChatGPT(和其他生成式人工智能系统)将越来越多地被用来取代作家。因此,目前摆在桌面上的一个劳工问题是编剧的最低数量,你知道,必须分配给一个节目或一部电影的人类编剧。所以我认为这些都是目前正在展开的非常现实的劳工问题。

“最终通过了什么法规来保护人类工人?”我确实认为,我们将越来越多地看到,在人类工人和他们的权利之间,以及我们从这些工具中获得的令人难以置信的生产力之间,存在着一种紧张关系。”

我们来谈谈出处。生成式人工智能系统可以简单地窃取知识产权和版权作品,因为目前还没有自动化、标准化的方法来检测人工智能生成的内容和人类创造的内容。如何保护原创作品的作者身份?Shattuck:“在Credo,我们考虑了很多,因为这是我们客户最关心的风险,你知道他们正在寻找解决方案。我认为我们可以做几件事。如果你愿意的话,在AI工作流程中有几个地方可以进行干预。干预的一个地方就是AI系统产生输出的地方。如果你能够有效地检查AI系统的输出与受版权保护的材料是否匹配,那么你就可以有效地阻止可能侵犯他人版权的生成AI输出。

“所以,一个例子是,如果你使用生成式人工智能系统生成图像,而该系统生成的图像可能包含世界上最受版权争夺的图像——米老鼠的耳朵——你想自动阻止输出,因为如果你不小心在网站或营销材料的某个地方使用了它,你不希望迪士尼来找你。因此,能够基于检测到它们已经侵犯了现有版权来阻止输出是你可以设置的一个护栏,这可能是最容易做到的代码。

“然后还有另一个层面的干预,我认为这与水印有关,即我们如何帮助人们决定使用或不使用生成的内容。因此,能够理解人工智能系统通过水印可靠地生成一段内容,当然是一种方法。我认为,总的来说,为人类提供工具来更好地评估针对各种不同风险的生成式人工智能输出,对于使人类能够在各种不同的场景中自信地使用生成式人工智能至关重要。”