本月早些时候,Zoom修改了服务条款,试图让高管们放心,它不会使用Zoom的数据来训练生成式人工智能模型,但它很快就激起了马蜂窝。因此,该公司“修改”了服务条款,并保留了它仍然可以完全访问用户数据的方式。
(《计算机世界》(Computerworld)曾多次联系Zoom,希望了解这些变化的真正含义,但都没有成功。)
在我深入研究法律术语——以及Zoom错误地暗示它没有在做它显然在做的事情——之前,让我提出一个更关键的问题:视频通话行业有人这么做吗?微软?谷歌吗?这两家公司从未遇到过他们不喜欢的数据集。
生成人工智能训练的一个大问题是无法预测生成人工智能。它容易产生“幻觉”,尽管人们普遍认为,随着时间的推移,它会通过各种更新变得更好、更准确,但事实恰恰相反。OpenAI的ChatGPT准确率在最近的版本中大幅下降。
一旦数据被输入,谁也不知道它会从哪里出来。亚马逊在今年早些时候吸取了这一教训,当时它注意到ChatGPT在答案中泄露了亚马逊内部的敏感数据。亚马逊的工程师正在测试ChatGPT,给它提供内部数据,并要求它分析这些数据。它分析得很好,然后从中学习——然后自由地与世界各地的每个人分享它学到的东西。
记住这个场景,考虑一下典型的Zoom调用。企业用它来召开内部会议,详细讨论最敏感的计划和问题。医生用它来和病人讨论。
Zoom在修改后的服务条款中是这样说的:
“客户内容不包括任何遥测数据、产品使用数据、诊断数据以及Zoom收集或生成的与您或您的最终用户使用“服务”或“软件”相关的类似内容或数据。在您与Zoom之间,服务生成数据的所有权利、所有权和利益以及其中的所有专有权利均属于Zoom,并由Zoom单独保留。您同意,Zoom根据“客户内容”以及“服务”和“软件”的使用情况编译并可能编译“服务生成数据”。您同意Zoom以适用法律允许的范围和方式,出于任何目的访问、使用、收集、创建、修改、分发、处理、共享、维护和存储服务生成数据,包括用于产品和服务开发、营销、分析、质量保证、机器学习或人工智能(包括用于算法和模型的培训和调整)、培训、测试、改进服务、软件或Zoom的其他产品、服务和软件,或其任何组合,以及本协议中另有规定的。”
除非我没记错,极速的律师显然忘了把你长子的全部权利写进去。(他们会做到的。)他们接着说:
“Zoom可以重新分发、发布、导入、访问、使用、存储、传输、审查、披露、保存、提取、修改、复制、共享、使用、显示、复制、分发、翻译、转录、创建衍生作品和处理客户内容:您同意授予并在此授予Zoom永久的、全球性的、非排他性的、免版税的、可再许可的和可转让的许可,以及重新分发、发布、导入、访问、使用、存储、传输、审查、披露、保存、提取、修改、复制、共享、使用、显示、复制、分发、翻译、转录、创建衍生作品所需或必要的所有其他权利。处理“客户内容”,并在Zoom向您提供“服务”(包括支持“服务”)所必需的情况下,就“客户内容”执行一切行为;(ii)用于产品和服务开发、营销、分析、质量保证、机器学习、人工智能、培训、测试、改进“服务”、“软件”或“Zoom”的其他产品、服务和软件,或其任何组合;以及(iii)与第10.3条允许的任何使用或其他行为有关的任何其他目的。”
好的。然后为了搞笑,他们输入:“尽管有上述规定,未经您的同意,Zoom不会使用音频、视频或聊天客户内容来训练我们的人工智能模型。”真的吗?如果他们删除了前面的单词,那么这可能是合法的。
这里有两个漏洞。“没有你的同意。基于上述所有内容,仅通过使用该产品即可授予此类同意。我反复要求Zoom指出,用户可以在网站(或应用程序)的哪个地方撤销对任何人工智能培训的同意。不回答。他们确实为一些非常有限的服务提供撤回同意的服务,比如总结会议记录。但总体来说吗?其实不然。
使用该产品的同意机制对于非客户来说尤其麻烦。假设一家企业支付并主持了一次电话会议,然后邀请客户、一些承包商和其他合作伙伴参加会议。这些客人是否明白,他们所说的任何话都可能被输入到生成式人工智能中?除了拒绝参加,客人还能怎么拒绝同意呢?
另一个漏洞涉及“内容”一词。正如Zoom所描述的那样,它收集的大量元数据和其他信息并不严格考虑内容。Zoom在一篇博客文章中讨论了这个问题:“我们的客户总体上是如何使用我们的产品的——遥测、诊断数据等。这通常被称为服务生成的数据。我们希望透明地表明,我们认为这是我们的数据。”
对这种数据攫取的抵制可能毫无意义。Zoom并没有退缩,除非竞争对手对这种生成式人工智能训练采取明确的立场,否则这种情况将一次又一次地发生。
Kathleen Mullin是一位资深的首席信息安全官(曾在坦帕国际机场和美国癌症治疗中心工作过),现在承担部分首席信息安全官的工作。她说,她怀疑微软是否会做Zoom正在尝试的同样的事情。
穆林说,微软“是很多法学硕士的鼻祖,所以我不知道他们是否需要Teams的数据。”这是一个公平的观点,但许多企业从来没有让“我们不需要这些数据”阻止他们使用某些数据。
斯科特·卡斯尔(Scott Castle)曾在人工智能公司Sisense担任了四年的首席战略官,今年7月离开了该公司。他说,他发现Zoom的努力令人不安。他说,“首席信息官们并没有那么关注”如何使用来自合作伙伴的数据。“他们只是试图领先市场几年。
“这里的问题是,创建底层数据的是用户,而Zoom说,‘如果你使用(我们的服务),我们想从这个行动中分一杯羹。在某种程度上,这是一种过分的做法,它试图切断关于谁是价值创造者的对话:‘你仍然拥有你的内容,但我们拥有你的所有内容。“我认为它试图以一种非常天真的方式把东西分成你的和我的。“你名义上拥有你创造的毫无价值的东西,但我拥有其他一切,包括像素和图像中的所有内在信息。”
“如果Zoom后来破产了怎么办?”这些数据到哪里去了?”
《数据占卜:大数据战略》一书的作者、数据分析专家帕姆·贝克认为,Zoom的举动可能更加危险。
“Zoom的新人工智能抓取政策——没有办法退出——是一个更大问题的征兆,”贝克说。“我们正在看到有史以来最广泛的数据收集工作,所有这些都是以训练人工智能的名义,在每个时刻,每个方面,每个想法和行动,以及人们的每个想法-更不用说收获知识产权,版权作品和专有信息。这是像负责任的人工智能这样的运动应该阻止的,但如果不尽快制定法律来防止这种收获,隐私就已经死了。”