科技 2023-08-17 14:31

chatgpt的创造者OpenAI正在开发其GPT-4大型语言模型(LLM),以自动化跨数字平台,特别是社交媒体的内容审核过程。

OpenAI在一篇博客文章中表示,该公司正在探索利用GPT-4在长内容政策文档中解释规则和细微差别的能力,以及它对政策更新的即时适应能力。

“我们相信这为数字平台的未来提供了一个更积极的前景,人工智能可以根据平台特定的政策帮助调节在线流量,减轻大量人工版主的精神负担,”该公司表示,并补充说,任何访问OpenAI API的人都可以实现自己的版主系统。

该公司表示,与目前完全手动且耗时的内容审核做法不同,OpenAI的GPT-4大型语言模型可以在数小时内创建自定义内容策略。

为了做到这一点,数据科学家和工程师可以使用由政策专家制定的政策指南和包含此类政策违规的真实示例的数据集来标记数据。

人类帮助测试人工智能公司ntent适度

然后,GPT-4读取策略并为相同的数据集分配标签,而不会看到答案。政策专家通过检查GPT-4的判断与人类的判断之间的差异,可以要求GPT-4提出其标签背后的理由,分析政策定义中的模糊性,解决混乱,并据此进一步澄清政策。”

在大型语言模型能够产生令人满意的结果之前,数据科学家和工程师可能会重复这些步骤,并解释说,迭代过程产生精细的内容策略,这些策略被翻译成分类器,从而能够大规模地部署策略和内容审核。

根据OpenAI的说法,使用GPT-4相对于目前的手动内容审核方法的其他优点包括减少不一致的标签和更快的反馈循环。

“人们可能会对政策有不同的解读,或者一些版主可能需要更长的时间来消化新的政策变化,从而导致标签不一致。相比之下,法学硕士对措辞的细微差异很敏感,可以立即适应政策更新,为用户提供一致的内容体验。”

据该公司称,这种新方法在训练模型方面花费的精力也更少。

此外,OpenAI声称这种方法不同于所谓的宪法人工智能,在宪法人工智能下,内容审核依赖于模型自己对安全的内化判断。包括Anthropic在内的多家公司都采用了符合宪法的人工智能方法来训练他们的模型,使其没有偏见和错误。

然而,OpenAI警告说,在训练过程中,不希望出现的偏见可能会渗透到内容审核模型中。

“与任何人工智能应用程序一样,结果和输出将需要通过保持人类在循环中进行仔细监控,验证和改进,”它表示。

业内专家认为,OpenAI的内容审核方法很有潜力。“GPT-4是一个超级强大的模型,OpenAI有源源不断的用户试图让它做有害的事情。这是很好的训练数据,”人工智能服务公司Rapyd.AI的管理合伙人托比亚斯·茨温曼(Tobias Zwingmann)说。

如果OpenAI的大型语言模型能够成功地用于内容审核,它将为该公司打开一个数十亿美元的市场。

根据联合市场研究公司的一份报告,全球内容审核服务市场在2021年的价值为85亿美元,预计到2031年将达到263亿美元,从2022年到2031年的复合年增长率为12.2%。