为了打击儿童性虐待内容 (CSAM) 的传播,包括 Google、Meta 和 OpenAI 在内的顶级生成式 AI 开发者联盟誓言要加强对这一新兴技术的监管。

该组织由两个非营利组织组成:儿童科技组织 Thorn 和总部位于纽约的 All Tech is Human。 Thorn 的前身是 DNA 基金会,由演员黛米·摩尔 (Demi Moore) 和阿什顿·库彻 (Ashton Kutcher) 于 2012 年创立。

这项集体承诺是在周二宣布的,同时发布了一份新的 Thorn 报告,该报告提倡在生成式 AI 开发中遵循“设计安全”原则,该原则将防止在 AI 模型的整个生命周期中创建儿童性虐待材料 (CSAM)。

“我们敦促所有开发、部署、维护和使用生成式人工智能技术和产品的公司致力于采用这些设计安全原则,并展示他们致力于防止 CSAM、AIG-CSAM 和其他儿童性行为的产生和传播。虐待和剥削,”索恩在一份声明中说。

AIG-CSAM 是人工智能生成的 CSAM,报告表明其创建相对容易。

图片:索恩

索恩开发的工具和资源专注于保护儿童免受性虐待和性剥削。该组织在其 2022 年影响报告中表示,发现了超过 824,466 个包含虐待儿童材料的文件。去年,Thorn 报告称,仅在美国就报告了超过 104 亿份可疑 CSAM 文件。

在生成式人工智能模型公开后,深度伪造儿童色情内容在网上已经成为一个问题,并且不需要云服务的独立人工智能模型在暗网论坛上传播。

索恩说,生成式人工智能使创建大量内容比以往任何时候都更加容易。单个儿童掠夺者可能会创造大量儿童性虐待材料 (CSAM),包括将原始图像和视频改编成新内容。

索恩指出:“AIG-CSAM 的涌入给本已不堪重负的儿童安全生态系统带来了重大风险,加剧了执法部门在识别和营救现有虐待受害者方面所面临的挑战,并扩大了更多儿童的新受害范围。”

索恩的报告概述了生成式人工智能开发人员应遵循的一系列原则,以防止他们的技术被用来制作儿童色情内容,包括负责任地采购训练数据集、纳入反馈循环和压力测试策略、利用内容历史或“来源”进行对抗性滥用牢记这一点,并负责任地托管各自的人工智能模型。

其他签署该承诺的公司包括微软、Anthropic、Mistral AI、亚马逊、Stability AI、Civit AI 和 Metaphysical,今天各自发布了单独的声明。

Metaphysical 首席营销官 Alejandro Lopez 表示:“我们 Metaphysical 的精神之一是在人工智能世界中负责任地进行开发,对吧,这是关于授权,但也是关于责任。” 解码。 “我们很快认识到,启动和发展这意味着真正保护我们社会中最弱势的群体,即儿童,不幸的是,这项技术的最黑暗的结局是,它被用于以深度伪造色情内容形式传播儿童性虐待材料,这已经发生了。”

Metaphysical 于 2021 年推出,去年引起了人们的关注,此前有消息称,包括汤姆·汉克斯 (Tom Hanks)、奥克塔维亚·斯宾塞 (Octavia Spencer) 和安妮·海瑟薇 (Anne Hathaway) 在内的几位好莱坞明星正在使用 Metaphysical Pro 技术对他们的肖像特征进行数字化,以保留对必要特征的所有权训练人工智能模型。

OpenAI 拒绝进一步评论该计划,而是提供 解码 儿童安全负责人切尔西卡尔森的公开声明。

“我们非常关心我们工具的安全和负责任的使用,这就是为什么我们在 ChatGPT 和 DALL-E 中建立了强大的护栏和安全措施,”卡尔森在一份声明中说。 “我们致力于与 Thorn、All Tech is Human 以及更广泛的科技社区合作,维护安全设计原则,并继续努力减轻对儿童的潜在伤害。”

解码 我们联系了联盟的其他成员,但没有立即收到回复。

“在 Meta,我们花了十多年的时间致力于确保人们的在线安全。在那段时间里,我们开发了许多工具和功能来帮助预防和对抗潜在的伤害——随着捕食者已经适应并试图逃避我们的保护,我们也在继续适应,”梅塔在一份准备好的声明中说。

“在我们的产品中,我们通过结合哈希匹配技术、人工智能分类器和人工审查来主动检测和删除 CSAE 材料,”谷歌负责信任和安全解决方案的副总裁 Susan Jasper 在一篇文章中写道。 “我们的政策和保护措施旨在检测各种 CSAE,包括人工智能生成的 CSAM。当我们发现剥削性内容时,我们会将其删除并采取适当的行动,其中可能包括向 NCMEC 报告。”

10 月,英国监管组织互联网观察基金会警告称,人工智能生成的虐待儿童内容可能会“淹没”互联网。

瑞安·小泽编辑。

随时了解加密新闻,在您的收件箱中获取每日更新。