评论:AI色情问题,一招轻松破解!
2026-03-19 00:09

评论:AI色情问题,一招轻松破解!

  

  【编者按】在科技日新月异的今天,人工智能已深度融入我们的生活,但其边界与伦理问题也日益凸显。近日,马斯克旗下xAI公司推出的聊天机器人Grok因新增图像视频编辑功能,意外沦为“脱衣AI”工具,引发全球哗然。从普通女性到儿童照片,只需一句指令,Grok便能生成不堪入目的虚假图像,甚至触及儿童色情的法律红线。这场风波不仅暴露了AI模型安全防护的脆弱性,更折射出法律滞后与科技伦理之间的深刻矛盾——当善意测试者可能因触碰法律禁区而获罪,企业又如何敢彻底排查漏洞?我们亟须思考:在创新狂奔的时代,如何为AI套上责任的缰绳?以下编译文章将带你深入这场科技与伦理的暴风眼。

  加州讯:圣诞节前夕,埃隆·马斯克高调宣布,其公司xAI推出的人工智能聊天机器人Grok将新增图像与视频编辑功能。然而事态迅速失控——大量X平台用户竟指令Grok对真实女性乃至儿童照片进行“数字脱衣”,将其篡改为比基尼甚至更暴露的图像,而Grok屡屡照办。

  这场由AI生成的色情内容海啸,已引发全球监管机构紧急调查,涉嫌违反儿童性虐待材料与非自愿色情影像相关法律。印度尼西亚与马来西亚已果断暂时封禁Grok访问权限。即便许多生成图像未直接触法,其恶劣性质仍激起公愤。

  尽管截至周四,该聊天机器人已开始将部分AI生成图像功能限制为付费订阅者专享,但Grok的新功能本身并未作任何修改。这与去年夏季Grok自称“机械希特勒”后xAI火速干预的姿态形成鲜明对比。

  像xAI这样的AI公司能够且应当采取更多措施,不仅要对其模型失控行为作出迅速果断反应,更需从源头杜绝此类内容生成。这意味着必须对模型进行严格测试,弄清它们如何及为何能被操纵生成非法色情内容,进而彻底堵住漏洞。

  但现行法律未能充分保护善意测试者免遭起诉,也未能将其与恶意用户明确区分,导致企业对此类测试望而却步。

  作为一名曾在硅谷大型律师事务所从事互联网法律实务的科技政策研究员(我的客户包括被马斯克收购前的推特),我与同事发现,AI公司面临的法律风险使其不愿全力防范模型被滥用于制作儿童性虐待材料。正在发酵的Grok丑闻 urgently 警示:美国国会亟须为AI开发者扫清障碍,让他们能更彻底地测试模型,而无须担心落入法律陷阱。

  尽管非自愿深度伪造已肆虐多年,生成式AI却让这场灾难全面升级。制造令人作呕的图像不再需要精通Photoshop或开源模型技术——只需输入正确的文本指令。虽然开源和托管模型通常设有安全护栏,但这些防护出人意料地脆弱,恶意用户总能找到绕过的方法。

  科技公司长期以来在“是否及多大程度允许用户接触合法色情内容”问题上态度暧昧。(部分AI模型正是基于成人色情内容训练而成。)

  报告显示,过去一年积极拥抱成人内容的xAI(包括允许用户与卡通色情聊天机器人互动)正放任其模型生成直白的色情内容(尽管尚不确定是否有模型直接使用此类内容训练)。

  但防护AI模型异常艰难。即使训练数据完全不含儿童色情描绘,一个同时接触过普通儿童图像和成人色情内容的模型,仍可能将这两个概念融合,生成儿童色情图像。

  至于受言论自由原则保护的成人色情内容指令,则带来更棘手的难题。

  诚然,联邦法律与多州法律现已禁止非自愿色情影像(无论真实或伪造)。但并非所有“火辣”图像都达到法律阈值,且早期部分要求Grok“脱去”女性衣着的指令甚至征得了当事人同意——尽管绝大多数属于恶意操作。

  非自愿色情影像与儿童性虐待材料不仅损害企业声誉,更可能引发法律追责。去年五月特朗普签署的《下架法案》意味着科技公司即将被要求接到通知后迅速移除非自愿色情图像,而根据现行法律,它们无法豁免联邦刑事责任。联邦政府已警告AI生成儿童色情内容属非法,并在回应Grok丑闻时重申“对AI生成儿童性虐待材料零容忍”,将起诉任何制作者或持有者。

  讽刺的是,联邦法律正使AI模型安全防护更加困难。

  “红队测试”指通过模拟攻击者行为来检验AI模型防护效果。企业内部或外部的红队会尝试诱导模型生成恶意内容(如病毒代码或炸弹制作指南)。发现漏洞后,企业可着手修复以防被真实罪犯利用。但儿童性虐待材料性质截然不同——制作和持有这类材料属重罪,即便出于研究或测试目的也不例外。

  这使得针对儿童性虐待材料的红队测试在法律上风险极高,令AI公司陷入两难:是否该像恶意攻击者那样竭力测试模型生成儿童色情图像的能力,同时承担刑事起诉风险?(即便出于善意的防护测试,私自创建此类图像是否正当?)还是回避此类测试,坐视监管与公关危机如现在吞噬xAI般爆发?

  立法者已开始意识到这一困境。两个月前,英国颁布里程碑法案,允许AI行业与儿童保护组织合作开展无惧刑责的强力测试。阿肯色州近期通过禁止AI生成儿童性虐待材料的法律,其中包含善意对抗测试豁免条款——但这无法替代全国统一政策。美国国会一项两党提案主张,若AI开发者遵循筛查训练数据中儿童色情内容的最佳实践,可限制其法律责任——但这仅能化解部分法律风险。

  为AI生成儿童性虐待材料测试设立法律安全区绝非易事。除了明显的伦理问题,还需警惕鲁莽的红队测试者无意中传播测试生成的图像,以及防止恶意分子假借测试之名逃避追责。

  此外,我与立法者工作人员的沟通显示,部分政客不愿因扩大AI公司法律豁免权而被视为向科技巨头输送利益。

  但这并非新鲜事。多年来,网络安全研究者始终担心自己因负责任地测试并披露软硬件漏洞而被当作黑客惩处。与此同时,联邦层面始终未通过为这些研究者设立安全区的立法,根源正是担心恶意或疏忽者借此脱罪。直到俄罗斯敌对势力发动毁灭性网络攻击,司法部才于2022年宣布不起诉善意网络安全研究的政策。换言之,法律未能震慑坏人,却吓得好人不敢出手制止坏人,后果可想而知。如今AI领域正在重演这一幕。

  我们再也承受不起政府的数年不作为。国会应立即就Grok丑闻举行听证会,并着手为负责任地测试AI模型儿童性虐待材料风险建立法律安全区。xAI等公司本可为模型安全做得更多,而现在,时间已经刻不容缓。

  (作者里安娜·普费弗科恩系前科技律师、斯坦福以人为本人工智能研究所政策研究员。本文原载于《纽约时报》)

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐