泰勒·斯威夫特让世界明白了人工智能生成的图像和选举的风险
2026-04-21 10:32

泰勒·斯威夫特让世界明白了人工智能生成的图像和选举的风险

  

  

  最近流行歌手泰勒·斯威夫特支持美国总统候选人卡玛拉·哈里斯的消息在网上引起了轰动,她在Instagram上宣布这一消息的帖子获得了800多万个赞。

  虽然斯威夫特的帖子动员了她的粉丝群来支持哈里斯,但更重要的是,它向公众强调了生成式人工智能的危险,尤其是被操纵的图像。事实上,斯威夫特表示,她的决定是受到唐纳德·特朗普8月份在Truth Social上发布的人工智能帖子的影响,该帖子错误地声称她支持特朗普竞选总统。

  特朗普在Truth Social上的帖子似乎描绘了斯威夫特和她的粉丝对他的支持,帖子的标题是“我接受”。然而,有明显的迹象表明,这些图像是由人工智能生成的——包括光滑的脸、不一致的肤色和僵硬的微笑等视觉细节。观看这些图像的人可以准确地识别出它们是人工智能制造的。

  这一事件突显了人们对在竞选活动中部署人工智能生成的深度造假的日益担忧,并反映出未来几年人工智能引发的选举纠纷的可能性。

  深度伪造指的是合成或操纵的多媒体——图像、视频和音频或三者的组合。深度造假被用于娱乐、教育和公众健康意识等各种目的。

  然而,深度造假越来越多地出现在选举期间,比如竞选和宣传活动中,这进一步模糊了现实与虚构之间的界限。今年1月,人工智能制作的印尼前总统苏哈托的深度假照片引发了关于人工智能在政治影响力运动中的应用的争论。

  深度造假也被用于恶意目的,以阻止选民投票率,破坏选举的完整性。同样在今年1月,美国新罕布什尔州的选民收到了一个模仿乔·拜登总统的人工智能生成的假语音电话,以劝阻选民在初选期间前往投票站。

  今年2月,就在斯洛伐克议会选举前几天,一段深度伪造的录音在网上疯传,据称是一名主要政治家和一名记者之间的对话。这些录音可能影响了选举结果。最近,在印度大选期间,宝莱坞名人的误导性深度假视频被部署,该活动于6月达到高潮。

  随着各国寻求加强或制定立法,打击在选举中恶意和有害地使用深度造假,公众也可以发挥作用。

  与深度造假和人工智能生成的内容相关的风险,导致公众越来越意识到它有能力通过虚假叙述和大量虚假信息来影响公众舆论,从而在选举期间制造不和。然而,在政治竞选中使用人工智能生成的深度造假的意愿和接受程度,似乎注定会使一个围绕人工智能生成内容限制的在线信息环境陷入困境。

  恶意或故意深度造假的不受控制的扩散,可能导致人们对所有在网上看到的媒体普遍持怀疑态度,对真实和有充分记录的内容产生怀疑。越来越多的不信任会导致人们将真实的内容——无论是图像、音频还是视频——视为假的而不屑一顾。仅仅是真实性的概念或内容无法得到最终核实就可能导致可怕的后果(例如,关于所谓深度伪造的错误信息导致了加蓬的未遂政变)。

  全球各国正在加紧努力,试图减轻选举造假的后果。

  在美国,虽然目前没有联邦法规规范政治竞选活动如何部署人工智能,但一些州已经实施了禁止在州选举中使用深度造假的立法,例如禁止在竞选期间使用机器人电话和操纵广告。美国联邦选举委员会(Federal election Commission)发表声明称,在今年美国总统大选之前,它不会就一项有关深度造假和人工智能的拟议规则进行投票。

  在亚洲,各国也已采取措施,通过更新立法来应对选举舞弊的风险。韩国的公职选举法修正案禁止在选举前90天进行人工智能制造的深度造假。新加坡已提出一项法律,禁止在该国选举期间深度伪造和其他数字操纵的候选人内容-选举(在线广告完整性)(修正案)法案如果通过,将禁止数字生成或操纵的内容,真实地描述候选人的言行,而他们没有说过或做过。

  生成式人工智能的快速发展,如OpenAI的“草莓”模型,意味着深度造假和其他人工智能生成的内容在选举期间对公众认知和意见的潜在影响尚未得到充分理解。

  随着各国寻求加强或制定立法,打击在选举中恶意和有害地使用深度造假,公众也可以发挥作用。虽然我们可能没有泰勒·斯威夫特(Taylor Swift)那样的明星效应,但我们可以尽最大努力通过检查来源、意图和背景来确保我们采取行动来核实内容,以帮助建立我们的信息和媒体素养。

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐