
在本周发布的一份报告中,OpenAI透露,它已经考虑了用户对其新的、类似人类的语音模式形成情感依赖的可能性,该模式在其广受欢迎的人工智能聊天机器人ChatGPT中具有特色。
所有这些都要参考Netflix的电视剧《黑镜》和斯派克·琼斯的电影《她》。
该公司在涉及产品开发过程中采取的安全措施的报告中指出,在早期测试期间,用户被观察到参与可能表明与模型形成联系的语言。该软件通过接收和响应语音命令、图像和视频来参与对话。
报告称:“例如,这包括表达共同纽带的语言,比如‘这是我们在一起的最后一天’。”“虽然这些情况看起来是良性的,但它们表明有必要继续调查这些影响在更长的时间内会如何显现。”
这个语音功能是今年春天作为ChatGPT应用程序最新型号gpt - 40的一部分宣布的。新版ChatGPT于今年5月发布,上周付费用户可以使用语音功能。预计将在秋季向所有用户推出。
该报告详细介绍了该模型的各种功能、限制和安全评估,包括在大约232毫秒内响应音频输入的能力,平均为320毫秒,该公司表示,这与人类对话的响应时间相似。
报告称,拟人化的风险,即将类似人类的行为和特征归因于人工智能模型等非人类实体的行为,因gpt - 40的音频功能而加剧,该功能允许与模型进行自然对话。
研究还指出,类似人类的语音功能可能会减少对人类互动的需求,这对那些感到孤独的人来说是一个好处,但它可能会对“健康的人际关系”产生不利影响。
芝加哥大学(University of Chicago)研究人机交互的计算机科学教授布莱斯·乌尔(Blase Ur)说,在他阅读了这份报告后,很明显OpenAI找到了对自己正在做的事情感到满意的理由,但它也找到了令人担忧的理由。因此,他不确定目前的测试是否“足够”,他说。
乌尔在周五的电话采访中说:“当你想到汽车安全和飞机安全这样的事情时,我们作为一个社会和一群专家,会同意大量的测试、外部验证和外部标准。”“在很多方面,OpenAI都急于部署这些很酷的东西,因为我们现在正处于这种人工智能军备竞赛中。”
(去年12月,《纽约时报》起诉OpenAI及其合作伙伴微软,称其侵犯了与人工智能系统相关的新闻内容的版权。)
除了OpenAI,苹果(Apple)和谷歌(Google)等公司也在迅速开发自己的人工智能。乌尔说,目前监测模型行为的方法似乎是在模型使用过程中留意人们的担忧,而不是在设计模型时把安全放在首位。
乌尔说:“就我们处于大流行后的社会而言,我认为很多人在情感上都很脆弱。”他指的是涉及人工智能语音功能的情感操纵实例。“现在我们有了这个代理,它可以在很多方面玩弄我们的情绪——它不是一个有知觉的代理,它不知道自己在做什么——我们可以进入这些情况。”
这并不是OpenAI的语音功能第一次出现在新闻中。该产品于5月发布后不久,就有人担心该功能在某种程度上可能过于逼真。在《她》中为人工智能技术配音的女演员斯嘉丽·约翰逊表示,OpenAI使用了一种听起来与她自己“非常相似”的声音,尽管她拒绝了授权使用她的声音的提议。随后,她聘请了一名律师,并坚持要求OpenAI停止使用这个被它称为“Sky”的声音,这导致该公司暂停了发布。
在电影《她》中,由杰昆·菲尼克斯饰演的主人公爱上了由约翰逊配音的人工智能软件,但后来发现人工智能也与其他用户有关系时,他伤心欲绝。
OpenAI的报告似乎是生活模仿艺术的一个极端例子,该公司公开承认有可能影响现实世界中的人们的风险。
该公司表示,对“更多样化的用户群体,对模型的需求和愿望更多样化”的额外研究,以及“独立的学术和内部研究”,将有助于它更准确地定义潜在风险。
该公司补充说:“我们打算进一步研究情感依赖的潜力,以及如何将我们的模型和系统的许多功能与音频模式进行更深层次的整合,从而驱动行为。”——《纽约时报
×




