
谷歌从其人工智能原则中删除了一项承诺,该承诺曾表示该公司不会使用该技术开发武器。
这家科技巨头已经重写了指导其开发和使用人工智能的原则,这些原则已在网上发布,但承诺不开发“造成或可能造成伤害”的技术的部分现已被删除。
该部门曾表示,该公司不会在武器领域或“违反国际公认准则收集或使用信息进行监视”的领域寻求应用。
相反,新简化的原则现在有一个关于“负责任的开发和部署”的部分,该部分表示,这家科技巨头将实施“适当的人力监督、尽职调查和反馈机制,以符合用户目标、社会责任和广泛接受的国际法和人权原则”。
b谷歌高级副总裁詹姆斯·马尼卡(James Manyika)和该公司人工智能实验室谷歌DeepMind的负责人戴米斯·哈萨比斯(Demis Hassabis)在一篇博客文章中表示,该公司需要更新其人工智能原则,因为这些原则于2018年首次发布,自那以后该技术“发展迅速”。
“数十亿人在日常生活中使用人工智能。人工智能已经成为一种通用技术,成为无数组织和个人用来构建应用程序的平台,”他们表示。
“它已经从实验室里的一个小众研究课题,变成了一项正变得像手机和互联网本身一样普及的技术;在充满活力的人工智能开发者生态系统的支持下,它对社会和世界各地的人们都有许多有益的用途。”
他们表示,这意味着在共同原则上加强国际合作,博客文章称b谷歌对此“受到鼓励”。
但马尼卡和哈萨比斯表示,争夺人工智能领导地位的“全球竞争”发生在“日益复杂的地缘政治格局”中。
他们表示:“我们认为,民主国家应该在自由、平等和尊重人权等核心价值观的指导下,引领人工智能的发展。”
“我们相信,拥有这些价值观的公司、政府和组织应该共同努力,创造出保护人类、促进全球增长、支持国家安全的人工智能。”
人工智能专家、政府、监管机构、科技公司和学术界正在就如何监控或监管发展强大的新兴技术展开辩论。
在之前的国际峰会上,各国和科技公司签署了不具约束力的协议,以“负责任地”发展人工智能,但在这一问题上尚未有约束力的国际法。
过去,b谷歌向美国和以色列军方提供云服务等技术的合同,曾引发内部员工的抗议。
人工智能公司Qlik的首席战略官詹姆斯?费舍尔(James Fisher)表示,b谷歌的决定令人担忧,并强调英国等国家有必要推动更多的国际治理。
“改变或取消负责任的人工智能政策引发了人们的担忧,即组织如何对其技术负责,以及围绕人工智能部署的道德界限,”他告诉PA通讯社。
“随着技术的发展,人工智能治理当然需要灵活和发展,但遵守某些标准应该是不容商量的。
“对于企业来说,这一决定表明,我们未来可能面临一个复杂的人工智能环境,在这个环境中,道德考虑与行业竞争和地缘政治相权衡。
“对于试图将自己定位为人工智能安全和监管领导者的英国来说,这一决定只会使建立健全、可执行的人工智能治理框架变得更加重要。
“英国平衡创新与道德保障的能力可能会开创全球先例,但这需要政府、行业和国际合作伙伴之间的合作,以确保人工智能仍然是一股向善的力量。”——PA Media/dpa




