2025-11-18 09:21

为道德创新导航人工智能监管的未来

  《创业家》作者的观点纯属个人观点。

  本文最初发表于Readwrite.com

  随着围绕人工智能未来的讨论越来越多,关于人工智能治理的争论也在升温。一些人认为,应该允许使用或采购人工智能工具的公司进行自我监管,而另一些人则认为,政府有必要制定更严格的立法。

  在快速发展的人工智能领域,对某种治理的迫切需求是显而易见的。

  人工智能的应用有很多,但人工智能领域最具创新性和知名度的组织之一是OpenAI。OpenAI在其自然语言处理器(NLP) ChatGPT走红后声名狼藉。从那时起,OpenAI的一些技术已经变得相当成功。

  许多其他公司投入了更多的时间、研究和金钱来寻求类似的成功故事。根据Readwrite.com的一篇文章,仅在2023年,人工智能的支出预计将达到1540亿美元,比上一年增长27%。自从ChatGPT发布以来,人工智能已经从边缘变成了世界上几乎每个人都知道的东西。

  它的流行可以归因于多种因素,包括它提高公司产量的潜力。调查显示,当员工提高数字技能并与人工智能工具协同工作时,他们可以提高生产力,提高团队绩效,并增强他们解决问题的能力。

  在看到这些积极的报道后,各行各业的许多公司——从制造业、金融到医疗保健和物流——都在使用人工智能。随着人工智能似乎一夜之间成为新常态,许多人担心快速实施会导致技术依赖、隐私问题和其他伦理问题。

  随着OpenAI的迅速成功,立法者、监管者和公众对安全和伦理影响的讨论越来越多。一些人支持人工智能生产的进一步道德增长,而另一些人则认为,个人和公司应该自由地使用人工智能,以实现更重大的创新。

  许多专家认为,如果不加以控制,将会出现以下问题。

  偏见和歧视:公司声称人工智能有助于消除偏见,因为机器人不会歧视,但人工智能驱动的系统不会只要输入的信息公平公正。人工智能工具将如果人类在编码人工智能时使用的数据已经有偏见,只会放大和延续这些偏见。

  人类代理:许多人会建立对人工智能的依赖,这可能会影响他们的隐私和对公司的选择权掌控自己的生活。

  数据滥用:在日益数字化的世界里,人工智能可以帮助打击网络犯罪。人工智能具有分析大量数据的能力,这可以使这些系统识别可能表明潜在威胁的模式。然而,也有问题人们担心公司也会利用人工智能收集数据,这些数据可能被用来滥用和操纵人和消费者。这就引出了人工智能是让人们更安全还是更不安全的问题。

  错误信息的传播:因为人工智能不是人类,它不知道对与错。因此,人工智能可能会在不经意间传播虚假和误导性信息,这在今天的社交媒体时代尤其危险。

  缺乏透明度:大多数人工智能系统像“黑匣子”一样运行。这意味着没有人完全了解这些工具是如何或为什么做出某些决定的。这导致缺乏透明度和concerns一问责制。

  失业:最大的问题之一劳动力内部的担忧是失业。虽然人工智能可以提高工人的能力,但许多人却无能为力担心雇主会选择完全取代他们的员工,选择利润而不是道德。

  Mayhem:总的来说,有一个通用的co人们担心,如果人工智能不受监管,它将导致大规模的混乱,比如武器网络化信息,网络犯罪和汽车nomous武器。

  为了消除这些担忧,专家们正在推动更合乎道德的解决方案,比如将人类的利益置于人工智能及其利益之上。许多人认为,关键是在持续实施人工智能技术时优先考虑人类。人工智能不应该试图取代、操纵或控制人类,而应该与人类合作,以增强可能的东西。要做到这一点,最好的方法之一就是在人工智能创新和人工智能治理之间找到平衡。

  在制定有关人工智能的政策时,问题是:究竟谁应该监管或控制人工智能的伦理风险?

  应该是公司本身和他们的利益相关者吗?还是政府应该介入,制定全面的政策,要求每个人都遵守同样的规章制度?

  除了确定谁应该监管之外,还有一些问题是应该监管什么以及如何监管。这是人工智能治理面临的三大挑战。

  一些人认为,政府不知道如何正确监管人工智能。基于政府之前监管数字平台的尝试,他们制定的规则不足以灵活应对人工智能等技术发展的速度。

  因此,有些人认为,我们应该允许使用人工智能的公司充当伪政府,制定自己的规则来管理人工智能。然而,这种自我监管的方法已经导致了许多众所周知的危害,例如数据隐私问题、用户操纵以及仇恨、谎言和错误信息的传播。

  尽管争论仍在继续,但组织和政府领导人已经采取措施来规范人工智能的使用。例如,欧盟议会已经朝着建立全面的人工智能法规迈出了重要的一步。在美国参议院,多数党领袖查克·舒默(Chuck Schumer)正在牵头制定一项监管人工智能的广泛计划。白宫科学技术办公室也开始为人工智能权利法案制定蓝图。

  在自我监管方面,四家领先的人工智能公司已经联合起来成立了一个自治的监管机构。微软、谷歌、OpenAI和Anthropic最近都宣布推出前沿模型论坛,以确保公司安全、负责任地使用和开发人工智能系统。

  另外一个挑战是,如何准确地确定应该监管什么——安全和透明度等问题是主要关注的问题。为了应对这一担忧,美国国家标准与技术研究院(NIST)在其人工智能风险管理框架中建立了安全人工智能实践的基线。

  联邦政府认为,使用许可证可以帮助监管人工智能。许可可以作为监管监督的一种工具,但也有其缺点,比如在人工智能和数字技术的影响不统一的情况下,它更像是一种“一刀切”的解决方案。

  欧盟对此的回应是建立一个更灵活、基于风险的人工智能监管框架,允许采用多层方法,更好地解决人工智能的各种用例。基于对风险水平的评估,不同的期望将被强制执行。

  不幸的是,对于谁应该监管以及如何监管,目前还没有一个确切的答案。目前仍在探索许多选择和方法。尽管如此,OpenAI的首席执行官萨姆·奥特曼(Sam Altman)还是支持成立一个专门负责人工智能监管的联邦机构。微软和meta此前也支持设立国家人工智能监管机构的概念。

  相关:38岁的人工智能革命领袖也不敢相信——来见见Open AI的首席执行官萨姆·奥特曼

  然而,在做出可靠的决定之前,使用人工智能的公司尽可能负责任地这样做被认为是最佳实践。所有组织在法律上都必须遵守注意义务。如果发现任何公司违反了这一规定,可能会产生法律后果。

  很明显,监管实践是必须的——没有例外。因此,就目前而言,在保护公众利益与促进投资和创新之间走钢丝的最佳方式取决于企业。

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐