欧盟达成了一项初步协议,将限制先进的ChatGPT模式的运作方式,这被视为世界上第一个全面的人工智能监管的关键部分。
彭博社看到的一份欧盟文件显示,所有通用人工智能系统(具有广泛可能用途的强大模型)的开发者都必须满足基本的透明度要求,除非它们是免费和开源的。
故事有限公司
继续下面的广告删除广告
这些包括:
每天G可接受的使用策略
保持他们如何训练他们的模型的最新信息
报告用于训练其模型的数据的详细摘要
每天尊重版权法的政策
被认为构成“系统性风险”的模型将受到附加条款的约束
所有的规则,根据文件
表示“状态”。欧盟将确定这种风险
基于用于训练模型的计算能力。阈值设置在那些每秒使用超过10万亿亿次(或7万亿次)操作的模型上。
专家表示,目前唯一能自动达到这一门槛的模型是OpenAi的GPT-4。欧盟的执行机构可以根据数据集的规模指定其他机构,比如它们是否在欧盟拥有至少1万名注册商业用户,或者注册最终用户的数量,以及其他可能的指标。
在欧盟委员会(European Commission)制定出更协调、更长期的控制措施之际,这些能力极强的模式应该签署一份行为准则。那些不签字的公司必须向委员会证明他们遵守了《人工智能法案》。对开源模型的豁免不适用于那些被认为构成系统性风险的模型。
这些模型还必须:
报告他们的能源消耗
在内部或外部执行红队或对抗性测试,评估和减轻可能的系统风险,并报告任何事件,确保他们使用适当的网络安全控制
报告用于对模型进行微调的信息,以及它们的系统架构
有限公司如果制定了更节能的标准,请遵循这些标准
这项临时协议仍需得到欧洲议会和欧盟27个成员国的批准。法国和德国此前曾表示反对
ncerns一
担心对通用人工智能模型施加过多监管,可能会扼杀法国Mistral AI或德国Aleph Alpha等欧洲竞争对手。
西班牙国务卿Carme Artigas周六早些时候表示,目前,Mistral可能不需要满足通用人工智能控制,因为该公司仍处于研发阶段。



