欧盟发布AI道德准则草案,涵盖透明、风险和治理

European Commission

欧盟周四公布了其第一份通用人工智能(GPAI)模型行为准则草案。该文件将于明年5月敲定,其中规定了风险管理准则,为企业提供了遵守规定并避免巨额罚款的蓝图。欧盟人工智能法案已于8月1日生效,为进一步制定GPAI具体法规留出了空间。这份草案是首次尝试明确对这些更高级模型的期望,为利益相关者提供了提交反馈并完善这些模型的时间,然后再正式生效。

GPAI是指那些以超过10²⁵ FLOP的总算力进行训练的人工智能。预计将受到欧盟准则约束的公司包括OpenAI、谷歌、Meta、Anthropic和Mistral。但该名单可能会增加。

该文件涉及GPAI制造商的几个核心领域:透明度、版权合规性、风险评估和技术/治理风险缓解。这份36页的草案涵盖了很多内容(在敲定之前可能会显著增加),但有几个重点值得关注。

该准则强调了人工智能开发的透明度,要求人工智能公司提供有关他们用于训练其模型的网络爬虫的信息,这是版权持有者和创作者的主要关注点。风险评估部分旨在防止网络犯罪、广泛歧视和人工智能失控(在无数糟糕的科幻电影中出现的那种“它失控了”的时刻)。

预计人工智能制造商将采用安全框架(SSF)来分解其风险管理政策,并将其与系统风险成比例地减轻。这些规则还涵盖了技术领域,例如保护模型数据、提供故障安全访问控制以及不断重新评估其有效性。最后,治理部分力求在企业内部实现问责制,要求持续进行风险评估,并在需要时引入外部专家。

与欧盟其他与技术相关的法规一样,违反人工智能法案的公司可能会面临巨额罚款。他们可能会被处以高达3500万欧元(目前为3680万美元)的罚款,或高达其全球年利润的7%,以较高者为准。

利益相关者应在11月28日前通过指定的Futurium平台提交反馈,以帮助完善下一份草案。这些规则预计将于2025年5月1日敲定。

原创文章,作者:星阁,如若转载,请注明出处:http://www.xgrl.net/n/202411150924595103.shtml

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注