Anthropic 提出透明度框架以保障前沿 AI 发展

   日期:2025-08-11    作者:dzre1 移动:http://3jjewl.riyuangf.com/mobile/quote/401.html
作者 | Daniel Dominguez
译者 | 刘雅梦
策划 | 丁晓昀

Anthropic 提出了一个新的 透明度框架,旨在解决在前沿 AI 模型开发过程中日益增长的问责需求。这一提议的重点针对正在开发强大 AI 模型的大型人工智能公司,这些公司是以计算能力、成本、评估性能和年度研发支出等因素来区分的。目标是建立一套标准,以确保安全,降低风险,并提高公众对这些先进 AI 系统的开发和部署的可见度。

框架的一个核心方面是实施安全开发框架(Secure Development Frameworks,SDFs),这将要求大型 AI 公司评估和减轻与其模型相关的潜在灾难性风险。这些风险包括化学的、生物的及放射性的危害,以及由模型自主性错位造成的伤害。该提案概述了这些框架不仅应解决风险缓解问题,还应确保负责任地处理 AI 开发流程。

该框架的一个关键要求是公开披露。根据提议的法规,AI 公司将被要求通过注册网站公开其 SDFs,提供对其安全实践的透明度。这将允许研究人员、政府和公众获取有关部署模型的重要信息,确保安全标准得到满足,并妥善管理任何风险。此外,公司还需要发布 系统卡片,提供模型测试程序、评估结果和实施的缓解措施的摘要。每当模型被修订或添加新功能时,这些文件都需要更新。

该框架还建议小型开发人员和初创公司不受这些要求的限制。相反,这些法规将适用于有潜力造成重大伤害的大规模 AI 公司,例如那些拥有大量计算能力或财务资源的公司。豁免旨在避免给小型公司带来不当负担,同时仍将监管工作集中在该领域最大的参与者身上。

此外,提议包括执行合规的具体条款。如果 AI 公司就其遵守框架的情况提供虚假或误导性陈述,将构成违法行为,确保必要时可以应用举报人保护。执法机制将允许司法部长对违规行为追究民事处罚,帮助维护系统的完整性。

社区的反应反映了对最近全球关于 AI 监管讨论的乐观、怀疑和实际关切的担忧。

AI 专家 Himanshu Kumar 在 X 上发表评论:

促进开源 AI 开发对安全创新不也是至关重要的吗?

与此同时,用户 Skeptical Observer 也发表了评论:

由谁来执行?这感觉非常以美国为中心。中国的实验室或其他范围之外的呢?举报人保护听起来不错,但没有全球覆盖,这只是权宜之计。希望他们在 AI 安全峰会上澄清这一点!

最终,提议的透明度框架旨在在确保 AI 安全 和促进持续创新之间取得平衡。虽然框架为透明度设定了最低标准,但它故意避免过于规范,允许 AI 行业随着技术的发展而不断适应。通过促进透明度,该框架寻求为 AI 开发人员建立清晰的问责制,帮助政策制定者和公众区分该领域负责任的和不负责任的做法。这可以作为进一步监管的基础,如果需要的话,提供必要的证据和见解,以确定随着人工智能模型的发展是否需要额外的监督。

https://www.infoq.com/news/2025/07/anthropic-transparency-framework/

声明:本文为 InfoQ 翻译,未经许可禁止转载。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号