logo

  • 联系我们
  • APP
  • 简体中文

最新监管动作!美总统签署首个AI行政命令

周一(10月30日),美国总统乔·拜登签署了一项关于AI的全面新行政命令,这是美国针对AI采取的第一个合法行动,多支AI相关科技股应声上涨。

当地时间周一(10月30日),美国总统乔·拜登签署了一项关于AI的全面行政命令,这是美国针对AI采取的第一个合法行动

白宫文件

该行政命令分为八个部分:

AI安全新标准:包括要求顶尖AI系统的开发人员与美国政府分享其安全测试结果和其他关键信息;制定强有力的生物合成筛选新标准,防范使用AI设计危险生物材料的风险;建立检测AI生成的内容和验证官方内容的标准;制定国家安全备忘录,指导AI和安全方面的进一步行动等等。

保护公民隐私:政府指示采取行动包括通过优先考虑联邦支持加速隐私保护技术的开发和使用来保护美国人的隐私;资助研究协调网络来推动快速突破和发展,加强隐私保护研究和技术;评估各机构如何收集和使用商业信息;为联邦机构制定评估隐私保护技术有效性的指南等。

促进公平和公民权利:为了确保AI促进公平和公民权利,政府指示采取的行动包括为房东、联邦福利计划和联邦承包商提供明确的指导,以防止AI算法被用来加剧歧视;通过制定在量刑、假释和缓刑、审前释放和拘留多个方面使用AI的最佳做法,确保整个刑事司法系统的公平等

消费者、患者及学生保护:这部分政府指示采取的行动包括推动AI在医疗保健领域的负责任应用,并开发负担得起的救生药物;通过创建资源来支持教育工作者部署AI支持的教育工具等。

支持工人:政府指示采取的行动包括制定原则和最佳实践为工人提供指导,防止雇主给工人报酬过低、不公平地评估工作申请或影响工人的组织能力,从而使工人受益;研究关于AI对劳动力市场的潜在影响等。

促进创新和竞争:通过国家AI研究资源试点来促进美国各地的AI研究;为小型开发者和企业家提供技术援助和资源,帮助小型企业将AI突破商业化等

提升美国在AI的领导力:包括与国际合作伙伴和标准组织一起加快重要AI标准的开发和实施,确保技术安全、可靠、可互操作;促进AI在国外安全、负责任和维护权利的发展和部署,以解决全球挑战等。

确保政府负责任且有效地使用AI:包括为各机构使用AI发布指南;帮助机构更快、更便宜、更有效地获取指定的AI产品和服务;对有需要的部门加快AI专业人员的招聘等。

AI

对于这份新的行政命令,美国各界讨论纷纷。

IBM首席执行官Arvind Krishna在一份声明中称其“欢迎”这一行政命令。Krishna说:“我们很高兴这项行政命令为AI基础模型的安全和风险管理方面的创新和研究创造了新的机会。”

风险投资公司Tusk Ventures的首席执行官Bradley Tusk对此也表示欢迎。但他表示,科技公司可能会避免与政府共享专有数据,因为担心这些数据可能会提供给竞争对手。Tusk还称,如果该行政命令没有真正的执行机制,那么遵守情况可能会非常有限。

尽管该命令的重点是强制共享公司进行的安全测试的结果,但该命令并不要求公司与政府或安全研究人员共享其训练集的详细信息,这是许多AI安全研究人员关注的主要问题。只有通过了解训练集的细节,研究人员才能了解AI模型的真正能力。当前主要的人工智能开发商(如OpenAI)都对他们的数据集保密。

著名AI研究专家Gary Marcus周一表示,该命令中有“很多值得喜欢的地方”。Marcus认为,该行政命令重要地解决了人工智能带来的所有风险,包括偏见、公民权利、算法歧视、刑事司法国家安全等等。不过,这一命令是否有效,取决于该命令的具体措辞,以及每项要求的执行力度

Marcus表示,这是一个良好的开端,但该命令与FDA批准新药的流程不一样,他更希望看到人工智能采用这种方法。“当FDA批准一种药物时,他们(寻找)证据证明其益处大于风险。仅靠文书工作是不够的。” Marcus称,“我们真正需要的是由独立科学家进行的同行评审过程。”

人工智能政策研究所(AIPI)的一项最新民意调查显示,近70%的美国各政治派别选民支持该行政命令,只有15%的人反对。

但也有专业人士对该行政命令提出质疑。著名的人工智能研究人员Sasha Luccioni博士表示,其对闭门进行的内部审查持谨慎态度。

Luccioni认为,人工智能安全的关键是透明度,而白宫的新命令并没有解决这一问题。Luccioni称,现在需要的是采取具体行动,使开放人工智能的系统更加透明和强大。

Ivanti首席产品官兼人工智能权威负责人Srinivas Mukkamala博士同样表示,解决当今人工智能模型带来的风险很重要,而不应该只关注未来模型更严重的风险。

免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。