logo

  • WhatsAPP
  • APP
  • 首页
  • 要闻
  • 快讯
  • 分析
  • 交易商
  • 股市
  • 商品
  • 外汇
  • 日历
  • 行情
  • 视频
  • 百科
  • 活动
qr code
打开APP,看你感兴趣的资讯
请选择下载方式
empty
Hawk Insight Google Play
empty
Hawk Insight APK
取消
确定

未来十年AGI全面超人类?怎么监管? 听听“AI政治家”阿尔特曼的治理之道

6月10日,OpenAI CEO山姆·阿尔特曼(Sam Altman)在2023智源人工智能大会上与现场观众进行了连线,并与智源研究院理事长张宏江进行了一对一问答。

610日,OpenAI CEO山姆·阿尔特曼(Sam Altman)在2023智源人工智能大会上与现场观众进行了连线,并与智源研究院理事长张宏江进行了一对一问答。在视频连线中,阿尔特曼探讨了AGI(通用人工智能)技术的对齐问题以及近期关注度较高的人工智能监管问题,并透露了OpenAI正在投资使用AI系统帮助人类辅助监督其他AI系统的计划。

         

投资AGI安全的两条发展路径:确立治理章程+拓展治理渠道

          

在讲话中,阿尔特曼首先描绘了AGI技术的愿景。他表示,未来十年AGI很有可能在几乎所有领域都超过人类的专业水平,最终可能超过人类最大公司的集体生产力。他进一步指出,人工智能革命将创造共享财富,并使提高每个人生活水平成为可能,解决共同挑战,如气候变化和全球卫生安全,并以无数其他方式提高社会福祉。

但是,阿尔特曼也指出,为了实现并享受这个愿景,各方需要携手合作,共同投资AGI安全,并管理风险,为此,他提出了两条可能实现的发展路径。

其一是尽快建立国际间的AGI的治理章程。各国需要建立平等统一的国际规范和标准,并通过包容的过程对AGI的使用制定保护措施。另外,各国还需要通过国际合作来建立AI系统安全开发的全球信任,并提供可验证的措施,促进增加透明度和知识共享的机制。

其二是充分明晰AGI的研究定位,拓展AGI治理渠道。OpenAI的构思中,人工智能系统的定位为“一个有用和安全的助手”,这表明该公司需要致力于训练ChatGPT,使其不会发出暴力威胁,或协助用户进行有害活动。对此,阿尔特曼表达出了自己的隐忧,他表示,随着我们更接近AGI,任何不符合目标的潜在影响和程度都将呈指数增长。为了提前解决这些挑战,我们努力将未来灾难性结果的风险降到最低。

为此,OpenAI甚至投资了一些新的和互补的研究方向,其中就包括了可扩展监督领域以及可解释性领域。前者主要探索了使用AI系统来协助人类监督其他AI系统的可能性,例如训练一个模型来帮助人类监督者发现其他模型输出中的缺陷,而后者主要是辅助前者,利用机器学习理论对模型的内部行动做出可理解性解释。

在这两条路径中,第一条更加注重国际间的合作行为,这也是阿尔特曼持续为之努力的方向。被誉为“AI政治家”的他,过去两个月里已经拜访了近20个国家,与当地的学生、开发人员和国家元首会面,探讨人工智能技术的发展问题。用阿尔特曼自己的话来说,它希望通过这场“环球旅行”见到更多的开发者。与此同时,也希望聊一聊政策制定者

在演讲中,阿尔特曼还特别引用了老子《道德经》中的话:千里之行,始于足下。他认为,当下可以迈出的最有建设性的一步,是国际科技界间的通力合作,特别是推动建立提高 AI 安全技术进步方面的透明度和知识共享的机制。

在美国国内,阿尔特曼也始终没有停歇协调各方的脚步。5月初,在美国国会对人工智能技术滥用的担忧意识不断增强之际,也是其一直与美国国会的关键人物举行私人会议,积极探讨政府层和企业层可能达成监管框架。

此外,他还在美国参议院的司法委员会出席作证,并对人工智能监管提出了三点建议:第一,成立一个新的政府机构,负责大型AI模型的授权,并撤销不符合政府标准的公司的相关许可证;第二,为AI模型建立一套安全标准,包括对其危险性的评估;第三,需要独立的专家,对模型在各种指标上的表现进行独立审计。

阿尔特曼国会作证

第二条路径则更注重企业的自我研发,以及对AGI研究的不断迭代思考。对于OpenAI公司来说,根据其59日公布的最新研究,该公司已经试图使用GPT-4模型来自动解释GPT-2中每个神经元的含义,这代表该公司开始尝试用语言模型对语言模型本身的原理进行解释,用模型去理解模型。此外,OpenAI还在推进另一项研究,旨在使用“过程监督”来减轻ChatGPT“幻觉,实现AGI技术更好的“对齐”。

对于阿尔特曼来说,他还在不断挖掘GPT-4在可解释性研究领域的潜能,旨在利用OpenAI在这一领域的研究成果,帮助人类更好地监管人工智能技术。

值得注意的是,根据OpenAI发表的论文,在利用GPT-4GPT-2模型的神经元进行解释时,该公司发现,在参数规模较小的模型上,GPT-4的解释性更强,而当参数规模逐渐增大时,GPT-4解释的得分会逐渐降低。这意味着,规模越大的模型,越难以被解释和理解

发现了这个问题之后,阿尔特曼在周末的讲话中,也大胆阐明了攻坚“模型监管模型”技术的必要性。他表示,对于更先进的系统来说,目标仍然是一个未解决的问题,我们认为这需要新的技术方法,以及更多的治理和监督。想象一下,一个未来的AGI系统提出了10万行二进制代码,人类监督者不太可能检测到这样一个模型是否在做一些邪恶的事情。

          

阿尔特曼:“开源一切”并不一定是最佳路径 模型风控问题检测系统是关键

          

在随后的一对一问答中,阿尔特曼大胆预测了人工智能到来的时间,他表示,在未来十年内,我们可能会拥有非常强大的人工智能系统,而对于外界关注的OpenAI的开源问题,他指出,OpenAI的有些模型是开源的,有些不是,但是随着时间推移,OpenAI或许会开源更多模型,但是没有一个具体的时间表。

但是,他也指出,虽然在有关AI安全的问题上,开源模型的确具有优势,但是“开源一切”并不一定是最佳路径。

在问答上,张宏江还提出一个有趣的问题,他说:“如果这个世界上只有三个模型,那么会不会更安全?”对此,阿尔特曼给到的回应则一针见血,他表示,模型安全的关键并不在于模型数量的多少,而是在于人类是否有系统能够对模型进行合格的安全检测。

他说:“我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?”

在问答中,阿尔特曼还充分肯定了中国在的人工智能研究领域的人才储备,并呼吁这些人才们加大对该领域的研究投入。他呼吁道:“由于涉及在非常不同的背景下了解不同国家的用户偏好,(人工智能的研究)需要很多不同的投入才能实现这一目标,而中国拥有一些世界上最优秀的人工智能人才。从根本上说,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑,所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。”

 

免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。