logo

  • 联系我们
  • APP
  • 简体中文

语言模型“混乱”频出 英伟达推出AI“防火墙”

AI的强势发展离不开英伟达强大的芯片。据悉,近期随着越来越多ChatGPT等生成式AI的出现,许多用户在使用时发现,这些语言模型有时会出现不正常的行为,即表述错误的事实和输出一些不良话题,甚至还有导致安全风险的可能。

AI的强势发展离不开英伟达强大的芯片。据了解,近期随着越来越多ChatGPT等生成式AI的出现,许多用户在使用时发现,这些语言模型有时会出现不正常的行为,即表述错误的事实和输出一些不良话题,甚至还有导致安全风险的可能。

为了解决这一问题,当地时间426日,英伟达发布了一款名为NeMo Guardrails的新软件,该软件能够为AI模型设置“防火墙”,避免AI输出一些不良的内容。

据悉,NeMo Guardrails是一个软件层,位于用户和AI模型之间,可以在模型输出不良内容之前进行拦截和修改。例如,如果用户需要一个针对特定方向的AI,就可以利用该软件来限制AI至输出对应方面的内容,而不谈论不相关的话题。

此外,该软件还能够利用一个AI模型检测另一个AI模型,如果两个模型输出的答案不一致,软件将直接输出我不知道的回答。通过这种方式,人工智能胡说八道的情况会得到有效降低,一些可能存在危险的回复也能够被直接拦截。

英伟达应用研究副总裁乔纳森·科恩(Jonathan Cohen)表示:每个人都意识到生成式大语言模型的力量,以一种安全可靠的方式部署它们非常重要。英伟达将NeMo Guardrails作为开源软件提供,并将持续对其进行更新。

英伟达

 

免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。