我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
IT之家 4 月 26 日消息,人工智能(AI)的发展日新月异,但也存在一些难题,比如 AI 模型有时会出现“幻觉”,即说出错误的事实、涉及有害的话题或导致安全风险。为了解决这个问题,英伟达在周二发布了一款新的软件,名为 NeMo Guardrails,可以帮助软件开发者给 AI 模型设置“护栏”,防止它们产生不良的输出。
NeMo Guardrails 是一个软件层,位于用户和 AI 模型之间,可以在模型输出不良内容之前进行拦截和修改。例如,如果开发者想要创建一个客服聊天机器人,可以使用 NeMo Guardrails 来限制它只能谈论相关的产品,而不能谈论竞争对手的产品或其他不相关的话题。如果用户提出这样的问题,机器人可以引导对话回到开发者希望的话题上。
英伟达还提供了另一个例子,一个用于回答内部企业人力资源问题的聊天机器人。在这个例子中,英伟达能够使用 NeMo Guardrails 来阻止基于 ChatGPT 的机器人回答关于公司财务状况的问题或访问其他员工的私人数据。
此外,该软件还能够利用一个 AI 模型来检测另一个 AI 模型的“幻觉”,通过向第二个 AI 模型提问来核实第一个 AI 模型的答案。如果两个模型给出不一致的答案,那么软件就会返回“我不知道”的回答。
英伟达还表示,这个“护栏”软件还有助于提高安全性,可以强制 AI 模型只与白名单列表中的第三方软件进行交互。
NeMo Guardrails 是开源的,并通过英伟达服务提供,可以用于商业应用,开发者将使用 Colang 编程语言来为 AI 模型编写自定义规则。
据IT之家搜索了解,包括谷歌和微软支持的 OpenAI 等其他 AI 公司,也使用了一种称为强化学习的方法来防止 LLM 应用产生有害的输出。这种方法使用人类测试者来创建关于哪些答案是可接受或不可接受的数据,然后使用这些数据来训练 AI 模型。
英伟达正在将其注意力转向 AI 领域,该公司目前占据了创建这项技术所需芯片的市场主导地位,其股价在 2023 年迄今为止上涨了 85%,成为标准普尔 500 指数中涨幅最大的股票。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-04-29 01:45:31
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: