当前位置:首页 >热点 >英国网络安全机构警告AI大语言模型风险 大语该安全机构承认

英国网络安全机构警告AI大语言模型风险 大语该安全机构承认

2024-06-30 16:12:28 [百科] 来源:避面尹邢网

英国网络安全机构警告AI大语言模型风险

作者:蒋均牧 人工智能 英国国家网络安全中心(NCSC)概述了为企业集成人工智能驱动的英国言模大语言模型(LLM)的风险,并警告开发人员仍未完全掌握系统的网络弱点和漏洞。

英国国家网络安全中心(NCSC)概述了为企业集成人工智能驱动的安全大语言模型(LLM)的风险,并警告开发人员仍未完全掌握系统的机构警告弱点和漏洞。

英国网络安全机构警告AI大语言模型风险 大语该安全机构承认

在一篇博文中,大语该安全机构承认,型风险自2022年OpenAI的英国言模ChatGPT发布以来,大语言模型一直吸引着全球的网络兴趣和好奇心,导致所有行业的安全组织都在研究将该技术用于他们的业务。

英国网络安全机构警告AI大语言模型风险 大语该安全机构承认

然而,机构警告作为一个快速发展的大语领域,NCSC专家发现,型风险在一个不确定的英国言模市场中模型是不断更新的。这可能意味着一家现今提供服务的网络初创企业可能在两年后就不复存在了。

英国网络安全机构警告AI大语言模型风险 大语该安全机构承认

因此,安全使用大语言模型构建业务的组织需要考虑这样一个事实,即模型可能会在所使用的API背后发生变化,从而导致集成的关键部分在某个时候停止存在。

该机构进一步指出,大语言模型在嵌入组织的业务流程时可能会带来一定的风险,研究人员发现大语言模型“本质上无法区分指令和为帮助完成指令而提供的数据”。

NCSC举例称,如果输入的提示结构正确,银行使用的AI聊天机器人可能会被骗向攻击者汇款或进行未经授权的交易。

“使用大语言模型构建业务的组织需要小心,就像他们使用处于测试阶段的产品或代码库一样。”NCSC补充道。

责任编辑:华轩 来源: C114通信网 人工智能大语言模型

(责任编辑:时尚)

    推荐文章
    热点阅读