“模型”逐浪AIGC丨从“用”和“防”两端着手 奇安信加码大模型

2023-08-25 17:05:17来源:21世纪经济报道

今天,很高兴为大家分享来自21世纪经济报道的逐浪AIGC丨从“用”和“防”两端着手 奇安信加码大模型,如果您对逐浪AIGC丨从“用”和“防”两端着手 奇安信加码大模型感兴趣,请往下看。

21世纪经济报道记者白杨 北京报道

在AI大模型时代,网络安全企业如何参与其中,奇安信交出了答卷。8月25日,奇安信正式发布了Q-GPT安全机器人和大模型卫士两款产品。

前者是奇安信面向安全领域打造的行业大模型,能够让企业借助大模型提高安全防护能力;后者则是解决大模型安全问题的产品,可以帮助企业更安全的使用大模型产品。

提高安全生产力

在网络安全领域,政企机构长期面临着三大困扰,分别是告警疲劳、专家稀缺、效率瓶颈。

对此,奇安信集团董事长齐向东表示,从奇安信开始训练自己的GPT安全大模型开始,就制定了明确的目标。这个产品的形态一定不会是一个问答对话框,而是一个聪明的机器人,它能帮助或者替代安全专家执行复杂任务。

在现场演示中,某企业安全分析平台收到了海量告警,通常来说,安全专家的极限,只能对其中1%的重要告警进行分析研判,而通过奇安信安全机器人,可以实时、自动研判全部告警,并将需要响应处置的告警过滤出来。

对于Q-GPT安全机器人,奇安信集团副总裁左文建也提到,“大模型是不是聪明,要取决于知识数据的质量。比如,GPT写代码,生成代码质量最高的并不是OpenAI、谷歌、Meta等巨头,而是GitHub推出的Copilot,因为GitHub有全球9400万的开发者为其贡献高质量代码和注释。”

在安全大模型上,能否做好安全分析也同样取决于背后的数据及经验积累。在预训练数据层面,据左文建透露,奇安信具有百万亿级的安全日志、文档、知识库、情报类数据,存储体量达数百PB。

解决大模型安全问题

随着大模型开始在越来越多行业得到应用,相关的安全风险也随之出现。

奇安信集团副总裁张卓向记者表示,据统计,在使用ChatGPT的员工中大多数会泄露数据,其中11%的数据为企业敏感数据。而越来越多的办公产品都集成了大模型,就意味着将有更多的员工使用大模型,这会加剧企业敏感数据的泄露风险。

张卓以某行业龙头企业A为例称,该企业拥有大量核心技术专利,形成了强大的技术壁垒,然而,由于员工大量使用大模型应用处理日常工作,且缺乏监管,最终数据投喂过程中公司敏感技术信息不断泄露,久之,这些重要技术信息变成GPT知识库的一部分,又通过GPT传授给同行对手企业,导致企业的核心竞争力逐步丧失。

但是,作为一家现代企业,如果不积极使用GPT改进自己的技术、产品和市场推广,就会有落伍的风险。

基于此,奇安信推出了大模型卫士产品。它能够帮助企业建立内部技术监管手段,防止员工向大模型投喂敏感数据,同时通过身份与数据关联,在发生数据泄露风险时,可以快速找到数据泄露的主体。 

 张卓称,目前大模型卫士已能够完美适配主流大模型应用,并在终端侧和网络侧,通过检测审计平台、安全代理网关(SWG)等工具,对GPT实现精准管控。

(作者:白杨 编辑:骆一帆)

好了,关于逐浪AIGC丨从“用”和“防”两端着手 奇安信加码大模型就讲到这。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章