中意资讯网 中意资讯网

当前位置: 首页 » 前沿资讯 »

DeepSeek普及推广,周鸿祎委员提示风险,建议“以模制模”筑牢安全底座

转自:北京日报客户端

周鸿祎委员。本人供图

“随着DeepSeek大模型的广泛应用,安全的重要性也日益凸显。”全国政协委员、360集团创始人周鸿祎认为,大模型带来的安全问题可以通过“以模制模”解决——用安全大模型来应对人工智能产生的安全问题,为数字世界构建安全底座。

DeepSeek-R1兼具开源、透明、免费等特质,适合在政府与企业开展私有化部署,推进“数转智改”。“一旦部署在政府、企业内部的基座模型、知识库或智能体中任一环节出现安全隐患,都极有可能诱发整个生产环境爆发系统性风险。”周鸿祎建议,相关部门及时出台配套政策措施,鼓励具备“安全+人工智能”完整解决方案的链主企业,针对人工智能应用所涉及的基座模型、知识库、智能体等安全问题,“以模制模”,将安全要素深度嵌入人工智能应用全流程。

具体而言,基座模型层面的安全问题主要是大模型产生幻觉的问题,“所谓幻觉是指大模型有时会编造出看起来合理或可信的信息,令人真假难辨。但没有幻觉的大模型不聪明,这是把双刃剑。”周鸿祎认为,这些问题可以通过安全大模型连接知识库来校正。

客户端层面的安全问题则更多的是指,人们的许多工作,会和公司里的大模型交流互动,“要加大风险防控,防止来自客户端的安全攻击。”

当大模型的应用催生出更多智能体,人们将自己的一部分工作职责移交给智能体,就会带来新的安全风险。周鸿祎举例说,“假设以后我的智能体能操作电脑,比如给财务员工发送邮件让对方转一笔钱,就会带来风险。”他进一步解释,如果大模型对接的知识库包含庞杂的知识数据,其中涉及个人隐私、商业机密等内容,则存在知识数据层面的安全问题,需要防范信息泄露风险。

周鸿祎还建议,组建产业联盟,打造安全产品。引导相关链主企业发挥牵头作用,广泛吸纳产业链上下游企业、科研机构及终端用户,组建人工智能大模型安全联盟,在联盟内部实现技术成果共享,共同开展产品及服务测试,待产品与服务成熟稳定后,向更广阔的市场加以推广,助力大模型安全保障普及至千行百业。

来源:北京日报客户端

未经允许不得转载: 中意资讯网 » DeepSeek普及推广,周鸿祎委员提示风险,建议“以模制模”筑牢安全底座