近日,ISC.AI2025第十三屆互聯網安全大會人工智能安全治理與創新實踐論壇在北京國家會議中心圓滿召開。論壇彙聚領域內頂尖專家學者和行業領袖,共同聚焦人工智能安全的核心議題,深入探討大模型安全評估與防護、大模型生態軟件安全、智能體安全、AI治理等前沿議題,激發創新思維,爲構建一個安全、普惠、負責任的人工智能未來貢獻智慧。
360集團智腦總裁張向征先生爲本次論壇致辭,他表示,隨著大模型應用的深化,特別是Agent技術的爆發性應用,攻擊面急劇擴大,人工智能安全議題已逐漸躍升爲當前産業的核心焦點。安全攻防手段正經曆快速叠代升級,面對大模型直接訪問核心系統帶來的全新挑戰,構建AI安全防護體系尤其重要。
主題演讲环节中,中国科学院信息工程研究所研究员虎嵩林围绕《红蓝协同演进:构筑人工智能安全的能力基座》进行了分享。他表示,人工智能发展速度迅猛,其能力正在引发深刻变革。与此同时,人工智能安全涉及的主体范围变得越来越宽广,要通过防御技术的迭代式发展来深度发现风险、精准识别风险、系统防御风险。
360集团AI安全实验室主任邹权臣围绕《智能演进中的安全攻防实践:从大模型到自主智能体》发表了主題演讲。他提到,大模型在推理和工具使用上的突破,为智能体提供了必要的大脑和手脚,但二者的共生进化导致了攻击面以难以预测的方式动态演化,为传统静态防御策略带来前所未有的挑战,因此从软件生态安全层、内容安全层到智能体安全层,要实现防御策略自主调优。
西安交通大学网络空间安全学院教授蔺琛皓围绕《AI内在安全:从小模型到大模型到多模态具身智能》,从机密性、完整性、可用性这三大基石出发,系统剖析了 AI的内生安全问题。他表示,大模型参数量非常之大,虽做了安全护栏和对齐,仍无法覆盖所有攻击;即便对旧攻击做轻微扰动,也能突破新版防御体系,因此实现AI应用的安全可控尤为重要。
中國電子信息産業發展研究院政策法規研究所所長彭健發表了《人工智能監管治理態勢與企業合規建設路徑》爲題的演講。他表示,人工智能目前存在內容安全、産業安全、公共安全、法律爭議、技術失控風險這五大安全風險。企業需重點關注業務手續、生成內容、模型漏洞到科技倫理、數據安全、用戶權益等九大合規要素。
清华大学计算机系副研究员苏航围绕《大模型智能体安全风险和防御框架》进行了主題演讲。他指出,智能体因直接与环境交互,风险远超传统AI和大模型,多数智能体几乎无风险防范能力,通过提示词注入即可操控其执行危险操作。因此模型需要具备危险意识,同时,构建闭环反馈系统十分重要。
华为云安全副总裁范彦军发表了《端到端大模型安全,护航百模千态“安全做事”》主題演讲。他指出,针对AI时代新型未知威胁的攻击,要重视环境安全、数据安全和模型内生安全,华为云推出的大模型防火墙支持“百模千态”,可以有效阻断越狱和提示注入攻击。同时他强调要与各行业的伙伴协同构筑AI安全解决方案。
中國電信研究院AI研發中心副主任楊哲超圍繞《破解「智能失控」:被低估的安全風險與挑戰》,以內生安全爲底座,以協同治理爲屏障,爲應對智能時代的系統性風險提供了啓發性思考。他表示,人工智能是開放系統,設計過程中缺乏清晰邊界,無法枚舉所有安全風險可能性,需從應用、模型、數據、環境等維度構建安全框架。同時他非常希望將大型企業的安全能力開放出來,幫助業內更多夥伴構建大模型安全防護體系。
此次ISC.AI2025人工智能安全治理與創新實踐論壇的成功舉辦,揭示了AI安全的不同維度,思想火花的不斷碰撞,構成了一幅通往安全、普惠、負責任的AI未來路線圖。探索永無止境,安全任重道遠,本次論壇爲構建更加安全可靠的人工智能生態貢獻了智慧與力量。
(推廣)