AI是否真正大规模进入核心业务,关键不在于模型能力又提升了多少,而在于一旦出现问题,系统能否被及时停下,过程能否被追溯,责任能否被清晰界定。在这些问题解决之前,安全都会是AI落地过程中最现实、也最难绕开的门槛。 作者|斗斗 编辑|皮爷 出品|产业家 攻击一旦被AI变成一种“产能”,攻防关系面临的则是结构性失衡。 这种变化已经开始在现实中显现。 12月22日22时,快手遭遇大规模黑灰产攻击,监测数据显示峰值时段约有1.7万个被控僵尸账号同步开播推送色情低俗内容。事实上,攻击手法并不新奇,真正改变战局的是AI带来的“杠杆效应”,即在AI的加持下,攻击成本降到极低,攻击效率反而被成倍放大,防守方的响应能力首次被压制在对手之下。 这并非孤立事件。一组来自OECD的AI事件监测数据显示,2024年的AI风险事件总数约是2022年的21.8倍,2019‑2024年间记录的事件中约74%与AI安全相关,安全与可靠性事件较2023年增长83.7%。 在这种背景下,安全的逻辑正在被迫重写。 过去,企业在选择大模型或Agent服务商时,性能、价格、生态几乎天然排在最前面,安全更多被视为一种事后补救能力。但在一轮又一轮实战之后,越来越多企业开始意识到,一旦将业务流程、用户触点乃至决策权交给AI,安全就不再是“事后诸葛亮”的选项,而是必须前置到选型阶段。 而这场微妙的反转,正在倒逼企业重新排序与AI相关的所有决策优先级。一组来自阿里云与Omdia联合发布AI安全报告显示,企业将安全与数据隐私视为AI主要障碍的比例,从2023年11%激增至2024年43%。 安全,第一次从“可选项”变成了AI能否落地的前置条件。 一、从探索到深水区, AI安全成为落地前提 2025年,企业对“安全”的敏感度正迅速放大。 进入2025年,AI已从技术探索阶段迈入企业业务的深度应用场景。麦肯