面向大模型、智能体系统与多智能体网络开展基础性安全研究,建立风险分类、评测基准、实验方法和理论模型,为产品能力、行业标准和前沿洞察提供研究底座。
面向大模型与 AI Agent 的行为风险、安全评测和防护策略建设,将模型与智能体运行中的不确定性转化为可验证、可落地的安全能力。
负责模型厂商、智能体平台及 AI 基础设施伙伴的生态合作,推动公司安全能力进入模型分发链路和智能体应用生态,形成可持续商业闭环。