返回职位列表

AI 安全研究员 / 研究科学家

主要职责

  • 围绕提示注入、工具调用风险、上下文污染、多智能体协作失效、模型行为边界等方向,建立系统化风险分类、攻击面模型和研究假设。
  • 设计高质量评测任务、实验协议、数据集构造方法和分析指标,形成可复现、可比较、可持续迭代的 AI 安全研究基准。
  • 开展模型与智能体行为实验,分析不同模型、工具链、记忆机制、权限配置和协作拓扑下的风险差异,沉淀研究报告与技术白皮书。
  • 跟踪并消化国际前沿论文、开源框架、标准草案和监管动态,提炼对 Agent 安全、AI 治理和可信基础设施有价值的研究判断。
  • 与工程、产品和生态团队协作,将研究结论转化为风险定义、评测标准、产品策略依据和行业传播内容。