项目档案
AI Verify
把 AI 治理原则转成可运行测试的开源框架
开源时间
2023-06
评估维度
11
生态成员
100+
- 归属
- AI Verify Foundation / IMDA
- 类别
- 治理测试框架
- 状态
- 开源运营中
- 启动
- 2022-05
- 语言 / 形态
- TypeScript
- 协议
- Apache-2.0
- GitHub Stars
- 37
- 信息更新
- 2026-05-04
AI Verify 是新加坡 AI 治理路线的核心产品:它不只写原则,而是把透明度、公平性、稳健性、隐私、问责等治理要求做成可运行的测试框架和报告工具。
是什么
AI Verify 由两层组成:一层是开源软件工具包,企业可以用它测试传统 AI 和生成式 AI 系统;另一层是 AI Verify Foundation,负责把工具、插件和成员生态持续推进。
它的页面价值在于把抽象治理变成工程对象。一个企业不是只回答"我们是否负责任地使用 AI",而是可以用测试、问卷和报告说明自己的系统在哪些维度达标、哪些维度需要补强。
与 AI 的关系
AI Verify 的关键创新是把"治理"从文档推向工具链。对企业来说,AI 风险不再只是法务或合规部门的抽象话题,而是可以纳入开发、评估和上线流程的检查项。
这也是新加坡在 AI 治理上的差异化:不直接走强制立法先行,而是先做可验证、可复用、可国际化的工具。
与新加坡的关系
AI Verify 是新加坡"标准外交"最具体的载体。它把 IMDA 的治理框架做成全球企业都能下载、部署、扩展的开源工具,降低了其他国家和企业采纳新加坡框架的政治阻力。
对 sgai.md 来说,它应被当作一个长期追踪对象:工具演进、Foundation 成员参与深度、生成式 AI 测试模块、与 ISO / NIST / EU 合规体系的对齐,都会影响新加坡在 AI 治理中的话语权。
关键里程碑
- 2022-05AI Verify 测试框架发布
- 2023-06AI Verify 开源并成立基金会
- 2024-05扩展到生成式 AI 测试