返回官方开源与研究 治理测试框架 开源运营中

项目档案

AI Verify

把 AI 治理原则转成可运行测试的开源框架

开源时间
2023-06
评估维度
11
生态成员
100+
归属
AI Verify Foundation / IMDA
类别
治理测试框架
状态
开源运营中
启动
2022-05
语言 / 形态
TypeScript
协议
Apache-2.0
GitHub Stars
37
信息更新
2026-05-04

AI Verify 是新加坡 AI 治理路线的核心产品:它不只写原则,而是把透明度、公平性、稳健性、隐私、问责等治理要求做成可运行的测试框架和报告工具。

是什么

AI Verify 由两层组成:一层是开源软件工具包,企业可以用它测试传统 AI 和生成式 AI 系统;另一层是 AI Verify Foundation,负责把工具、插件和成员生态持续推进。

它的页面价值在于把抽象治理变成工程对象。一个企业不是只回答"我们是否负责任地使用 AI",而是可以用测试、问卷和报告说明自己的系统在哪些维度达标、哪些维度需要补强。

与 AI 的关系

AI Verify 的关键创新是把"治理"从文档推向工具链。对企业来说,AI 风险不再只是法务或合规部门的抽象话题,而是可以纳入开发、评估和上线流程的检查项。

这也是新加坡在 AI 治理上的差异化:不直接走强制立法先行,而是先做可验证、可复用、可国际化的工具。

与新加坡的关系

AI Verify 是新加坡"标准外交"最具体的载体。它把 IMDA 的治理框架做成全球企业都能下载、部署、扩展的开源工具,降低了其他国家和企业采纳新加坡框架的政治阻力。

对 sgai.md 来说,它应被当作一个长期追踪对象:工具演进、Foundation 成员参与深度、生成式 AI 测试模块、与 ISO / NIST / EU 合规体系的对齐,都会影响新加坡在 AI 治理中的话语权。

关键里程碑

  1. 2022-05
    AI Verify 测试框架发布
  2. 2023-06
    AI Verify 开源并成立基金会
  3. 2024-05
    扩展到生成式 AI 测试

资源入口