⚖️ 治理体系 平台 / 框架 运营中 成立 2023-06

AI Verify Foundation

隶属
由 IMDA 孵化,独立运营
规模 / 指标
全球 100+ 成员(含 IBM、Microsoft、Google、Meta、Salesforce 等);50+ 企业实际部署使用
官网
aiverifyfoundation.sg
信息更新
2026-05-02

AI Verify Foundation 是 2023 年 6 月由 IMDA 独立分拆出来的非营利基金会,运营开源的 AI 治理测试框架 **AI Verify**。它是新加坡 AI 治理战略的"国际化平台"——把 IMDA 制定的 Model AI Governance Framework 转化成可被全球企业实际使用的开源工具集。

📖 是什么

AI Verify 由两部分组成:

  • AI Verify 测试框架:开源工具包(GitHub),让企业自评估 AI 系统在 11 个维度上的表现(透明度、可解释性、可重复性、安全性、隐私、稳健性、公平性、问责制、人类自主权、福祉、社会效益)
  • AI Verify Foundation:负责治理工具的演进、生态扩展、标准制定的非营利组织

技术上,AI Verify 框架包含:

  • 测试库:自动化测试套件(性能、公平性、稳健性等)
  • 流程检查清单:人工评估的标准化问卷
  • 报告生成器:输出标准化的合规报告

Foundation 有 100+ 全球成员,包括 IBM、Microsoft、Google、Meta、Salesforce 等大厂,以及本地的 Singtel、DBS、UOB、Standard Chartered 等。

🤖 与 AI 的关系

AI Verify 的核心创新是把 AI 治理从"原则"变成"可执行的测试"

行业之前的问题:所有人都说要"负责任 AI"、"公平、透明、可解释",但没有人能告诉你这些抽象原则在你的系统里到底要怎么测。AI Verify 第一次把这些原则变成了具体的:

  • 11 个评估维度
  • 每个维度对应若干自动测试 + 人工检查项
  • 测试结果生成标准化报告

这套思路被 NIST AI Risk Management Framework、ISO/IEC 42001、欧盟 AI Act 的合规工具反复借鉴。它不是 SOTA 的技术研究,而是治理工具的"事实标准"——这种"标准之争"的胜利往往比技术胜利更持久。

2024 年扩展到生成式 AI(Generative AI Verify),增加了对 LLM 特有风险(幻觉、越狱、版权)的测试模块。

🇸🇬 与新加坡的关系

AI Verify Foundation 是新加坡 AI 战略最聪明的一步棋

在「七条传导杠杆」里:

  • 杠杆 4(治理):把治理框架转化成可商用的工具
  • 杠杆 6(外交):通过 Foundation 形式,把"新加坡治理标准"国际化、去政治化

观点:新加坡用 AI Verify 做了一件其他国家没做的事——把"国家治理标准"变成"全球开源工具"。欧盟 AI Act 是法律,离开欧盟管辖就没用;NIST AI RMF 是美国官方标准,国际接受度受地缘政治影响;而 AI Verify 是 Apache 协议的开源项目,谁都可以用,谁都不会觉得"被新加坡监管"。

这种"标准外交"的玩法只有小国家能玩——大国出标准会被防备,小国出标准反而中立。AI Verify 让新加坡在 AI 治理这个赛道占住了"中立平台"的位置。

可观察的瓶颈:Foundation 的资金可持续性(目前主要靠 IMDA 和企业会员费)、生态拉动力(成员名单很亮但深度参与的不多)、技术演进速度(开源治理工具如何跟上 GenAI 的快速发展)。

🗓️ 关键里程碑

  1. 2022-05
    AI Verify 测试框架由 IMDA 发布
  2. 2023-06
    AI Verify Foundation 独立成立

    Linux Foundation 提供托管支持。

  3. 2024-05
    Generative AI Verify 发布

    扩展到 LLM 风险测试(幻觉、越狱、版权)。

  4. 2024
    Foundation 成员数突破 100

👥 关键人物

🔗 关联资源

数据来源

同属「⚖️ 治理体系」