AI Verify Foundation
AI Verify Foundation 是 2023 年 6 月由 IMDA 独立分拆出来的非营利基金会,运营开源的 AI 治理测试框架 **AI Verify**。它是新加坡 AI 治理战略的"国际化平台"——把 IMDA 制定的 Model AI Governance Framework 转化成可被全球企业实际使用的开源工具集。
📖 是什么
AI Verify 由两部分组成:
- AI Verify 测试框架:开源工具包(GitHub),让企业自评估 AI 系统在 11 个维度上的表现(透明度、可解释性、可重复性、安全性、隐私、稳健性、公平性、问责制、人类自主权、福祉、社会效益)
- AI Verify Foundation:负责治理工具的演进、生态扩展、标准制定的非营利组织
技术上,AI Verify 框架包含:
- 测试库:自动化测试套件(性能、公平性、稳健性等)
- 流程检查清单:人工评估的标准化问卷
- 报告生成器:输出标准化的合规报告
Foundation 有 100+ 全球成员,包括 IBM、Microsoft、Google、Meta、Salesforce 等大厂,以及本地的 Singtel、DBS、UOB、Standard Chartered 等。
🤖 与 AI 的关系
AI Verify 的核心创新是把 AI 治理从"原则"变成"可执行的测试"。
行业之前的问题:所有人都说要"负责任 AI"、"公平、透明、可解释",但没有人能告诉你这些抽象原则在你的系统里到底要怎么测。AI Verify 第一次把这些原则变成了具体的:
- 11 个评估维度
- 每个维度对应若干自动测试 + 人工检查项
- 测试结果生成标准化报告
这套思路被 NIST AI Risk Management Framework、ISO/IEC 42001、欧盟 AI Act 的合规工具反复借鉴。它不是 SOTA 的技术研究,而是治理工具的"事实标准"——这种"标准之争"的胜利往往比技术胜利更持久。
2024 年扩展到生成式 AI(Generative AI Verify),增加了对 LLM 特有风险(幻觉、越狱、版权)的测试模块。
🇸🇬 与新加坡的关系
AI Verify Foundation 是新加坡 AI 战略最聪明的一步棋。
在「七条传导杠杆」里:
- 杠杆 4(治理):把治理框架转化成可商用的工具
- 杠杆 6(外交):通过 Foundation 形式,把"新加坡治理标准"国际化、去政治化
观点:新加坡用 AI Verify 做了一件其他国家没做的事——把"国家治理标准"变成"全球开源工具"。欧盟 AI Act 是法律,离开欧盟管辖就没用;NIST AI RMF 是美国官方标准,国际接受度受地缘政治影响;而 AI Verify 是 Apache 协议的开源项目,谁都可以用,谁都不会觉得"被新加坡监管"。
这种"标准外交"的玩法只有小国家能玩——大国出标准会被防备,小国出标准反而中立。AI Verify 让新加坡在 AI 治理这个赛道占住了"中立平台"的位置。
可观察的瓶颈:Foundation 的资金可持续性(目前主要靠 IMDA 和企业会员费)、生态拉动力(成员名单很亮但深度参与的不多)、技术演进速度(开源治理工具如何跟上 GenAI 的快速发展)。
🗓️ 关键里程碑
- 2022-05AI Verify 测试框架由 IMDA 发布
- 2023-06AI Verify Foundation 独立成立
Linux Foundation 提供托管支持。
- 2024-05Generative AI Verify 发布
扩展到 LLM 风险测试(幻觉、越狱、版权)。
- 2024Foundation 成员数突破 100
👥 关键人物
- Shameek Kundu — 执行总监
🔗 关联资源
关联生态实体
数据来源
- AI Verify Foundation 官网 — 访问于 2026-05-02
- AI Verify GitHub