AI 治理与监管 · 2023-06-07 · 06:54
新加坡发布 AI Verify 开源测试框架
Singapore launches AI Verify open-source testing framework
核心观点
新加坡在亚洲科技大会上发布 AI Verify Foundation,建立全球首个 AI 治理测试开源社区。
关键要点
- AI Verify 基金会汇集 IBM、微软、谷歌等公司开发开源 AI 测试工具。
- 工具包将开源,覆盖透明度、安全和问责等领域,由企业自我测试 AI 模型。
- Salesforce 的 Kathy Baxter 强调伦理需在数据收集阶段嵌入,最大障碍是变革管理与人才。
内容摘要
新加坡在亚洲科技 X 新加坡峰会上推出 AI Verify 基金会,把 IBM、微软、谷歌等大型科技公司和跨行业企业拉入开源社区,共同开发 AI 测试工具并影响国际标准。开源后的工具包用于帮助企业自我测试模型,并向 IMDA 反馈。
Salesforce 伦理 AI 实践首席架构师 Kathy Baxter 提醒,伦理必须从“是否应该做”和“数据是否代表所有受影响人群”开始嵌入,而不是在最后阶段补救。她说透明度即使没有法规要求也符合企业利益,因为透明度带来信任。
Baxter 指出企业的两大瓶颈:一是变革管理——把成功标准从赚钱多少改为带来净益处;二是人才——AI 开发者多,但能负责任构建 AI 的人少,AI 伦理学家短缺。
完整字幕(原文整理)
字幕语言:zh-CN · 抓取日期:2026-05-02 · 翻译日期:2026-05-02
新加坡正在利用科技巨头的集体力量,帮助企业和监管机构使人工智能更加安全。新加坡推出了一个网络,汇聚了IBM、微软和谷歌等公司,共同开发用于响应或使用的人工智能测试工具,并帮助制定国际人工智能标准。该网络在亚洲科技X新加坡峰会上发布,名为AI Verify基金会,涵盖了大型科技公司和不同行业的企业。现在,他们将帮助推动人工智能测试的开源社区,并为新加坡制造的人工智能测试工具包——AI Verify做出贡献。此举正值人们对该技术日益普及及其快速发展的担忧日益加剧之际。我们相信应以负责任的方式使用人工智能,并将其用于善良目的,但我们也将努力保护社会免受最严重的人工智能风险。私营部门和研究生态系统拥有丰富的专业知识,他们可以且必须被鼓励有意义地参与,以推动人工智能为公众利益服务。2女士补充说,将AI Verify测试工具包开源,将使系统开发者、解决方案提供商以及研究社区能够使用并贡献于透明度、安全性和问责制等领域。此举被视为帮助企业理解其所使用的人工智能,调整以更好地满足自身需求,并共同开发新的更好测试工具的良好方式。我们的前线记者海蒂·昂采访了Salesforce伦理人工智能实践首席架构师凯西·巴克斯特,她强调了在构建人工智能时将伦理作为基础的重要性。你谈到了数据收集,要真正将这些伦理实践融入人工智能流程,确实需要这类数据。那么,伦理数据收集的一些指标是什么?组织在收集此类数据时如何确保伦理实践?绝对如此,如果你没有将伦理放在心上,如果伦理不是你所做的事情和构建人工智能的基础,那么很难在最后阶段再加上伦理并产生实际影响。首先,最重要的是不仅要问“我们能做吗”,还要问“我们应该做吗”,这是人工智能应该解决的问题吗?然后你要考虑用于驱动模型的数据集,它是否代表了人工智能将影响的所有人?这些数据集中存在哪些潜在的有害性和偏见?你必须测量这些,寻找它们,然后努力减轻它们。在构建模型时,你需要从将受到影响的人那里获得反馈,并且必须特别努力联系代表性不足的社区,确保他们也参与进来,这样他们能够识别你可能无法预测的伤害。我们目前在这方面处于什么阶段?过去十多年,特别是由女性和有色人种女性完成了许多令人惊叹的工作,这是一个非常令人振奋的领域。已经有很多非常好的工作完成了,也有许多资源和标准,比如NIST人工智能风险管理框架,当然还有新加坡的AI Verify工具包,今天还宣布了AI Verify基金会。确实有一些令人惊叹的工作正在推动可访问的负责任人工智能的实现。谈到负责任的人工智能,确保透明度的责任是否在于创建这些人工智能系统的组织?政府需要制定哪些法规来确保合规?有调查显示,人们对人工智能,尤其是更强大的人工智能,信任度不高。因此,组织确保透明度符合其最佳利益,因为透明度带来信任。即使法规不要求这样做,组织透明地展示其人工智能的创建和使用方式,确实符合其最佳利益。公司如何透明地展示其人工智能系统?对于想使用这些工具的消费者来说,这又是怎样的情况?这是一个极好的问题,因为透明度涉及购买人工智能的公司或审计人员,也涉及消费者。例如,如果你在纽约面试工作,必须告知你在招聘过程中使用了人工智能。那么,如何向消费者传达人工智能的使用情况?需要用通俗语言向消费者解释模型的作用,同时为审计人员或采购决策者提供更技术性的细节。因此,鼓励公司真正透明地展示其人工智能系统的运作,同时使其具备伦理性。那么,组织在将这些伦理实践整合到流程中面临的更大挑战是什么?首先,不幸的是,对于许多公司来说,这是变革管理的问题,是改变激励结构的问题,不仅仅根据产品或功能赚多少钱来衡量成功,而是评估其影响,确保带来更多的好处而非伤害。其次,是寻找具备正确技能的人才。虽然有许多人工智能开发者,但并非所有人都有负责任构建人工智能的背景。目前人工智能伦理学家不多,我预计未来几年会有很多人从相关项目毕业,因为年轻一代对创造为社会服务的技术充满热情和活力。
关联视频
逾 250 名 AI 专家齐聚新加坡 共商全球测试标准
2026-04-20 · CNA · 03:46
新加坡提出的 AI 安全测试标准成为 ISO 国际会议焦点,逾 250 名来自美、中、日、韩等国的专家与会,这是该标准工作组首次在东盟举行。目前已发布或在研的 AI 标准近百项,是一年前的三倍。
杨莉明谈新加坡 AI 优先事项与在线安全保护措施
2026-03-31 · Josephine Teo · 45:00
杨莉明在 Lorong AI 媒体问答会上详述 AI 双语人才、AI 代理治理、国家 AI 影响计划及 AI 对职场的影响。
杨莉明谈 AI 企业采用与在线安全监管
2026-03-31 · Josephine Teo · 02:30
杨莉明表示政府准备在 AI 企业采用未达预期效果时进行干预,同时发布 IMDA 第二份在线安全评估报告。
新加坡国家 AI 影响计划: 支持万家企业、十万劳动者
2026-03-02 · Josephine Teo · 02:45
杨莉明部长宣布国家 AI 影响计划,目标在 2029 年前培训 10 万名 AI 人才并支持 1 万家企业。
杨莉明呼吁各国主动应对代理型 AI 治理风险
2026-02-20 · Josephine Teo · 05:12
杨莉明在世界经济论坛发布全球首个代理型 AI 治理框架,呼吁各国积极制定 AI 治理规则。
新加坡对 AI 的看法已经转变: 杨莉明专访
2026-02-11 · Josephine Teo · 22:15
杨莉明详述新加坡 AI 战略转型,从谨慎观望到全力拥抱,阐述政府如何系统性推动 AI 应用。