📋 AI 政策库

新加坡核心 AI 相关政策文档汇编,按分类整理,每类按时间倒序排列。

档案总数

36

分类

5

形态

档案页

🏛️ 国家战略 (8 份)

🏛️ 数字发展与信息部 (MDDI)

公共 AI 研究投资计划 (2026-2030)

Public AI Research Investment 2026-2030

2026-01

10 亿新元(7.79 亿美元)公共 AI 研究投资,聚焦负责任和资源高效的 AI。

2026 年 1 月 24 日,数字发展与信息部宣布 2026-2030 年间投资超 10 亿新元(约 7.79 亿美元)用于公共 AI 研究。三大方向:一是"负责任和资源高效的 AI"研究,延续 AI Verify 等可信赖 AI 路线;二是全链条 AI 人才培养,从高中预科到大学教师培训;三是支持产业应用,缩短研究到商业化路径。这是继 2024 年 5 亿新元高性能计算资源投资后的又一重大投入,标志着新加坡从"试点探索"进入"规模化建设"阶段。人均 AI 投资达 139 美元,远高于美国(33 美元)和中国(7 美元)。

来源 查看档案

🏛️ 智慧国家与数字政府办公室 (SNDGO)

国家人工智能战略 2.0

National AI Strategy 2.0 (NAIS 2.0)

2023-12

升级版国家 AI 战略,提出 AI for Public Good、AI for Growth 双轨目标,确定九大优先领域。

NAIS 2.0 将 AI 战略从"重点应用"升级为"系统性赋能"。双轨目标:AI for Public Good 和 AI for Growth。涵盖十五大行动,追加拨款至 10 亿新元以上,建设国家 AI 计算基础设施。确定九大优先领域:交通物流、制造业、金融、安全、网络安全、智慧城市、医疗、教育和政府服务,其中医疗和金融科技获最高投资比重。

12 项关联 查看档案

🏛️ 智慧国家与数字政府办公室 (SNDGO)

智慧国家 2.0

Smart Nation 2.0

2023-10

数字基础设施升级蓝图,涵盖数字政府、数字经济、数字社会三大支柱。

Smart Nation 2.0 是 2014 年智慧国家倡议的全面升级,于 2023 年 10 月发布。三大支柱:数字政府——推动政府服务全面数字化和 AI 化;数字经济——支持企业数字化转型和 AI 采纳;数字社会——确保全民具备数字素养,缩小数字鸿沟。2024 年 10 月启动具体落地计划,包括 1.2 亿新元 AI 应用基金,支持五大国家 AI 项目:智能货运规划、市政服务、慢性病预测与管理、个性化教育和边境清关。在基础设施层面,规划了国家级 AI 计算平台、数据共享基础设施和安全的数字身份体系。

来源 查看档案

🏛️ 智慧国家与数字政府办公室 (SNDGO)

国家人工智能战略 1.0

National AI Strategy (NAIS 1.0)

2019-11

新加坡首份国家级 AI 战略,确立五大重点领域和三大推动力。

NAIS 1.0 标志着 AI 从技术议题上升为国家战略。五大重点领域:智能交通与物流、智慧城市、医疗健康、教育、安全与保障。三大推动力:三重螺旋合作、AI 人才管道、数据架构与可信 AI。催生了 AI Singapore 项目和 100 Experiments 计划。

来源 查看档案

🏛️ 总理办公室 (PMO)

智慧国家倡议

Smart Nation Initiative

2014

新加坡数字化转型总体框架,为后续 AI 战略奠定基础。

2014 年,新加坡总理李显龙宣布 Smart Nation Initiative,这是全面数字化转型的总体战略框架。核心目标包括利用数字技术改善市民生活、创造更多经济机会、建设更紧密联系的社区。虽非专门的 AI 政策,但为后续 AI 战略提供了制度基础和政策框架。

来源 查看档案

🏛️ 国防部 (MINDEF)

SAF Digital and Intelligence Service (DIS)

SAF Digital and Intelligence Service — Fourth Service

2022-10

SAF 第四军种成立——把 AI 与数字情报写进军种结构本身。

2022 年 10 月,新加坡国防部正式成立 SAF Digital and Intelligence Service (DIS),作为陆军、海军、空军之外的第四军种,专责数字与情报作战、网络防御、AI 决策支持。2025 年 DIS 进一步重组为 DCCOM(数字网络指挥部)和 SAFC4DC(C4 与防务计算指挥部)两个司令部。这是新加坡国家级 AI-native 战略最深的结构性动作——把 AI 写进军种本身,而非作为某个部门的项目。配套:DIS × AI Singapore MoU、DIS Sentinel Programme + AI 课程、SAF Digital Range / CyTEC 升级。

来源 查看档案

🏛️ IMDA / Digital Trust Centre

Singapore AI Safety Institute (AISI)

Singapore AI Safety Institute

2024-05

前沿 AI 安全研究的国家级研究所,承担 Singapore Consensus 协调职能。

Singapore AI Safety Institute (AISI) 于 2024 年成立,年度预算 S$10M,由 IMDA 与 Digital Trust Centre 联合运营,挂靠 NTU。承担前沿 AI 模型的红队评估、对齐研究、可追溯性测试三类核心研究。AISI 还作为 Singapore Consensus on Global AI Safety Research Priorities(11 国签署,含中美)的协调中心,并主办 International Scientific Exchange on AI Safety(ISESEA)I + II。AISI 是新加坡"用 0.07% 全球人口撬动 G7 级 AI 治理话语权"战略最关键的机构。

来源 查看档案

🏛️ 智慧国家与数字政府办公室 (SNDGO)

智慧国家2.0的目标

Goals of Smart Nation 2.0

2025-07

新加坡智慧国家2.0战略旨在实现三个核心目标:信任、增长和社区。这些目标源于公民多年来通过调查、研究和反馈渠道提出的关键关切,反映了政府如何利用技术改善公民生活并为所有人创造繁荣数字未来的承诺。智慧国家2.0战略将随着数字发展的演进而不断迭代和调整。

新加坡智慧国家2.0战略旨在实现三个核心目标:信任、增长和社区。这些目标源于公民多年来通过调查、研究和反馈渠道提出的关键关切,反映了政府如何利用技术改善公民生活并为所有人创造繁荣数字未来的承诺。智慧国家2.0战略将随着数字发展的演进而不断迭代和调整。

来源 查看档案

⚖️ 治理框架 (8 份)

⚖️ 资讯通信媒体发展局 (IMDA) / Enterprise Singapore

ISO/IEC 42119-8 生成式 AI 测试标准(提案)

ISO/IEC 42119-8 Generative AI Testing Standard (Proposal)

2026-04

新加坡在第 17 届 ISO/IEC JTC 1/SC 42 全会提交的全球首个生成式 AI 测试国际标准草案。

2026 年 4 月 20 日,第 17 届 ISO/IEC JTC 1/SC 42 全体会议在新加坡开幕(首次在东盟举办,由 IMDA 与 Enterprise Singapore 联合主办,35+ 国家、250+ 专家参与)。新加坡正式提交 ISO/IEC 42119-8 标准草案——如果通过,这将是全球首个针对生成式 AI 系统的国际测试标准。 两个核心方向: 基准测试(Benchmarking):用统一数据集衡量 AI 性能,解决"考什么、怎么评分"的可比性问题 红队测试(Red Teaming):模拟攻击找出系统漏洞,标准化"隐藏风险怎么找出来" 提案建立在 IMDA 已有的国内测试基础设施之上:AI Verify Toolkit、Starter Kit for Testing of LLM-Based Applications、Global AI Assurance Sandbox。樟宜机场 2025 年 2 月获得的全球首张 ISO/IEC 42001 AI 管理体系认证,则提供了"AI 治理可被外部审计"的可执行案例。 IMDA 现任 CEO Ng Cher Pong(2025-11 上任)在开幕致辞中说:"标准的制定不能以龟速推进——否则将被 AI 高速变革所淘汰。"他同时强调标准应在行业、文化和语言层面具有代表性,东南亚作为全球文化最多元的地区之一必须接入标准制定。 国际 ISO 标准从提案到正式发布通常需要数年。但提案一旦提出,等于把全球后续讨论的框架定下来了——这正是新加坡"用 0.07% 全球人口撬动 G7 级 AI 治理话语权"的典型操作。

4 项关联 查看档案

⚖️ 资讯通信媒体发展局 (IMDA)

Agentic AI 治理框架

Model AI Governance Framework for Agentic AI

2026-01

针对自主 AI Agent 的治理框架,应对 AI 自主决策带来的新挑战。

随着 Agentic AI(自主 AI 代理)快速发展,IMDA 于 2026 年 1 月发布专门的治理框架。聚焦 AI Agent 的自主决策边界、人类监督机制、责任归属、安全防护等核心议题。

来源 查看档案

⚖️ 资讯通信媒体发展局 (IMDA)

生成式 AI 治理框架

Proposed Model AI Governance Framework for Generative AI

2024-01

专门针对生成式 AI 的治理框架提案,应对大模型带来的新挑战。

全球较早的专门针对生成式 AI 的治理框架提案。九大维度:问责制、数据治理、可信开发与部署、事件报告、测试与保证、安全、内容来源、使用者素养、辅助措施。采用多利益相关方方法,强调"沙盒式"治理。

来源 查看档案

⚖️ 资讯通信媒体发展局 (IMDA)

AI Verify 测试框架

AI Verify

2022-05

全球首个 AI 治理测试框架和工具包,支持企业自测 AI 系统合规性。

全球首个 AI 治理测试框架与工具包。11 项可测试指标,开源工具包,与国际标准对齐。2023 年成立 AI Verify Foundation 推动全球协作。将 AI 治理从"原则"推向"可操作"。

来源 查看档案

⚖️ 资讯通信媒体发展局 (IMDA)

AI 治理模型框架

Model AI Governance Framework

2019-01

亚洲首个 AI 治理框架,提出可解释、透明、以人为本的 AI 治理原则。

2019 年在达沃斯发布,亚洲首个 AI 治理框架。四大核心原则:内部治理结构与措施、决策中的人类参与、运营管理、利益相关方互动与沟通。被 OECD 引用为最佳实践。

来源 查看档案

⚖️ 个人数据保护委员会 (PDPC)

个人数据保护法

Personal Data Protection Act (PDPA)

2012

新加坡核心数据保护法律,2020 年修订加入 AI 相关条款。

核心数据保护法律,2012 年通过,2020 年重大修订。引入合法利益例外(Business Improvement Exception)、数据可携带权、加强执法力度。为 AI 数据使用划定法律边界。

来源 查看档案

⚖️ 新加坡金融管理局 (MAS)

MAS Project MindForge

Project MindForge — GenAI Risk Framework for Financial Sector

2024-06

GenAI 在金融业的风险框架,24 家机构 + 四大云厂商(Microsoft / AWS / Google / NVIDIA)共建。

Project MindForge 是 MAS 主导的金融业 GenAI 风险框架,于 2024 年启动。Consortium 成员包括 24 家金融机构(DBS、UOB、OCBC、HSBC、JPMorgan 等)+ 四大云与 AI 厂商(Microsoft、AWS、Google、NVIDIA)+ 监管机构。框架围绕七大风险维度:模型幻觉、数据泄露、偏差与公平、供应链依赖、可解释性、对抗性攻击、责任分配。MindForge 的特殊之处在于让监管机构、被监管金融机构、技术供应商三方在同一桌上协调——这是新加坡 AI 治理"训练宽松 + 输出严管"哲学在金融业的具体落地,也是 FEAT → Veritas → MindForge → BuildFin.ai 五层堆栈中第三层。

来源 查看档案

⚖️ 新加坡金融管理局 (MAS)

MAS AI Risk Management Guidelines

AI Risk Management Guidelines for Banks

2024-12

金融业 AI 模型风险管理的监管期望书,正式约束银行使用 AI。

MAS 于 2024 年 12 月发布 AI Risk Management Guidelines,把 FEAT / Veritas / MindForge 多年累积的实践经验固化为正式监管期望书。覆盖:模型治理(数据、训练、验证、上线)、第三方 AI 风险(云厂商、模型供应商、API)、模型监控(漂移、偏差、性能)、人在回路、事件应对与责任。配套 BuildFin.ai 平台让被监管机构能持续测试和报告。这是全球首批专门针对银行业 AI 的监管文件,比欧盟 AI Act 金融条款落地更快。

来源 查看档案

🏢 行业监管 (9 份)

🏢 卫生部 (MOH) / 卫生科学局 (HSA) / 国家医疗科技局 (Synapxe)

医疗 AI 联合指南 (AIHGle)

Artificial Intelligence in Healthcare Guidelines (AIHGle)

2021-10

面向医院、医生与 AI 开发者的医疗 AI 安全使用与良好实践指南。

Artificial Intelligence in Healthcare Guidelines (AIHGle) 于 2021 年 10 月由卫生部 (MOH)、卫生科学局 (HSA) 与当时的 Integrated Health Information Systems (IHiS,2023 年改组为 Synapxe) 联合发布,是新加坡医疗 AI 的核心非约束性指南。两个目标:一是支持安全有效的医疗 AI 部署,二是补充 HSA 对 AI-Medical Devices (AI-MD) 的硬性监管要求。覆盖 AI 开发者与医疗机构两侧的全生命周期:开发阶段的临床有效性证据要求、部署阶段的临床工作流融入与人在回路、上线后的持续监控与不良事件报告、患者沟通与知情同意。AIHGle 与 HSA 基于 Health Products Act 的医疗器械注册要求形成"软指南 + 硬法"双层结构,是 ACE-AI、Synapxe AI 平台等国家级医疗 AI 项目的合规底座。

来源 查看档案

🏢 卫生科学局 (HSA)

Health Products Act — AI 医疗器械注册

Health Products Act — AI-Medical Device (AI-MD) Regulation

2007

含 AI 的医疗器械须在 HSA 注册——硬法层面的医疗 AI 准入门槛。

Health Products Act 2007 是新加坡医疗器械的核心法律,由卫生科学局 (HSA) 执行。含 AI 组件的医疗设备(AI-Medical Device, AI-MD)——无论是独立软件 (Software as a Medical Device, SaMD) 还是嵌入设备的算法——必须按风险等级在 HSA 注册后方可在新加坡上市或临床使用。配套监管文件:Regulatory Guidelines for Software Medical Devices(2022 修订)专章覆盖 AI-MD 的训练数据质量、模型变更管理 (Change Control Plan)、持续学习系统 (Continuous Learning) 的特殊要求、临床证据等级、网络安全和数据保护。AI-MD 还须遵循 Good Machine Learning Practice (GMLP) 原则,与 FDA 和 Health Canada 的多边协调框架一致。这一条是 W&C tracker 单列的两条 AI 相关存量立法之一——它说明新加坡"没有专门 AI 法"的真实含义:用既有行业法的现代化修订把 AI 纳入硬法监管,而不是另立一部横切法。

来源 查看档案

🏢 陆路交通管理局 (LTA) / 交通部 (MOT)

Road Traffic Act — 自动驾驶授权

Road Traffic Act — Autonomous Vehicle Trials and Use

2017-03

2017 修订引入第 6C 节,授权 LTA 监管自动驾驶车辆测试与使用。

Road Traffic Act 1961 通过 2017 年的 Road Traffic (Amendment) Act 增设第 6C 节(Trials and use of autonomous motor vehicles),把自动驾驶 (AV) 写入硬法。核心条款:陆路交通管理局 (LTA) 获授权制定细则、签发 AV 测试与运营许可、设定保险与安全要求、在划定区域 (designated area) 进行豁免。配套是 2017 年颁布的 Road Traffic (Autonomous Motor Vehicles) Rules,覆盖:测试申请与审批、安全员要求、数据记录与事件报告(黑匣子)、与 LTA 的持续报告义务、最低保险额度。新加坡同步建立了 CETRAN (Centre of Excellence for Testing and Research of AVs) 测试中心和 one-north 自动驾驶试验区,把法律授权落到物理基础设施。这条与 Health Products Act 共同构成 W&C tracker 单列的"用既有行业法管 AI"的两个核心样本——也是 NAIS 1.0 五大重点领域之一"智能交通与物流"的法律基座。

来源 查看档案

🏢 网络安全局 (CSA)

CSA AI 系统安全指南

Guidelines on Securing AI Systems

2024-10

AI 系统全生命周期安全最佳实践指南。

CSA 于 2024 年 10 月发布 AI 系统安全指南及配套实践手册,填补了 AI 安全领域的治理空白。指南覆盖 AI 系统全生命周期:规划与设计阶段的威胁建模、开发阶段的数据与模型安全、部署阶段的安全测试、运维阶段的监控与事件响应。重点关注对抗性攻击防御、数据投毒防范、模型窃取防护、供应链安全等 AI 特有风险。

来源 查看档案

🏢 新加坡最高法院 (Supreme Court)

法院生成式 AI 使用指南

Guide on Use of Generative AI Tools by Court Users

2024-10

法律诉讼中使用生成式 AI 工具的原则和指引。

新加坡最高法院于 2024 年发布生成式 AI 使用指南(Registrar's Circular No. 1 of 2024),适用于所有法院体系。核心原则:律师和当事人对提交法院的所有内容负最终责任,无论是否使用 AI 生成;使用 GenAI 辅助准备的法律文件须披露 AI 使用情况;引用的案例和法律条文须经人工核实。体现了司法系统对 AI 工具的务实态度——不禁止使用,但强调人类责任不可转移。

来源 查看档案

🏢 新加坡金融管理局 (MAS)

MAS Veritas 倡议

Veritas Initiative

2021

将 FEAT 原则转化为可操作的评估工具包,提供开源方法论。

Veritas 倡议是 FEAT 原则的实践延伸,由 MAS 联合金融机构共同开发。项目目标是创建一套开源、可操作的评估方法论和工具包,帮助金融机构将 FEAT 原则落地到具体 AI 应用中。涵盖客户营销公平性评估、信用风险评分透明度评估等场景。Veritas 持续更新迭代,体现新加坡"原则→工具→实践"的渐进式 AI 治理路径。

来源 查看档案

🏢 个人数据保护委员会 (PDPC)

PDPC 个人数据 AI 使用咨询指南

Advisory Guidelines on Use of Personal Data in AI Recommendation and Decision Systems

2024-03

PDPC 明确 PDPA 在 AI 推荐与决策系统中的合规边界——为企业用个人数据训练和运行 AI 提供确定性。

PDPC 于 2024 年 3 月发布《Advisory Guidelines on Use of Personal Data in AI Recommendation and Decision Systems》,把 PDPA 在 AI 场景下的具体适用方式讲清楚。覆盖三类常见情形:(1) 用个人数据训练、测试、监控 AI 模型——可援引 Business Improvement Exception 或 Research Exception,但需通过合理性测试、数据最小化、去标识化等门槛;(2) 用 AI 进行推荐或决策——须履行通知和同意义务,决策类应用须告知数据主体;(3) 数据保护影响评估(DPIA)的最佳实践模板。这是 PDPC 把 PDPA 2020 修订(合法利益例外、Business Improvement Exception)转化为 AI 落地操作手册的关键文件,与 Copyright Act §244 共同构成新加坡 AI 训练侧"双重法律基础"。

来源 查看档案

🏢 新加坡金融管理局 (MAS)

MAS FEAT 原则

Fairness, Ethics, Accountability, Transparency (FEAT) Principles

2018

金融业 AI 使用的公平性、伦理、问责和透明度原则。

MAS 于 2018 年发布 FEAT 原则,为金融机构使用 AI 和数据分析提供治理指引。四大原则:公平性(Fairness)——确保 AI 决策不产生歧视;伦理(Ethics)——AI 使用符合道德标准;问责(Accountability)——明确 AI 决策的责任归属;透明度(Transparency)——AI 决策过程可理解、可解释。2022 年更新版纳入更多实践指导。

来源 查看档案

🏢 律政部 (MINLAW) / IPOS

Copyright Act §244 — AI 训练例外

Copyright Act 2021 — Section 244 (Computational Data Analysis Exception)

2021-11

AI 训练免责条款——与日本并列全球最宽松的 AI 训练版权立场。

Copyright Act 2021 第 244 条 "Computational Data Analysis" 给 AI 训练数据使用提供明确的免责条款:合法获取的内容(不论是否有版权)可用于 AI 模型训练、文本与数据挖掘等"计算分析"用途,不构成版权侵权。这与日本《著作权法》第 30-4 条并列为全球最宽松的 AI 训练版权立场——美国仍在 fair use 案例法争议中、欧盟需依赖 Text and Data Mining Exception 的 opt-out 机制。配合 IPOS 的 "When Code Creates" 报告(2024)和"训练宽松 + 输出严管"哲学(OCHA + Elections Bill + Criminal Law Bill + Online Safety Bill 四件套),新加坡为 AI 公司提供了全球最清晰的法律边界之一——这是 EDB 能引进 OpenAI / Anthropic / DeepMind 等机构的关键背景之一。

来源 查看档案

💰 预算与资金 (4 份)

💰 财政部 (MOF)

2026 财政预算案 — 国家 AI 全面推进

Budget 2026 — National AI Acceleration

2026-02

成立国家 AI 委员会、AI 税收减免、one-north AI 园区、AI Mission 计划。

2026 年预算案将 AI 推进提升到前所未有的高度。核心举措:成立由总理亲自主持的 National AI Council;Enterprise Innovation Scheme 的 400% 税务扣除扩展至 AI 相关支出;启动 one-north AI 园区建设;推出 AI Mission 计划聚焦关键领域应用;设立 National AI Literacy Programme 提升全民 AI 素养。这是新加坡 AI 政策从战略到全面执行的标志性预算。

8 项关联 查看档案

💰 卫生部 (MOH)

2026 卫生部供给委员会 — 医疗AI与健保改革

MOH Committee of Supply 2026 — Healthcare AI & MediSave Reform

2026-03

ACE-AI 预测工具部署、BRCA1/2 基因检测补贴、MediShield Life 覆盖预防性手术、MediSave 限额提升。

2026 年 3 月卫生部供给委员会辩论,卫生部长王乙康宣布新加坡正式成为超老龄社会(65 岁以上人口超 21%)。核心措施:一、ACE-AI 预测工具(由国家医疗科技局 Synapxe 开发),预测 3 年内糖尿病及高脂血症风险,>75% 风险者由 3 年一检提升至每年检查,2027 年初推广至所有约 1,100 家 Healthier SG 诊所,坚持"AI 增强而非 AI 决定"原则,临床医生保持在决策回路中;二、BRCA1/2 基因检测从 2026 年 12 月起获最高 70% 补贴,每年 2,000+ 人符合条件;三、MediShield Life 扩展覆盖预防性乳房切除术(Q3 2026)及风险降低型输卵管卵巢切除术(Q4 2026);四、MediSave 慢性病与预防护理限额从 500/700 提至 700/1000(2027 年 1 月起),惠及 91 万+ 患者。

来源 查看档案

💰 财政部 (MOF)

2025 财政预算案 — AI 相关措施

Budget 2025 — AI-related Measures

2025-02

黄循财首份预算案,释放大规模 AI 投入信号。

2025 年预算案是黄循财出任总理后的首份预算案,首次将 AI 列为财政优先事项。重点措施包括:加速企业数字化转型拨款、扩大 AI 技能培训计划覆盖面、增加 AI 研发投入。预算案为后续 NAIS 2.0 的落地执行提供了财政保障,标志着 AI 从战略规划正式进入财政拨款阶段。

来源 查看档案

💰 国家研究基金会 (NRF)

RIE2025 研究创新计划

Research, Innovation and Enterprise 2025 Plan

2020

250 亿新元五年研发计划,AI 列为重点投资领域。

RIE2025 计划覆盖 2021-2025 年,总投入 250 亿新元,是新加坡历史上最大规模的研发投资。四大战略领域:制造贸易与连接、人类健康与潜能、城市可持续发展与智慧国家、数字经济。AI 贯穿各领域,是核心使能技术。计划支持 AI Singapore 等国家级 AI 研究项目,资助 AI 人才培养、基础研究和产业应用。

来源 查看档案

🌏 国际合作 (7 份)

🌏 外交部 (MFA)

首尔 AI 安全峰会承诺

Seoul AI Safety Commitment

2024-05

参与 Seoul AI Safety Summit,进一步推进 AI 安全治理承诺。

2024 年 5 月,新加坡参加在韩国首尔举行的第二届 AI 安全峰会,签署 Seoul AI Safety Commitment。在 Bletchley Declaration 基础上进一步深化承诺:推动前沿 AI 安全评估标准的制定、支持 AI 安全研究所之间的国际协作、促进 AI 安全测试方法论的共享。新加坡连续参与两届峰会,持续巩固其在全球 AI 治理中的积极参与者角色。

来源 查看档案

🌏 外交部 (MFA)

Bletchley Park AI 安全峰会承诺

Bletchley Declaration on AI Safety

2023-11

签署 Bletchley Declaration,承诺 AI 安全国际合作。

2023 年 11 月,新加坡作为 28 个签署国之一参与了在英国 Bletchley Park 举行的首届全球 AI 安全峰会。签署 Bletchley Declaration,核心承诺包括:识别前沿 AI 带来的共同风险、各国承担 AI 安全的相应责任、加强 AI 安全研究的国际合作。宣言特别关注前沿 AI 模型的潜在风险,包括网络安全威胁、生物技术风险和虚假信息。

来源 查看档案

🌏 SNDGO / 外交部 (MFA)

加入全球 AI 合作伙伴关系 (GPAI)

Global Partnership on AI (GPAI)

2020

新加坡成为 GPAI 创始成员,参与负责任 AI 国际治理。

新加坡于 2020 年成为 GPAI 创始成员国之一。GPAI 是由多国政府发起的国际倡议,旨在通过多利益相关方合作推动负责任 AI 的发展和使用。新加坡积极参与 GPAI 的工作组,包括负责任 AI、数据治理、未来工作、创新与商业化等方向。加入 GPAI 体现了新加坡在 AI 治理领域的国际参与意愿,也为本国政策制定引入国际视角和最佳实践。

来源 查看档案

🌏 IMDA / Singapore AI Safety Institute

Singapore Consensus on Global AI Safety Research Priorities

2024-04

新加坡发起、11 国签署(含中美)的全球 AI 安全研究优先级共识。

Singapore Consensus 是新加坡 2024 年 4 月在 ICLR 期间召开的国际科学交流会议(ISESEA I)成果,最终由 11 个国家或地区共同签署,罕见地把中美都纳入同一份 AI 安全文件。共识围绕三大研究优先级:(1) 风险评估方法论标准化;(2) 跨国前沿模型红队协作;(3) 关键基础设施 AI 部署的安全门槛。这是新加坡国家 AI-native 战略最具杠杆的产出之一——用 0.07% 的全球人口建立起 AI 治理领域的"中立坐标"。配套机制包括 ISESEA II(2026)持续更新共识、AISI 作为协调中心、Bletchley/Seoul/Paris AI Summits 持续输出。

来源 查看档案

🌏 ASEAN Digital Ministers / IMDA

ASEAN Guide on AI Governance and Ethics

2024-02

ASEAN 10 国采纳的 AI 治理指南,新加坡主导起草,IMDA 承担秘书处职能。

ASEAN Guide on AI Governance and Ethics 由新加坡主导起草,2024 年 2 月由 ASEAN 数字部长会议正式通过,10 个成员国采纳。指南直接基于新加坡 Model AI Governance Framework,是新加坡治理模板的"区域化版本"。覆盖:组织治理、数据治理、AI 系统全生命周期管理、人在回路、风险分级。新加坡通过 ASEAN Working Group on AI Governance(WG-AI)持续承担秘书处职能。这是新加坡战略的关键杠杆——把本国治理标准变成区域默认标准,让外资在东南亚部署 AI 时自然地遵循新加坡定义的边界。延伸:2026 年 ASEAN Hanoi Declaration 进一步深化数字部长合作。

来源 查看档案

🌏 外交部 (MFA) / 国防部 (MINDEF)

REAIM Seoul Summit 2024 — 联合主办

Responsible AI in the Military Domain (REAIM) Seoul Summit

2024-09

REAIM Seoul Summit 五个联合主办国之一,把"军事 AI 责任使用"推向国际议程。

Responsible AI in the Military Domain (REAIM) Seoul Summit 2024 是 REAIM 系列的第二届,新加坡作为五个联合主办国之一(与韩国、荷兰、英国、肯尼亚),把军事 AI 的责任使用推到国际议程。Summit 通过《Blueprint for Action》——首个把军事 AI 治理写成可操作步骤的多边文件,覆盖:人在指挥链中的位置、自主武器边界、AI 决策的国际人道法适用、跨国信任建立机制。新加坡同时主持 REAIM Asia Regional Consultations,把对话扩到东南亚。这是新加坡用"治理中立区"定位介入最敏感议题(军事 AI)的标志性动作——不靠武力,靠规则起草权。

来源 查看档案

🌏 IMDA / AISI

International Scientific Exchange on AI Safety (ISESEA)

International Scientific Exchange on AI Safety

2024-04

ICLR 期间召开的全球 AI 安全科学交流会,已办两届,是 Singapore Consensus 的孵化平台。

International Scientific Exchange on AI Safety(ISESEA)由 IMDA 和 Singapore AI Safety Institute 联合主办,借势 ICLR(国际学习表征会议)每年在新加坡或合作地举办。2024 年 ISESEA I 孵化出 Singapore Consensus;2026 年 ISESEA II 继续更新共识、扩展研究优先级。会议定位刻意"科学家+政府+产业"三层混合,避免单纯外交场合的政治化。这是新加坡 AI 国际治理战略的"温和入口"——用学术活动建立非政治化共识,再让政府层面采纳。

来源 查看档案