📋 AI 政策ライブラリ

シンガポール AI コア関連政策ドキュメントの集約、カテゴリ別に整理され、各カテゴリは時系列の逆順で並んでいます。

アーカイブ総数

36

カテゴリ

5

形式

アーカイブページ

🏛️ 国家戦略 (8 件)

🏛️ デジタル発展・情報部 (MDDI)

公開 AI 研究投資計画 (2026-2030)

Public AI Research Investment 2026-2030

2026-01

10 億シンガポール・ドル(7.79 億米ドル)の公開 AI 研究投資。責任ある、リソース効率の高い AI に焦点を当てています。

2026年1月24日、デジタル開発・情報省は2026~2030年間に10億シンガポール・ドル以上(約7.79億米ドル)を公共AI研究に投資することを発表しました。3つの主要な方向があります:1つ目は「責任ある・リソース効率的なAI」研究で、AI Verifyなどの信頼できるAI路線を継続するものです。2つ目は全チェーンのAI人材育成で、高校予科から大学教員研修までをカバーします。3つ目は産業応用を支援し、研究から商業化へのパスを短縮するものです。これは2024年の5億シンガポール・ドルの高性能計算リソース投資に続く重大な投入であり、シンガポールが「パイロット探索」から「規模化構築」段階への移行を示しています。一人当たりのAI投資は139米ドルに達し、米国(33米ドル)と中国(7米ドル)をはるかに上回っています。

出典 プロフィールを見る

🏛️ スマート・ネーション・デジタル政府オフィス (SNDGO)

国家 AI 戦略 2.0

National AI Strategy 2.0 (NAIS 2.0)

2023-12

国家 AI 戦略の改定版。「AI for Public Good」「AI for Growth」の二本柱を掲げ、九つの重点領域を特定しています。

NAIS 2.0は、AI戦略を「重点的応用」から「システム的エンパワーメント」へアップグレードしています。二軌並行の目標:AI for Public GoodおよびAI for Growth。15の大きな行動を含み、10億シンガポール・ドル以上の追加予算配分が行われ、国家AI計算基盤が構築されます。9つの優先領域が特定されています:交通物流、製造業、金融、安全、サイバーセキュリティ、スマートシティ、医療、教育、および政府サービス。このうち医療と金融技術が最も高い投資比率を受けています。

12 件の関連リンク プロフィールを見る

🏛️ スマート・ネーション・デジタル政府オフィス (SNDGO)

スマート・ネーション 2.0

Smart Nation 2.0

2023-10

デジタル基盤施設のアップグレード計画。デジタル政府、デジタル経済、デジタル社会の三本柱を含みます。

Smart Nation 2.0は、2014年のSmart Nation Initiativeの全面的なアップグレードであり、2023年10月に発表されました。3つの支柱があります:デジタル政府――政府サービスの完全なデジタル化とAI化を推進すること。デジタル経済――企業のデジタル変革とAI採用を支援すること。デジタル社会――全国民にデジタルリテラシーを備えさせ、デジタル格差を縮小すること。2024年10月に具体的な実装計画が開始され、1.2億シンガポール・ドルのAI応用基金が含まれ、5つの国家AIプロジェクトを支援しています:インテリジェント貨物運送計画、市政サービス、慢性疾患予測・管理、個別化教育、および国境通関。インフラストラクチャレベルでは、国家レベルのAI計算プラットフォーム、データ共有インフラストラクチャ、および安全なデジタルアイデンティティシステムが計画されています。

出典 プロフィールを見る

🏛️ スマート・ネーション・デジタル政府オフィス (SNDGO)

国家 AI 戦略 1.0

National AI Strategy (NAIS 1.0)

2019-11

シンガポール初の国家レベルの AI 戦略。五つの重点領域と三つの推進力を確立しています。

NAIS 1.0は、AIが技術問題から国家戦略へと上昇したことを示しています。5つの重点領域:インテリジェント交通・物流、スマートシティ、医療・健康、教育、セキュリティ・保障。3つの推進力:トリプルヘリックス協力、AI人材パイプライン、データアーキテクチャおよび信頼できるAI。これはAI Singaporeプロジェクトと100 Experiments計画を生み出しました。

出典 プロフィールを見る

🏛️ 首相府 (PMO)

スマート・ネーション・イニシアティブ

Smart Nation Initiative

2014

シンガポールのデジタル変革全体フレームワーク。その後の AI 戦略の基礎を築いています。

2014年、シンガポール首相Lee Hsien Loongは Smart Nation Initiativeを発表しました。これは全面的なデジタル変革の総体的な戦略フレームワークです。中核的な目標は、デジタル技術を利用して市民生活を改善すること、より多くの経済的機会を創造すること、より緊密に結びついたコミュニティを構築することを含みます。AI専門の政策ではありませんが、その後のAI戦略に制度的基盤と政策的枠組みを提供しました。

出典 プロフィールを見る

🏛️ 国防部 (MINDEF)

SAF Digital and Intelligence Service — Fourth Service

2022-10

SAF 第四軍種の創設。AI とデジタル情報を軍種構造そのものに組み込みます。

2022年10月、シンガポール国防省は正式にSAF Digital and Intelligence Service (DIS)を設立しました。これは陸軍、海軍、空軍に次ぐ第4の軍種として機能し、デジタル・インテリジェンス作戦、サイバー防御、AI意思決定支援を専門とします。2025年、DISはDCCOM(デジタルネットワーク司令部)とSAFC4DC(C4および防御計算司令部)の2つの司令部へさらに再編成されます。これはシンガポール国家レベルのAI-ネイティブ戦略における最も深い構造的な動きです――AIを軍種そのものに組み込むことで、ある部門のプロジェクトとしてではなく実現します。対応措置:DIS × AI Singapore MoU、DIS Sentinel Programme + AIコース、SAF Digital Range / CyTEC アップグレード。

出典 プロフィールを見る

🏛️ IMDA / Digital Trust Centre

Singapore AI Safety Institute

2024-05

最先端の AI 安全研究に関する国家レベルの研究所。Singapore Consensus の調整機能を担当しています。

Singapore AI Safety Institute (AISI)は2024年に設立され、年間予算はS$10Mで、IMDAとDigital Trust Centreが共同で運営し、NTUに属しています。最先端のAIモデルの赤チーム評価、アライメント研究、トレーサビリティテストの3つの主要研究を担当しています。ASIはまた、Singapore Consensus on Global AI Safety Research Priorities(11カ国が署名、米国と中国を含む)の調整中心として機能し、International Scientific Exchange on AI Safety(ISESEA)IおよびIIを開催しています。ASIは、シンガポールが「世界人口の0.07%を用いてG7級のAI治理における発言権を活用する」戦略において、最も重要な機関です。

出典 プロフィールを見る

🏛️ スマート・ネーション・デジタル政府オフィス (SNDGO)

スマート・ネーション 2.0 の目標

Goals of Smart Nation 2.0

2025-07

シンガポールのスマート・ネーション 2.0 戦略は、三つの核心的な目標を達成することを目指しています:信頼、成長、コミュニティ。これらの目標は、長年にわたり調査、研究、フィードバックチャネルを通じて市民から提出された重要な懸念に基づいています。これはテクノロジーを活用して市民の生活を改善し、すべての人のための繁栄したデジタル未来を創造するという政府の約束を反映しています。スマート・ネーション 2.0 戦略は、デジタル発展の進化に伴い継続的に反復され、調整されます。

シンガポールのスマート・ネーション 2.0 戦略は、三つの核心的な目標を達成することを目指しています:信頼、成長、コミュニティ。これらの目標は、長年にわたり調査、研究、フィードバックチャネルを通じて市民から提出された重要な懸念に基づいています。これはテクノロジーを活用して市民の生活を改善し、すべての人のための繁栄したデジタル未来を創造するという政府の約束を反映しています。スマート・ネーション 2.0 戦略は、デジタル発展の進化に伴い継続的に反復され、調整されます。

出典 プロフィールを見る

⚖️ ガバナンスフレームワーク (8 件)

⚖️ 情報通信メディア発展庁 (IMDA) / Enterprise Singapore

ISO/IEC 42119-8 生成 AI テスト標準(提案)

ISO/IEC 42119-8 Generative AI Testing Standard (Proposal)

2026-04

シンガポールが第 17 回 ISO/IEC JTC 1/SC 42 全体会議で提出した、生成 AI テストに関する世界初の国際標準案。

2026年4月20日、第17回ISO/IEC JTC 1/SC 42会議がシンガポールで開幕しました(ASEAN地域での初開催、IMDAおよびEnterprise Singaporeが共同主催、35カ国以上、250人以上の専門家が参与)。シンガポールは正式にISO/IEC 42119-8標準草案を提出しました――承認された場合、これは生成型AIシステムを対象とした世界初の国際テスト標準となるでしょう。 2つの中核的方向: ベンチマーク測定(Benchmarking):統一データセットを使用してAI性能を測定し、「何をテストするのか、どのようにスコアをつけるのか」という比較可能性の問題を解決する レッドチーム測定(Red Teaming):攻撃をシミュレートしてシステムの脆弱性を特定し、「隠れたリスクをどのように見つけるのか」を標準化する 提案はIMDAがすでに備えている国内テスト基盤の上に構築されています:AI Verify Toolkit、Starter Kit for Testing of LLM-Based Applications、Global AI Assurance Sandbox。Changi Airport(チャンギ空港)が2025年2月に獲得したISO/IEC 42001 AI管理体系認証としての世界初の認証は、「AI治理は外部監査が可能である」という実行可能なケーススタディを提供しています。 IMDA現任CEO Ng Cher Pong(2025年11月就任)は開幕式での演説で述べました:「標準の制定は亀の歩みで進められてはいけません――そうしなければ、AIの高速な変革に淘汰されてしまいます。」彼は同時に、標準は業界、文化、言語レベルで代表性を持つべきであり、世界で最も文化的多様性に富んだ地域の一つである東南アジアが標準制定プロセスに組み込まれなければならないと強調しました。 国際的なISO標準は提案から正式発表まで通常数年を要します。しかし、提案が一度提出されると、その後の全球的な議論の枠組みを定めることと等しくなります――これこそがシンガポールが「世界人口の0.07%を用いてG7級のAI治理における発言権を活用する」という典型的な操作です。

4 件の関連リンク プロフィールを見る

⚖️ 情報通信メディア発展庁 (IMDA)

Agentic AI ガバナンスフレームワーク

Model AI Governance Framework for Agentic AI

2026-01

自律的 AI Agent に対するガバナンスフレームワーク。AI 自律決定による新たな課題に対応します。

Agentic AI(自主型 AI エージェント)の急速な発展に伴い、IMDA は 2026 年 1 月に専門的なガバナンスフレームワークを発表しました。AI Agent の自律的な意思決定の境界、人的監督メカニズム、責任帰属、セキュリティ対策などの核心的な課題に焦点を当てています。

出典 プロフィールを見る

⚖️ 情報通信メディア発展庁 (IMDA)

生成 AI ガバナンスフレームワーク

Proposed Model AI Governance Framework for Generative AI

2024-01

生成 AI に特化したガバナンスフレームワークの提案。大規模言語モデルがもたらす新たな課題に対応します。

生成型 AI を対象とした治理フレームワーク提案としては世界的に初期段階のものです。9 つの側面:説明責任、データガバナンス、信頼性の高い開発と展開、インシデント報告、テストと保証、セキュリティ、コンテンツソース、利用者リテラシー、支援措置。マルチステークホルダーアプローチを採用し、「サンドボックス型」ガバナンスを強調しています。

出典 プロフィールを見る

⚖️ 情報通信メディア発展庁 (IMDA)

AI Verify テストフレームワーク

AI Verify

2022-05

AI ガバナンステストフレームワークとツールキットの世界初。企業が AI システムのコンプライアンスを自己テストすることをサポートします。

世界初の AI ガバナンステストフレームワークとツールキットです。11 項目のテスト可能な指標、オープンソースツールキット、国際基準とのアライメント。2023 年に AI Verify Foundation を設立し、グローバルな協力を推進しています。AI ガバナンスを「原則」から「実行可能」へと進めています。

出典 プロフィールを見る

⚖️ 情報通信メディア発展庁 (IMDA)

AI ガバナンスモデルフレームワーク

Model AI Governance Framework

2019-01

アジア初の AI ガバナンスフレームワーク。解釈可能性、透明性、人間中心の AI ガバナンス原則を提唱しています。

2019 年にダボスで発表された、アジア初の AI ガバナンスフレームワークです。4 つの核心原則:内部ガバナンス構造と措置、意思決定における人的参加、運営管理、ステークホルダーの相互作用とコミュニケーション。OECD によってベストプラクティスとして引用されています。

出典 プロフィールを見る

⚖️ 個人データ保護委員会 (PDPC)

個人データ保護法

Personal Data Protection Act (PDPA)

2012

シンガポールの中心的なデータ保護法。2020 年の改正では AI 関連条項が追加されました。

核心的なデータ保護法で、2012 年に可決、2020 年に重大改正されました。合法的利益例外(Business Improvement Exception)、データポータビリティ権、執行力の強化を導入しました。AI データ使用に対して法的な境界を設定しています。

出典 プロフィールを見る

⚖️ シンガポール金融管理局 (MAS)

Project MindForge — GenAI Risk Framework for Financial Sector

2024-06

GenAI の金融業界向けリスクフレームワーク。24 の機関とメジャー 4 クラウドプロバイダー(Microsoft / AWS / Google / NVIDIA)が共同構築。

Project MindForge は MAS が主導する金融業界向けの GenAI リスク管理フレームワークで、2024 年に開始されました。コンソーシアムのメンバーには 24 の金融機関(DBS、UOB、OCBC、HSBC、JPMorgan など)+ 4 大クラウド・AI ベンダー(Microsoft、AWS、Google、NVIDIA)+ 規制当局が含まれています。フレームワークは 7 つのリスク側面を中心としています:モデルの幻覚、データ漏洩、バイアスと公平性、サプライチェーンへの依存、説明可能性、敵対的攻撃、責任分配。MindForge の特徴は、規制当局、規制対象の金融機関、技術ベンダーの 3 者が同じテーブルで調整を図ることです——これは、シンガポール AI ガバナンスの「トレーニング緩和 + 出力厳格管理」哲学が金融業界に具体的に落ちた形であり、また FEAT → Veritas → MindForge → BuildFin.ai 5 層スタックの第 3 層でもあります。

出典 プロフィールを見る

⚖️ シンガポール金融管理局 (MAS)

AI Risk Management Guidelines for Banks

2024-12

金融業の AI モデルリスク管理に関する監督期待書。銀行の AI 使用を正式に拘束します。

MAS は 2024 年 12 月に AI Risk Management Guidelines を発表し、FEAT / Veritas / MindForge が長年にわたって蓄積した実践経験を正式な規制期待書に固定化しました。対象は:モデルガバナンス(データ、トレーニング、検証、本番化)、第三者 AI リスク(クラウドベンダー、モデルサプライヤー、API)、モデル監視(ドリフト、バイアス、パフォーマンス)、ヒューマン・イン・ザ・ループ、インシデント対応と責任。附属の BuildFin.ai プラットフォームにより、規制対象機関は継続的にテストとレポートが可能になります。これは銀行業向け AI に関する世界初の専門的な規制文書で、EU AI Act の金融条項よりも実装が迅速です。

出典 プロフィールを見る

🏢 産業規制 (9 件)

🏢 保健省 (MOH) / 衛生科学庁 (HSA) / 国家医療技術局 (Synapxe)

医療 AI 共同ガイドライン (AIHGle)

Artificial Intelligence in Healthcare Guidelines (AIHGle)

2021-10

病院、医師、AI 開発者向けの医療 AI の安全な使用とベストプラクティスガイドライン。

Artificial Intelligence in Healthcare Guidelines (AIHGle) は 2021 年 10 月に保健省 (MOH)、保健科学庁 (HSA)、および当時の Integrated Health Information Systems (IHiS、2023 年に Synapxe に改組) により共同発表された、シンガポール医療 AI の中核的な非拘束的ガイドラインです。2 つの目標があります。1 つは、安全で効果的な医療 AI の展開をサポートすることであり、もう 1 つは AI-Medical Devices (AI-MD) に関する HSA の強制的な規制要件を補完することです。AI 開発者と医療機構の両側にわたるライフサイクル全体をカバーしています。開発段階での臨床有効性エビデンス要件、展開段階での臨床ワークフロー統合と人間のループ、上線後の継続的な監視と有害事象報告、患者とのコミュニケーションとインフォームドコンセントです。AIHGle と HSA は Health Products Act の医療機器登録要件に基づいて「ソフトガイドライン + ハードロー」二層構造を形成しており、ACE-AI、Synapxe AI プラットフォームなどの国家的医療 AI プロジェクトのコンプライアンス基礎となっています。

出典 プロフィールを見る

🏢 衛生科学庁 (HSA)

Health Products Act — AI 医療機器登録

Health Products Act — AI-Medical Device (AI-MD) Regulation

2007

AI を含む医療機器は HSA に登録する必要があります。法律レベルでの医療 AI 参入障壁。

Health Products Act 2007 はシンガポール医療機器の中核法律であり、保健科学庁 (HSA) により執行されています。AI コンポーネントを含む医療機器 (AI-Medical Device, AI-MD)——独立したソフトウェア (Software as a Medical Device, SaMD) であろうと、デバイスに組み込まれたアルゴリズムであろうと——は、リスクレベルに応じて HSA に登録した後でなければシンガポールで上市または臨床使用はできません。付属する規制文書:Regulatory Guidelines for Software Medical Devices (2022 改正版) は AI-MD の訓練データ品質、モデル変更管理 (Change Control Plan)、継続的学習システム (Continuous Learning) の特別要件、臨床エビデンスレベル、サイバーセキュリティおよびデータ保護をカバーしています。AI-MD はまた Good Machine Learning Practice (GMLP) 原則に従う必要があり、FDA および Health Canada の多国間協調枠組みと一致しています。この条項は W&C tracker により単独でリストアップされた 2 つの AI 関連既存法のうち 1 つです——それはシンガポール「専門 AI 法がない」の真実の意味を説明しています。既存の産業法の現代化改正により AI を硬法規制に含める方法であり、別個の横断法を制定することではありません。

出典 プロフィールを見る

🏢 陸路交通管理庁 (LTA) / 交通部 (MOT)

Road Traffic Act — 自動運転の許可

Road Traffic Act — Autonomous Vehicle Trials and Use

2017-03

2017 年の改正で第 6C 条を導入。自動運転車の試験と使用を監視する LTA の権限を付与します。

Road Traffic Act 1961 は 2017 年の Road Traffic (Amendment) Act を通じて第 6C 条(Trials and use of autonomous motor vehicles)を追加することで、自動運転 (AV) を硬法に組み込みました。中核条款:陸路交通管理局 (LTA) は、細則の策定、AV テストと運営許可の発行、保険と安全要件の設定、指定地域 (designated area) での豁免を行う権限を付与されています。付属する 2017 年に公布された Road Traffic (Autonomous Motor Vehicles) Rules は以下をカバーしています。テスト申請と承認、安全員要件、データ記録と事件報告 (ブラックボックス)、LTA との継続的な報告義務、最低保険額。シンガポールは同時に CETRAN (Centre of Excellence for Testing and Research of AVs) テストセンターと one-north 自動運転試験区を設立し、法的認可を物理的インフラに落とし込みました。この条項は Health Products Act と共に、W&C tracker が単独でリストアップした「既存産業法で AI を管理する」という 2 つのコアサンプルを構成しており、NAIS 1.0 の 5 大重点領域の 1 つ「インテリジェント交通とロジスティクス」の法的基礎でもあります。

出典 プロフィールを見る

🏢 サイバーセキュリティ庁 (CSA)

CSA AI システムセキュリティガイドライン

Guidelines on Securing AI Systems

2024-10

AI システムの全ライフサイクル・セキュリティに関するベストプラクティスガイドライン。

CSA は 2024 年 10 月に AI システムセキュリティガイドラインおよび実装ハンドブックを発表し、AI セキュリティ領域のガバナンスギャップを埋めました。ガイドラインは AI システムの完全なライフサイクルをカバーしています。計画と設計段階での脅威モデリング、開発段階でのデータとモデルのセキュリティ、展開段階でのセキュリティテスト、運用段階での監視とインシデント対応です。主要な焦点は、敵対的攻撃防御、データポイズニング防止、モデル盗難保護、サプライチェーンセキュリティなど AI 固有のリスクです。

出典 プロフィールを見る

🏢 シンガポール最高裁判所 (Supreme Court)

裁判所での生成 AI 使用ガイドライン

Guide on Use of Generative AI Tools by Court Users

2024-10

法的訴訟における生成 AI ツール使用の原則と指導。

シンガポール最高裁判所は 2024 年に生成型 AI 使用ガイドライン(Registrar's Circular No. 1 of 2024)を発表し、すべての司法制度に適用されます。中核原則:弁護士と当事者は、AI が生成したかどうかに関係なく、法院に提出されたすべての内容について最終責任を負います。GenAI の支援を受けて準備された法律文書は AI の使用状況を開示する必要があります。引用されたケースと法的条文は人間による検証が必要です。司法制度が AI ツールに対して実用的なアプローチをとっていることを反映しています——使用を禁止するのではなく、人間の責任は譲渡できないことを強調しています。

出典 プロフィールを見る

🏢 シンガポール金融管理局 (MAS)

MAS Veritas イニシアティブ

Veritas Initiative

2021

FEAT 原則を実装可能な評価ツールキットに転換。オープンソース方法論を提供します。

Veritas イニシアティブは FEAT 原則の実践的拡張であり、MAS と金融機関の共同開発です。プロジェクトの目標は、金融機関が FEAT 原則を具体的な AI アプリケーションに落とし込むのを支援するオープンソースで実行可能な評価方法論とツールキットを作成することです。顧客マーケティングの公平性評価、信用リスクスコアリングの透明性評価などのシナリオをカバーしています。Veritas は継続的に更新と反復を行っており、シンガポールの「原則→ツール→実践」段階的 AI ガバナンスパスを体現しています。

出典 プロフィールを見る

🏢 個人データ保護委員会 (PDPC)

PDPC 個人データ AI 使用に関する諮問ガイドライン

Advisory Guidelines on Use of Personal Data in AI Recommendation and Decision Systems

2024-03

PDPC は AI レコメンデーション・システムと意思決定システムにおける PDPA コンプライアンスの境界を明確にしています。企業が個人データを使用して AI をトレーニングおよび運用する際の確実性を提供します。

PDPC は 2024 年 3 月に「Advisory Guidelines on Use of Personal Data in AI Recommendation and Decision Systems」を発表し、AI シナリオにおける PDPA の具体的な適用方法を明確にしました。3 つの一般的なシナリオをカバーしています。(1) 個人データを使用して AI モデルを訓練、テスト、監視する——Business Improvement Exception または Research Exception を引用することができますが、合理性テスト、データ最小化、匿名化などのしきい値を通じる必要があります。(2) AI を使用して推奨または決定を行う——通知と同意の義務を履行する必要があり、決定タイプのアプリケーションはデータサブジェクトに通知する必要があります。(3) データ保護影響評価 (DPIA) のベストプラクティステンプレート。これは PDPC が PDPA 2020 改正(正当な利益の例外、Business Improvement Exception)を AI の実装運用ハンドブックに変換することの重要な文書であり、Copyright Act §244 と共に、シンガポール AI トレーニング側の「二重法的基礎」を構成しています。

出典 プロフィールを見る

🏢 シンガポール金融管理局 (MAS)

MAS FEAT 原則

Fairness, Ethics, Accountability, Transparency (FEAT) Principles

2018

金融業における AI 使用の公平性、倫理、アカウンタビリティ、透明性原則。

MAS は 2018 年に FEAT 原則を発表し、金融機関による AI とデータ分析の使用についてのガバナンスガイダンスを提供しました。4 つの主要原則:公平性(Fairness)——AI 決定が差別を生じないことを確保します。倫理(Ethics)——AI の使用は道徳的基準に準拠しています。説明責任(Accountability)——AI 決定の責任を明確にします。透明性(Transparency)——AI 決定プロセスは理解でき、説明可能です。2022 年の更新版は、より多くの実装ガイダンスを組み込んでいます。

出典 プロフィールを見る

🏢 法務・知的財産権省 (MINLAW) / IPOS

Copyright Act §244 — AI トレーニング例外

Copyright Act 2021 — Section 244 (Computational Data Analysis Exception)

2021-11

AI トレーニングの免責条項。日本と並んで世界で最も寛容な AI トレーニング著作権スタンス。

Copyright Act 2021 の第 244 条「Computational Data Analysis」は AI トレーニングデータの使用に明確な免責条項を提供します。合法的に取得されたコンテンツ(著作権の有無を問わず)を AI モデル訓練、テキストおよびデータマイニングなどの「計算分析」の目的で使用することができ、著作権侵害を構成しません。これは日本の『著作権法』第 30-4 条と並んで、世界で最も寛容な AI トレーニング著作権スタンスの 1 つです——米国は依然として fair use 判例法をめぐる論争の中にあり、欧盟は Text and Data Mining Exception の opt-out メカニズムに依存する必要があります。IPOS の「When Code Creates」レポート (2024) および「トレーニング寛容 + 出力厳管」哲学 (OCHA + Elections Bill + Criminal Law Bill + Online Safety Bill の 4 点セット) を組み合わせて、シンガポールは AI 企業に世界でも最も明確な法的境界の 1 つを提供しています——これは EDB が OpenAI / Anthropic / DeepMind などの機関を引き込むことができた主要な背景の 1 つです。

出典 プロフィールを見る

💰 予算と資金 (4 件)

💰 財務省 (MOF)

2026 年度財政予算案 — 国家 AI 全面推進

Budget 2026 — National AI Acceleration

2026-02

国家 AI 委員会の設立、AI 租税控除、one-north AI パーク、AI Mission 計画。

2026 年度予算案は AI 推進を前例のない高さへ引き上げます。中核的措置:総理が直接議長を務める National AI Council の設立;Enterprise Innovation Scheme の 400% 税務控除を AI 関連支出に拡大;one-north AI パーク建設の開始;重要領域のアプリケーションに焦点を当てた AI Mission プログラムの開始;全国的な AI リテラシーを向上させるための National AI Literacy Programme の設立。これはシンガポール AI 政策が戦略から完全な実行へのマイルストーン予算です。

8 件の関連リンク プロフィールを見る

💰 保健省 (MOH)

2026 年度保健省提供委員会 — 医療 AI と健康保険改革

MOH Committee of Supply 2026 — Healthcare AI & MediSave Reform

2026-03

ACE-AI 予測ツール導入、BRCA1/2 遺伝子検査補助、MediShield Life の予防手術カバレッジ、MediSave 上限引き上げ。

2026 年 3 月の保健省予算委員会辩論で、保健大臣王乙康はシンガポールが正式に超高齢化社会(65 歳以上の人口が 21% を超える)になったことを宣言しました。中核的措置:1 つ、ACE-AI 予測ツール(国家医療技術局 Synapxe により開発)は 3 年以内の糖尿病および高脂血症リスクを予測し、75% 以上のリスク者は 3 年ごと検査から毎年検査へアップグレードされ、2027 年初期にすべての約 1,100 の Healthier SG クリニックに推進される予定で、「AI 強化ではなく AI 決定」原則を堅持し、臨床医師は意思決定ループに留まります。2つ、BRCA1/2 遺伝子検査は 2026 年 12 月から最高 70% の補助金を受け、毎年 2,000 人以上が対象になります。3つ、MediShield Life は予防的乳房切除手術 (Q3 2026) およびリスク低減型卵管卵巣切除術 (Q4 2026) のカバレッジを拡大します。4つ、MediSave の慢性疾患と予防ケア限度額は 500/700 から 700/1000 へ引き上げられます (2027 年 1 月から)、91 万人以上の患者に利益をもたらします。

出典 プロフィールを見る

💰 財務省 (MOF)

2025 年度財政予算案 — AI 関連措置

Budget 2025 — AI-related Measures

2025-02

Lawrence Wong 首相による初代予算案。大規模 AI 投資の信号を発表。

2025 年度予算案は黄循財が総理に就任した後の初めての予算案であり、初めて AI を財政優先事項として列挙しました。重点措置には、企業デジタル化転換の加速化拨款、AI スキル訓練計画カバレッジの拡大、AI 研究開発投資の増加が含まれます。予算案は後続の NAIS 2.0 の実装実行に財政保障を提供し、AI が戦略計画から財政拨款段階へ正式に進入したことを示しています。

出典 プロフィールを見る

💰 国家研究基金会 (NRF)

RIE2025 研究革新計画

Research, Innovation and Enterprise 2025 Plan

2020

250 億シンガポール・ドルの五年間の研究開発計画。AI を主要投資領域として指定。

RIE2025計画は2021~2025年を対象とし、総投資額250億シンガポールドルで、シンガポール史上最大規模の研究開発投資です。4つの戦略領域は製造・貿易・連携、人間の健康と可能性、都市の持続可能な発展とスマート国家、デジタル経済です。AIはすべての領域を貫くコア的実現技術です。計画はAI Singaporeなどの国家レベルのAI研究プロジェクトを支援し、AI人材育成、基礎研究、産業応用に資金を提供します。

出典 プロフィールを見る

🌏 国際協力 (7 件)

🌏 外交・通商省 (MFA)

ソウル AI 安全サミット公約

Seoul AI Safety Commitment

2024-05

Seoul AI Safety Summit に参加し、AI 安全ガバナンスの約束をさらに推し進めています。

2024年5月、シンガポールは韓国ソウルで開催された第2回AI安全サミットに参加し、Seoul AI Safety Commitmentに署名しました。Bletchley Declarationを基盤として、最先端AI安全評価基準の制定推進、AI安全研究機関間の国際協力支援、AI安全テスト方法論の共有促進により、コミットメントをさらに深化させています。シンガポールは連続して2回のサミットに参加し、世界的なAI治理における積極的な参加者としての役割を継続して強化しています。

出典 プロフィールを見る

🌏 外交・通商省 (MFA)

Bletchley Park AI 安全サミット公約

Bletchley Declaration on AI Safety

2023-11

Bletchley Declaration に署名。AI 安全に関する国際協力を約束。

2023年11月、シンガポールは英国のBletchley Parkで開催された第1回グローバルAI安全サミットに28の署名国の1つとして参加しました。Bletchley Declarationに署名し、主要なコミットメントは以下を含みます。最先端AIがもたらす共通のリスクを識別すること、各国がAI安全に対する相応の責任を負うこと、AI安全研究の国際協力を強化することです。宣言は特に最先端AIモデルの潜在的リスク(サイバーセキュリティの脅威、バイオテクノロジーのリスク、虚偽情報を含む)に焦点を当てています。

出典 プロフィールを見る

🌏 SNDGO / 外交・通商省 (MFA)

グローバル AI パートナーシップ (GPAI) に加入

Global Partnership on AI (GPAI)

2020

シンガポールが GPAI 創設メンバーとなり、責任ある AI の国際ガバナンスに参加。

シンガポールは2020年にGPAIの創設メンバー国の1つになりました。GPAIは複数の国の政府が発起した国際的なイニシアティブで、複数のステークホルダー間の協力を通じて、責任あるAIの開発と使用を促進することを目的としています。シンガポールはGPAIのワーキンググループに積極的に参加しており、責任あるAI、データガバナンス、将来の仕事、イノベーションと商業化などの領域をカバーしています。GPAIへの参加は、AI治理分野におけるシンガポールの国際参加意思を示し、また国家の政策立案に国際的な視点とベストプラクティスをもたらしています。

出典 プロフィールを見る

🌏 IMDA / Singapore AI Safety Institute

Singapore Consensus on Global AI Safety Research Priorities

2024-04

シンガポール発起、11 カ国署名(米中を含む)の AI 安全研究優先度に関するグローバル・コンセンサス。

Singapore Consensusはシンガポールが2024年4月ICLR期間中に開催した国際科学交流会議(ISESEA I)の成果であり、最終的に11の国・地域により共同署名されました。稀有なことに、米国と中国の両方を同じAI安全文書に盛り込みました。共識は3つの研究優先事項を軸としています。(1)リスク評価方法論の標準化、(2)国境を越えた最先端モデルのレッドチーム協力、(3)重要インフラAI展開の安全性閾値です。これはシンガポール国家AI-native戦略における最大のレバーの産出の1つです。世界人口の0.07%という規模で、AI治理領域における「中立座標」を確立しました。補完的な仕組みとしては、ISESEA II(2026)による共識の継続的更新、AISIの調整センターとしての機能、Bletchley/Seoul/Paris AI Summitsからの継続的な産出が含まれます。

出典 プロフィールを見る

🌏 ASEAN Digital Ministers / IMDA

ASEAN Guide on AI Governance and Ethics

2024-02

ASEAN 10 カ国が採択した AI ガバナンス・ガイドライン。シンガポール主導起草、IMDA が事務局機能を担当。

ASEAN Guide on AI Governance and Ethicsはシンガポール主導で起草され、2024年2月にASEAN数字大臣会議で正式に採択され、10の加盟国が採択しました。本ガイドラインはシンガポールのModel AI Governance Frameworkに直接基づく、シンガポール治理テンプレートの「地域化版」です。組織ガバナンス、データガバナンス、AIシステムの全ライフサイクル管理、人間のループへの組み込み、リスク分類をカバーしています。シンガポールはASEAN Working Group on AI Governance(WG-AI)を通じて、事務局機能を継続的に担当しています。これはシンガポール戦略の重要なレバーです。自国の治理基準を地域デフォルト基準へ転換し、外資が東南アジアでAIを展開する際に自然とシンガポール定義の枠組みに従うようにするものです。拡張:2026年のASEAN Hanoi Declarationは、デジタル大臣協力をさらに深化させています。

出典 プロフィールを見る

🌏 外交・通商省 (MFA) / 国防部 (MINDEF)

REAIM Seoul Summit 2024 — 共同主催

Responsible AI in the Military Domain (REAIM) Seoul Summit

2024-09

REAIM Seoul Summit の五つの共同主催国の一つ。「軍事 AI の責任ある使用」を国際議題に押し上げています。

Responsible AI in the Military Domain(REAIM)Seoul Summit 2024はREAIMシリーズの第2回で、シンガポールは5つの共同主催国の1つ(韓国、オランダ、英国、ケニア)として、軍事AIの責任ある使用を国際議題に押し上げました。サミットは『行動のためのブループリント』を採択しました。これは軍事AI治理を実行可能なステップに落とし込んだ初の多国間文書です。指揮チェーン内での人間の役割、自律武器の境界線、AI意思決定への国際人道法の適用、国家間信頼構築メカニズムをカバーしています。シンガポールは同時にREAIM Asia Regional Consultationsを主催し、対話を東南アジアに拡大しています。これはシンガポールが「治理中立区」というポジショニングを活用して、最も敏感な議題である軍事AIに介入する象徴的な動作です。武力ではなく、ルール起草権に頼るものです。

出典 プロフィールを見る

🌏 IMDA / AISI

International Scientific Exchange on AI Safety

2024-04

ICLR 期間中に開催されたグローバル AI 安全科学交流会。二度開催されており、Singapore Consensus の育成プラットフォームです。

International Scientific Exchange on AI Safety(ISESEA)はIMDAとSingapore AI Safety Instituteが共同で主催し、ICLR(国際学習表現会議)を活かして、毎年シンガポールまたはパートナー地で開催されています。2024年のISESEA Iはシンガポール・コンセンサスを生み出しました。2026年のISESEA IIは引き続き共識を更新し、研究優先事項を拡張します。会議の位置付けは意図的に「科学者+政府+産業」の3層ハイブリッドであり、純粋な外交的場での政治化を回避しています。これはシンガポールのAI国際治理戦略における「穏健な入り口」です。学術活動を通じて非政治化した共識を構築し、その後に政府レベルでの採用につなげるものです。

出典 プロフィールを見る