AI ガバナンスと規制 · 2026-01-22 · 08:19

シンガポール、グローバル初の代理型 AI ガバナンスフレームワークを発表

講演者
Josephine Teo
シンガポール デジタル開発及びニュース大臣
種類
政府関係者
出典
CNA

コア観点

IMDA は世界経済フォーラムでグローバル初の代理型 AI ガバナンスフレームワークを発表し、自主 AI システムの展開規範を確立した。

重要なポイント

  • シンガポール通信・情報大臣楊莉明がダボスで世界初のエージェント型AIガバナンスフレームワークを発表し、シンガポールはこのような枠組みを発表した初の政府となった。
  • このフレームワークはIMDAにより策定され、政府機関およびリーディング企業の実践を統合し、リスク評価、説明責任、技術統制、およびユーザー教育をカバーしています。
  • このフレームワークは法律ではなく、執行されるものではなく、企業向けの推奨措置です。IMDAは継続的に事例フィードバックを収集して反復しています。
  • 重点は、エージェント型AIの自律的アクションがもたらすリスク——データの誤削除、顧客情報の流出、バイアスへの過度な依存など——を防止することです。

内容サマリー

シンガポールはダボス会議で世界初のエージェント型AIガバナンス枠組みを発表しました。楊莉明部長が提案し、IMDAが主導しています。エージェント型AIは自律的な意思決定と行動を実行することができ、時には顧客データベースまたは支払いゲートウェイに接続されるため、一度エラーが発生すると——例えば本番コード・リポジトリの誤削除や個人情報の漏洩——影響は即座であり、人的介入はしばしば間に合いません。枠組みは政府機関と主導的企業の実践を集約し、中小企業もこれらの最先端経験を活用できるようにすることが目標であり、最先端企業に独占させることを避けています。

核心は説明責任とヒューマン・イン・ザ・ループです。IMDAのAIガバナンス・セキュリティ・クラスター責任者であるLee Wan Seeは説明し、エージェント配備時に企業がAIに責任を転嫁することはできず、ライフサイクル全体を通じて人的責任を保持する必要があると述べています。具体的な措置には、エージェントがタスク実行に必要なシステムのみにアクセスするように制限すること、および重要なノード(顧客へのメール送信前など)で人的審査を設置することが含まれます。

枠組みは法律ではなく、執行されるわけではなく、むしろ企業への推奨措置を示しています。Leeは顧客返金の事例を挙げています。全行程における人工監督はエージェントを無意味にします。合理的なアプローチは、金額が閾値を超える場合に人工承認を導入することです。同時に、監督者は一般的な失敗パターン(例えば、エージェントが時代遅れのポリシーを実行する)を識別するように訓練される必要があります。また、自動化監視を使用して、個別では検出しにくい大量の返金の中の異常パターンを発見します。IMDAは継続的にケースフィードバックを収集し、枠組みを改善・反復していきます。

完全字幕(原文整形)

字幕言語: ja · 取得日: 2026-05-02

シンガポールは、企業がより安全で信頼性の高い方法でAIエージェントを展開するための新しいガイドラインを発表しました。これらのシステムは独立して意思決定を行い、行動を実行することができます。このガイドラインはデジタル発展・情報大臣チャン・ユーエンによってダボスで発表され、シンガポールは新興技術の枠組みを発表した最初の政府となりました。このような枠組みを発表する全体的な目的は、なぜ先端企業だけが探索する機会を持つのか、それは彼らがより豊かなリソースを持っているからか、ということを説明することです。なぜこの知識を集約して、この技術の実装に関心のある任意の主体、中小企業を含めて、より広く利用可能にすることができないのでしょうか。この枠組みは、AIエージェント利用における政府機関と主要企業のベストプラクティスを集約しています。

その中には、リスク評価と説明責任の確保に関するガイドラインが含まれており、障害の場合に誰が責任を負うかを明確にしています。その措置には、停止および検査を行うための制御メカニズムの確立、およびユーザー教育が含まれます。IMDA(情報通信メディア発展局)は、自律型AIツールを導入したユーザーからのフィードバックとケーススタディを受け付けており、フレームワークを継続的に改善しています。AIエージェントは急速に発展しており、その応用範囲は基本的なカスタマーサービスリクエストの処理から、より効率的に工場システムの運用を維持するなどの複雑な業務の管理まで拡がっています。これは、それらが定型的で繰り返しの業務を引き継ぎ、従業員の時間をより高い価値のあるタスクに解放する、または継続的に大規模に運用して複雑なビジネス運営をサポートし、生産性を向上させることができるためです。しかし、技術自体は思考しません。リスクは現実に存在しています。

データアクセス権を持つAIエージェントは誤った行動をとる可能性があり、記録の誤削除から機密情報の露出まで様々です。ユーザーはまた、以前良好なパフォーマンスを発揮したエージェントへの依存により自満に陥り、監督を減らし、その結果エラーが見落とされる可能性があります。AIエージェント間の相互作用が増加するにつれて、単一障害点が連鎖反応を引き起こし、広範なシステム中断をもたらす可能性があります。AIエージェントはまた、矛盾した応答を生成する可能性があり、その結果、誤った情報に基づいて行動する可能性があります。これが業界がAIエージェントを監視するための明確な標準を策定し、人間が責任を保つことを確保するよう呼びかけている理由です。シンガポールの場合、そのAIガバナンスフレームワークはリスク管理と同時に実験およびイノベーションのための余地を確保するバランスを目指しています。では、ここから詳しく見ていきましょう。女性との対話をします。

李 >> [軽く笑う] >> Wan See。彼女はIMDAの人工知能ガバナンスおよびセキュリティクラスター責任者です。まず、李さん、番組にようこそ。それでは、人工知能の能力のどのような変化が、知能エージェントのガバナンスを緊急課題にしたのでしょうか?先ほどお述べになったように、知能エージェントはますます高い自主性を与えられています。彼らはほぼ人間の監督なしで、人間に代わって多くのタスクを実行することができますよね?これらのタスクを実行する際、彼らはまた顧客情報などの機密情報にアクセスする権限も与えられています。支払いゲートウェイなど外部システムに接続することもできます。これは、知能エージェントが誤った行動を取った場合、即座の影響が生じる可能性があることを意味しています。ご指摘のように、実際に、知能エージェントが指示されずにライブコードリポジトリとデータを削除した事例が存在しています。

別の例は、エージェントが顧客データベース内の個人データを漏らすことです。人間の介入が限定的であるため、これはエージェントのエラーがタイムリーに発見されない可能性があることも意味しています。したがって、この分野が急速に変化しているため、私たちはますます、大手企業からの新興ベストプラクティスを集約し、組織がエージェント型人工知能のリスクを理解および管理するための包括的なリソースを持つことができるようになることを希望しています。これが、現在、この問題の研究を開始することが緊急に必要である理由です。 はい、その緊迫感は理解できます。これは、当該フレームワークがエンドユーザーの責任を強調する理由の一つかもしれません。では、人工知能エージェントと対話する必要がある従業員または顧客にとって、実際の業務では何を意味するのでしょうか?彼らは、依然として一定の責任を負い、エージェントに過度に依存することはできないことを理解する必要があります。

したがって、責任をエージェントに転嫁することを期待することはできず、エージェントが誤った或いは有害な行動を取った場合に責任を逃れることはできません。したがって、企業が事業にエージェントを展開する際には、ライフサイクル全体を通じて人間が責任と義務を負うことを確保するための措置を取らなければならないことを強調しています。例えば、技術的な制御措置を確立することです。これは、例えば、エージェントのアクセスをそのタスクに必要なシステムのみに制限することを意味します。或いは、効果的な人間による監督を提供することです。例えば、顧客にメールを送信する前に人間によるレビューを確保することです。これは新しいガバナンスモデルであり、エージェント型人工知能の新しいフレームワークです。では、これはどのように実行され、誰によって実行されるのでしょうか。本質的には、これは一連のガイダンス原則です。

まず、これらは組織への推奨事項であり、内部で確立する必要がある措置について検討するのを支援するためのものです。私たちは執行問題に取り組みません。例えば、現在、これらの措置をまだ実施していない企業を追及することはありません。しかし、これらの推奨事項は、組織が自らが懸念しているリスクが何であるかを理解し始めるためのものです。リスクを考慮してエージェント型人工知能を展開する際に、これらは企業が内部で実施できる推奨措置です。したがって、重要なのは、私たちすべてがエージェント型人工知能の展開の非常に初期段階にいることを認識することです。この分野に余地を与えるために、組織が人工知能を効果的に実装及び採用する際に従うことができるベストプラクティスを特定することが重要です。

そうです。ご指摘の通り、これはあくまで旅の始まりであり、このフレームワークがどのように組織がエージェント型人工知能への過度な依存またはオートメーションバイアスの誘惑を防ぐのに役立つかについては、依然としてバランスの問題だと思われます。まず、過度な依存またはオートメーションバイアスが何を意味するのかを説明させていただきましょう。これは、人間がシステム(この場合はエージェント)を過度に信頼し自動化する傾向を指します。特に当該システムが過去に信頼できるパフォーマンスを示した場合です。フレームワークで提案した推奨事項の例には以下のものが含まれます。第1に、エージェントの継続的な人間による監督は実際的でないかもしれません。実は、人間が各段階に関与することを期待すれば、エージェント導入の目的は損なわれると思います。したがって、人間による承認が必要な重要なチェックポイントを特定することをお勧めします。

したがって、例えば、顧客返金処理を扱う例を挙げると、返金額が特定の金額を超えるポイントを特定することができます。この場合、人間による介入が必要となり、エージェントの自動応答によって処理されるべきではありません。別の推奨事項は、すべての人間による監督が効果的であるとは限らないということです。人間による監督者が非常に一般的な失敗事例またはパターンに精通するようトレーニングされていることを確認する必要があります。例えば、再度、顧客返金処理の例を使用して、人間による監督者はエージェントが時代遅れの政策に従っているという問題を発見できない可能性があります。したがって、人間による監督者も何に注意すべきかを知るため、最新の政策についてトレーニングされる必要があります。3番目の例は、自動化された監視によってこれをどのように補足するかです。同じく顧客返金処理の例を使用して、人間は数千の返金中のパターンを発見できない可能性があります。

したがって、データ収集やデータ分析などの方法を通じてこれらのパターンを特定する必要があるかもしれません。これらはフレームワークで提案した相当に具体的な推奨事項の一部です。李女士、この非常に新しい自律型エージェント人工知能モデルフレームワークについてご紹介いただき、大変ありがとうございました。シンガポール情報通信メディア発展局(IMDA)の李婉詩女士とお話しさせていただきました。

関連動画

マサゴス:AI推進で脆弱な層を取り残してはならない(サンガレン・シンポジウム)

2026-05-08 · Masagos Zulkifli · 02:33

社会・家族発展大臣マサゴス・ズルキフリは、サンガレン・シンポジウムで、AI推進は脆弱な層を含めるべきで、技術の恩恵が一部だけに偏ってはならないと強調しました。

250 名を超える AI 専門家がシンガポールに集まり、グローバルテスト標準について協議

2026-04-20 · CNA · 03:46

シンガポールが提唱した AI セーフティテスト標準は ISO 国際会議の焦点となり、米国、中国、日本、韓国など各国から 250 名を超える専門家が参加した。これは同標準ワーキンググループが東南アジアで初めて開催された。現在発表されているか開発中の AI 標準はほぼ 100 項目であり、1 年前の 3 倍である。

楊莉明、シンガポール AI 優先事項およびオンラインセーフティ保護措置について語る

2026-03-31 · Josephine Teo · 45:00

楊莉明は Lorong AI メディアQ&A セッションで、AI バイリンガル人材、AI エージェント・ガバナンス、国家 AI インパクト計画および AI の職場への影響について詳述した。

楊莉明、AI 企業採用およびオンラインセーフティ規制について語る

2026-03-31 · Josephine Teo · 02:30

楊莉明は政府が AI 企業採用が期待効果を達成しない場合に干渉する準備ができていると表明し、同時に IMDA 第 2 回オンラインセーフティ評価報告書を発表した。

シンガポール国家 AI インパクト計画:1 万社、10 万労働者を支援

2026-03-02 · Josephine Teo · 02:45

楊莉明大臣は国家 AI インパクト計画を発表し、2029 年までに 10 万名の AI 人材を育成し、1 万社の企業を支援することを目標とした。

楊莉明大臣、各国に対して代理型 AI ガバナンスリスクへの主動的な対応を呼びかけ

2026-02-20 · Josephine Teo · 05:12

楊莉明は世界経済フォーラムで世界初の代理型 AI ガバナンスフレームワークを発表し、各国に対して積極的に AI ガバナンス規則を制定するよう呼びかけた。