AI ガバナンスと規制 · 2023-06-07 · 06:54
シンガポール、AI Verify オープンソーステストフレームワークを発表
コア観点
シンガポールはアジア科学技術会議で AI Verify Foundation を発表し、グローバル初の AI ガバナンステストオープンソースコミュニティを確立した。
重要なポイント
- AI Verify財団は、IBM、マイクロソフト、グーグルなどの企業を集約し、オープンソースのAIテストツールを開発しています。
- ツールキットはオープンソースで提供され、透明性、安全性、説明責任などの領域をカバーし、企業がAIモデルの自己テストを実施できるようにしています。
- SalesforceのKathy Baxterは、倫理がデータ収集段階に組み込まれる必要があることを強調し、最大の障壁は変革管理と人材であると述べています。
内容サマリー
シンガポールはアジアテック × シンガポール・サミットにおいて AI Verify Foundation を立ち上げました。IBM、Microsoft、Google などの大手テクノロジー企業と業界横断的な企業をオープンソース・コミュニティに参画させ、AI テスト・ツールの共同開発を行い、国際標準に影響を与えています。オープンソース化されたツールキットは、企業がモデルを自己テストし、IMDA にフィードバックを提供するために使用されます。
Salesforce のエシカル AI 実践チーフアーキテクト Kathy Baxter は、倫理は「するべきかどうか」と「データがすべての影響を受ける人々を代表しているかどうか」から組み込み始める必要があり、最終段階での是正ではなく、との指摘をしています。透明性は法規制がなくても企業の利益に合致していると彼女は述べており、その理由は透明性が信頼をもたらすからです。
Baxter は企業の 2 つの主要なボトルネックを指摘しています。一つは変革管理です。成功の基準を利益から正味便益に変更する必要があります。もう一つは人材です。AI 開発者は多くいますが、責任を持って AI を構築できる人は少なく、AI 倫理学家が不足しています。
完全字幕(原文整形)
字幕言語: ja · 取得日: 2026-05-02
シンガポールは、テクノロジー大手が一堂に力を合わせて、企業と規制当局がAIをより安全にするのを支援しています。シンガポールは、IBM、マイクロソフト、Googleなどの企業を集めたネットワークを立ち上げました。このネットワークは、人工知能テストツールを共同開発し、対応や利用に活用されるツールの開発および国際的なAI標準の策定を支援しています。このネットワークはAsia Tech X Singapore Summitで発表され、AI Verify Foundationと呼ばれており、大手テクノロジー企業およびさまざまな業界の企業が参加しています。現在、彼らはAIテストのオープンソースコミュニティを推し進め、シンガポール発のAIテストツールキット「AI Verify」に貢献することになります。この動きは、このテクノロジーのますますの浸透とその急速な進化に対する懸念が高まっている時期に行われています。我々は、「責任ある方法でAIを使用し、善い目的のために活用すべきだと信じていますが、同時に社会をAIの最も深刻なリスクから守ることにも努力します」と考えています。民間部門と研究生態系は豊富な専門知識を持っており、彼らは意味のある参与を奨励され、AIが公共の利益のために機能することを推し進めることができ、またそうあるべきです。補足として、AI Verifyテストツールキットをオープンソースにすることにより、システム開発者、ソリューションプロバイダー、および研究コミュニティが透明性、セキュリティ、説明責任などの分野で使用および貢献することが可能になります。この動きは、企業が使用しているAIを理解し、自身のニーズをより良く満たすように調整し、そして共同でより優れたテストツールを開発するのを支援する有効な方法と見なされています。我々のフロント記者Heidiは、Salesforceの倫理的AI実践の主席アーキテクトであるCasey Baxterにインタビューしました。彼女はAI構築時に倫理を基盤とすることの重要性を強調しています。「あなたはデータ収集について言及されました。これらの倫理的実践をAIプロセスに真に統合するには、実際にこのようなデータが必要です。では、倫理的データ収集の指標にはどのようなものがあるのでしょうか?組織がこのようなデータを収集する際に、倫理的な実践をどのように確保するのでしょうか?」。「その通りです。もし倫理を念頭に置いていなかったり、倫理がAI構築の基盤ではなかったりした場合、後の段階で倫理を追加して実際の影響を与えることは難しいです。まず最も重要なことは、『できるのか』だけでなく『すべきなのか』と問うことです。これはAIが解決すべき問題なのでしょうか?次に、モデルを駆動するために使用されるデータセットを考慮する必要があります。それはAIが影響を与えるすべての人々を代表していますか?これらのデータセット内にはどのような潜在的な害と偏見が存在していますか?これらを測定し、探索し、そしてそれらを緩和するために努力しなければなりません。モデルを構築する際には、影響を受けるであろう人々からフィードバックを得る必要があり、代表性が不足している社会層と連絡を取るために特別な努力をしなければなりません。彼らも参加することで、あなたが予測できない可能性のある害を特定できるようにする必要があります」。現在、我々はこの分野でどのような段階にありますか?過去10年以上にわたり、特に女性と有色人種の女性によって、素晴らしい仕事が多く行われてきました。これは非常に励みになる分野です。すでに非常に優れた仕事が多く行われており、NIST人工知能リスク管理フレームワークのような多くのリソースと標準が存在しており、もちろんシンガポールのAI Verifyツールキットもあり、本日はAI Verify Foundationも発表されました。確かに責任あるAIのアクセス可能な実装を推し進める素晴らしい仕事が多く行われています。責任あるAIについて話すとき、透明性を確保する責任は、これらのAIシステムを構築する組織にあるのでしょうか?政府はコンプライアンスを確保するためにどのような規制を制定する必要があるのでしょうか?調査によると、人々はAI、特に強力なAIに対して高い信頼感を持っていません。したがって、組織が透明性を確保することは最良の利益に合致しています。なぜなら、透明性は信頼をもたらすからです。規制がそれを要求していなくても、組織がAIの創造と使用方法を透明に示すことは、確かに最良の利益に合致しています。企業はどのようにしてAIシステムを透明に示すことができますか?これらのツールを使用したい消費者にとっては、どのようなことになるのでしょうか?「これは非常に優れた質問です。なぜなら、透明性はAIを購入する企業や監査人にも関係していますが、消費者にも関係しているからです。例えば、ニューヨークで職務のインタビューを受けている場合、採用プロセスでAIが使用されたことを告知する必要があります。では、消費者にAIの使用方法をどのように伝えるのでしょうか?簡潔な言葉でモデルが何をするかを消費者に説明する必要があり、同時に監査人または採用決定者にはより技術的な詳細を提供する必要があります。したがって、企業が真にそのAIシステムの運用を透明に示しながら、倫理的にすることを奨励しています」。では、組織がこれらの倫理的実践をプロセスに統合する際に直面する最大の課題は何ですか?「まず、残念ながら、多くの企業にとって、これは変革管理の問題であり、インセンティブ構造を変更する問題です。製品またはフィーチャーでどの程度の収入を得るかによってのみ成功を測定するのではなく、その影響を評価し、より多くの利益をもたらし、害をもたらさないことを確保する必要があります。次に、正しいスキルを持つ才能を見つけることが課題です。多くのAI開発者がいますが、すべての人が責任あるAI構築の背景を持っているわけではありません。現在、AI倫理学者はあまり多くありませんが、今後数年間で、関連プログラムを卒業する多くの人々が出てくることを予想しています。なぜなら、若い世代は社会に奉仕する技術を創造することに熱情と活力を持っているからです」。
関連動画
マサゴス:AI推進で脆弱な層を取り残してはならない(サンガレン・シンポジウム)
2026-05-08 · Masagos Zulkifli · 02:33
社会・家族発展大臣マサゴス・ズルキフリは、サンガレン・シンポジウムで、AI推進は脆弱な層を含めるべきで、技術の恩恵が一部だけに偏ってはならないと強調しました。
250 名を超える AI 専門家がシンガポールに集まり、グローバルテスト標準について協議
2026-04-20 · CNA · 03:46
シンガポールが提唱した AI セーフティテスト標準は ISO 国際会議の焦点となり、米国、中国、日本、韓国など各国から 250 名を超える専門家が参加した。これは同標準ワーキンググループが東南アジアで初めて開催された。現在発表されているか開発中の AI 標準はほぼ 100 項目であり、1 年前の 3 倍である。
楊莉明、シンガポール AI 優先事項およびオンラインセーフティ保護措置について語る
2026-03-31 · Josephine Teo · 45:00
楊莉明は Lorong AI メディアQ&A セッションで、AI バイリンガル人材、AI エージェント・ガバナンス、国家 AI インパクト計画および AI の職場への影響について詳述した。
楊莉明、AI 企業採用およびオンラインセーフティ規制について語る
2026-03-31 · Josephine Teo · 02:30
楊莉明は政府が AI 企業採用が期待効果を達成しない場合に干渉する準備ができていると表明し、同時に IMDA 第 2 回オンラインセーフティ評価報告書を発表した。
シンガポール国家 AI インパクト計画:1 万社、10 万労働者を支援
2026-03-02 · Josephine Teo · 02:45
楊莉明大臣は国家 AI インパクト計画を発表し、2029 年までに 10 万名の AI 人材を育成し、1 万社の企業を支援することを目標とした。
楊莉明大臣、各国に対して代理型 AI ガバナンスリスクへの主動的な対応を呼びかけ
2026-02-20 · Josephine Teo · 05:12
楊莉明は世界経済フォーラムで世界初の代理型 AI ガバナンスフレームワークを発表し、各国に対して積極的に AI ガバナンス規則を制定するよう呼びかけた。