- はじめに:AIのルール作りが「国家の安全保障」になった時代
- 第1章:世界のAIルールは誰が決める?G7・OECD・国連の最前線
- 第2章:世界は三つに分断される?米・EU・中のAI戦略バトル
- 第3章:じゃあ日本はどうするの?「AI推進法」の光と影
- 第4章:敵はAI、味方もAI。最新のサイバー攻撃事情
- 第5章:日本が抱える「ヤバい」課題:人がいない、ルールがない…
- 第6章:未来への提言:私たち情シス担当者と企業が今すぐすべきこと
はじめに:AIのルール作りが「国家の安全保障」になった時代
皆さん、こんにちは。城咲子です。 東証プライム上場企業で情報システム部のセキュリティ担当をしています。CISSPや登録セキスペの資格を活かし、日々サイバー攻撃の脅威と向き合っています。
さて、2025年。AI、特に生成AIはもはや私たちの仕事や生活に欠かせないツールとなりました。しかしその裏側で、AIのルール作りをめぐる国家間の静かな戦争が激化していることをご存知でしょうか?
かつて「AI倫理」という言葉で語られていた抽象的な議論は終わり、今は「どの国のルールが世界標準になるのか?」という、国家の競争力と安全保障を賭けた地政学的な覇権争いの真っ只中にあります。
今回は、2025年9月時点の最新の国際動向を読み解きながら、AIセキュリティをめぐる世界の潮流と、私たち日本企業やセキュリティ担当者が直面する課題、そして取るべき戦略について、専門家の視点から徹底解説します。これは、もはや他人事ではありません。
第1章:世界のAIルールは誰が決める?G7・OECD・国連の最前線
AIの国際的なルール作りは、主に3つの国際機関がそれぞれの役割を担いながら進んでいます。
G7広島AIプロセス:安全なAI活用の「羅針盤」
記憶に新しい2023年の「G7広島AIプロセス(HAIP)」。これは日本の主導で始まった、非常に重要な取り組みです。ここで合意された「国際行動規範」は、AI開発者が守るべき11の原則(適切なテスト、脆弱性対応、透明性の確保など)を定めたもので、その後の世界のAIガバナンス議論の基礎となっています。
infomation-sytem-security.hatenablog.com
2025年現在、G7の議論は「安全」の土台の上に「経済的繁栄」をどう築くか、というフェーズに移っています。特に中小企業がAIを導入しやすくするための「G7 AI導入ロードマップ」などが打ち出され、より実践的な段階に進んでいるのが特徴です。
OECD:ルールを「見える化」する仕組み
G7が政治的な方向性を示す羅針盤だとすれば、OECD(経済協力開発機構)はそれを具体的な「航海図」に落とし込む役割を担っています。
2025年2月、OECDはG7の行動規範を企業がどれだけ守れているかを報告させる「自主的な報告フレームワーク」を立ち上げました。「自主的」とは言え、これは事実上のグローバルなベンチマークとなり、EUのAI法など各国の規制の基礎にもなっています。つまり、このOECDの動きに対応できない企業は、将来的にグローバル市場から締め出される可能性があるということです。
国連:安全保障と「取り残される国」への配慮
G7やOECDが先進国中心の議論であるのに対し、国連はより普遍的な課題に取り組んでいます。
- 安全保障: AIの兵器化や自律型致死兵器システム(LAWS)など、人類の生存に関わる深刻なリスクを議論の俎上に上げています。
- グローバル・サウスの包摂: AIがもたらすデジタル格差の拡大を懸念し、開発途上国が取り残されないための支援策を重視しています。
私たち日本企業は、これら複数の国際フォーラムの動向を同時に注視し、それぞれの文脈で形成されるルールに対応していく必要があるのです。
第2章:世界は三つに分断される?米・EU・中のAI戦略バトル
国際協調が進む一方で、世界のAI覇権をめぐる競争は激化の一途をたどっています。特に、米国、EU、中国の三極は、全く異なる思想で独自のルールを構築しており、私たち日本企業は深刻な「コンプライアンス・トリレンマ」に直面しています。
アメリカ:「イノベーション最優先」の覇権戦略
トランプ政権が発表した「米国のAI行動計画」は、一言で言えば「スピードとパワーこそが正義」という戦略です。規制を徹底的に緩和してイノベーションを加速させ、半導体などのハードウェア供給を握ることで、AI技術スタック全体の支配権を確立しようとしています。
- アプローチ: 市場主導。規制緩和で開発を促進。
- 私たちへの影響: 開発スピードは上げやすいが、自己責任が重くのしかかる。
EU:「人権とリスク管理」の鉄壁ルール
世界で最も厳格な「EU AI法」は、「基本的人権と安全が何よりも優先されるべき」という思想に基づいています。AIをリスクレベルで分類し、特にリスクの高いシステムには市場投入前に厳しい義務を課します。違反すれば巨額の罰金が科されるため、EUでビジネスをする企業は絶対に対応が必要です。
- アプローチ: 規範的。リスクベースで厳格な規制。
- 私たちへの影響: 高いコンプライアンスコストがかかるが、法的安定性と巨大市場へのアクセスは魅力的。
中国:「国家が全てを管理する」トップダウン戦略
中国の「AIプラス」計画は、国家主導でAIを社会の隅々まで浸透させる野心的な戦略です。その特徴は、AIが生成したコンテンツに出所を追跡できるラベル付けを義務化する「ラベリング規則」にあります。これにより、国が情報の流れを完全にコントロールすることを目指しています。
- アプローチ: 国家主導。情報の統制と追跡可能性を重視。
- 私たちへの影響: 中国市場で事業を行うには、データ処理やコンテンツ生成の仕組みを根本的に変える必要がある。
項目 | 米国 | 欧州連合(EU) | 中国 |
---|---|---|---|
中核的理念 | イノベーションと国家競争力 | 基本的人権とリスク緩和 | 社会の安定と国家主権 |
セキュリティ | 市場主導。国家安全保障上の脅威に焦点。 | 規範的。ハイリスクAIの事前コンプライアンス義務化。 | 国家主導。情報の統制と追跡可能性を重視。 |
日本企業への示唆 | 迅速な革新の機会。ただし自己規制の負担大。 | 高いコンプライアンスコスト。ただし法的安定性あり。 | 大幅な運用変更が必要。技術デカップリングのリスク。 |
【城咲子のつぶやき】 私たちのようなグローバル企業にとって、この三極化は本当に悩ましい問題です。米国向けの開発スピード、EU向けの厳格なコンプライアンス、中国向けのデータ管理。これらを一つの製品やサービスで同時に満たすのは、正直言って不可能です。結果として、地域ごとに開発や運用を分ける「モジュール型アプローチ」を取らざるを得ず、コストと複雑性は増大する一方です。
第3章:じゃあ日本はどうするの?「AI推進法」の光と影
米・EU・中が三者三様の道を歩む中、日本は「ソフトロー・アプローチ」という戦略を選択しました。
「AI推進法」と「AI事業者ガイドライン」
2025年5月に成立した「AI推進法」は、厳しい規制を課すのではなく、イノベーションを促進することを目的としています。そして、その具体的な行動指針を示すのが「AI事業者ガイドライン」です。
これは、特定の規制モデルに早期にコミットせず、国際動向を見ながら柔軟に対応するための「戦略的待機」とも言える賢明なアプローチです。しかし、この柔軟さには大きな落とし穴も存在します。
深刻な課題:「法的責任の空白」
日本のソフトロー・アプローチが抱える最大の課題は、AIが引き起こした損害の責任の所在が曖昧なことです。
現在の日本の法律(民法や製造物責任法)では、AIシステムの判断ミスによる損害(例:金融AIの誤取引、医療AIの誤診)が発生した場合、誰がどう責任を負うのかを判断するのが非常に困難です。この「法的責任の空白」は、企業がリスクを恐れて革新的なAIの導入を躊躇する大きな原因となっており、日本のAI戦略の根幹を揺るがしかねない重大な問題です。
一方で、理化学研究所(RIKEN AIP)や産業技術総合研究所(AIST)、情報通信研究機構(NICT)など、日本の研究機関はAIセキュリティの最先端で世界をリードする成果を上げています。しかし、最先端の技術リスクと、それを裁く旧態依然とした法制度との間に大きな乖離があるのが、日本のもどかしい現状なのです。
第4章:敵はAI、味方もAI。最新のサイバー攻撃事情
AIの進化は、サイバー攻撃の姿を根本から変えました。もはや攻撃の主体は人間ではなく、AI自身になりつつあります。
脅威カテゴリ | 具体的な脅威ベクトル | 概要と2025年の動向 |
---|---|---|
AIサプライチェーン | データ汚染(ポイズニング) | AIの学習データに悪意のあるデータを注入。低コストで実行可能で、影響は広範囲に及ぶ。 |
公開リポジトリからの汚染済みモデル | Hugging Faceなどで公開されているモデルにマルウェアを混入。2025年のAI関連侵害の45%がこれに起因。 | |
モデルの機密性 | モデル抽出・窃取 | API経由でクエリを繰り返し、モデルの機能を模倣したクローンを不正に作成。企業の知的財産を直接脅かす。 |
AIによる攻撃作戦 | エージェント型AIによる攻撃の自動化 | AIが自律的に判断し、データ窃取や恐喝などを実行。攻撃の技術的ハードルを劇的に下げる「脅威の民主化」が進む。 |
適応型マルウェア | 侵入先の環境を学習し、セキュリティ対策をリアルタイムで回避する自己進化型マルウェア。 | |
超パーソナライズされたフィッシング | 標的の情報をAIが分析し、見分けのつかないディープフェイク音声や完璧な文面のメールを生成。2024年後半にフィッシング攻撃が202%急増。 | |
新たな攻撃対象 | マルチモーダルLLMへの攻撃 | 画像に人間には見えないノイズを加え、AIに全く違うテキストを生成させるなど、複数のデータ形式を悪用した攻撃。 |
【城咲子のつぶやき】 特に深刻なのが「AIサプライチェーン攻撃」です。自社でどんなに堅牢なセキュリティを築いても、外部から持ってきた学習データやオープンソースのモデルが汚染されていれば、そこから全てが崩壊します。もはや「自社だけ守る」という考え方は通用しません。サプライチェーン全体をどう守るか、という視点が不可欠になっています。
AIサイバー攻撃手法とサプライチェーン防衛術については以下の記事で詳細解説していますので合わせてご確認ください。
infomation-sytem-security.hatenablog.com
第5章:日本が抱える「ヤバい」課題:人がいない、ルールがない…
日本のAI戦略の実行を阻む、深刻な国内課題が3つあります。
構造的な人材不足:最大のボトルネック
- 日本のサイバーセキュリティ人材は2025年までに20万人不足すると言われています。
- これはもはや経済問題ではなく、国家の技術主権と安全保障を揺るがす危機です。革新的なAIを生み出すどころか、海外のAIを安全に使うことすら困難になりかねません。
AIガバナンス導入の障壁
- 多くの企業で、AIのリスク管理に対する責任の所在が曖昧なままです。
- 部門ごとにバラバラのツールを導入した結果、全社的なリスク管理ができず、「大きすぎて手が出せない」と思考停止に陥っているケースも少なくありません。
- AI関連の侵害を経験したITリーダーは74%に上るのに、対策ソリューションを導入しているのはわずか32%という驚くべきデータもあります。
中小企業の遅れとサプライチェーンリスク
- 日本の産業を支える中小企業の多くは、AI導入どころか基本的なセキュリティ対策も不十分です。
- 攻撃者は、このセキュリティ対策が手薄な中小企業を踏み台にして、取引先の大企業へ侵入します。
- 中小企業の脆弱性は、サプライチェーン全体の「最も弱い環」となり、日本の基幹産業全体を脅かすシステミックなリスクとなっています。
第6章:未来への提言:私たち情シス担当者と企業が今すぐすべきこと
では、この複雑で厳しい状況の中で、私たちは何をすべきなのでしょうか。政府への提言は専門家に任せるとして、ここでは企業、特に私たち情報セキュリティ担当者が取るべき具体的なアクションを提言します。
1. 「最高AI責任者(CAIO)」を任命し、全社的なガバナンス体制を築く
AIはもはやIT部門だけの課題ではありません。経営課題として捉え、AI戦略からセキュリティ、倫理までを一元的に管轄する役員(CAIOなど)を明確に任命すべきです。これにより、部門間のサイロを打破し、責任の所在を明確にすることができます。
2. AIサプライチェーンの「身体検査」を義務化する
外部のデータセット、事前学習済みモデル、APIを導入する際は、その出所や品質、セキュリティリスクを評価する正式なプロセスを社内規程として義務化しましょう。特に、公開されているモデルは「原則として信頼できない」というゼロトラストの考え方で扱うべきです。
3. 「人間の壁」と「AIの盾」の両方に投資する
- ヒューマン・ファイアウォール: 従業員は最大の防御線です。ディープフェイクやAI生成フィッシングなど、新たな脅威に対する継続的な教育と訓練は、もはやコストではなく必要不可欠な投資です。
- AIネイティブ防御: 人間では対応できない速度と規模のAI攻撃に対抗するため、AIを搭載した次世代セキュリティプラットフォーム(XDRなど)へ積極的に投資し、機械の速度で脅威に対応できる体制を整えましょう。
4. プロアクティブな「レッドチーミング」で弱点をあぶり出す
規制やガイドラインを守るだけの受け身の姿勢では、もはや会社を守れません。攻撃者の視点で自社のAIシステムに擬似攻撃を仕掛け、脆弱性を能動的に発見・修正する「レッドチーミング」を定期的に実施する文化を根付かせることが重要です。
AIセキュリティをめぐる地政学的な動向は、私たちビジネスパーソン、特にセキュリティ専門家にとって、避けては通れない重要なテーマです。この大きな変化の波に乗り遅れることなく、自社のビジネスと日本の競争力を守るために、今日からできることを始めていきましょう。
【チェックリスト】AIセキュリティ強化に向けた情シス担当者のアクションプラン
AIを取り巻く脅威が高度化・複雑化する中、私たち情報システム部のセキュリティ担当者が主体的に取り組むべきアクションをチェックリスト形式でまとめました。経営層や関連部署を巻き込みながら、プロアクティブにセキュリティ体制を強化していきましょう。
カテゴリ | 具体的なアクション項目 | 関連部署 | ステータス |
---|---|---|---|
1. ガバナンス体制の構築 | □ 経営層への働きかけ: AIのリスクとビジネス機会を説明し、全社的な責任者(CAIO等)の設置を提言する。 | 経営層、法務 | |
□ ガイドライン策定の主導: 全社横断で適用する「AI利用・開発セキュリティガイドライン」の策定プロジェクトを立ち上げる。 | 事業部門、開発部門 | ||
□ 責任分界点の明確化: AI利用におけるインシデント発生時の責任の所在と報告フローを定義し、周知する。 | 法務、コンプライアンス | ||
2. AIサプライチェーン管理 | □ 利用状況の棚卸し: 社内で利用されている外部AI(学習データ、事前学習済みモデル、API)をリストアップし、リスクを可視化する。 | 開発部門、各事業部 | |
□ 導入プロセスの規程化: 外部AIを導入する際のセキュリティ・デューデリジェンス(身元確認、脆弱性評価)を正式な社内規程として義務付ける。 | 調達部門、法務 | ||
□ ゼロトラスト原則の適用: 特に公開リポジトリから入手するモデルやライブラリは「原則信頼しない」前提で、サンドボックス環境での検証を必須とする。 | 開発部門、ITインフラ | ||
3. 防御体制の強化 | □ 従業員教育のアップデート(人間の壁): ディープフェイクやAI生成フィッシングメールを見抜くための最新の研修コンテンツを作成し、全社的に展開する。 | 人事部、広報部 | |
□ 標的型攻撃メール訓練の高度化: 訓練シナリオにAIが生成した巧妙な文面やコンテキストを組み込み、従業員の対応能力をテストする。 | 人事部 | ||
□ 次世代セキュリティ投資(AIの盾): AI駆動型の自律的な攻撃に対抗するため、AI搭載型セキュリティプラットフォーム(XDR等)の導入を検討・評価し、経営層に提案する。 | ITインフラ、財務部 | ||
4. プロアクティブな脆弱性評価 | □ レッドチーミングの計画策定: 自社のAIシステムを対象としたレッドチーミング(擬似攻撃による脆弱性評価)の年間計画を策定する。 | 開発部門 | |
□ 定期的な実施と文化醸成: レッドチーミングを単発のイベントで終わらせず、定期的な活動として予算化し、「攻撃される前に弱点を見つける」文化を醸成する。 | 経営層、財務部 | ||
□ 脆弱性管理プロセスの連携: 発見された脆弱性を開発チームにフィードバックし、修正が確実に行われるまでのプロセスを管理・追跡する。 | 開発部門、品質保証 |