AI導入・開発はAIのミカタにお任せください お問い合わせ

マイクロソフト、AI著作権訴訟の賠償費用を全額負担 Copilot含む3製品対象

  • URLをコピーしました!

「AIが他人の著作物を真似て訴えられたら、費用はうちが全部持つ」——Microsoftがそう宣言している。今年1月に公開された「責任あるAI透明性レポート2026」は、AI導入を検討する経営者にとって見逃せない約束と数字を突きつけた。その数字が明かすのは、AIをめぐるリスクの正体が「外部からの攻撃」ではなく「社内の管理不足」にあるという事実だ。

目次

Microsoftが著作権訴訟を全額負担する制度

Microsoftには「Copilot Copyright Commitment(顧客著作権コミットメント)」と呼ばれる制度がある。2023年9月に導入され、GitHub Copilot(AIによるコード補完ツール)、Azure OpenAI Service(企業向けAI開発基盤)、Microsoft 365 Copilot(WordやExcelなどに統合されたAIアシスト機能)の3製品が対象だ。これらを業務で使う企業がAIの出力物が原因で著作権侵害訴訟を起こされた場合、裁判費用から賠償金まで全額Microsoftが負担する。対象は日本を含む全世界の商用ライセンス契約企業だ。

ただし適用には条件がある。製品に内蔵された「ガードレール」(不適切なコンテンツを生成しないよう制限する安全フィルターのこと)を有効にしておくこと、そして意図的に著作権を侵害しようとしていないこと——この2点が満たされない場合、保護は受けられない。「Microsoftの安全機能をオンにしたまま普通に使っていれば守る」という約束であって、無条件の保証ではない。

この約束が現実の法廷でどこまで機能するかは、まだわからない。2022年に提起されたGitHub Copilot著作権訴訟は現在も継続中で、「AIが生成したコードに著作権侵害は成立するか」という根本的な問いに司法の結論はまだ出ていない。

「透明性レポート」の位置づけと、実態を示す2本の報告書

今年1月に公開された透明性レポートは、Microsoftが「責任あるAI」原則をどう運用しているかを社外に開示する年次報告書だ。軍事・医療・金融など高リスク領域への適用審査の強化、AIシステムへのレッドチーム演習(攻撃者役のチームが自社AIの弱点を事前に探す演習)の実施状況、各事業部門のAIガバナンス(AI利用に関する社内ルールと監督体制)の整備状況が記載されている。

ただし検証可能な数値の公開は一部にとどまる。インシデント(事故・問題発生)の具体的件数や、評価を受けたモデルの名称・数といった踏み込んだデータは限定的だ。「透明性レポート」が方針と原則を示すなら、実態に近い数字を提供するのは、前後して公開された2本の調査報告書——1月の「Microsoft Secure Access in the Age of AI Report 2026」と3月の「Microsoft Data Security Index 2026」だ。以降で取り上げるデータは、主にこの2本から来ている。

報告書が明かした、事故の本当の原因

「Microsoft Secure Access in the Age of AI Report 2026」が示した最も重要な発見は、AIにまつわるセキュリティ事故の47%は悪意のある攻撃ではなく、偶発的なミスが原因だという事実だ。設定が複雑すぎる、誰が管理しているかが不明確——そうした組織内部の混乱が引き金になった事故が、全体の半数近くを占める。同報告書によれば、調査対象の70%の組織がAI関連の事故を経験している。「AIは外から攻撃されて危ない」という先入観は、実態と大きくずれている。

調査データの留意点

なお、同報告書は複数の地域・業種の企業を対象に実施されているが、回答企業数や業種・地域の詳細内訳は公表されていない。Microsoft製品利用企業が中心というサンプルの性質上、業界全体を代表するデータとして読むには留保が必要だ。

事故の3割は社員の個人利用が原因

「Microsoft Data Security Index 2026」によれば、データセキュリティ事故の32%が生成AIツールに関連していた。その背景に透けて見えるのは、社員が会社の管理外でAIを使っている現実だ。

同報告書では、従業員の58%が個人アカウントで業務にAIを利用し、57%が個人デバイスから接続していた(いずれも前年比増)。こうした「シャドーAI」——IT部門の管理が届かない場所でのAI利用のこと——は、業務データが企業のセキュリティポリシーの外に流れ出る経路になる。社員は便利だから使う。会社はその利用を把握できていない。その隙間が事故の温床だ。

管理が甘いと、AIが社内情報を引き出す

もう一つ報告書が指摘するのは、AIエージェント(自律的にタスクをこなすAIシステムのこと)の権限管理の問題だ。たとえば人事システムに接続したAIエージェントが、採用担当者の業務に必要な範囲を超えて、経営層の給与情報や他部門の人事ファイルにまでアクセスできる設定のまま動いているケースがある。本来は見えてはいけないデータが、AIを通じて誰でも引き出せる状態——これが「権限管理の穴」だ。Fortune 500企業の80%がすでにAIエージェントを活用している現状では、これは一部の先進企業だけの話ではない。

Microsoftがガードレールを保護条件とする理由

ここで最初の著作権補償制度の条件に戻ると、筋が通る。Microsoftが保護の前提として「ガードレールをオンにしておくこと」を求めるのは、事故の原因が外部攻撃ではなく内部の管理不足にあると、自らのデータが示しているからだ。

Microsoftがリスクを防ぐ仕組み

Microsoftには「Red Team(レッドチーム)」と呼ばれる専門チームがある。外部の攻撃者より先に自社AIを攻撃してみせ、弱点を事前に洗い出す役割だ。AIエージェントが本来アクセスできない情報や権限を不正に取得するリスクも、このチームが先んじて特定し、対策を施している。

製品への組み込みとしては、AIへの悪意ある指示の注入をリアルタイムで遮断する機能と、著作権で保護されたコンテンツの無断出力を検知する機能が代表的だ。後者は著作権補償制度を技術の側から支える柱でもある。

AIエージェントには「ゼロトラスト(Zero Trust)」という考え方を適用している。「すべてを疑い、必要な情報だけを必要なときに与える」原則で、人間の社員に課すのと同じアクセス管理をAIにも適用する。業務と無関係なデータへのアクセス権を最初から与えない設計で、前述の権限管理問題に正面から対処する。

Secure Access Reportによれば、AIガバナンスを導入した企業の75%が意思決定の自信・顧客信頼・データ保護の面で改善を報告している。ただしこれはMicrosoftが作成した報告書内のデータであり、調査対象企業数・業種・地域の詳細は非公表。独立した第三者による検証ではない点は念頭に置く必要がある。

よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

目次