AI導入・開発はAIのミカタにお任せください お問い合わせ

AI著作権リスクで罰金3億円——中小企業が今すぐできる社内ルールの作り方

  • URLをコピーしました!

「うちは関係ない」——AIツールを毎日使っていて、そう思っている方は多いはずです。

でも2025年、AI生成画像による著作権侵害で日本初の刑事摘発が起きました。しかも著作権法には、社員がやらかすと会社にも罰金が来る仕組みがあります。この記事では、法人としてのリスクと「今日からできる対策」を一緒に整理していきます。

目次

AI著作権リスクで罰金3億円になるケース

社員がやらかすと会社に罰金が来る仕組み

著作権法には「両罰規定」と呼ばれるルールがあります。
これは、社員が業務中に著作権を侵害した場合、本人だけでなく会社にも最大3億円の罰金が科される仕組みです(著作権法第124条|e-Gov法令検索)。

「社員が勝手にやったこと」は通用しません。
AI利用のルールを整備していなければ、経営者個人の管理責任まで問われる可能性があります。もちろん故意に侵害した場合の話ですが、「知らなかった」が免罪符にならない点は押さえておく必要があります。

刑事罰と民事賠償——二種類の制裁が同時に来る

そしてもうひとつ見落としがちなのが、刑事罰とは別に民事の損害賠償も来るということです。賠償額はライセンス料相当額——「正規に許可を取っていたら払うはずだった金額」が基準になるため、使用した著作物の量しだいで合計額は相当なものになります。

こんな使い方が危ない——日常業務の落とし穴

「いつか法整備される話でしょ?」——もうその段階は過ぎています。
2025年、千葉県警がAI生成画像の著作権侵害で日本初の刑事摘発を行いました。実在のイラストレーターの作品に酷似した画像をAIで生成・販売したとして、実際に逮捕者が出ています。

ここで押さえておきたいのが、著作権侵害が成立する2つの条件です。
法律用語では「依拠性」と「類似性」と呼ばれますが、噛み砕くとこうなります。

条件意味日常での例
依拠性元の作品を参考にしたか「あの有名キャラっぽく描いて」とAIに指示した
類似性出力が元の作品と似ているか生成された画像が元作品とそっくり

この2つが両方そろったときに侵害となります。
逆に言えば、たまたま似てしまっただけで「元の作品を知らなかった・参考にしていない」なら依拠性がなく、侵害にはなりません。
ただしAIの場合、学習データに元の作品が含まれていれば依拠性が認められうると文化庁の「AIと著作権に関する考え方について」(2024年3月)で示されています。「AIが勝手に似せた」は言い訳になりにくいのです。

怖いのは、特別なことをしなくても引っかかる可能性があること。
「AIが出力した画像をそのまま資料に使った」「ネットで見つけた画像をAIに加工させた」——日常業務のちょっとした作業が、知らないうちに著作権侵害になっていたというケースは十分ありえます。

「社内利用ならセーフ」は本当か?

「社外に出さなければ大丈夫でしょ?」——これ、半分正しくて半分危険です。

著作権法には「AIの学習や社内の分析目的なら、他人の著作物を使ってもOK」という例外ルールがあります(30条の4)。
研修資料のために市場データを集めたり、社内レポートの下調べにAIを使ったりする程度なら、この例外に守られるケースがほとんどです。

ただし、この例外には大きな落とし穴があります。「元の著作物の持ち主に明らかな損害を与える使い方」は対象外なのです。

文化庁の見解では、たとえば特定のクリエイターの作風を意図的に模倣する目的で大量に作品を学習させるようなケースは、この例外に該当しない可能性があるとされています。

つまり社内のリサーチや分析に使う分には問題になりにくいけれど、そこで作ったものをそのまま商用利用したり、特定の作品を狙い撃ちで真似したりすればアウトということです。「社内利用だから」と一括りにせず、目的と使い方で判断する必要があります。

AIが作ったものは「著作権フリー」なのか?

もうひとつよくある誤解が、「AIが作ったものには著作権がないから自由に使える」というもの。
結論から言うと、そんな単純な話ではありません。整理するとこうなります。

まず、AIに「猫の画像を作って」とだけ指示して出てきた画像——これには著作権がつきません。著作権は「人間が創意工夫して作ったもの」に与えられる権利なので、AIまかせの出力は対象外です。人間が細かくディレクションして仕上げた場合は著作権が認められることもあります(文化庁のガイドライン)。

ただし、ここで本当に気をつけてほしいのは別の話です。
AI生成物に著作権があろうとなかろうと、出力が誰かの作品に似ていたら、その作品の著作権を侵害する可能性がある——これが実務上いちばん大事なポイントです。「AIが作ったから自由に使える」と思い込んで公開した画像が、実は有名イラストレーターの作品にそっくりだった、なんてケースが危ないわけです。では、どうすれば防げるのか——答えはシンプルです。

今日から使える社内ルールの作り方

難しく考える必要はありません。社内ルールは「入力の禁止事項」と「出力の確認フロー」の2軸で整理すれば、法務部がなくても形になります。
ここからは、中小企業でもすぐ始められる最小限のルールを一緒に見ていきましょう。

使っていいツールと出力のチェック方法

まず「何を使っていいか」をはっきりさせます。
禁止リストより許可リスト(ホワイトリスト)の方が運用はラクです。「このツールはOK、それ以外は上長に相談」——これだけでグレーゾーンが激減します。

たとえばChatGPT EnterpriseやCopilot for Microsoft 365は、万が一の著作権トラブルに対する補償プログラムが付いています。こうした著作権補償付きのツールを優先的に許可リストに入れるのが、リスク管理の第一歩です。

次に「入力してはいけないもの」を決めます。
筆頭は、他社の著作物(画像・文章・コード)をそのままAIに貼り付けること。「参考にしたいだけ」でも、AIが学習・加工して出力すれば侵害リスクが生まれます。社内の機密情報も同様に禁止対象にしておきましょう(生成AI社内規定の作り方|AGS)。

  • 入力の禁止事項:他社の著作物をそのまま貼り付けない
  • 出力の確認:公開前に「元ネタが思い当たらないか」をチェック

そしてもうひとつ大事なのが、出力物を公開・商用利用する前のチェックです。
確認は「元ネタが思い当たらないか」を自問するだけでも効果がありますが、無料ツールを使えばさらに確実です。画像ならGoogle画像検索やTinEyeで類似画像を検索、文章ならCopyContentDetectorでコピー率をチェックできます。

記録と違反対応のルール

地味ですが、一番効くのは記録(ログ)を残すことです。
「いつ・誰が・どんな目的でAIを使ったか」を記録しておけば、万が一トラブルになったときに会社として管理していた証拠になります。Excelの共有シートで十分です。

ログの有無が「管理体制あり」の証拠になる

ログが残っていれば「管理体制があった」と主張できる。残っていなければ「野放しだった」と見なされる。

もうひとつ、違反時の報告先(相談窓口)を決めておくこと
「誰に言えばいいかわからない」状態が一番危険です。報告先が明確なら、問題が小さいうちに表面化します。隠蔽を防ぐには「報告したら怒られる」ではなく「報告しなかったら処分対象」という空気づくりが大切です(弁護士が解説する社内ルール策定と法的リスク管理の実務)。

なお、ルール整備と合わせてサイバー保険や知財訴訟費用保険への加入も検討する価値があります。最近は、AI利用に起因する著作権侵害の賠償金や訴訟費用をカバーする商品も出てきています。中小企業向けなら年間10万〜50万円程度から加入でき、最大3億円の罰金リスクに対する備えとしては現実的な投資です。「ルールで防ぐ」+「保険で備える」の二段構えが、バランスのいいリスク管理になります。

社内周知文のテンプレート例

以下はそのままコピーして社内メールやチャットで使えるテンプレートです。自社の事情に合わせて【 】内を書き換えてください。

社内周知テンプレート(コピーしてそのまま使えます)

件名:AI利用に関する社内ルールのお知らせ

社内業務でAIツールを利用する際のルールを定めました。全員必ず目を通してください。

■ 使っていいツール(許可リスト)

  • 【ChatGPT Enterprise / Copilot for Microsoft 365 / その他自社で契約中のツール名】
  • 上記以外を使いたい場合は【管理部/上長】に事前相談すること

■ やってはいけないこと(入力の禁止事項)

  • 他社の画像・文章・コードをそのままAIに入力しない
  • 顧客情報・社内機密をAIに入力しない

■ 公開前に必ずやること(出力の確認フロー)

  • 画像:Google画像検索またはTinEyeで類似画像がないか確認
  • 文章:CopyContentDetectorでコピー率をチェック
  • 「どこかで見たことがある」と感じたら使用しない

■ 記録

  • AI利用時は共有シート【リンク】に日付・氏名・用途・使用ツールを記入すること

■ 困ったとき・違反に気づいたとき

  • すぐに【〇〇部/〇〇さん】に報告してください
  • 報告者が不利益を受けることはありません
STEP
許可ツールを決める
STEP
禁止入力と出力チェックを周知
STEP
記録シートと報告窓口を用意
STEP
テンプレートで全社通知

ルールは完璧でなくていいのです。大事なのは「うちはちゃんとやっている」と言える体制が存在すること
まずはこのテンプレートを社内に流すところから始めてみてください。

もし侵害が発覚したら?最初の72時間

ルールがあっても、リスクがゼロになるわけではありません。
万が一「これ、著作権侵害かも」と気づいたとき、最初の動きで被害の大きさが変わります。やることは3つだけです。

STEP
今すぐ止める

該当するコンテンツの公開・使用をその場で停止してください。SNS投稿、社内資料、Webサイト——どこに使っていても同じです。使い続ける1日ごとに損害賠償の額が膨らむ可能性があります。

STEP
証拠を残す

スクリーンショットを撮り、AIの生成ログ(プロンプトや出力結果)を保存します。「いつ・誰が・どのツールで・どんな指示を出して作ったか」が後から証明できる状態にしておくことが大切です。
この記録が、後の交渉で「故意ではなかった」「発覚後すぐ対応した」という誠実な対応の証拠になります。

STEP
24時間以内に弁護士へ連絡する

示談交渉の余地があるうちに専門家を入れるのが鉄則です。著作権に強い弁護士は日本弁護士連合会の検索サービスで探せます。
初回相談だけなら無料の事務所も多いので、ハードルは思ったほど高くありません。

民事で請求される損害賠償は、先ほど触れたライセンス料相当額が基準です。早期に使用を停止し、誠実に対応した記録があれば、賠償額の交渉で有利に働く可能性があります。

弁護士に相談する前に権利者へ独断で連絡しない

ひとつ絶対にやってはいけないのが、弁護士に相談する前に権利者へ独断で連絡することです。よかれと思った謝罪が、法的に不利な「非を認めた証拠」になることがあります。

同時に、社内でも「同じようなケースが他にないか」を全社に確認してください。1件見つかったら、似たリスクが他にもある可能性が高いです。

対応の記録は全て残しておきましょう。「発覚から何時間で止めたか」「いつ弁護士に相談したか」——この時系列の記録そのものが、会社として誠実に対応した証明になります。

まとめ

AI著作権リスクは「知らなかった」では済まされない段階に入っています。でも、やるべきことはシンプルです。この3つだけで、3億円リスクの大半は防げます。

  • 許可ツールを決める
  • 入力と出力のルールを周知する
  • 記録を残す

まずはこの記事のテンプレートを、今日中に社内チャットに投げるところから始めてみてください。

よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

目次