MENU

日々の学びや活動報告を載せていく雑記サイト

画像生成AIの問題点・学習対策のまとめ

画像生成AIの問題点・学習対策のまとめ

この記事にはプロモーションが含まれています。

少し前AIに関する記事をまとめて投稿しましたが、わかりにくい点もいくつかあった&いくつか追加で知った情報があったので、それをプラスしてもう少し短くまとめた記事を作ってみました。補足とかすぐ入れたくなっちゃう性分なのでこれでも長いかもしれませんが、自分が押さえておきたい点はまとめたつもりなので、誰かのお役に立てば幸いです。

目次

画像生成AIがなぜ批判されるのか?問題点一覧

①人の作品を無断で学習しているから

  • 画像生成AIが学習に利用しているデータのほとんどは、無断でインターネットなどからDLした画像。
  • 本来著作権のある画像を無断で商用利用をしたり、許可のない転載や二次頒布することは禁止。

しかし、AIの学習に関しては著作権のあるものでも許可を取らず利用可能な場合がある。
※国によって基準が違う。日本では「情報解析」目的の学習であれば許可なしでも利用可能のため、生成AIの学習も合法ととられる可能性が高いとみられているのが現状。

なら、なぜ問題視されているのか?

  • 学習はよくても、生成物の出力を前提とした画像生成AIへの学習は著作権の侵害になる可能性があるから。

「著作権法30条の4」の中で、必要と認められる限度において著作物を利用できると記されており、その範囲を規定している。
しかしその中で、「享受する目的(例:見て楽しむ、商用利用する等)」「著作権者の利益を不当に害する利用」は認められていない。

画像生成AIは学習をしなければ画像を生成できない学習のために著作権のあるものを利用し、画像生成AIが出力したデータを商用利用や鑑賞目的として利用することを前提に画像生成AIに学習を施す場合、「法律30条の4」の違反となる可能性があるのではないか?という懸念が存在している。

特に、後述する「追加学習」という技術を取り入れている画像生成AIに関しては、「絵柄・キャラクターを模倣」「特定のシチュエーション・構図などの再現」を行うことができるため、より「著作権の侵害」や「プライバシーやブランドの侵害」を引き起こす可能性があるとして大きな懸念を生んでいる。

そもそも学習目的であれば許可なく利用できるという法律の構造自体を問題視する意見も出ている。

②他人のプライバシーやブランドを侵害するから

  • 画像生成AIは学習した画像そのままのデータを出力してしまうことがある。

例:生成AIに架空の人物の画像を出すよう指定したら、実在の人間と同じ顔の写真が生成されてしまった。
例:かわいいイラストを生成できたと思ったのに、全く同じイラストが既に存在していた。

…など、意図せずプライバシーや著作権を侵害してしまう可能性がある。

※現状、生成AIの出力した画像が著作権違反として認められるかは法律やケースごとの解釈次第で判断が難しい状況にある。
しかし生成AIの出力した画像が著作権のある画像に極度に似ていた場合や、似せることを目的として出力した場合は著作権違反になる可能性がかなり高いと示唆されている。

  • わざと似せることもできる。

画像生成AIは「追加学習」という技術を利用することで「読み込ませた画像に似せた画像、作風などを作り出す」ことができる。

これにより起こる弊害

  • 特定個人のプライバシーを侵害する画像の制作

例えば「実在のモデルの写真」+「成人向けの裸の画像」などを組み合わせた「まるでそのモデルが裸になっている」ような卑猥な画像を生成することができてしまう。
これらを流布された場合、フェイク情報でその人の信頼やブランドを傷つけられてしまう恐れがある。

  • 画風の模倣

絵画やイラストなどは「画風」「絵柄」といったその人の描いたものだと一目でわかる「ブランド的特徴」を持っている人が多い。
しかしAIに学習されることによって、自分が培ってきたその「特徴」を模倣され「成り済まされたり」、似た画像を粗製乱造されその人の「絵のブランドの価値」を下げられてしまう恐れがある。

上記のような危険性のあるものを個人でも無制限に利用可能な状況のため、問題視する声が多い。

対策の前に知っておきたい画像生成AI関連の技術

画像生成AIには「事前学習」と「追加学習」という工程がある。

事前学習

  • 画像生成AIの基礎を作るための学習。
  • 赤ん坊に常識を教えていくような工程ともいえる。この工程で「AIの認識を阻害させる画像」を混入させると、AIはうまく学習ができなくなり、まともな画像を作り出せなくなる。AI学習を止める対策になる。

しかし、リリースされている画像生成AIのほとんどは、すでにこの工程を終えている
そのため現在存在する画像生成AIの一般的な出力結果を阻害することはかなり難しい。

追加学習

  • 画像生成AIに追加で「画像の特徴」を覚えさせていくための学習。
  • これにより「特定の人物・キャラクター」「画風・絵柄」などを模倣できる。
  • LoRAという技術も追加学習の一種

現状、個人が対策できるのは「追加学習」に対してのみ。
この「追加学習」を阻害することで、「絵柄を盗まれたり」「特定のキャラクターの特徴を模倣」されることを防げる。

i2i(iImage-to-Image)

  • 画像を元にして別の画像を生成する技術のこと。(テキストを打ち込んで画像を生成する技術はt2i(text-to-image)という)
  • 読み込ませた画像の情報をもとに、似た構図や雰囲気の新しい画像を生成できる。

「i2i」は構図や雰囲気などが元の画像に依存する。
そのため「i2i」で生成された画像は「トレパク」のように構図やポーズなどを真似したような仕上がりになることが多い。
実際、この技術を使われ。無断で利用された著作権のある画像の構図やポーズが丸パクリのAIイラストがSNSなどでアップされ炎上するといった事案が発生している。

「下手な絵なら学習されない」は間違っている

「下手な絵」なども「下手な絵の例」を学習するために無断学習されている。
AIの学習範囲は広く、うまい下手にかかわらずたくさんの画像を日々収集し情報として蓄積している。
自分の絵が勝手に生成AIに「下手」というレッテルを張られる屈辱的な学習に利用されている可能性がある。

SNSなどでAI学習対策は効果がない、薄いなどと言われることがあるのはなぜ?

すでに多くのAIは「事前学習」によりきれいな画像を読み込んできたため、少しの阻害では効果がなくなってきてしまっているから。

上で説明した通り、「事前学習」は画像生成AIの基礎を作るための学習。
例えると、赤ん坊が大学生になるまでの過程のようなもの。

赤ん坊のころから「リンゴ」は「赤い」「丸い形をした」「果物」と教えられてきていれば、「リンゴ」の上にちょっとしたマークやノイズが重なっていても、マークの下のものが「リンゴ」だと認識できる。

そのため「マーク」「ノイズ」を取り除いた自然なリンゴの形を予測し、修正できる。
事前学習がしっかりしているモデルほど、「マーク」「ノイズ」が強くても「元の形」を予測できるため「AIへの阻害要素」を取り除いた画像を生成しやすい。

そのため、現在の対策でAIの学習を防ぐための即効性のある対策はほとんどない。

しかし「追加学習」を重ねることで、AIは追加の画像の特徴を覚えていく。
これを重ねるほど、AIへの影響が強くなり、生成する画像に変化を与えていく。

つまり、ネット上に生成AIへの対策をした画像が増えるほど、無断で学習する側のリスクが高くなっていく。=AI学習への対策になる。

そのため現在目に見える効果が薄くても、画像にAIへの学習阻害対策をしていくことは将来の作品を守ることにつながる。※ただし長い時間がかかるので、根気強くクリエイターが対策をすることを迫られているのが現状。

具体的な対策

ウォーターマークをかける

  • サイン(ロゴ、名前、SNSのアカウント名など)
  • 権利主張の文言(無断転載禁止、AI学習禁止など)

上記のいずれか、またはすべてを画像に被せる形で入れる。
絵柄となじませる形で入れると効果が高いとの情報もアリ。
※画像に被せないと「AIの学習阻害」としての効果は薄い。

昨今のイラストは高画質で綺麗なものが多いため、AIに限らず無断使用されやすい傾向がある。
どうしても画像に被せたくない場合、隅に入れておくだけでも画像の権利主張として意味は残るの入れておくことが推奨される。※もちろん強制ではない。個人の考え方次第。

AI学習阻害効果のあるノイズを入れる

AIへの学習を阻害するために開発された専門的なノイズを画像に付与するサービスが有志によって開発・提供されている。無断学習AIへの根本的な対策(事前学習・追加学習に悪影響を与える)としては、これを利用することが現在では一番効果的。

ツール一覧

Glaze

  • DL版、WEB版が存在する(WEB版は招待制。詳しくはこちらを参照)
  • Glaze – Downloads(リンク先:Glaze 公式DLページ)

Nightshade

emamori

  • WEB版のみ。会員登録が必要。スマートフォンでも利用可能。
    emamori(リンク先:emamori 公式)

専用のノイズでなくても一定の効果がある可能性あり。

「絵の特徴」をAIが認識することを防げればよいので、パーリンノイズや幾何学模様等、絵の全体にかかるフィルターをかけることによって「ノイズも絵の特徴」とAIがとらえた場合元の綺麗な画像の特徴をAIが学習するのを阻害することができる場合がある。

画像のサイズを下げる

  • 解像度の低い画像はAIの学習精度が下がる=学習しにくい。
  • 一定以下の画像サイズは学習から疎外されることもある。
  • 一番良いのは250px以下、もしくは500px以下という情報アリ。
    大きくとも1000px以下に抑えておくと、無断でのグッズ化や印刷への対策にもなる。

AI学習防止対策のあるSNSを利用する+鍵やパスワードを活用する

AIは常に「スクレイピング」「クローリング」という技術によってインターネットから情報を収集している。
これを完全に防ぐことはできないが、AI学習防止対策のあるSNSを利用することで通常のSNSよりはリスクを減らせる。

  • 見られる場所を制限する

どうしても大きなサイズの画像や綺麗なイラストを見せたいといった場合、鍵アカウントやパスワードがないと見られない設定のできるSNSを利用することによって、外部からの自動画像収集や不特定多数のAI学習者から画像を無断利用されるリスクを減らせる。

AI学習防止対策のあるSNS(他にもあるが個人的なおすすめのみ抜粋)

Cara

  • Cara | Artist Social & Portfolio Platform(リンク先:Cara 公式サイト)
  • AIの学習禁止、AI画像の投稿禁止。
  • このサイトの利用者はWeb Glaze(AI学習阻害ノイズをWEB上で付与できるサービス)が利用できる。
    ※2024/11月現在調整のため停止中。調整後復活予定。
  • 注意事項として、日本からでも利用可能だが、UI対応言語は現状英語のみという点は留意。

Xfolio

画像での対策+利用するSNSでの対策を組み合わせる

Xなど、既存の人気なSNSやAI学習が認められているSNSで画像を紹介したい場合、AI学習防止対策のあるSNSに「AI学習阻害効果を施した画像」を投稿し、リンクを張って該当サイトに誘導するようにすると効果が高い。

まとめ

  • 現在の法律はAI学習に対し有利であり、学習される側の不利益や悪影響などに関する基準が曖昧で不満を感じているクリエイターが多数いる。
  • 現状の画像生成AIの利用は意図せぬプライバシー侵害や著作権の侵害につながることがある。
  • 「下手な絵」なども「下手な絵を除外」するための学習に使われる。=うまい下手にかかわらず利用される恐れがある。
  • 画像に「AI学習阻害」を施しても即時的効果は薄いが、将来の作品を守るための対策になる。
  • 「画像のサイズを小さくする」「ウォーターマークを画像に被せるように入れる」「AI学習阻害ノイズを入れる」というような対策方法がある。
  • AI学習防止のSNSや鍵アカウント+パスワードなどの機能を利用することで不特定多数が画像にアクセスできなくすることも効果的。

最終的に対策をとるかどうかは自分次第。ただし、規約で生成AIへの利用許可を認めているSNSを利用し続ける場合などは利用されても法的に文句が言えなくなってしまう可能性がある。
現状、ベスト・正解といえる行動はないので、情報を見て自分で判断していくことが大切。

※筆者はAIの専門家ではありません。本記事で取り上げている内容は、主にWEBでの調査や筆者の個人的な見解に基づいたものです。できる限り正確な情報をお伝えするよう心がけておりますが、内容についての正確性を完全に保証することは難しいことをご理解ください。
※専門的な見地からの判断を提供するものではありませんので、あくまで参考程度としてお読みいただければと思います。
※また、AIを取り巻く環境の変化の速度は著しいため、記事の閲覧時期によってはすでに古い情報となっている部分もある可能性がありますこと、ご容赦ください。

画像生成AIの問題や対策についてもっと知りたい方はこちらの記事も参考にしてみてください。

画像生成AIの問題点・学習対策のまとめ

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!

PR

目次