MENU

日々の学びや活動報告を載せていく雑記サイト

画像生成AIの問題点ついて考える

画像生成AIの問題点について考える

この記事にはプロモーションが含まれています。

最近のXの利用規約改定など、身近にAI学習の問題を感じるようになってから、画像生成AIへの知識をこの機会にまとめておきたいと考え、この記事を作成しました。

記事内容は筆者の自分用の覚書、備忘録といった側面も大きいため、個人の偏見・主張も含まれています。

とはいえ結構頑張ってまとめたので、時間のある方、AIの問題点や対策について他人の考えや理解の仕方に興味がある方は是非見ていっていただければ幸いです。

目次

そもそも画像生成AIとは?どんな仕組みのもの?

画像生成AIの仕組みについては下記の記事にまとめています。
この記事の閲覧前に是非読んでいただければ幸いです。

画像生成AIの問題点①学習データの問題点

学習および成果に関する権利侵害問題

画像生成AIの構築には数多くの学習データが関わっています。

この学習データの中には、著作権のある画像や違法性の高い画像なども大量に含まれていることが示唆されています。

niichi

著作権のある画像を許可なく勝手に使ったり、違法性のある画像を所持している場合捕まる可能性がある…とふつうは思いますよね?

しかし現状、研究目的の利用であれば著作権保護のある、なしにかかわらず、AI学習への画像利用を許可している国が多いです。

学習の前に権利者に許可がいるか、いらないかといった制約についても国ごとで違い、利用基準も曖昧です。

実際、画像生成AIの火付け役となった「Stable Diffusion」の作成元であるStability AIがある英国でも、研究のためのデータ利用は許可されています。
※英国における「データマイニングとテキストマイニング」に関する特例参考。

学習に許可がいる場合でも、訴訟などが起きない限り権利侵害があるかの確認をとることが難しいため、著作権保護のある、なしにかかわらず、無断でAI学習に画像をデータを用いてもバレない状況になってしまっているのが現状です。

そもそも研究のためであれば他人の成果物を無断で利用可能な規定になってしまっている法律自体に怒りを覚えている人々が多いという点も、考慮すべき問題点の一つといえます。

日本でも現状、研究目的であればAI学習への著作物の利用が許可されています。
現状の日本でのAIと著作権に関する法的解釈は下記の文化庁のページに載っているPDFが参考になります。
AIと著作権について | 文化庁(リンク先:文化庁 公式サイト)

niichi

しかし利用が許可されているのはあくまで学習のみ。生成物がすでにある著作物と似通っている場合、著作権の侵害として訴えることも可能ではあります。

しかし現在は法での基準が曖昧なため、生成AIの作成物が著作物の侵害として認められるかどうかは個々の事例にゆだねられており、明確な判断基準が出来ていません。

新たな法律の施行や改正によってしっかりとした基準を設けるか、生成AIが著作権侵害で訴えられた裁判等から判例を出していくしかない状況になっています。

またAIの生成した画像に著作権を認めるかどうかも、現在は議論の対象となっています。
現状の法律では「創作的寄与」という人による創造的な意図、特徴が認められるものでない限りAIの生成物に著作権はないという解釈になっています。

そのため、AIで生成されたものを著作権がないとして二次利用し、二次利用されたものをさらに他人が利用し…とAIで生成された画像の利用状況は正直言って無法地帯。混沌を極めています。

こういった規制が定まっていない状況は、フェイクニュースや信頼性を損ねるメディアの拡散にもつながるとして問題となっています。

違法性のある画像は研究目的だとしても使用が許されない確率が高いようですが、学習データが何万、何億と積み重なっていくとその中から違法性のあるものがあったかどうかを抽出すること自体が困難となり、うやむやにされてしまっている現状があります。

「Stable Diffusion」の違法画像問題

しかし、有名な画像生成AIの学習データに違法性のある画像が含まれていた事実をきっかけに、世間で問題視する人が増え始めました。

下記の記事で、画像生成AI「Stable Diffusion」の学習データの中に膨大な量の違法性のある画像があったという事実が解説されています。
画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚 | Forbes JAPAN 公式サイト(フォーブス ジャパン)(リンク先:Forbes JAPAN 公式サイト)

niichi

違法な画像も利用されているツールであるという事実は悪印象を持たれても仕方がないですよね…。

そのため「Stable Diffusion」は、違法な画像を取り除き再度訓練した別モデルを発表することで、問題に対処をしました。

しかし学習のためのデータセットに含まれる画像は50億以上。その中に含まれていたすべての違法画像を取り除けたのか、外野からは判断しようがありません…。

そのため、いまだに「Stable Diffusion」にグレーな目を向ける人も多いです。

ほかにもAIの学習のための画像収集先として、無断転載が横行しているサイトからスクレイピングやクローリングという技術を使って、著作権のある画像を無断で学習に使っていると思われる画像生成AI企業がたくさん見られることも、画像生成AIを問題視する人々を増加させる原因となっています。

画像生成AIの生み出す画像の問題点

画像生成AIは、学習データをもとに様々なイメージ画像をアウトプットします。
あくまでアウトプットされた画像は「独自の画像を生成」するとされていますが、場合によっては「著作権のある既存画像に酷似したもの」や「学習元とまったく同じような画像」を生成してしまう現象を起こす可能性が指摘されています。

その現象を検証、実験した結果を記した論文を取りあげている記事がありましたのでリンクを張っておきます。
画像生成AIが「トレパク」していた? 学習画像と“ほぼ同じ”生成画像を複数特定 米Googleなどが調査:Innovative Tech – ITmedia NEWS(リンク先:ITmedia NEWS)

これにより危険視されているのは、プライバシーの侵害、著作権の侵害です。
特に、実在の人物の画像や商標権のある画像などがそのまま出力され、それを利用されてしまった場合、深刻な問題となる可能性があります。

また、著作権の問題も深刻です。自分の作ったイラストやデザインとそっくりな画像をAIが出力したからといって自作、別物扱いされても納得できないと思います。

もちろん、たまたま似てしまった…ということはアナログでも起こりえます。
しかし画像生成AIの場合は元画像をとり込んでいる場合があるというのが大きな問題かな、と思います。
元データを持っていた場合、意図的に「トレース」や「模倣」をした、という認定をされる可能性があるからです。※これはアナログの場合も同じです。
※これは法律における「依拠性」という要件の内容を鑑みて私が感じた個人の見解です。現段階では生成AIの生成結果の侵害性等については個別の裁判や今後の法整備によって結果が出ない限り断定はできません。

今後のAI学習に関する法や基準がどのように整備されていくかが注目されるところです。

LoRAという学習手法がもたらしている問題点

LoRA(Low-Rank Adaptation)とは?

LoRAは大規模なAIモデルを効率的に微調整、ファインチューニングするための技術です。

※ファインチューニング…学習済みのAIモデルに対して目的に合わせた追加学習を行い、モデルの性能をさらに最適化するプロセスのこと

画像生成AIの分野では、この技術を使って追加学習をさせることによって特定のスタイルや特徴を持つ画像(絵柄やキャラクターなど)の生成が可能となります。

LoRAの仕組み

LoRAでは、大規模モデルの全パラメータを調整するのではなく、低ランク行列と呼ばれる小さな行列を追加することで、元のモデルを壊すことなく、特定のタスクやデータセットに適した微調整を可能にしています。

この処理はモデルの重要な部分にのみ影響を与えるため、計算コストが抑えられ少ないデータで短時間に微調整が可能になります。

この仕組みによって少ない学習コスト(数枚~数十枚の画像)で、絵柄やキャラクターといった特徴を持つ画像の生成が可能になっています。

LoRAがもたらす絵柄学習という問題…

絵柄の類似性についての問題は、AIが進出してくる前からクリエイター間で議論に上ることも多かった話題だと思います。
自分の尊敬する絵師さんの真似をしてたら、絵柄が似てしまった。
そういう事例自体は人間でも起きています。

しかし絵柄を似せるという行為は、絵心をある程度持っているor相当練習しないとなかなかできないことだと思います。

しかしAIの場合、LoRAという学習手法を使えば、十数枚程度の画像でそれが誰でも可能となってしまいます。

その結果起きている弊害

  • 似た画風、模写のような画像を生成AIで作成され自作発言されてしまう。
  • それを商用利用され仕事の機会を盗まれてしまう。
  • 著作権の侵害、個人のブランド力を低下させるような画像を乱造されてしまう

LoRAによる絵柄学習の恐ろしい点は「マシンスペックさえあれば画像を乱造できる」「学習データを手に入れれば誰でも、短期間でコピーできる」「特定モデルと組み合わせることで不適切な画像と絵柄を組み合わせることもできる」という点だと思います。
これを許してしまうと、せっかくその人が培ってきた「ブランド力」というものが一瞬で崩れてしまいます。

なにより、勝手に自分の絵柄で不適切な画像を大量に作られ、それを自作したと誤解されたりした場合、本来無実の本人が責任を追及されたり、「信頼」に傷がつく恐れがあります。

実際、上記の悪影響を理解しながらわざと嫌がらせとして特定絵師のLoRAを作って頒布するという行為が一部では起こっており、深刻な問題になっています。

このようにLoRAによる画風コピー問題は、さまざまな議論を呼んでいます。

niichi

「自分の絵柄を学習させて出力する場合は問題ないのでは?」という意見もあります。

しかし、LoRAはあくまで追加学習のための機能です。元の基盤となる大規模データを有する生成AIモデルを持っていない場合、LoRAは利用できません。

現状、LoRAを使った追加学習を行っている個人ユーザーの多くは「Stable Diffusion」かその派生モデルをベースにした生成AIを使用していると思われます。※あくまで推測。理由としては商用の生成AIモデルは個別にLoRAを利用してチューニングすることを基本的に許可していないため一応代替機能を提供しているモデルもあるらしい…。

この「Stable Diffusion」というモデルには、さまざまな問題が潜んでいることを「Stable Diffusion」の違法画像問題という部分で紹介しました。

元のモデルに問題がある場合、LoRAで自分自身の絵柄を似せて出力した画像にも、基盤のAIが学習した著作権侵害をしている画像や違法画像の影響が含まれていることになります。

これはやはり、画像生成AIの大きな問題点として議論されている「他者の権利画像を勝手に学習に利用している」という部分の解決にはならないため、あまり良い行為とは言えないのではないかと、個人的に思います。

「i2i」(iImage-to-Image)の問題

「i2i」とは、「Image-to-Image」の略で、既存の画像を元にして別の画像を生成する技術を指します。
元の画像を読み込ませ、画像を基準に加工やスタイル変更を加えることで新たな画像を生成します。

「i2i」の問題点

「i2i」は構図や雰囲気などが元の画像に依存します。
そのため「i2i」で生成された画像は元の画像に非常に近い見た目で出力されることが多いです。

他人の画像を使って「i2i」を行うと、「トレパク」という「人の作品を勝手になぞり改変、パクった」作品のような扱いを受ける可能性があります。

「追加のプロンプト」「パラメータの数値変更」「AIモデルごとのスタイル値」などを調整することで、多少違った雰囲気や見た目の画像も出すことはできます。

しかし、そもそも「i2i」を利用する理由は「元の画像と似た雰囲気の作品を出したい」「元の作品と同じような構図の別画像を出したい」という理由で使用されることがほとんどだと思います。
その場合、「元画像」の要素を一部模倣したいという意図が明確に含まれていることになりますので、無断で他人の画像などを使った場合「著作権侵害」として訴えられる可能性が高いといえます。

このようにi2iによる画像生成結果は元画像への依存度が強いため、法律的に「依拠性」という他人の著作物の模倣による権利侵害を規定する要素に引っかかる可能性が非常に高いです。
裁判などになった場合、使用者が不利になる可能性が高いと思われますので、著作権のある他人の制作物を「i2i」に利用するのはやめたほうが良いと思います。

有志によるまとめwikiが作られるほど問題は深刻

記事を書き終わってから見つけたのですが、生成AIに関する問題や事例等をまとめている有志によって作成されたまとめwikiを発見しました。

いろいろ情報がまとめられていて、生成AIに関する諸問題を知る上の参考になります。
興味のある方は読んでみてください。(外部サイト)

生成AIの使用は悪なのか?

niichi

使用の良し悪しよりも、使用者と開発者のモラルの問題が問われていると感じています。

AIの技術自体は人類にとって画期的な技術に他なりません。
クリーンな開発でモラルに乗っ取った使用ができるならば、活用も望まれます。

事実、翻訳などの分野ではずっと前からAIが利用されていました。現在のWEBでの精度の高い自動翻訳などはAIがなければ実現しえなかったと思います。

数々のクリエイターがお世話になっているであろう「Adobe」のソフトにも、画像生成AIが有名になる前から作業補助や効率を高めるためのツールとして「Adobe Sensei」というAIが搭載され活躍してきました。

ちなみにAdobeはクリーンな学習データを利用していることをアピールし、2023年9月13日から「Adobe Firefly」という画像生成AIサービスを提供を開始しています。
このサービスで生成された画像は商用利用にも使用可能となっています。

…が、このAdobe Fireflyにも懸念点があると指摘する声もあります。

その懸念点は、AIの学習元となっているサイトである「Adobe stock」に規約違反画像が含まれている場合どうするのか?という点。

Adobeは、「Adobe Firefly」がクリーンな理由として自社が運営する「Adobe stock」という商用利用可能、Adobeがデータの使用権利を持っているサイトから学習をしてることをアピールしています。

しかし、この「Adobe stock」には潜在的な問題として「規約違反に当たる画像が放置されてしまっている場合」があります。

例えば「他社の問題があると認識されている生成AIを使って製作されたAI画像を素材として登録している」「著作権を侵害した画像を素材として登録している」場合などですね。

Adobe stockは審査が厳しいという話がありますが、それでも例外は起こります。
違反が発見されたり、報告されるたび削除はされていると思いますが、一度登録された以上Adobe Fireflyへの学習データとして読み込まれてしまっている可能性があります。

事実、「Midjourney」という著作権を侵害した画像を学習に利用しているとして集団訴訟を起こされた生成AIが「Adobe Firefly」への学習に利用されていたという話も出ています。
下記が参考記事です。
Adobeの画像生成AI「Firefly」の学習用データセットにMidjourneyなど別の画像生成AIが生成した画像が全体の約5%ほど混入していることが判明 – GIGAZINE(リンク先:GIGAZINE)

一応、Adobeでは権利侵害に対処するため、Adobe Fireflyの生成画像によって損害が認められた場合には、規約の範囲内に該当する場合は補償をしてくれるようです。
補償についての詳しい記述は、Adobe Stockの追加規約10.1、10.2、10.3に載っています。(規約PDF最終更新2024/06/04時点での内容)

結局のところ、現状では完全クリーンな運用が難しいのが結論です。
しかし学習と成果に関する権利問題が法律で曖昧なため、グレー状態のまま便利さが優先され利用されてしまっていますね…。

結論:画像生成AIとは慎重に付き合っていく必要がある

画像生成AIは、クリエイターにとってはとても複雑な存在だと思います。

上手く発展してくれれば便利なツールとして将来活躍してくれる存在になるかもしれません。
しかし現段階では問題が多く、使用には慎重な判断が求められるツールになってしまっている印象です。

niichi

正直言って私レベルの中級お絵かき層にとっては何時間もかかってしまうような塗りを一瞬で仕上げてくる画像生成AIの力に参ってしまうなぁと感じることもあります。

アートやクリエイティブな分野では、「画風」といった視覚的な特徴により、「この人の作品だ」と直感的にわかる、言語化しにくいブランディング要素を持つアーティストが多数います。

そのため、AIが既存の画像からその特徴を数式で解析し、似た絵柄を生成することに対して、嫌悪感や抵抗感を持つ人も少なくありません。さらに、アーティストの独自性やブランドを脅かす可能性があることから、画像生成AIは他の生成AIと比べても複雑な問題を生み出しやすいと感じています。

とはいえうまく使えば時短や作業効率アップに使える、という考えも分かります。
3D素材や背景素材など、人の作った素材を活用させてもらうことは自分も多々ありますので。

しかし問題なのは、画像生成AIの多くは著作権のある画像を無断で学習させたモデルであるということ。また、画像生成AIはテキスト以上に特定個人のプライバシーやブランドを脅かす可能性が高く、その点も大きな懸念材料といえます。

法律で学習が許可されていたとしても、生成物に関して元画像への著作権に関する認識が曖昧である以上、画像生成AIによって作られた画像は現状、安全とは言えないレベルであると調べていて感じられました。

また不満を強く表す人々が増えていけば、法律が改正され学習に規制が入っていく可能性も今後はあり得ます。

ただ、今回AIについて色々調べて改めて感じられたのは、無断学習がもたらしてきた恩恵を自分たちも享受してきていたということ。

正直、画像生成AIの問題以前に現在のネットで利用される便利な機能はほとんどがAIによる恩恵を受けています。そしてそのAIはWEB上のテキストや画像を無断で学習した結果成り立っているものが数多くあります。

これまでもAIは「検索」「広告のマーケティング」「翻訳」などの分野で活用されてきましたが、これらの媒体は無断利用されたデータがどこから来たのか特定しにくい形で利用されることが多く、利便性が優先されてきました。そのため、無断利用の事実が見過ごされてきた、もしくは専門的技術に疎い多くのユーザーは知らずに過ごしてきた側面があると思います。

しかし、「画像生成」の分野は視覚的な要素が強く、人間にとって学習元の画像を認識しやすい状況といえます。それゆえに学習の成果というより「無断利用」されているという感覚が強く、学習元となった画像の所有者からすれば「自分の成果を奪われている」と感じてしまうのも仕方ないと感じます。

現在の法律上では学習される側の立場が弱すぎる点も問題と感じます。
今後どうなっていくかはわかりませんが、嫌である以上は「NO!」を表明していくしかないので、クリエイターの声が社会や文化庁に受け入れられることを願っています。

学習や生成物に対して、明確な規制や基準といったルールが設けられていないということが、生成AIの一番の問題点だと最終的に感じました。

niichi

早く基準が確立されて、AIの技術を活用しつつクリエイターも気持ちよく創作活動ができる時代になってほしいですね…!

AIについて考えている関連記事まとめ

この記事は複数の記事と内容がつながっています。

※筆者はAIの専門家ではありません。本記事で取り上げている内容は、主にWEBでの調査や筆者の個人的な見解に基づいたものです。できる限り正確な情報をお伝えするよう心がけておりますが、内容についての正確性を完全に保証することは難しいことをご理解ください。
※専門的な見地からの判断を提供するものではありませんので、あくまで参考程度としてお読みいただければと思います。
※また、AIを取り巻く環境の変化の速度は著しいため、記事の閲覧時期によってはすでに古い情報となっている部分もある可能性がありますこと、ご容赦ください。

画像生成AIの問題点について考える

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!

PR

目次