この記事にはプロモーションが含まれています。
画像生成AIから学習を防ぐ方法はあるのか?
※この記事はAI学習される側の視点に立った発言が多く、学習される側の感じる不満といったAI学習行為に対する少々批判的な内容を一部含みます。AIに肯定的な方は不快に感じる表現もあるかもしれませんので、その点ご留意ください。
目次
「完全」には防げないという事実、その理由
現状、完全に画像を守る術というのは存在しません。
あるとすればWEBに画像を一切上げない。それしかないです。
その理由について「クローリング」「スクレイピング」という技術が主に関わっています。
これらの技術について詳しく知りたい方は下記の記事も参照してみてください。
画像生成AIの仕組みとは? | にいちくりえいしょん!
この記事では画像生成AIの仕組みについてまとめています。 画像生成AIとは? 画像生成AIとは、ユーザーがテキストで入力した指示(プロンプト)に基づいて、画像を自動生成…
また、WEBそのものの仕組み上、防げないという側面もあります。
ネットにアップされた画像は「サーバー」というデータを保管する機械から、画像を見たい人の端末(パソコンやスマホなど)にデータが一時的にコピーされて送られています。このとき、端末には「一時キャッシュ」という形で画像データが一時的に保存されますが、これはページを離れたり、時間が経つと自動的に削除されます。
ただし、この「一時キャッシュ」に画像が残っている間にデータを取り出すことも可能なため、ネット上の画像はWEBの仕組み上、簡単にコピーができるという実情があります。※ただし、コピーした画像を無断で利用するのは原則として禁止されています。
画像に行う「AI阻害対策」って効果あるの?ないの?
効果がないことはない。が、まだまだ検証結果が足りず未知数。
しかしこれらは「効果がない」「あるかわからない」「人によって報告例が違う」という感じで、完全な確立された対策というのが見つかっていないという現状があります。
例えば画像の透かし(ウォーターマーク)やノイズは「すぐ対策される」「そもそも効果がない」という意見を見かけることがあります。
AIの学習には「事前学習」「追加学習」という段階があります。
※この技術の詳しい仕組みについては下記の記事でも解説していますので参考にしてみてください。
画像生成AIの仕組みとは?|「事前学習」「追加学習」について
中でも「事前学習」はAIの知識の基盤となる学習段階です。
この段階で「阻害を受けない綺麗な画像」によって訓練されたAIは、すでに「元の綺麗な画像がどんなものか」ということを理解してしまっています。
例えばリンゴの画像に多少加工を施したところで「変なノイズやサインが被っているけど、これはリンゴだ」という推測ができるようになってしまっているのです。
そのため、透かしやノイズの混じった画像を多少学習させるくらいでは、「人間の形を認識させなくなる」「命令した単語とまったく違うものを出力させる」といったゆがみをAIに与えることは難しいのが現状です。
さらに、AI側で透かしやノイズを除去する技術が同時に進化しているのも「意味がない」と形容させる一因になっていると思います。そういった技術については下記のリンク先記事が参考になります。
AIによる学習を妨害する敵対的ノイズを画像から除去できる「AdverseCleaner」を使ってみた – GIGAZINE(参考リンク先:GIGAZINE)
完全に意味がないわけではない
「透かしの入った画像」や「学習阻害ノイズ付きの画像」がWEB上に増えていくことで、新たに一から画像生成AIを作成しようとする場合には、「事前学習プロセス」での阻害要因となる可能性があります。
「事前学習」というのは赤ん坊に知識を教えていく過程と同じようなものですので、このプロセスで大量の誤認画像が紛れていれば、AIは正確な画像を認識するといったことが困難になります。
AIが台頭する前から、無断転載や利用というものはWEBで問題となってきました。
それらを防ぐという意味でも画像に加工を施すのが当たり前という文化を作っていくことでクリエイターの作品への保護意識を高めるきっかけになるという、いい傾向を生み出してくれる可能性もあります。
また画像へAI対策を施すことで「追加学習」には大きな効力を期待できます。
「追加学習」は事前学習済みモデルの知識を基に「特定の目的やスタイルに適応」させることを主な目的として行われる学習です。「LoRA」などの技術が該当します。
LoRAについて知りたい方は下記のリンクも参照してみてください。
画像生成AIの問題点ついて考える|LoRA(Low-Rank Adaptation)とは?
イラストであれば、「絵柄」「キャラクター」を認識させることのできる「線の太さ」「色味」「顔のバランス」といった特徴がそろった画像を用意すれば、追加のスタイルの参考になります。
それを基盤モデルにある「人間の見た目」という知識をもとにすることで、数枚の画像を参考にしただけでも似たイラストを出力できるようになります。※パロメータの調整などいろいろ細かい作業もある程度発生はします。
しかし学習のための参考枚数が少ないほど、学習の際の歪みやブレは顕著に悪影響を与えます。
「絵柄」「キャラクター」などは線の太さやパーツの位置関係、色味等といった細かな要素が関係してきます。それゆえに「微小なノイズ」「絵に関係ない図柄」等が混じることで、それが「そのイラストの特徴」なのか「関係ない阻害要素」なのか、数枚の画像ではAIが判断できず生成結果に悪影響を与えやすくなります。
※ただ、すでに「事前学習」によって数多くのイラストなどを読み込み、イラストの生成に特化されているAIモデルなどの場合、それらの「特徴」をすでに理解しているので、歪みを補正してしまう確率も高まっている現状があります…。
しかし一定のAIモデルに対しては効果があるのは事実であり、自分の絵柄といったブランドにかかわる要素であれば、現状から画像に阻害効果をかけていくことで後発のモデル等に対しては対策になる可能性が十分にあるといえると思います。
※ただ、すでに追加学習で一度絵柄を模倣されていた場合強い阻害をかけた画像を追加で大量に読み込ませなければなかなか学習された特徴を消すのは難しい場合もあります。それでもこれ以上学習をさせない、という意思表示になるのはメリットといえます。
このように「効果がない」「意味がない」という言葉に混乱し対策に迷っている場合、こうした理由を鑑みることで自分が対策をとるか否かの意思決定の参考になるので、情報収集は大切だと思いました。
しかしAIへの対策をとるかは自分次第
常にAIは進化していて、既存の対策は効果が薄まっていく懸念があります。
現在あるAI阻害用のノイズの効果が曖昧なのも、モデルによって対策がされていたり、相手の学習枚数が多すぎる、学習内容の調整等で対策済み、など技術の進化の攻防による弊害といえると思います…。
正直、AI学習への対策を取ろうとすると気軽に絵を上げるには考えることがいろいろあってそれだけで労力を消費し嫌な気分になってしまう人もいるのではないかと思います。(私はそうでした…)
イラストなどは見た目の問題だけでなく、その人の思いやテーマが組み込まれている、という点が著作権などを生み出す創造性の肝となっている部分もありますので、煩わしい対策に時間を割くよりも作品を生み出す時間に割きたい、という人や、自分の作品を綺麗な状態で見てもらえることの方が大事、という人もいるのではないかと思っています。
そういう人に対し「対策をしないから許容派」「無責任」などと外野が非難したり対策を強要するのはちょっと違うと思っています。もちろんそういう人からAI学習者が搾取しようとすることも好ましい行為とは思えません。
※そういった人は多くはないと思いますが、SNSなどでたまに見かけるとモヤモヤした気持ちになるんですよね…。
ただし、AI学習に利用され自分の絵柄の模倣乱造被害などに合ってしまう確率が対策をしている人より高まる可能性はあるので、その点は自己責任にはなります…。
とはいえやっぱり勝手に作品学習されて模倣絵柄で商売されたりブランド力落とされて仕事を奪われたくない!!そもそも努力して得た技術の結晶を成果だけ勝手に喰われて盗まれるの許せなくない!!?という思いを持っている人はすごく多いと思います。
下手な絵は下手な絵として学習されてデータから疎外されるという点もムカつきます。(合理的な学習法ではありますが…)
自分の絵が下手認定されて阻害要素にされる想像したら腹が立つ人のほうが多いと思うんですがどうなんでしょうか…。
とはいえ、翻訳などの分野では遥か昔にある意味同じようなことが起きて、ただ機械的に翻訳する人は職を奪われてしまったという事実がありますし、これからの創作はより一層テーマや個人の表現性といったその人にしかできないクリエイティビティが重要視される時代になっていきそうではあります…。
(私も今後の対応は決めかねています…情報を吟味していろいろ考えておきたい…せめてウォーターマークは入れるようにしたいとは思っている…)
AI学習対策をとりたい人は結局どうすればいい?
とりあえず現時点で調べて分かっている具体的な対策について、下記の記事でまとめていますので興味のある方は見ていってください。
画像生成AIの学習から作品を守るための対策について考える | にいちくりえいしょん!
この記事では、画像生成AIから画像を守る対策として出回っている「ツール」や「加工手段」、「対策をしているSNS」などを紹介しています。 どんな技術か? どのような効果…
AIについて考えている関連記事まとめ
この記事は複数の記事と内容がつながっています。
- X社の規約変更騒動についてのメモ
- 生成AIの学習事情から考える各SNSのメリット・デメリット
- 画像生成AIの仕組みとは?
- 画像生成AIの問題点ついて考える
- 画像生成AIから学習を防ぐ方法はあるのか?
- 画像生成AIの学習から作品を守るための対策について考える
- 画像生成AIの問題点・学習対策のまとめ
※筆者はAIの専門家ではありません。本記事で取り上げている内容は、主にWEBでの調査や筆者の個人的な見解に基づいたものです。できる限り正確な情報をお伝えするよう心がけておりますが、内容についての正確性を完全に保証することは難しいことをご理解ください。
※専門的な見地からの判断を提供するものではありませんので、あくまで参考程度としてお読みいただければと思います。
※また、AIを取り巻く環境の変化の速度は著しいため、記事の閲覧時期によってはすでに古い情報となっている部分もある可能性がありますこと、ご容赦ください。