ヒツジ / HITSUJI(AIイラスト・マンガ) @jikutakatsuo そういえばマンガのなかで「破綻した指は吹き出しや描き文字でかくせばいい」みたいに書いたけど、いちおう目立つところは自力で修正してます。たとえば、この表紙の右手ですね。マウスで頑張ってます。 ←左:修正前 右:修正後→ pic.twitter.com/OjDppnJuPW 2023-04-16 20:55:55
Stable DiffusionやMidjourneyの登場により、画像生成AIに対する期待は爆発的に高まっており、今やWindowsの標準ブラウザであるEdgeにも画像生成AI機能が搭載されています。そんな画像生成AIの活躍により、中国のゲーム業界ではさっそくイラストレーターたちが仕事を奪われつつあると、テクノロジーメディアのRest of Worldが報じました。 AI is already taking video game illustrators’ jobs in China https://restofworld.org/2023/ai-image-china-video-game-layoffs/ 2022年にDALL-E 2が登場して以来、MidjourneyやStable Diffusionといった画像生成AIが登場し、ユーザーはテキストから非の打ちどころのないイラストを
こんにちは。だだっこぱんだです。 今回は、AIイラスト界隈で最近話題のControlNetについて使い方をざっくり紹介していきます。 モチベが続けば随時更新します。 StableDiffusionWebUIのインストール今回はStableDiffusionWebUIの拡張機能のControlNetを使います。 WebUIのインストールに関してはすでにいろんな解説記事や動画があると思うのでそちらをご参照ください。 一応僕が作った簡単にWebUIを起動できるソフトも紹介しておきます(せんでん)
こんにちは。一般イラストレーターです。今回は新しい情報ではないのですが、前々からやってみたかった「AIイラストを真面目に加筆修正する。」をやってみたのでそのまとめとなります。現在のAIイラストは細部描写の甘い部分が多く、真面目に作品に使っていこうとすると手作業での修正が不可欠となります。AI絵師を名乗る人々の中にはそういった加筆を行ってイラストをアップしている人も居るので、今後はそういうスタイルも定着するんじゃないかなと思っています。イラスト依頼系でも「このAI絵を加筆修正してくれ!」みたいなリクエストは普通にありそうですからね。まぁ、私は今回は単にやってみたかっただけなのでアレですが。 取りあえず今回のベースとなるAI生成物を見て下さい。使用AIは話題のniji journeyです。 insanely high quality masterpiece pixiv color illust
テキストから画像を生成できるAIお絵描きアプリ「AIピカソ」を提供するAI Picasso株式会社(本社:東京都港区、代表者:冨平準喜)は、かわいいイラストで有名なフリーイラストサイト「いらすとや」(運営:みふねたかし)と提携し、いらすとや風のイラストを生成するAIモデル「AIいらすとや」をリリースしました。 AIいらすとやについて 「AIいらすとや」は、AIでいらすとや風のイラストを生成することができるAIモデルです。高品質な画像を自由に生成できるAIピカソの画像生成技術を活用し、いらすとやのかわいいキャラクターたちを学習した専用のAIモデルを開発することで、テキストを入力するだけで、誰でもほしいと思った状況のいらすとや風の画像を無料で生成できるAIモデルを実現しました。 いらすとやは、様々なシチュエーションのかわいいキャラクターが素材化されており、多岐にわたり利用されています。AI
「Midjourney」「Stable Diffusion」など、テキスト(呪文)を入力するだけで、イメージに合った美しい絵を出力してくれるお絵かきAIが、にわかに盛り上がっている。 描き込まれた絵画調の作品や、アニメ風のイラストなどに注目が行きがちだが、他にもさまざまな可能性が広がっている。例えば、子供用の塗り絵を無限に生成する、などだ。 「Midjourney」や、その派生版「niji・journey」で、さまざまな作品を作っているブロガーのkobeniさんは、これらを使って線画の"塗り絵”をたくさん作り、記者の娘(4歳)にプレゼントしてくれた。 娘は、プリンセスの塗り絵に「かわいい」と大興奮。色鉛筆を手にとり、夢中で塗っていった。 kobeniさんによると、塗り絵を作るための"呪文”は、「線画」「色なし」「子供用の塗り絵」「白背景」「白地に黒のはっきりとした線」「細かい書き込み」 「
絵描きの民主化だと言われているが、画像掲示板のネタか、政治家揶揄するための画像作り、くらいにしかなってない。 そしてそれすら皆飽きるの早くて、書き込み量も減ってきている。 NovelAIでも1ヶ月経ち、サブスク登録した人も辞めていっている。 ネット上からかなりの量の画像を学習させているわけだが、お金が取れるクオリティの画像は少なく、結局の所ノイズにしかなっていない。 調整しようとしているパラメータに対して、自然言語だけでは調整しきれてないし、毎回違う画像が出てきてしまっている。 リコメンド機能もまだない。レイヤー構造もまだない。解像度も足りない。 次々と技術は出てきて、何かできそうだという感じはあるが、 多額を注ぎ込んでも、ここまでしか出来ず、毎回学習に金がかかるのなら回収できそうにないとか、金額もある。
今話題の画像生成モデル「Stable Diffusion」をいらすとやの画像でfinetuneしてみたところ、任意のテキストに対していらすとやっぽい画像を作れるモデルが出来上がりました。 Stable Diffusionとは Stable Diffusionは、指定されたテキスト(文字列)に対応する画像を生成する機械学習モデルのひとつです。ソースコードと学習済みモデルは無償で公開されていて、誰でも利用できるようになっています。 (Stable DiffusionのGitHubページより引用) 今回は、この画像生成モデルをいらすとやの画像でfinetune(微調整)することで、入力テキストに対応する画像をいらすとやのようなスタイルで出力させることを試みました。 開発環境 開発環境はGoogle Colab Pro+で、主にプレミアムGPU(NVIDIA A100)を使いました。Stable
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く