Публикация
Байки о девах Волшебного леса
Изображение пользователя Nirimor
#1544263Nirimor=61150760
"Как будет", это как раз решают сейчас самые злые и жадные капиталисты. Там забостовочка сценаристов/актеров тоже этого частично касается, только там идет речь про сценарии и образы актеров которые можно успешно переиспользовать и после смерти актера.
Пока позиция "мы ждем пока вы все потеряете квартиры и не сможете платить кредиты". Авторские права на образ, вангую, будут принадлежать тем же гадам кому счас принадлежит куча музыки. А ваши рисунки если будут слишком похожи на зарегистрированные образы будут пытаться удалять с этих ваших интернетов, автоматически так же как сейчас блочат ролики за музыку. Похожесть будет определять нейросетка разумеется. У нас просто пока нет суперагрегатора вроде ютубчика для картинок (девиант и прочие пока не монопоилизировались в одно огромное).
Изображение пользователя waverider2075
#1544240waverider2075=61159310
> SVlad 1544143> Это Stable Diffusion не умеет. А на том же getimg.ai десяток моделй чисто под аниме сделанных есть. Выдают приличный результат.

Так, во первых - почти у всех 100500 сервисов text2img унутре неонка. То есть Stable Diffusion. "десяток моделей" это производные/кастомные от Stable Diffusion модели, до-обученный Stable Diffusion. Не-SD это то что внуте MidJourney и DALL-E (который внутре Bing Image Creator). Щас проверил ваш getimg.ай - как я и думал стандартная схема - Stable Diffusion и кастомы на его базе.

Второе. "не умеет" это не совсем так, я упростил слишком. Stable Diffusion теоретически умеет(должен) селлшейдинг. Туда засунут Синдзи с Гейнаксом, И там что-то даже кастуется но получается не очень. Ну то есть я не согласен на "выдает приличный результат". Оно выдает результат гораздо хуже чем анеме с гладкой заливкой которое в современное порно идет, основной продукт так сказать. И получается не очень не только у меня - примеров тоже мало. Есть производные модели на базе SD с онеме - о которых вы говорите - но в общем оно нормально в основном издалека.

Лучше всего селлшейдинг и онеме90-х/80-х у меня получалось на Bing Image Creator. Только вот эта секретная сеть внутри OpenAI, в отличие от SD который можно на своей видеокарте гонять - ну или сделать свой getimg.ай и бабло рубить(наверное) :)

> быть промпт-инженером 80го уровня
> У меня такое ощущение, что все намеренно не рассказывают, по какому принципу эти штуки работают.

Методы дообучения SD - создание кастомных сетей на его базе в опенсорсе.
То есть вы лично можете посмотреть как оно работает.
Так что я думаю что просто никто нормально не понимает "как оно работает" глубже чем вы описали. Потому что это собтвенно суть нейронок уже 30+ лет. Мы можем делать нейронки но это черные ящики.

Хотя опять же , нейронки 2023+ это не те нейронки которые были когда я был маленький. Там целая куча хитрых приемов и ИИ-инженерии когда они склеивают несколько суб-нейронок воедино. И все это описано в научных статьях...которые надо еще найти и прочитать. Это я тому что может и рассказывают что вы хотите узнать - но до этого надо еще добратся.

> Это ведь не большая лингвистическая модель, как чатик ГПТ, который реально воспринимает человеческую речь.

А вот это вопрос на самом деле. Туда скорее всего встроена модель которая делает преобразование "хреново понятая речь" -> "ввод нейронки в всмысле куча тегов ". Собственно Control Net по этому принципу работает. Это суб-нейронка которая лучше контролирует ввод более крупной нейронки (SD).

> При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.

Там еще есть как минимум фаза контрольного добучения человеком.

Но решают(пытаются) эту проблему промпт-генераторами. Потому что тащемта ничего особо не мешает прикрутить к SD большую лингвистическую модель. Собственно тот же леонардо уже пытается.
Отредактировано «waverider2075» 15.08.2023 18:45:57
Изображение пользователя Malifikyse
#1544187MalifikyseАвтор=61172558
Nirimor #1544087
Сейчас нейросети не могут нарисовать мне приличную фею, как не играйся с настройками, шумом или опциями. Не обучали их на феях да.
-----------------------------------
Вот кстати, нейросеть Otaiku на телефончике (но прямо рекомендовать не стану - там рекламы до одного места...), по картинке образцу мне на удивление неплохо и симпатично генерила купающуюся Дот в анимешном стиле (по самому первому её арту).
Правда как ни крути, добиться эффекта полностью зелёных глаз как у оригинала и красных щечек у меня лично так и не вышло... опять же, нейросеть не понимает моих намёков и описаний.

Может потом поделюсь результатами экспериментов на Бусти.

П.С: Возможно можно ещё попытаться с образцами артов с феей Динь-Динь поиграться. Так сказать - попытаться пробить грубой силой, путём вставки референсов с минимальным значением отклонения от изображения.
Изображение пользователя Malifikyse
#1544176MalifikyseАвтор=61174094
SVlad #1544143

При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.
-----------------------------------------------------------

Вот почти про это я и пытался сказать чуть ранее, но, наверное, просто не смог правильно донести мысль.
Изображение пользователя Malifikyse
#1544175MalifikyseАвтор=61174303
waverider2075 #1544097
Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
---------------------------------------------------------
Вот это, конечно, да - пока что, я думаю, целесообразно за этим просто наблюдать и заниматься своими делами, пока умные дядьки и тетки, которые этим занимаются вплотную, работают за нас... )
Изображение пользователя Malifikyse
#1544170MalifikyseАвтор=61174747
Nirimor #1544087
Если смотреть в далекой перспективе то каллиграфия. Такая интересная штука по красивому рисованию буковок. Работы каллиграфов стоят тысячи денег, но печатаем символы мы на экране кнопочками.
------------------------------------------------
waverider2075 #1544097
Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.

-------------------------------------------------

Вот, кстати, ещё один интересный вопрос, которым я задаюсь - это относительно авторских прав. Чертовски любопытно, как это будет в будущем работать.

Возвращаясь к той же каллиграфии, если мы берём разработку шрифтов, то насколько известно на данный момент очень большое количество шрифтов в принципе являются платными, и по неосторожности можно нарваться на судебный иск за нелегальное использование платного шрифта (в том числе в комиксах). Даже часть шрифтов в том же Word, на деле могут иметь особые лицензии и условия использования, и если я не ошибаюсь и правильно понимаю, некоторые из них даже нельзя использовать в принципе, если у нас не куплен лицензионный Word.

В своём комиксе я, к примеру, использую шрифт который находится в свободном доступе (бесплатный), который я выискивал на просторах интернетов, и то я его ещё и сам подредактировал немного (каждую букву), чтобы не было 100% сходства, для пущей подстраховки.

С картинками по сути то же самое. Если брать мелких художников, то они могут к этому и не иметь претензий (этакие идейные ребята, которым просто за счастье то, что их работу где-то используют в принципе), а вот кто поматерее и с амбициями, и особенно творческие студии, за интеллектуальную собственность "руки оторвут".

И мне любопытно как это будет выглядеть, когда к ним придёт осознание того, что их работы могут использоваться в базах нейросетей, и за их счёт какой-то мелкий творец будет пилить красивые картинки и использовать в своих проектах...
А учитывая то, как обычно сильно большие компании и известные персоны держатся за свою интеллектуальную собственность, я подозреваю, что рано или поздно такой вопрос таки станет ребром.
А так же интересно то, как в принципе будут поставлены правила относительно авторского права при использовании нейросетей. Т.е будут ли в принципе картинки, которые генерятся нейросетью принадлежать тем, кто их сгенерил, или на каких условиях.

Т.е, как я это вижу - это будет либо лицензия (т.е как вот сейчас существует использование без ограничений на платной основе, а прочие юридические нюансы владелец нейросети берёт на себя) - т.е примерно как работает Photoshop (ведь мы знаем, что прямо все художники используют лицензионный Фотошоп, да?.. Кроме тех случаев, когда его просто пробуют на потестить на неопределённый срок...), художник покупает лицензию и использует, а конечный продукт принадлежит только ему. Что в принципе и означает то, что:
>> waverider2075 - "...и деньги" (c).
Либо реально будут использоваться только нейросети щедрых энтузиастов, а более профессиональные нейросети будут себе зажимать корпорации для личного использования, чтобы никто кроме них не пользовался их интеллектуальной собственностью в личных целях. За исключением разве что подачек, которые должны служить цели рекламы.
Отредактировано «Malifikyse» 15.08.2023 14:08:41
Изображение пользователя SVlad
#1544143SVlad=61182324
> Оно в селлшейдинг плохо умеет например

Это Stable Diffusion не умеет. А на том же getimg.ai десяток моделй чисто под аниме сделанных есть. Выдают приличный результат.

> быть промпт-инженером 80го уровня

У меня такое ощущение, что все намеренно не рассказывают, по какому принципу эти штуки работают. Это ведь не большая лингвистическая модель, как чатик ГПТ, который реально воспринимает человеческую речь.

При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.
Изображение пользователя waverider2075
#1544097waverider2075=61212312
> Malifikyse #1544065
Могу ошибаться, но все что вы упомянули как проблему уже решаемо - "время и деньги". Понимаете, как в кино "я ей сказал и оно сделало то что нужно" оно(пока?) не работает. Заклинание духов матрицы и подчинение их своей воле - тяжелый труд :D

Так что повторюсь: Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги. А еще оно меняется как в фразе из "Нейроманта" Гибсона - "... как будто какой то безумец жал некст-некст-некст на кнопке прогресса" (цитата абсолютно неточная). Ну то есть буквально там прорывы идут чуть ли не каждую неделю. По этому большие люди и сели на измену с этими публичными заявлениями о том что бы не развивать дальше ИИ - потому что подозрительно похоже на начало сингулярности.

> ... если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).

Уже есть технологии/техники для решения буквально вот этой вот проблемы. Специализированные производные нейросети от базовых. Точнее как - у нас(человечества) есть несколько общедоступных фундаментальных нейросетей в виде дампа - stablediffusion например, несколько секретных нейросетей которых держат в подвалах мегакорпов что бы они не вырвались и не поработили человечество (Google LaMDA) и множество производных, и производных от производных. Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.

Вторая проблема - писать промпты - отдельное искусство - на тренировку которого нужно время и деньги - и реально что бы сделать картинку при помощи ИИ часто нужно времени почти как нарисовать. Но натренировать производную сеть на графический стиль это то что развивается буквально, прямо сейчас. Мы тут болтаем на форуме - а там люди работают. И там совершенно разные сообщение об необходимом объеме исходников - сообщают что иногда нужно очень мало.

> Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться!
Ну нет :D Оно в селлшейдинг плохо умеет например. А я его люблю. Жду момент когда в нейросети загрузят все гигамегатерабайты японского онеме.....

> А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы. С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. ... Просто потому, что таких образцов в целом в принципе не так уж и много, ...

Да, но нет. Там есть разные техники рисования картинок по частям. Для монстродевочек вам надо видимо отдельно пауков отдельно девочек и клеить, при чем клеить той же нейросетью но специальными техниками. С кучей глаз на лице да, это проблема. Собственно и с бекграундами то же самое - отдельно персонажи отдельно бекграунд, что бы сразу вам нарисовали по тексту что-то - это удача или вообще не бывает (нейросети хороши в случайной генерации для стимулирования креатива)

В общем у меня с вами плюс минус одна и та же хотелка (вкалывают роботы - счастлив человек, я себе хочу арт для настольных рпг ну и когда нибудь комикс в будущем) так что вот вам примерно что мне удалось узнать:
Видимо таки можно создать воркфлоу при котором ИИ будет делать комикс (картинки к нему), в каком то плюс-минус желаемом стиле. Но нужно как минимум
- быть промпт-инженером 80го уровня.
- знать заклинания по созданию специализированных нейросетей
- прокастовать кучу своих специализированных сетей для разных персонажей
- заклинания по постановке персонажей в нужные позы и рисованию по
наброску - ControlNet и кажется Scribble(но это неточно)
- кучу техник по генерации картинок частями и склейки при помощи того же ИИ
- уметь использовать разные сервисы - у них свои проприетарные модели часто, более красивые чем те которые можно скачать локально.
- хардварно это в пределах "у меня компутер с очень крутой игровой видеокартой, я его оставил на неделю-месяц генерить нейросеть"

Ну то есть время и деньги - но это вполне возможно для, назовем это так, "обычного человека". С другой стороны это дофига времени и еще мозга что бы из этого всего сделать рабочий воркфлоу. Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
Отредактировано «waverider2075» 15.08.2023 03:39:51
Изображение пользователя Nirimor
#1544087Nirimor=61224538
Если смотреть в далекой перспективе то каллиграфия. Такая интересная штука по красивому рисованию буковок. Работы каллиграфов стоят тысячи денег, но печатаем символы мы на экране кнопочками. В далекой перспективе секти сделают с картинками то же самое. Художники не исчезнут просто станут реже встречаться.
Сейчас нейросети не могут нарисовать мне приличную фею, как не играйся с настройками, шумом или опциями. Не обучали их на феях да. Потоковые нейросетевые картинки становятся легко опознать (угу нейросетка в голове уже обучилась), а замморочится и скажем выдать в стиле босха у большинство "нейрохудожников" видимо не хватает терпения и желания (скстати что получалось с нейросетками более ранними теперь получается сложнее, скажем сделать икону не псоглавца а котика).
Зато рыночек уже решает, недавно случился скандал в ДнД, где художник взял для книжки Bigby Presents: Glory of the Giants чужие набросочки, прогнал через нейросеточку и вставил прямо в книжечку. Ну что что ножка выглядит неестественно? Зато быстро и дешево. Капитализм Хо!
Изображение пользователя Malifikyse
#1544065MalifikyseАвтор=61232225
waverider2075 #1544022
Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном.
---------------------------------------------------------

Ну тут как бы да, но опять же, на тех же правах я-у-мамы-специалиста, насколько я понимаю, да и как уже было выше упомянуто, нейросети так или иначе ничего не берут из воздуха, а опираются на уже существующие образцы, к которым у них есть доступ.

И тут самая большая заноза в том, что если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).

Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться! А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы.
С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. Просто потому, что таких образцов в целом в принципе не так уж и много, как тех же кошкодевок, и нейросеть как бы "не понимает" даже при детальном описании.
Самое простое, что можно сделать - это залить картинку как образец, но даже при этом не всегда нейросеть может подойти близко, особенно в области лица, а некоторые, как Playgraund, и вовсе последнее время видит в картинках с Кеке только NSFW контент и отказывается с ними работать )

Или даже не столь специфично воспроизвести +/- любой нестандартный стиль, который отклоняется от ванильного аниме и академического стандарта, например студии Ankama или даже каких-нибудь Skullgirls, почти нереально даже с вливанием образцов, потому, что на него нейросети не тренировали. И нейросеть всё время будет в непонимании, чего от неё хотят и продолжать навязчиво толкать нам ванильных аниме девок при любой возможности )
Изображение пользователя waverider2075
#1544046waverider2075=61239298
> О, надо глянуть.
Я зарегался на куче сервисов что бы на каждом бесплатные баллы были :)
Отредактировано «waverider2075» 14.08.2023 20:09:30
Изображение пользователя SVlad
#1544032SVlad=61243229
> на том же леонардо порядка 100 запросов бесплатно в день
О, надо глянуть.
Изображение пользователя waverider2075
#1544024waverider2075=61245069
> Malifikyse 1543850
> Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.
> Хотя, это конечно, все ещё вкусовщина... так что...

Там смешное было именно в том что на мой взгляд получалось "со складками" гораздо красивше. Однако вызывало ту еще резкую реакцию (не у всех но тем не менее). То есть "приклееная одежда" это не только не всегда плохо, это иногда прямо хорошо - что странно.
Изображение пользователя waverider2075
#1544022waverider2075=61246131
> Есть сетки, которые умеют следовать позе.
> С этой можно бесплатно поиграться (100 запросов в месяц)

Опять же, как я-у-мамы-ии-специалист вставлю пару ехидных. Да, нейросети сейчас могут очень и очень многое - и могут быть очень полезны художнику-артисту. Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном. Потому что, скажу по опыту, на том же леонардо порядка 100 запросов бесплатно в день - и оно в тот же день заканчивается. Если ты пытаешься что-то реально делать, хотя бы учится. Когда ты не генеришь случайные картинки а пытаешься заставить духов в машине сделать то что тебе нужно (а по ощущениям да, прямо шаманство черной магии(С)коргот-варвар).
Изображение пользователя SVlad
#1543996SVlad=61252626
> А уж как нейросети освоят, я боюсь представить - совсем работать перестанут.
Так нейросети обучены на тех же художниках и рисуют так же.

> генерируемый нейросетью фон не очень сочетается с авторским стилем

Вырезать фон или сразу добавлять в запрос про однородный или хромаекйный фон?

> генерить персонажей в нужных позах

Есть сетки, которые умеют следовать позе.
https://getimg.ai/text-to-image
Вот тут Control Net называется, например.
С этой можно бесплатно поиграться (100 запросов в месяц)
Отредактировано «SVlad» 14.08.2023 16:27:56
Изображение пользователя Malifikyse
#1543959MalifikyseАвтор=61261082
Nirimor #1543951
Здесь как бы ситуация философская сама по себе.

Потому что, как говорится в какой-нибудь китайской мудрости - "Лучше - лучше. И лучше оно всегда лучше, чем не лучше, потому, что чем лучше, тем лучше".
И спорить с этим в принципе невозможно, да и нецелесообразно. Потому, что с позиции любого мастера (пусть даже любителя), не стремиться к улучшению своего мастерства - это априори странно, как минимум.

Но в определённых ситуациях вопрос заключается в деталях. И можно, конечно, потратить пару часов на то, чтобы сделать несколько вариантов груди, или ещё больше часов, чтобы вообще на каждую вариацию прорисовать отдельные складки на теле, как вот было выше упомянуто.
Но тут, если речь идёт о потоковой публикации, поднимаются ещё и вопросы о внутренних дедлайнах, чтобы опустить условности и потратить пару сэкономленных часов либо на отдых, либо на планировку следующей странички комикса.
И мозг, он как вредное создание зачастую именно так и говорит: "ЧУВАААК! Да тут уже всё и так зашибись! Да кому нужны эти мелочи? Помнишь когда-то ты тратил кучу времени на мелкие детали, а в итоге их почти никто и не заметил? Давай уже кончай с этим и приступай к чему-то другому! Время не ждёт!"
Отредактировано «Malifikyse» 14.08.2023 14:10:06
Изображение пользователя Nirimor
#1543951Nirimor=61263906
Я наверное не правильный ценитель и не художник потому такие вещи не замечаю. Ну тоесть для меня картинка воспринимается полностью, детали конечно важны (есть например феи на картинке или нет), но насколько там поднята опущена грудь?
Изображение пользователя Malifikyse
#1543850MalifikyseАвтор=61305284
waverider2075 #1543844
Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.

Хотя, это конечно, все ещё вкусовщина... так что...
Изображение пользователя Malifikyse
#1543849MalifikyseАвтор=61306002
SVlad #1543840
Ох уж эти хитрые художники - так и норовят на грудях время сэкономить... )
А уж как нейросети освоят, я боюсь представить - совсем работать перестанут. Хотя там всё-таки есть своя проблема - скажу честно, я пробовал уже, но... проблема в том, что генерируемый нейросетью фон не очень сочетается с авторским стилем, а потому смотрится инородно. И это ещё не говоря о том, чтобы генерить персонажей в нужных позах соблюдая тот же авторский стиль. Поэтому пока что пришлось это дело отложить до неопределённых времён.

А так знаем мы такую особенность груди.
Давеча я такое с Рёки делал, когда в НЮ версии у неё без обмоток грудь вниз свисала, а в обмотках плотно была стянута.
Отредактировано «Malifikyse» 14.08.2023 01:59:02
Изображение пользователя Malifikyse
#1543848MalifikyseАвтор=61306125
SVlad #1543840
Пофиксил. Надеюсь, стало лучше )