При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.
-----------------------------------------------------------
Вот почти про это я и пытался сказать чуть ранее, но, наверное, просто не смог правильно донести мысль.#1544175MalifikyseАвтор=80721517waverider2075 #1544097
Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
---------------------------------------------------------
Вот это, конечно, да - пока что, я думаю, целесообразно за этим просто наблюдать и заниматься своими делами, пока умные дядьки и тетки, которые этим занимаются вплотную, работают за нас... )#1544170MalifikyseАвтор=80721961Nirimor #1544087
Если смотреть в далекой перспективе то каллиграфия. Такая интересная штука по красивому рисованию буковок. Работы каллиграфов стоят тысячи денег, но печатаем символы мы на экране кнопочками.
------------------------------------------------
waverider2075 #1544097
Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.
-------------------------------------------------
Вот, кстати, ещё один интересный вопрос, которым я задаюсь - это относительно авторских прав. Чертовски любопытно, как это будет в будущем работать.
Возвращаясь к той же каллиграфии, если мы берём разработку шрифтов, то насколько известно на данный момент очень большое количество шрифтов в принципе являются платными, и по неосторожности можно нарваться на судебный иск за нелегальное использование платного шрифта (в том числе в комиксах). Даже часть шрифтов в том же Word, на деле могут иметь особые лицензии и условия использования, и если я не ошибаюсь и правильно понимаю, некоторые из них даже нельзя использовать в принципе, если у нас не куплен лицензионный Word.
В своём комиксе я, к примеру, использую шрифт который находится в свободном доступе (бесплатный), который я выискивал на просторах интернетов, и то я его ещё и сам подредактировал немного (каждую букву), чтобы не было 100% сходства, для пущей подстраховки.
С картинками по сути то же самое. Если брать мелких художников, то они могут к этому и не иметь претензий (этакие идейные ребята, которым просто за счастье то, что их работу где-то используют в принципе), а вот кто поматерее и с амбициями, и особенно творческие студии, за интеллектуальную собственность "руки оторвут".
И мне любопытно как это будет выглядеть, когда к ним придёт осознание того, что их работы могут использоваться в базах нейросетей, и за их счёт какой-то мелкий творец будет пилить красивые картинки и использовать в своих проектах...
А учитывая то, как обычно сильно большие компании и известные персоны держатся за свою интеллектуальную собственность, я подозреваю, что рано или поздно такой вопрос таки станет ребром.
А так же интересно то, как в принципе будут поставлены правила относительно авторского права при использовании нейросетей. Т.е будут ли в принципе картинки, которые генерятся нейросетью принадлежать тем, кто их сгенерил, или на каких условиях.
Т.е, как я это вижу - это будет либо лицензия (т.е как вот сейчас существует использование без ограничений на платной основе, а прочие юридические нюансы владелец нейросети берёт на себя) - т.е примерно как работает Photoshop (ведь мы знаем, что прямо все художники используют лицензионный Фотошоп, да?.. Кроме тех случаев, когда его просто пробуют на потестить на неопределённый срок...), художник покупает лицензию и использует, а конечный продукт принадлежит только ему. Что в принципе и означает то, что:
>> waverider2075 - "...и деньги" (c).
Либо реально будут использоваться только нейросети щедрых энтузиастов, а более профессиональные нейросети будут себе зажимать корпорации для личного использования, чтобы никто кроме них не пользовался их интеллектуальной собственностью в личных целях. За исключением разве что подачек, которые должны служить цели рекламы.
Отредактировано «Malifikyse» 15.08.2023 14:08:41
#1544143SVlad=80729538> Оно в селлшейдинг плохо умеет например
Это Stable Diffusion не умеет. А на том же getimg.ai десяток моделй чисто под аниме сделанных есть. Выдают приличный результат.
> быть промпт-инженером 80го уровня
У меня такое ощущение, что все намеренно не рассказывают, по какому принципу эти штуки работают. Это ведь не большая лингвистическая модель, как чатик ГПТ, который реально воспринимает человеческую речь.
При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке. #1544097waverider2075=80759526> Malifikyse #1544065
Могу ошибаться, но все что вы упомянули как проблему уже решаемо - "время и деньги". Понимаете, как в кино "я ей сказал и оно сделало то что нужно" оно(пока?) не работает. Заклинание духов матрицы и подчинение их своей воле - тяжелый труд :D
Так что повторюсь: Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги. А еще оно меняется как в фразе из "Нейроманта" Гибсона - "... как будто какой то безумец жал некст-некст-некст на кнопке прогресса" (цитата абсолютно неточная). Ну то есть буквально там прорывы идут чуть ли не каждую неделю. По этому большие люди и сели на измену с этими публичными заявлениями о том что бы не развивать дальше ИИ - потому что подозрительно похоже на начало сингулярности.
> ... если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).
Уже есть технологии/техники для решения буквально вот этой вот проблемы. Специализированные производные нейросети от базовых. Точнее как - у нас(человечества) есть несколько общедоступных фундаментальных нейросетей в виде дампа - stablediffusion например, несколько секретных нейросетей которых держат в подвалах мегакорпов что бы они не вырвались и не поработили человечество (Google LaMDA) и множество производных, и производных от производных. Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.
Вторая проблема - писать промпты - отдельное искусство - на тренировку которого нужно время и деньги - и реально что бы сделать картинку при помощи ИИ часто нужно времени почти как нарисовать. Но натренировать производную сеть на графический стиль это то что развивается буквально, прямо сейчас. Мы тут болтаем на форуме - а там люди работают. И там совершенно разные сообщение об необходимом объеме исходников - сообщают что иногда нужно очень мало.
> Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться!
Ну нет :D Оно в селлшейдинг плохо умеет например. А я его люблю. Жду момент когда в нейросети загрузят все гигамегатерабайты японского онеме.....
> А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы. С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. ... Просто потому, что таких образцов в целом в принципе не так уж и много, ...
Да, но нет. Там есть разные техники рисования картинок по частям. Для монстродевочек вам надо видимо отдельно пауков отдельно девочек и клеить, при чем клеить той же нейросетью но специальными техниками. С кучей глаз на лице да, это проблема. Собственно и с бекграундами то же самое - отдельно персонажи отдельно бекграунд, что бы сразу вам нарисовали по тексту что-то - это удача или вообще не бывает (нейросети хороши в случайной генерации для стимулирования креатива)
В общем у меня с вами плюс минус одна и та же хотелка (вкалывают роботы - счастлив человек, я себе хочу арт для настольных рпг ну и когда нибудь комикс в будущем) так что вот вам примерно что мне удалось узнать:
Видимо таки можно создать воркфлоу при котором ИИ будет делать комикс (картинки к нему), в каком то плюс-минус желаемом стиле. Но нужно как минимум
- быть промпт-инженером 80го уровня.
- знать заклинания по созданию специализированных нейросетей
- прокастовать кучу своих специализированных сетей для разных персонажей
- заклинания по постановке персонажей в нужные позы и рисованию по
наброску - ControlNet и кажется Scribble(но это неточно)
- кучу техник по генерации картинок частями и склейки при помощи того же ИИ
- уметь использовать разные сервисы - у них свои проприетарные модели часто, более красивые чем те которые можно скачать локально.
- хардварно это в пределах "у меня компутер с очень крутой игровой видеокартой, я его оставил на неделю-месяц генерить нейросеть"
Ну то есть время и деньги - но это вполне возможно для, назовем это так, "обычного человека". С другой стороны это дофига времени и еще мозга что бы из этого всего сделать рабочий воркфлоу. Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
#1544087Nirimor=80771752Если смотреть в далекой перспективе то каллиграфия. Такая интересная штука по красивому рисованию буковок. Работы каллиграфов стоят тысячи денег, но печатаем символы мы на экране кнопочками. В далекой перспективе секти сделают с картинками то же самое. Художники не исчезнут просто станут реже встречаться.
Сейчас нейросети не могут нарисовать мне приличную фею, как не играйся с настройками, шумом или опциями. Не обучали их на феях да. Потоковые нейросетевые картинки становятся легко опознать (угу нейросетка в голове уже обучилась), а замморочится и скажем выдать в стиле босха у большинство "нейрохудожников" видимо не хватает терпения и желания (скстати что получалось с нейросетками более ранними теперь получается сложнее, скажем сделать икону не псоглавца а котика).
Зато рыночек уже решает, недавно случился скандал в ДнД, где художник взял для книжки Bigby Presents: Glory of the Giants чужие набросочки, прогнал через нейросеточку и вставил прямо в книжечку. Ну что что ножка выглядит неестественно? Зато быстро и дешево. Капитализм Хо!#1544065MalifikyseАвтор=80779439waverider2075 #1544022
Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном.
---------------------------------------------------------
Ну тут как бы да, но опять же, на тех же правах я-у-мамы-специалиста, насколько я понимаю, да и как уже было выше упомянуто, нейросети так или иначе ничего не берут из воздуха, а опираются на уже существующие образцы, к которым у них есть доступ.
И тут самая большая заноза в том, что если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).
Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться! А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы.
С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. Просто потому, что таких образцов в целом в принципе не так уж и много, как тех же кошкодевок, и нейросеть как бы "не понимает" даже при детальном описании.
Самое простое, что можно сделать - это залить картинку как образец, но даже при этом не всегда нейросеть может подойти близко, особенно в области лица, а некоторые, как Playgraund, и вовсе последнее время видит в картинках с Кеке только NSFW контент и отказывается с ними работать )
Или даже не столь специфично воспроизвести +/- любой нестандартный стиль, который отклоняется от ванильного аниме и академического стандарта, например студии Ankama или даже каких-нибудь Skullgirls, почти нереально даже с вливанием образцов, потому, что на него нейросети не тренировали. И нейросеть всё время будет в непонимании, чего от неё хотят и продолжать навязчиво толкать нам ванильных аниме девок при любой возможности ) #1544046waverider2075=80786512> О, надо глянуть.
Я зарегался на куче сервисов что бы на каждом бесплатные баллы были :)
#1544032SVlad=80790443> на том же леонардо порядка 100 запросов бесплатно в день
О, надо глянуть.#1544024waverider2075=80792283> Malifikyse 1543850
> Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.
> Хотя, это конечно, все ещё вкусовщина... так что...
Там смешное было именно в том что на мой взгляд получалось "со складками" гораздо красивше. Однако вызывало ту еще резкую реакцию (не у всех но тем не менее). То есть "приклееная одежда" это не только не всегда плохо, это иногда прямо хорошо - что странно. #1544022waverider2075=80793345> Есть сетки, которые умеют следовать позе.
> С этой можно бесплатно поиграться (100 запросов в месяц)
Опять же, как я-у-мамы-ии-специалист вставлю пару ехидных. Да, нейросети сейчас могут очень и очень многое - и могут быть очень полезны художнику-артисту. Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном. Потому что, скажу по опыту, на том же леонардо порядка 100 запросов бесплатно в день - и оно в тот же день заканчивается. Если ты пытаешься что-то реально делать, хотя бы учится. Когда ты не генеришь случайные картинки а пытаешься заставить духов в машине сделать то что тебе нужно (а по ощущениям да, прямо шаманство черной магии(С)коргот-варвар).#1543996SVlad=80799840> А уж как нейросети освоят, я боюсь представить - совсем работать перестанут.
Так нейросети обучены на тех же художниках и рисуют так же.
> генерируемый нейросетью фон не очень сочетается с авторским стилем
Вырезать фон или сразу добавлять в запрос про однородный или хромаекйный фон?
> генерить персонажей в нужных позах
Есть сетки, которые умеют следовать позе.
https://getimg.ai/text-to-image
Вот тут Control Net называется, например.
С этой можно бесплатно поиграться (100 запросов в месяц)
Отредактировано «SVlad» 14.08.2023 16:27:56
#1543959MalifikyseАвтор=80808296Nirimor #1543951
Здесь как бы ситуация философская сама по себе.
Потому что, как говорится в какой-нибудь китайской мудрости - "Лучше - лучше. И лучше оно всегда лучше, чем не лучше, потому, что чем лучше, тем лучше".
И спорить с этим в принципе невозможно, да и нецелесообразно. Потому, что с позиции любого мастера (пусть даже любителя), не стремиться к улучшению своего мастерства - это априори странно, как минимум.
Но в определённых ситуациях вопрос заключается в деталях. И можно, конечно, потратить пару часов на то, чтобы сделать несколько вариантов груди, или ещё больше часов, чтобы вообще на каждую вариацию прорисовать отдельные складки на теле, как вот было выше упомянуто.
Но тут, если речь идёт о потоковой публикации, поднимаются ещё и вопросы о внутренних дедлайнах, чтобы опустить условности и потратить пару сэкономленных часов либо на отдых, либо на планировку следующей странички комикса.
И мозг, он как вредное создание зачастую именно так и говорит: "ЧУВАААК! Да тут уже всё и так зашибись! Да кому нужны эти мелочи? Помнишь когда-то ты тратил кучу времени на мелкие детали, а в итоге их почти никто и не заметил? Давай уже кончай с этим и приступай к чему-то другому! Время не ждёт!"
Отредактировано «Malifikyse» 14.08.2023 14:10:06
#1543951Nirimor=80811120Я наверное не правильный ценитель и не художник потому такие вещи не замечаю. Ну тоесть для меня картинка воспринимается полностью, детали конечно важны (есть например феи на картинке или нет), но насколько там поднята опущена грудь? #1543850MalifikyseАвтор=80852498waverider2075 #1543844
Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.
Хотя, это конечно, все ещё вкусовщина... так что... #1543849MalifikyseАвтор=80853216SVlad #1543840
Ох уж эти хитрые художники - так и норовят на грудях время сэкономить... )
А уж как нейросети освоят, я боюсь представить - совсем работать перестанут. Хотя там всё-таки есть своя проблема - скажу честно, я пробовал уже, но... проблема в том, что генерируемый нейросетью фон не очень сочетается с авторским стилем, а потому смотрится инородно. И это ещё не говоря о том, чтобы генерить персонажей в нужных позах соблюдая тот же авторский стиль. Поэтому пока что пришлось это дело отложить до неопределённых времён.
А так знаем мы такую особенность груди.
Давеча я такое с Рёки делал, когда в НЮ версии у неё без обмоток грудь вниз свисала, а в обмотках плотно была стянута.
Отредактировано «Malifikyse» 14.08.2023 01:59:02
#1543848MalifikyseАвтор=80853339SVlad #1543840
Пофиксил. Надеюсь, стало лучше )#1543844waverider2075=80854542SVlad #1543840> Прикол в том, что большинство конструкций бюстгальтеров поддерживают грудь и она приобретает другую форму, отличающуюся от свободно висящей. Самое заметное отличие - это расстояние между грудями - с бюстгальтером они обычно сведены вместе.
Как я-у-мамы-художник по этому-самому скажу что этот природный факт изрядно бесит. Как и то что чулки и всякие пояски меняют форму бедер и прочего подкожного жира поверх мышцев. Я обычно рисую слоями, грудь в отдельный слой, по этому добиваюсь нужного эффекта просто другим слоем с грудью - если вдруг таки очень надо. Небольшие же искажения делаю слоем поверх с мелкими правками + маской. Получается хуже чем рисовать по отдельности но по отдельности все таки уж больно трудозатратно.
Самый смешной момент у меня в "карьере" художника любителя на эту тему был как раз наоборот. Рисовали с натуры модель в костюме с множеством всяких веревочек и чулок. Я, как честный художник вырисовывал все вот эти вот "а тут чулок натянутый и сжимает, а тут еще вот так выпирает".
Мне поставили на вид что я модель рисую толстой...... и про груди тоже истории есть.... :D В общем я вынес из этого опыта такой момент что лишний реализм не всегда уместен а японцы тащем-та в своем онеме все правильно делают (в плане нереализма), хоть иногда и перегибают. :D
Рисовать две разных версии груди - одну в одежде, другую - без.
Прикол в том, что большинство конструкций бюстгальтеров поддерживают грудь и она приобретает другую форму, отличающуюся от свободно висящей. Самое заметное отличие - это расстояние между грудями - с бюстгальтером они обычно сведены вместе.
Собственно, я видел активное использование обоих вариантов у художников - рисовать сначала ню или сначала одежду, чаще встречается рисование сначала ню. Но в обоих случаях хорошо видно, что было нарисовано сначала.
Если обнаженные груди сведены вместе и приподняты, будто их держит невидимое бельё - значит, сначала рисовали в одежде. Если же чашки бюстгальтера свободно разведены в стороны - значит рисовали поверх ню. В совсем запущенных случаях одежда выглядит как бодиарт.#1543837MalifikyseАвтор=80859381SVlad #1543823
Да. А как иначе-то?
Если делать наоборот, то это чертовски неудобно.
В любом случае, обычно, на этапе скетча, силуэт всегда рисуется перед тем, как рисуется одежда.
При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.
-----------------------------------------------------------
Вот почти про это я и пытался сказать чуть ранее, но, наверное, просто не смог правильно донести мысль.
Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
---------------------------------------------------------
Вот это, конечно, да - пока что, я думаю, целесообразно за этим просто наблюдать и заниматься своими делами, пока умные дядьки и тетки, которые этим занимаются вплотную, работают за нас... )
Если смотреть в далекой перспективе то каллиграфия. Такая интересная штука по красивому рисованию буковок. Работы каллиграфов стоят тысячи денег, но печатаем символы мы на экране кнопочками.
------------------------------------------------
waverider2075 #1544097
Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.
-------------------------------------------------
Вот, кстати, ещё один интересный вопрос, которым я задаюсь - это относительно авторских прав. Чертовски любопытно, как это будет в будущем работать.
Возвращаясь к той же каллиграфии, если мы берём разработку шрифтов, то насколько известно на данный момент очень большое количество шрифтов в принципе являются платными, и по неосторожности можно нарваться на судебный иск за нелегальное использование платного шрифта (в том числе в комиксах). Даже часть шрифтов в том же Word, на деле могут иметь особые лицензии и условия использования, и если я не ошибаюсь и правильно понимаю, некоторые из них даже нельзя использовать в принципе, если у нас не куплен лицензионный Word.
В своём комиксе я, к примеру, использую шрифт который находится в свободном доступе (бесплатный), который я выискивал на просторах интернетов, и то я его ещё и сам подредактировал немного (каждую букву), чтобы не было 100% сходства, для пущей подстраховки.
С картинками по сути то же самое. Если брать мелких художников, то они могут к этому и не иметь претензий (этакие идейные ребята, которым просто за счастье то, что их работу где-то используют в принципе), а вот кто поматерее и с амбициями, и особенно творческие студии, за интеллектуальную собственность "руки оторвут".
И мне любопытно как это будет выглядеть, когда к ним придёт осознание того, что их работы могут использоваться в базах нейросетей, и за их счёт какой-то мелкий творец будет пилить красивые картинки и использовать в своих проектах...
А учитывая то, как обычно сильно большие компании и известные персоны держатся за свою интеллектуальную собственность, я подозреваю, что рано или поздно такой вопрос таки станет ребром.
А так же интересно то, как в принципе будут поставлены правила относительно авторского права при использовании нейросетей. Т.е будут ли в принципе картинки, которые генерятся нейросетью принадлежать тем, кто их сгенерил, или на каких условиях.
Т.е, как я это вижу - это будет либо лицензия (т.е как вот сейчас существует использование без ограничений на платной основе, а прочие юридические нюансы владелец нейросети берёт на себя) - т.е примерно как работает Photoshop (ведь мы знаем, что прямо все художники используют лицензионный Фотошоп, да?.. Кроме тех случаев, когда его просто пробуют на потестить на неопределённый срок...), художник покупает лицензию и использует, а конечный продукт принадлежит только ему. Что в принципе и означает то, что:
>> waverider2075 - "...и деньги" (c).
Либо реально будут использоваться только нейросети щедрых энтузиастов, а более профессиональные нейросети будут себе зажимать корпорации для личного использования, чтобы никто кроме них не пользовался их интеллектуальной собственностью в личных целях. За исключением разве что подачек, которые должны служить цели рекламы.
Это Stable Diffusion не умеет. А на том же getimg.ai десяток моделй чисто под аниме сделанных есть. Выдают приличный результат.
> быть промпт-инженером 80го уровня
У меня такое ощущение, что все намеренно не рассказывают, по какому принципу эти штуки работают. Это ведь не большая лингвистическая модель, как чатик ГПТ, который реально воспринимает человеческую речь.
При создании / обучении в нейросеть загружаются миллионы пар картинка - описание. Так как картинки в основном берутся из всяких публичных библиотек - её описание - это теги. Поэтому со Stable Diffusion есть такой прикол, что нужно в запросе указывать модель фотоаппарата и параметры объектива - хорошие фото в обучающей выборке всегда были с такими параметрами. А текстовые описания они воспринимают плохо - текст будет просто порублен на теги, которые были в обучающей выборке.
Могу ошибаться, но все что вы упомянули как проблему уже решаемо - "время и деньги". Понимаете, как в кино "я ей сказал и оно сделало то что нужно" оно(пока?) не работает. Заклинание духов матрицы и подчинение их своей воле - тяжелый труд :D
Так что повторюсь: Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги. А еще оно меняется как в фразе из "Нейроманта" Гибсона - "... как будто какой то безумец жал некст-некст-некст на кнопке прогресса" (цитата абсолютно неточная). Ну то есть буквально там прорывы идут чуть ли не каждую неделю. По этому большие люди и сели на измену с этими публичными заявлениями о том что бы не развивать дальше ИИ - потому что подозрительно похоже на начало сингулярности.
> ... если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).
Уже есть технологии/техники для решения буквально вот этой вот проблемы. Специализированные производные нейросети от базовых. Точнее как - у нас(человечества) есть несколько общедоступных фундаментальных нейросетей в виде дампа - stablediffusion например, несколько секретных нейросетей которых держат в подвалах мегакорпов что бы они не вырвались и не поработили человечество (Google LaMDA) и множество производных, и производных от производных. Вот эти производные от производных делают энтузиасты, они есть в некоторых ИИ сервисах и они заточены под какой то конкретный стиль или иную цель. Например рисование конкретного персонажа.
Вторая проблема - писать промпты - отдельное искусство - на тренировку которого нужно время и деньги - и реально что бы сделать картинку при помощи ИИ часто нужно времени почти как нарисовать. Но натренировать производную сеть на графический стиль это то что развивается буквально, прямо сейчас. Мы тут болтаем на форуме - а там люди работают. И там совершенно разные сообщение об необходимом объеме исходников - сообщают что иногда нужно очень мало.
> Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться!
Ну нет :D Оно в селлшейдинг плохо умеет например. А я его люблю. Жду момент когда в нейросети загрузят все гигамегатерабайты японского онеме.....
> А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы. С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. ... Просто потому, что таких образцов в целом в принципе не так уж и много, ...
Да, но нет. Там есть разные техники рисования картинок по частям. Для монстродевочек вам надо видимо отдельно пауков отдельно девочек и клеить, при чем клеить той же нейросетью но специальными техниками. С кучей глаз на лице да, это проблема. Собственно и с бекграундами то же самое - отдельно персонажи отдельно бекграунд, что бы сразу вам нарисовали по тексту что-то - это удача или вообще не бывает (нейросети хороши в случайной генерации для стимулирования креатива)
В общем у меня с вами плюс минус одна и та же хотелка (вкалывают роботы - счастлив человек, я себе хочу арт для настольных рпг ну и когда нибудь комикс в будущем) так что вот вам примерно что мне удалось узнать:
Видимо таки можно создать воркфлоу при котором ИИ будет делать комикс (картинки к нему), в каком то плюс-минус желаемом стиле. Но нужно как минимум
- быть промпт-инженером 80го уровня.
- знать заклинания по созданию специализированных нейросетей
- прокастовать кучу своих специализированных сетей для разных персонажей
- заклинания по постановке персонажей в нужные позы и рисованию по
наброску - ControlNet и кажется Scribble(но это неточно)
- кучу техник по генерации картинок частями и склейки при помощи того же ИИ
- уметь использовать разные сервисы - у них свои проприетарные модели часто, более красивые чем те которые можно скачать локально.
- хардварно это в пределах "у меня компутер с очень крутой игровой видеокартой, я его оставил на неделю-месяц генерить нейросеть"
Ну то есть время и деньги - но это вполне возможно для, назовем это так, "обычного человека". С другой стороны это дофига времени и еще мозга что бы из этого всего сделать рабочий воркфлоу. Так что я пока смотрю и не факт что это имеет смысл делать сейчас. Просто потому что через год оно может стать во много раз лучше буквально се шансы. Непонятно какие навыки устареют.
Сейчас нейросети не могут нарисовать мне приличную фею, как не играйся с настройками, шумом или опциями. Не обучали их на феях да. Потоковые нейросетевые картинки становятся легко опознать (угу нейросетка в голове уже обучилась), а замморочится и скажем выдать в стиле босха у большинство "нейрохудожников" видимо не хватает терпения и желания (скстати что получалось с нейросетками более ранними теперь получается сложнее, скажем сделать икону не псоглавца а котика).
Зато рыночек уже решает, недавно случился скандал в ДнД, где художник взял для книжки Bigby Presents: Glory of the Giants чужие набросочки, прогнал через нейросеточку и вставил прямо в книжечку. Ну что что ножка выглядит неестественно? Зато быстро и дешево. Капитализм Хо!
Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном.
---------------------------------------------------------
Ну тут как бы да, но опять же, на тех же правах я-у-мамы-специалиста, насколько я понимаю, да и как уже было выше упомянуто, нейросети так или иначе ничего не берут из воздуха, а опираются на уже существующие образцы, к которым у них есть доступ.
И тут самая большая заноза в том, что если мы хотим с помощью нейросети генерить в конкретном стиле, то по сути придётся именно сначала нарисовать кучу изображений в данном стиле (и говоря о куче я имею в виду именно прямо КУЧУ) и самостоятельно натаскать на них нейросеть (скорее всего свою собственную).
Т.е - генерить самых ванильных анимешных девочек - на здоровье! Без проблем! Даже не надо стараться! А вот если нам нужно что-то более специфическое, то здесь уже начинаются проблемы.
С теми же монстродевками (не считая попсовых кошкодевок и близких типажей, или каких-нибудь эльфов) уже начинается геморрой. Ибо, к примеру, если я пытаюсь заставить ИИ сгенерить мне Кеке, то очень сложно заставить его по крайней мере не натягивать на неё обычное человеческое лицо, не говоря уже о том, чтобы на неё натянули глазко-бусенки и ещё 3 пары глазо-бровок, и вырастили лапки на спине. Просто потому, что таких образцов в целом в принципе не так уж и много, как тех же кошкодевок, и нейросеть как бы "не понимает" даже при детальном описании.
Самое простое, что можно сделать - это залить картинку как образец, но даже при этом не всегда нейросеть может подойти близко, особенно в области лица, а некоторые, как Playgraund, и вовсе последнее время видит в картинках с Кеке только NSFW контент и отказывается с ними работать )
Или даже не столь специфично воспроизвести +/- любой нестандартный стиль, который отклоняется от ванильного аниме и академического стандарта, например студии Ankama или даже каких-нибудь Skullgirls, почти нереально даже с вливанием образцов, потому, что на него нейросети не тренировали. И нейросеть всё время будет в непонимании, чего от неё хотят и продолжать навязчиво толкать нам ванильных аниме девок при любой возможности )
Я зарегался на куче сервисов что бы на каждом бесплатные баллы были :)
О, надо глянуть.
> Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.
> Хотя, это конечно, все ещё вкусовщина... так что...
Там смешное было именно в том что на мой взгляд получалось "со складками" гораздо красивше. Однако вызывало ту еще резкую реакцию (не у всех но тем не менее). То есть "приклееная одежда" это не только не всегда плохо, это иногда прямо хорошо - что странно.
> С этой можно бесплатно поиграться (100 запросов в месяц)
Опять же, как я-у-мамы-ии-специалист вставлю пару ехидных. Да, нейросети сейчас могут очень и очень многое - и могут быть очень полезны художнику-артисту. Проблема в том что это огромная область знаний-умений, при чем местами весьма специфичных. Что бы в это разобраться нужно время и желательно деньги - что бы купить коммерческий аккаунт и не сидеть на бесплатном. Потому что, скажу по опыту, на том же леонардо порядка 100 запросов бесплатно в день - и оно в тот же день заканчивается. Если ты пытаешься что-то реально делать, хотя бы учится. Когда ты не генеришь случайные картинки а пытаешься заставить духов в машине сделать то что тебе нужно (а по ощущениям да, прямо шаманство черной магии(С)коргот-варвар).
Так нейросети обучены на тех же художниках и рисуют так же.
> генерируемый нейросетью фон не очень сочетается с авторским стилем
Вырезать фон или сразу добавлять в запрос про однородный или хромаекйный фон?
> генерить персонажей в нужных позах
Есть сетки, которые умеют следовать позе.
https://getimg.ai/text-to-image
Вот тут Control Net называется, например.
С этой можно бесплатно поиграться (100 запросов в месяц)
Здесь как бы ситуация философская сама по себе.
Потому что, как говорится в какой-нибудь китайской мудрости - "Лучше - лучше. И лучше оно всегда лучше, чем не лучше, потому, что чем лучше, тем лучше".
И спорить с этим в принципе невозможно, да и нецелесообразно. Потому, что с позиции любого мастера (пусть даже любителя), не стремиться к улучшению своего мастерства - это априори странно, как минимум.
Но в определённых ситуациях вопрос заключается в деталях. И можно, конечно, потратить пару часов на то, чтобы сделать несколько вариантов груди, или ещё больше часов, чтобы вообще на каждую вариацию прорисовать отдельные складки на теле, как вот было выше упомянуто.
Но тут, если речь идёт о потоковой публикации, поднимаются ещё и вопросы о внутренних дедлайнах, чтобы опустить условности и потратить пару сэкономленных часов либо на отдых, либо на планировку следующей странички комикса.
И мозг, он как вредное создание зачастую именно так и говорит: "ЧУВАААК! Да тут уже всё и так зашибись! Да кому нужны эти мелочи? Помнишь когда-то ты тратил кучу времени на мелкие детали, а в итоге их почти никто и не заметил? Давай уже кончай с этим и приступай к чему-то другому! Время не ждёт!"
Тут соглашусь полностью - излишний реализм не всегда бывает полезен, особенно в стилизации.
Хотя, это конечно, все ещё вкусовщина... так что...
Ох уж эти хитрые художники - так и норовят на грудях время сэкономить... )
А уж как нейросети освоят, я боюсь представить - совсем работать перестанут. Хотя там всё-таки есть своя проблема - скажу честно, я пробовал уже, но... проблема в том, что генерируемый нейросетью фон не очень сочетается с авторским стилем, а потому смотрится инородно. И это ещё не говоря о том, чтобы генерить персонажей в нужных позах соблюдая тот же авторский стиль. Поэтому пока что пришлось это дело отложить до неопределённых времён.
А так знаем мы такую особенность груди.
Давеча я такое с Рёки делал, когда в НЮ версии у неё без обмоток грудь вниз свисала, а в обмотках плотно была стянута.
Пофиксил. Надеюсь, стало лучше )
Как я-у-мамы-художник по этому-самому скажу что этот природный факт изрядно бесит. Как и то что чулки и всякие пояски меняют форму бедер и прочего подкожного жира поверх мышцев. Я обычно рисую слоями, грудь в отдельный слой, по этому добиваюсь нужного эффекта просто другим слоем с грудью - если вдруг таки очень надо. Небольшие же искажения делаю слоем поверх с мелкими правками + маской. Получается хуже чем рисовать по отдельности но по отдельности все таки уж больно трудозатратно.
Самый смешной момент у меня в "карьере" художника любителя на эту тему был как раз наоборот. Рисовали с натуры модель в костюме с множеством всяких веревочек и чулок. Я, как честный художник вырисовывал все вот эти вот "а тут чулок натянутый и сжимает, а тут еще вот так выпирает".
Мне поставили на вид что я модель рисую толстой...... и про груди тоже истории есть.... :D В общем я вынес из этого опыта такой момент что лишний реализм не всегда уместен а японцы тащем-та в своем онеме все правильно делают (в плане нереализма), хоть иногда и перегибают. :D
Рисовать две разных версии груди - одну в одежде, другую - без.
Прикол в том, что большинство конструкций бюстгальтеров поддерживают грудь и она приобретает другую форму, отличающуюся от свободно висящей. Самое заметное отличие - это расстояние между грудями - с бюстгальтером они обычно сведены вместе.
Собственно, я видел активное использование обоих вариантов у художников - рисовать сначала ню или сначала одежду, чаще встречается рисование сначала ню. Но в обоих случаях хорошо видно, что было нарисовано сначала.
Если обнаженные груди сведены вместе и приподняты, будто их держит невидимое бельё - значит, сначала рисовали в одежде. Если же чашки бюстгальтера свободно разведены в стороны - значит рисовали поверх ню. В совсем запущенных случаях одежда выглядит как бодиарт.
Да. А как иначе-то?
Если делать наоборот, то это чертовски неудобно.
В любом случае, обычно, на этапе скетча, силуэт всегда рисуется перед тем, как рисуется одежда.