Обмена моделями тред. Первый. Экспериментальный. Под БАЗУ нейрогенерации уже созданы номерные треды
Аноним06/01/23 Птн 16:00:02№331711
Обмена моделями тред. Первый. Экспериментальный.
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
Умеет в фотообразную годноту с минимальными усилиями. Первый пик - авторский пример, второй сгенерен мною за несколько минут подбора параметров. (donald trump:1.1) photo, (ultra realistic:0.8), best quality, 4K Negative prompt: deformed, mutated, mutation, extra limb, ugly, out of frame, lowres, bad anatomy, bad hands, text, error, missing arms, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, jpeg artifacts, signature, watermark, username, blurry, black and white, comic, multiple perspective, xray in negatives Steps: 100, Sampler: Euler, CFG scale: 7, Seed: 3309217521, Size: 768x768, Model hash: 7af9cd4c, Clip skip: 2, ENSD: 31337
Модель Protogen v2.2. https://civitai.com/models/3627/protogen-v22-anime-official-release Есть версии и по новее данного микса, но именно версия v2.2. может в иллюстрации и рисунки которые совсем не аниме, но конкурируют по качеству с Anythingv3 и NAi, а именно также как и они отрабатывают руки. Если устали от бесконечной генерации аниме вайфу, то рекомендую эту модель для генерации полуреалистичных девушек (и прочего тоже).
>>33459 ЧСХ, она даже аниме-персонажей кое-как генерит в своем околореалистичном стиле. А есть ли, чтобы наоборот? Например, Ленина в стиле аниме? Я не про QQworld, конечно, которая передает лишь общий план картины, а не старается вывести детали.
>>37584 Еще она умеет в полное аниме, если прописать anime style. Хотя почему-бы тогда уже Ленина сразу незапроптить в анимешной модели вроде Nai или Anythingv3?
Можете объяснить дебилу. Я вот скачал на пеку по видео за 3 минуты. Куда кидать модели? Вот скачал я 3.9 гигов.
Если тут совсем добряки есть, может подскажете.
На какие параметры смотреть для генерации? На что стоит обратить при прописывании промтов?
Что делать с изображениями, которые сгенерированы? К примеру, получил я 4 изображения. Только 1 нормальное. Как мне показать нейросети, что именно так и надо, а остальное лишнее?
И еще почему img2img создает совсем другие лица? Вот закинул ты лицо человека, а там результаты абсолютно непонятно откуда и на кого похожи.
Если у тебя стандартная модель, а не какой-нибудь проработанный микс, то желательно прописывать длинный детальный промпт, добавляй стили (к примеру illustration или realistic photo) и художников (art by greg rutkowski) это сильно улучшает качество. Если описываешь людей на картинке то прописывай, что должно быть детализировано (detailed eyes and mouth) ну и в целом можешь накидывать в общем положительные вещи (sharp, detailed, best quality). В негатив все также, только обратное прописываешь, то есть что не мы не хотим видеть (blurry, deformed, lowres и т.д.)
Кликаешь на сгенерированной картинке которая понравилась, справа снизу копируешь ее сид, вставляешь его в настройки и в кликаешь extra и выбираешь variation strenght в зависимости от того, насколько сильно должна отличаться следующая генерация.
на img2img для сохранения деталей ставь низкий денойз, но это повлияет на качество трансформации. Если хочешь поменять что-то в картинке, то лучше попробуй inpaint, выдели что хочешь поменять
А я правильно понимаю, что можно обучать свою модель? То есть в теории я могу закинуть фотку определенного человека, чтобы нейронка именно его везде вставляла?
Подскажите чё за Bstaber? Когда-то в nai wd треде видел пикчи сгенереные вроде на Bstaber, интересная стилистика такая типа 3d blender, но чёт не нагуглил
>>62516 Товарищ майор плачет по создателям этого микса, так как оно может хорошо генерировать ЭТО, как в аниме так и в реалистичном стиле. Ищи и скачивай на свой риск
>>33171 (OP) Так, ну давай пройдемся по треду. Во-первых, все же лучше искать модели на сайтах типа https://civitai.com/ ибо там нагляднее. >>33459 protogenX34 лучше >>46147 если кидаете модель, расписывайте подробее. Например стоит упомянуть, что Хассан умеет в реализмм и прон, но абсолютно не умеет в фоны и рисует на бэке мыло
Вопрос по Хассану: насколько он дообучаемый? Вот, например, есть 5 пиков ЕОТ в купальнике. И ещё с десяток в платье. Этого хватит Хассану, чтобы оную ЕОТ нормально рисовать, схватывая фигуру, или будет как на пикриле? Это, если что, AnalogDiffusion, дообученный через DreamBooth
Подскажите плиз, видел как-то в nai wd треде пикчи сгенереные вроде на Bstaber, но такой модели не нашел. Там стиль интересный типа 3d blender. Кто-то шарит?
>>65718 Обычная "груша", маленькая грудь, широкие бёдра, жопа дирижаблем. Но тут ещё всякие нюансы типа формы и посадки пупка... На самом деле, AnalogDiffusion умеет это ловить, и частенько получается как надо (но не всегда, не всегда...) Но за теги управления фигурой буду благодарен, да.
>>65718 Вот на пикрилах фигура как надо схвачена (в датасете были фотки в открытой одежде, где пупок видно). Но - всрато лицо (спасёт ли меня обучение инпаинтинг-модели?) и местами руки ноги. Хотя фигуру можно и лучше, но это я ещё фотки поищу.
А так, как ты говоришь - никакая StableDiffusion не нужна. Фигуру подобрать поиском по порноактрисам, лицо пересадить дипфейком (кстати, коллаб для пересадки лица с 10-12 фоток на одну не присоветуете?). Это тоже было бы прикольно, но... Я ищу другого удовольствия. Я хочу обладать персонажем. Хочу, чтобы эта ЕОТ была моей игрушкой.
>>63926 >что Хассан умеет в реализмм и прон, но абсолютно не умеет в фоны и рисует на бэке мыло Подразумевая, что ты в папку с моделями кинул один хассан, верно? В январе 2023 года.
>>33171 (OP) Напомни, в каком треде поста ты говоришь, что теперь цкпт могут содержать и содержат вишню? Кстати, предупреждаю всех остальных дурачков, особенно тех, кто греет собственные печки: смотрите что вы качаете и откуда. За последние несколько дней хаггингфейс и тому подобные помойки стали распространять вишнёвые пироги.
>>66719 >Но - всрато лицо (спасёт ли меня обучение инпаинтинг-модели?) Просто добавь хайквалити фото лица при обучении, если нету - сделай, либо найти с помощью поисковиков по лицам похожее или идентичное.
>>65478 > есть 5 пиков ЕОТ в купальнике. И ещё с десяток в платье. Даунич, обучать надо по дефолтной модели, там параметров больше всего, я тебе даже больше скажу, в 70% случаев, если нет оптических искажений на фото, стандартная модель стабл 1,5 умеет предсказывать не только фигуру, но даже тип груди. А все эти хассаны и прочее говно надо кидать уже поверх обученной на дефолте модели, а не пытаться внутрь них засунуть.
>>67284 На обниморде есть официальный спейс, в котором можно из ckpt сделать обратно диффузионные веса. Можно лаже вкинуть туда write token и сразу сохранить к себе в профиль. Но токен после этого лучше инвалидировать сразу, т.е. завести одноразовый чисто под это дело.
>>70248 Не, я уже понял, что надо просто кидать сейфцензорс поверх любого уже загруженного цкпт и похую, оно там как-то там само приклеивается.
Мне только одно непонятно.Вот я использовал автоматик111 и там чтобы подргразить разные модели одновременно их надо мерджить в чекпойнтах, я так понял. Я заметил, что можно в дримбуте в колабе загрузить модель, а потом просто сверху модели загружать повторно и он их типа мерджит самостоятельно (тупо накидывая в файл "модел". Тут у меня вопрос. Почему хотя я вижу эффекты от добавления моделей типа хасана или фотореала или энифинггейпа - но я не могу, добавляя к ним собственную модель, заставить работать какие-то специфические теги. Даже элементарный гейп не работает. В чем дело? Оверфиттинг моей модели и она типа закрепощает генерацию в принципе? Доходит до того, что с некоторыми стеами для тренировки nsfw вообще продавить очень сложно, разве что добавляя антинсфв теги в негативный промпт.
>>63331 >Это тред для ссылок из топа civitai.com? Объясните космический эффект, пожалуйста. На любые помойки. Тебе главное название модели знать, потом люди их тащут на хаггинг фейс, там они все валяются в хранилищах.
>>70493 Когда ты мерджишь две модели, то получаешь микс. Насколько я знаю, весы нейронок не позволяют в случае с мерджем сделать его полностью без потерь, в связи с чем, что-то теряется. Когда ставишь weight в мердже то выбираешь какой модели должно быть больше сохранено.
>>70981 Просто тупо пиши что ты хочешь видеть, а этого нету на картинке типа: нет секса, нет хуя в вагине, не топлесс и т.д. Ты же негативным промптом просто исключаешь нежелательные результаты, ну вот и исключай весь мешающий тебе сейф фор вьюв. Я таким образом даже самые тугие оверфитты продавливал.
>>71575 они акцентируют важность тега, то есть (слово) по важности при создании картинки стоит над словом у которого нет скобок, а ((слово)) важнее (слово), но нельзя больше 3 скобок использовать.
>>67313 Т.е. обучать на дефолтной модели (и мясных тянок, и рисованных), а потом мёрдж с понравившейся через Add difference? Ты проверил этот совет на практике или говоришь из теоретических соображений?
Это я к тому, что лицевсратия (именно всратия, а не просто нарушения портретного сходства) почти не бывает, если лицо занимает примерно треть по ширине (и больше) от 512 пикселей.
>>72532 Перестань оверфиттинг делать и обладай сколько хочешь. Ну и апскейл сделай если фотки низкого разрешения, чтоб тебе дауних не выдавало. И, как я уже говорил, бери 5 фоток и тренируй 250/200, потом отключи текст энкодера тренировку и добавляй на основном по 100, проверя скорость оверфиттинга с помощью скобок при проверке модели.
>>72547 >Т.е. обучать на дефолтной модели (и мясных тянок, и рисованных), а потом мёрдж с понравившейся через Add difference? Ты проверил этот совет на практике или говоришь из теоретических соображений? Проверь и нам расскажи. Вообще я рекомендую хассан (дает нормальную текстуру кожи и свет) смешать с анифинггейпом (дает разнообразные позы, но нужно сразу в негатив азиатских шлюх кинуть) и держаться подальше от ультрапорна или как она там называется, это просто мусор с одинаковыми пездами и человеческими многоножками.
>Это я к тому, что лицевсратия (именно всратия, а не просто нарушения портретного сходства) почти не бывает, если лицо занимает примерно треть по ширине (и больше) от 512 пикселей. Нихуя. У меня был случай, когда челик кинул пак ему сделать 10 фоток, там ТОЛЬКО селфаки были, и одно лицо. На одной фотке нос был чуть широкий (я так понимаю говнолинза телефона). Тян блондинка, кожа белая, брови белые, глаза серые - на выходе через одну фотку ниггерши.
Вот кривоватый пример. Тут как видно бэк (деревья) вообще не анимешные. Если покрутить хасан+энифинг то можно добится реализма, но с выразительностью поз рисованных. Заранее извиняюсь за мой фетиш, надеюсь никого не оскорбил.Лица специально всратые.
У меня что-то сегодня вопрос внезапный возник. А как лучше вставлять собственный файнтюнинг? Я обычно пишу типа: (abunyasha), male, staying, at gym, selfie, cock visible, erection. Но я видел в примерах часто пишут (abunyasha) male, staying, at gym, selfie, cock visible, erection. Но как на самом деле лучше?
>>78193 Я к тому, что стабл не понимает, что это отдельный объект. То есть когда я пишу "(abunyasha), male, staying, at gym, selfie, cock visible, erection" по сути разве не получается, что оно применяется ко всей картинке? И если я напишу: "(abunyasha), male and female, staying, at gym, selfie, cock visible, erection" то мне не нарисует ТРЕХ человек: абуняшу, мужика и женщину. Мне нарисует двух человек, мужика и женщину с лицами абуняши. А как сделать, чтобы это был именно мужчина абуняша и разгневанная женщина-тренер спортзала, не выглядящая как абуняша?
>>78974 промпты можно писать и по несколько слов между запятыми. к примеру male in green outfit sitting, girl in red skirt standing, это повышает шансы того, что конкретный объект (male) будет привязан к green outfit и sitting или нет.
>>79717 Так вопрос в том, почему дримбудка тренируешь abunyasha больше не как объект, а как стиль. Хотя никаких настроек таких не стоит. Обучение на 5-7 фотках, 200/100, на любых выше просто постепенно от похожести лицом уходит в оверфит, закрепощает модель и всё. Если сверху кидаешь 1-2 модели на мердж, то вообще начинает оверфитится как ебучее животное уже после 5-6 тегов.
как мне huggingface.co/sd-concepts-library? Пробовал и .bit и ренеймил в .pt - один фиг по тегу ничего не генерится. Отклик от модели есть какой-то, но совершенно не тот, как на превью. Как эти концепты поставить на автоматик1111?
>>81876 Уже тыкал. Там наука и питон. Никаких моделей я не нашел. Мне надо самому качать либы и питонить это все вне автоматика1111 или что?. Я все еще не понимаю, как мне скаченный embedded заставить работать на локальной установке SD так же, как в онлайн превью. У некоторых стилей в инфо указывается модель, для которой оно варилось, например некоторые стили под waifu-diffusion сделаны, но у большинства никакой инфы нет и они ни с одной моделью у меня локально не заводятся как в онлайн превью.
>>86824 Вероятно, потому что они натренены в колабе от diffusers, в котором есть галочка "Поделиться своим творением в concept library". Те, у кого побольше уверенности в себе, жмают её не глядя...
Говорят, что там надобно руками конфиг писать. Ну да это ничего. Главное - теперь можно спокойно ставить двух и более персонажей на изображение. В целом - это прорыв. И можно будет избежать сиамокентавров как на пикриле, задав на верхнюю половину face в позитивы, а на нижнюю - в негативы...
>>91641 > И можно будет избежать сиамокентавров как на пикриле У тебя всё еще ебанутый оверфиттинг и как только ты добавишь тегов начинается перегруз. Сказал же. Трейни свою ручной кумбакет с 100/50.
>>91641 Да, и еще важно на что ты трейниш. Попробуй фотореал + энифинггейп сверху на это трейни своего монголоида, потом кидай промты типа naturalism, (((realistic))), detailed face, stunning, professional photo, high detailed photo, detailed background, slim, RAW photo, (((high detailed skin))), sharp, hyperdetailed, hyperrealistic , а все маняме в негатив. Если слишком мультяшно - кида сверху хассан бленд.
>>91641 И тести вот этим промптом: High detail, realistic, masterpiece, (furry wolf:1.4), sexual, hot, flawless face, relief body, petite, slim, masculine, large eyes, feet visible, close up, closeup, lewd, horny, orgasm, ahegao, nude, (anal:1.2), bedroom, (pov:1.2), sex, (cowgirl position), (on top), eyes contact, hands on body, penetration, penis, (bukkake, cum everywhere, cum splashes, cum puddles, cum streams, cum on face, choking on cum, cum on body:1.4), (((tongue out)))
>>33171 (OP) Как создавать эти модели? Вот например соберу я 1к картинок диванов каких-то, как из этого сделать модель? Сколько в идеале нужно пикч, в каком формате и т.д.
Модератор, ты мудак? Нахуя ты удалил всю суть треда? Из-за жоп с 4ми дырками блять? Хотел бы я посмотреть на этих дебилов, кого бы это обидело (Я УВИДЕЛ НА ДВАЧЕ ЖОПУ С ЧЕТЫРЬМЯ ДЫРКАМИ И МЕНЯ ЭТО ОСКОРБИЛО). Совсем уже ебанулись, вам всем нужен негативный промт: СИНДРОМ ВАХТЕРА.
Аниме, основной прицел на анатомичность. Общего назначения, в хентай могёт, хотя последние версии на нём почти не тестировал. Нормально совместимо с лорами трененными на с NAI/WD.
Годный диапазон CFG 8-14, но может и выше. Разрешение 768х768 норм. Также 960x540 (с целью апскейла в 1920x1080) тоже.
Скажи мне, анон, а что с тренингом на более высоких разрешениях? Ну sd2.1 768х768 - понятно: сетка есть, а смысла в ней нет. Ни обвес под неё толком е наработан, ни коммьюнити... Хрен пойми, как туда лошадь запрягать и файнтюнить.
А какие есть 1.5-based модельки, которые понимают 768х768 и, соответственно, не генерят бикини-кентавров?
Я пока только две знаю.
DreamLike PhotoReal V2 - крайне плохо обучаемая как по лицензии (тьфу, копирасты!), так и по результатам экспериментов. Лицо не схватывает, только общие черты типа расы и цвета волос.
Instagram-cafe - лицензия AGPL (слава опенсорсу!), обучать не пробовал.
Ещё какие-нибудь есть? А то всё миксы да миксы... Верно говорят - алхимия сплошная.
Куда класть файл TEXTUAL INVERSION? Пишут "Place the textual inversion inside the embeddings directory of your AUTOMATIC1111 Web UI instance". Но где эта папка? Поиск по embeddings не находит.
>>151719 Проблема как раз в том, что не нахожу папку для embeddings. И папки stable-diffusion-webui тоже нет. Если ее надо создать, то каков путь от корневого каталога должен быть? Допустим, C:\stable-diffusion-ui\...?? Создал папку С:\stable-diffusion-ui\embeddings\, поместил в нее эмбед - он что есть, что его нет.
Котаны, есть-ли тред для новичков по обучению? У меня домашка на функцию активации через сигмоиду на numpy Я в знаю что у меня ошибка в производных по весам и по смещению Но сам додуматься не могу
>>213591 > либо почему "либо", когда начиная с ноября SD у меня памяти больше жрёт 16хх поставил, збс. стало как раньше или даже чуть получше. всем рекомендую. опция "Tiled Vae без галки "move vae to GPU" модель для теста пока старая Аниthing3.0
поправка, как мин. для img2img свыше позволенных разрешений при НЕ ОЧЕ видимокарте надо ставить галку "move VAE to GPU". режим tiled diffusion не нужен. для txt2img хз. (--no-half и медврам в параметрах батника есть) не забудьте уменbшить tile size(512-. Может 384-)
>>62959 А uwpm, или тот же deliberate по твоему не может? Для нейросети в принципе это не "сложно", возраст легко скалируется, меняется пропорции и всё.
>>62959 >Товарищ майор плачет по создателям этого микса, так как оно может хорошо генерировать ЭТО, как в аниме так и в реалистичном стиле. В 1,5 и Кандинском даже (потому что в лион было) есть голые дети. К чему ты это сейчас высрал? Бстабер снесли только за то, что его якобы тренили на конкретном цп, но потом вышел стаберХ где эти картинки с датосетов удалили.
>>226031 >>Всё могут, потому что это легаси из 1,5. переведи ньюфагу пжст, 1.5 это стандартная модель stabble difussion 1.5? А что значит легаси? Типа дефолтная?
>>227286 То что практически все остальные популярные - это просто файнтюнинг 1,5. Соответственно они по умолчанию содержат все что есть в 1,5 + что-то еще. Грубо говоря.
>>164866 7 гигов для обучения своим вещам(ембединги и проч. Для деталей спрашивай профи-анонов) на максималках, если кратко. fp156 и fp32 из-за наличия/отсутствия операций с плавающей точкой различаются. одни числа длиннее, другие короче. оче влияет на владельцев карт 16хх, и, может, 10хх и более ранних, причем больше -- для старых версий SDwebui. (--no-half --precision-full) Б-же, какая капча г-вно
Аноны! Я хочу поставить Sapphire Radeon RX 6800 XT к своей MSI GeForce RTX 2070 SUPER. Они могут конфликтовать или встанут и будут работать вместе в StableDiffusion? Мать тянет
Баля с хагин фейса снесли мою любимую модельку Latte из yohan-diffusion от andite. Добрые анончики если у кого-то где-то она осталась то пожалуйста передайте мне
Процессор: Многоядерный процессор, такой как Intel Core i7 или AMD Ryzen 7, обеспечит лучшую производительность.
Графический процессор (GPU): Наибольший вклад в обучение моделей deepfake вносит GPU с поддержкой CUDA (для Nvidia) или ROCm (для AMD). Использование мощной GPU из серии Nvidia RTX или AMD Radeon может существенно ускорить процесс.
Оперативная память (RAM): Рекомендуется иметь как минимум 16 ГБ оперативной памяти, но больше RAM будет полезно для обработки больших видеофайлов.
Я год назад сделал пикрил, думал "ну через пару месяцев список моделей даже в картинку не влезит"... А щас чё? Где? Всё просрали? Где аккуратнве списочки моделей с крательнькими описаниями? Я дурак не сохранял их всех думая ну, нахуевертили там чёт ну и ладно... Да и никуда они не денутся. А по итогу что? Испарились.
На цивитаи какой то рейтинговый обсёр, модели которые хотят на всех стульях устдеть...
>>570025 Очевидно, что составление списков при условии высокой изменчивости это неблагодарное дело. По итогу каждый находит себе оптимальные модели в количестве нескольких штук, покрывающих большинство вариантов использования. Причем через месяц оптимальные модели уже могут поменяться.
>>339438 Я нашёл эту модель, на своём старом диске на котором сохранял всякий шлак год назад Chb + 3x0.15 +0.1 CSR d3baf55b f28502fca8.ckpt SHA256 f28502fca8ee6f95fe57c5656d3fdbbea5b6f3f57de92328039e46e7468f159b
хз откуда эти a17a25fc2b но модель точно эта, ген пик прилогаю
Скажите пожалуйста почему нейросети не генерируют текст. ну типа надписей на стене. хочу граффити по реквестам. или пока нет такого? какого хуя ультрареалестичную голую пизду он рисует а надпись на стене нет. (как на пикриле хуйня получается)
Анончики, подскажите, что это за нейросеть модель/лора? если есть возможность - дайте ссылку на civitai. Или подскажите, как сделать такие результаты в аи.
>>691042 Если на ЦП были ватермарки, то модель может начать воспроизводить их. Ну и тест роршаха для ИИ (запустить с пустым промтом) тоже может спалить. А так ЦП находили в датасетах стейблы, тоже мне новость. >>730235 Да в принципе любая аниме модель так может. Если брать специальные, то например https://civitai.com/models/28169 даёт похожие пикчи.