24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Stable Diffusion Flux тред X+130 ====================================== Предыдущий тред >>949460 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ новый мод на высокий CFG в DMD2 от местноанона - https://huggingface.co/YOB-AI/DMD2MOD/tree/main ------------------------------------------ схожий тематический тред - аниме-тред >>950833 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного бывшими разработчиками Stable Diffusion. Полный функционал в локальной установке (см. ниже)
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her ------------------------------------------ ♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇 https://supagruen.github.io/StableDiffusion-CheatSheet/ https://www.artvy.ai/styles ------------------------------------------ 💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td ========================================== 🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇 https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora https://civitai.com/models/train
>>954643 Ты зайди туда, там от индусософта ничего не осталось. Это наш тред. >>954648 Я в курсе, что это уже давно натвис+дмд тред про 1woman standing, но можно же развеяться. На самом деле, в /b/ и от woman standing некоторые охуеют. А если еще и лоры заюзать, то расшевелим это место.
>>954638 в /b/ тред не будет жить, надо это признать.
Сейчас вкатываться в SD стало сложнее, обычные битарды не будут морочиться с установкой комфи и ограничатся онлайн проприетарщиной, которую им пока что дают жрать кабанчики с барского плеча.
аноны, кто-то генерил на этой модели? выглядит круто, но результаты слишком мыльные, скилл ишью, но чет особо не вижу инфы в инете по ней, будто все родились уже со знаниями о модели
>>954787 Это вперд так работает, потому что на вперде лак оф дитейлс это фича, зато суперконсист и следование промту. Попробуй всякие консистенси траектори лоры, дмд и моды дмд с прошлого треда подходят.
Как сделать рандомный сид по настоящему рандомным? Вот я не указал место, внешность, запустил 10 генераций и мне и мелкими отличиями насрало почти тоже самое. И если указать место типа парк то там будет именно один и тот же парк. Как этот "рандом" работает?
>>954839 Через wildcard делай. Вписывай туда 10+ или скок надо вариантов и будет случайный из них выбирать. Просто так тебя сильно случайного не на выдаёт, так как там другие слова подтягивают всё что ты не указал.
>>954839 Никак потому что рандом влияет на исходный шум из которого будет восстанавливать картинку, а не на детали которыми будет восстанавливать. Чтобы поменять набор деталей тебе нужно указать конкретный парк или его особенности и надеяться что они повлияют на CLIP, тогда набор деталей будет чуть другим. Ну или тренить лору на фотки конкретного парка.
Может кому-то пригодится. Сделал страницу для сравнения лор/чекпоинтов. Сначала генерите X промптов на первой лоре/чекпоинте, столько же на следующей и так далее. Затем переименовываете это всё в Проводнике в image, индексы Проводник добавит сам. Кидаете эти генерации в папку 'images', кидаете рядом этот html и запускаете. Выставьте правильное количество промптов (Sets), количество моделей должно угадать само. Жмёте Размешать, результаты в статистике должны примерно усредниться. На экране должно быть видно несколько пикч с разных моделей в случайном порядке, но с одним промптом. И начинаете тягать пикчи, выставляя по собственному предпочтению, слева-направо, сниз-вверх, сначала та, что лучше всего получилась. Колесико мыши или стрелки листают страницы. Как закончите, слева будет наглядно видно, какая модель вам действительно понравилась больше. Может помочь с решением какую эпоху натрененной лоры оставить, какая из сотни лор эммы уотсон лучшая или выбрать любимую версию натвиза под дмд.
>>954566 (OP) >новый мод на высокий CFG в DMD2 от местноанона >>954361 → >В общем вот несколько моделек На цивит запостишь? Там какого-то хуя исчезла оригинальная DMD2. И LCM в цивитовском генераторе нету.
>>954792 дмд не подходит или я не разобрался как использовать 8 шагов на лсм карасс делают изображение будто никакой лоры нет и мне буквально 8 шагов рисует но и на 50 шагах ситуация та же
>>954966 кфг1 поставь, перепроверь что поставил лцм а не лмс. А вообще лучше скрин параметров кидай, может ты там вае таесд подключил или еще какую глупость.
>>954972 Ты поклоунствовать решил? Архитектура SDXL, но свой трен с нуля и даже подход к данным другой, все есть в тех. доке. Не говоря уже про то, что буквально написано базовая модель.
>>954987 >Для плейграунда веса SDXL никак не использовались. Архитектура сдхл построена на датасетах LAION, COCO, OpenImages, физически собрать такой гигантский объем данных и натренировать их без мощностей стабилити микрочеликами с плейграунда невозможно, поэтому твой тезис фактически неверен, веса сдхл внутри плейграунда на месте. Касательно CT лор - они работают не с файнтюненными весами, а с данными архитектуры, поэтому то что дмд может не работать с пг это крайне маловероятно, щас зачекаю.
>>954787 Одобряю. Так-то юзал его долго. Очень годная модель. Ограничения - квадрат, не нсфв. Зато в кровищу шикарно может. Я как-то вбрасывал итт в начале года ртутную бабу с дефолтным воркфлоу без лора и т.п. и на тот момент было прям неплохо.
>>954991 >щас зачекаю Да, CT лоры не работают, но ошибок несовпадения весов нет. То есть это EDM подсирает и нужен какой-то доп костыль трансфера лор под EDM.
Аноны, добыре люди, объясните, как всё это собирается? Вот у LLM относительно всё просто. Есть модель, и есть фронтенд, который по сути работает с моделью и уже в этом фронтенде и размер контекста настраивается, и прочие параметры хранятся. В случае с рисовальными генеративными сетями такая же ситуация? Или это как то иначе реализовано.? Вот есть фронтенд Комфи ,как я понял. Посоветуйте тогда модель, саму нейронку, для генерации реалистичных дам. В первую очередь интересуют некоторые звезды ТВ
>>954999 Если по аналогии с ллм, то это почти так же, но представь что ты когда ставишь: температуру, семплинги, пенальти и т.п. в настройках ллм, сохраняешь конфиг и забываешь для конкретной ллм, то тут ты будешь пердолить каждый раз настройки в фронтэнде почти реалтайм не только с разными моделями, но и с одной и той же по несколько раз за сеанс. И здесь не модели разные, а чекпоинты. Модели это база. Но да, может проще говорить - модели. Ну попробуй джагернаут, там всёвключено и вероятность что там будут селебрити почти 90%. Не юзай никакие мержи - это кал васянов. Мерж любой школьник на коленке в комфи может сделать за наносек.
>>954999 >В случае с рисовальными генеративными сетями такая же ситуация? Нуу да. Только фронтенд это интерфейс просто, а бекенд питоноскрипты и работа с диффузерами, второго ты просто не касаешься. >Посоветуйте тогда модель, саму нейронку, для генерации реалистичных дам. В первую очередь интересуют некоторые звезды ТВ Если тебе нужны конкретные ебальники, то нужно или найти натрененную лору (или натренить самому) на этот ебальник и ее уже подключать в основную модель, вероятность что концепт какой-нибудь Аси Говновой будет содержаться в модели примерно нулевой, сама базовая модель содержит основные понятия наверно только о звездах уровня бредпиттов, у файнтюнов в принципе то же самое, вот допустим я взял кальцион.
Можно поступить более проще - всять фейсид/инстантид/ипадаптер и скормить им ебальник, который будет вписываться в ген.
По самим моделям ну смотря что тебе надо. Есть фул нсфв, есть софт, есть ноннсфв, много моделек кароч.
>>954991 >Архитектура сдхл построена на датасетах Архитектура это принципы устройства, а датасет это картинки и их описания на которых тренировали. >натренировать их без мощностей стабилити Нормальные у них мощности "After bringing our 256xH100 cluster online in October 2023, we swiftly advanced towards training our first foundation model from scratch, and we released Playground v2 by December of the same year—less than three months later." Обрати внимание, foundation model, from scratch, хоть это и про 2.0.
>>955004 > И здесь не модели разные, а чекпоинты. Модели это база. Но да, может проще говорить - модели. Одна модель, но разные чекпоинты? И все эти чекпоинты разные? Как они работают? >>955010 >Если тебе нужны конкретные ебальники, то нужно или найти натрененную лору Про лору я знаю. Мне бы какую то базу что ли, поверх которой я уже могу лору накатить. Вот, хочу генерить реальных человечков. > Есть фул нсфв, есть софт, есть ноннсфв, много моделек кароч. Есть какой нибудь топ? На что смотреть тоже непонятно мне.
>>955011 >Архитектура это принципы устройства, а датасет это картинки и их описания на которых тренировали. Так архитектура не заработает без знаний.
>256xH100 Жиденько.
Stability AI, по открытым данным и заявлениям, управляет кластером с более чем 5000 GPU. Большинство этих GPU относятся к категории высокопроизводительных, таких как NVIDIA A100 или H100, которые являются стандартом для задач глубокого обучения.
>>955016 >Одна модель Одна базовая модель, которая является фундаментальной архитектурой, знает много всего, но генерирует посредственно или средне (неприменимо ко всем в прочем, есть сд 3.5 допустим которая хорошо генерит изкаропки, или дистиллят флюкспро в виде флюксдев). Ее задача предоставлять базу для коммьюнити рисерч и файнтюнов. >но разные чекпоинты? И все эти чекпоинты разные? Как они работают? Вот смотри у тя есть базовая модель. Ты решаешь файнтюнить модель на датасете условно 1 миллион картинок с кучей новых концептов внутри. Получается новый отличный от базы чекпоинт с другим качеством генераций и другими дополнительными концептами. И так для каждой файнтюненной модели. Да, это разные чекпоинты. >Мне бы какую то базу что ли, поверх которой я уже могу лору накатить. Вот, хочу генерить реальных человечков. >Есть какой нибудь топ? Ну попробуй базу треда для голых пезд https://civitai.com/models/617652?modelVersionId=1030169 > На что смотреть тоже непонятно мне. Идешь на цивитай, фильтруешь модели по тегу TRAINED и семейству архитектуры, смотришь.
>>955048 V-pred: модель предсказывает скорость изменения (velocity) изображения. Это улучшает стабильность и снижает необходимость в отрицательных промптах, поскольку ошибка в предсказании скорости менее чувствительна к мелким деталям. Как правило, способствует более плавной генерации с фокусом на общих формах и композиции. За счет того, что модель предсказывает скорость изменения, изображения получаются стабильными, с меньшим количеством артефактов и "зернистости". Но при этом v-pred может немного потерять в детализации — мелкие текстуры и тонкие линии могут быть сглажены или менее выражены.
Eps-pred: модель предсказывает непосредственно шум (ε) в изображении, который добавляется на каждом шаге. Этот метод популярен в более старых моделях и дает точные результаты, но требует настройки по количеству шагов и конфигурации для снижения шума. Обеспечивает точное восстановление деталей, так как напрямую предсказывает шум. Этот метод позволяет модели захватывать мелкие текстуры и высокую детализацию, включая тонкие линии и текстуры поверхности. Однако eps-pred может быть менее устойчивым к артефактам и шуму, особенно при работе с большим количеством шагов, что может сделать результат более "зернистым" и чувствительным к настройкам.
В общем, v-pred предпочтителен для более гладких, менее шумных изображений, особенно если важна стабильность на низких шагах, тогда как eps-pred лучше для детализированных, текстурных изображений, но может требовать большего контроля над параметрами генерации.
>>954566 (OP) может я не по адресу. скажите, какой нейронкой можно заменять фоны для вещей и одежды на маркетплейсах? сам нищук, ищу способы заработать на кворке
>>955043 → >А в чём сделал? Я уже просто не отвечаю на такие вопросы, потому что некоторые рвутся на мелкие части от ответа. Попробую ещё раз: сделал в натвис+дмд2+спо с помощью фокус. Инпеинтил в нем лица и что-то ещё. Заметно что лица, из-за этого стали чётче чем всё остальное и я подумывал чтобы размыть их немного, что бы скрыть инпеинт. Интересно кто как решает это? Пробовал проходить после со слабым денойзом всё изображение, но не понравилось что теряются мелкие детали.
>>955140 ставь фокус и мозги не еби ни себе ни окружающим, всё внутри есть уже, (portable) ничего jnltkmyj ставить не нужно, своя импАинт-модель (так лучьше?). Выбираешь реалистик профиль, стилизацию: гипереалистик, Fooocus negative для борьбя с уродствами, и volumetric light. Всего 3 фильтра и ты охуеешь. + ко всему можешь добавить улучшайзеры типа флюкс styled лоры.
>>955140 >дефолтная модель, генерирует сюрреалистический кривой бред Что там по дефолту качается в каломатике без наличия моделей в папке моделей напомни? Полторашный чекпоинт? Ну так что полтораха что сдхл базовые не предназначены для простой генерации без нужных навыков и знаний.
>>955109 Ноды есть в комплекте с комфи. Воркфлоу базовый плюс вставленная нода с пикчи. Базово любой впред требует левую ноду, и только плейграунд (и чекпоинты на его основе) едм впред под себя справа.
>>955207 Тем что это не понибейз говномердж аутизм, а натрененный на овер 8 лямах картиночек с данбуру и е621 чекпоинт, со всеми описаниями оттуда в том числе и калцептами которые ты можешь встретить на перечисленных сайтах. Считай нубайку убийцей поней по возможностям, динамике и тд и тп.
>>954901 >или выбрать любимую версию натвиза под дмд тут без вариантов 1ая просто потому, что в первой по-дефолту блеклый и мыльный файнтюн, который с дмд становиться будто идеально завершённым, натвис выше версиями менее эстетичо и менее уважительно смотрится в сравнении с 1й
>>955345 >Да, SD 1.5, pruned emonly что бы это не значило Не надо это использовать. Это совсем сырая база для тюнинга, не для генерации. Скачай человеческий файнтюн, какой-нибудь EpicPhotogasm или хоть банальный Dreamshaper для начального освоения. Ну это если тебе именно 1.5 модели нужны, типа комп не тянет иксельку. https://civitai.com/models/132632/epicphotogasm
>>955415 О, значит не такая соевая. Надо будет попробовать без цензуры у себя запустить как только приедет видеокарта. >>955420 Во-первых, не все тут сидят с GPRS интернетом. Во-вторых, в исходном посте есть ссылка на онлайн-демо.
Попытался поставить поней, но вот что вышло torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 26.00 MiB. GPU 0 has a total capacty of 6.00 GiB of which 0 bytes is free. Of the allocated memory 12.28 GiB is allocated by PyTorch, and 435.76 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF Это кiнец?
>>955425 Не... Щас поставлю голый комфи рядом гляну, надеюсь это не на моей стороне пайпы погнуло, лол. У тебя там кстати высота странная, я учёл и это если что.
>>955431 Во, запустил на свежем комфи, релизнутым 50 мин назад. Даже настройки не менял -1й пикрел. Мой обжитой комфи, что я выкладывал скрин с кастомками - 2й пикрел. Анон, ты там чёт у себя перепердолил походу и забыл.
>>955429 >надеюсь это не на моей стороне пайпы погнуло Я всетаки думаю что у нас просто почему-то с разных устройств берется инишл нойз Был какой-то пак нод где можно устройство выбирать с которого нойз выдавливается (цпу или гпу)
>>955433 Хз сколько у того анона что ты спрашиваешь, но у меня 4060ти8врам, брал когда ещё не было версии с 16, так вот на флюс деве 1 мин 20 шагов, на всех остальных сдхл там настолько быстро, что не замечаю даже. Специально, осознанно под нейронки я бы щас брал версию с 16 конечно.
>>955059 >V-pred: модель предсказывает скорость Не могу представить как оно там под капотом выглядит, но у меня всегда один большой вопрос к таким методам, аналогично тому как делают апскейлеры фпс видео по двум соседним кадрам, а про производную, ака ускорение, мы типа забыли? Похуй, да? В видео, очевидно, кадр хотелось бы считать не только по двум соседним. А здесь что?
Говно ваша ссана. По скорости как XL, но VAE ультрашакальный, качество просто дно. При этом все минусы флюкса на месте и приумножены. Дикий блюр что даже флюкс позавидует, негатив не помогает. Новый уровень цензуры - если в промпте хотя бы одно слово типа ass/tits, генерирует красное сердечко как на 4 пике, такой анальной цензуры вроде даже в SD 3.0 не было. Лица как будто на генерациях флюкса тренили - флюксоподбородки на месте, но при этом жуткий пластик. Вместо дашкама что-то совсем не понятное, как будто картинг, медведя на дороге в принципе отказывается генерить, вообще ни в каком виде.
>>955450 Будто это неудачный файнтюн шнеля. Судя по волосам ссанина не умеет в тонкие линии, струны и провода, даже трава выше на пике странная сетка. Бля, даже нубаи может струны и провода...
>>955450 > генерирует красное сердечко как на 4 пике А нет, напиздел. Это в их демо сэйфти-чек встроен. Но когда убрал начались флешбеки флюкса. Они реально на генерациях флюкса тренили, блять?
>>955453 Домики наверное даже кривее полторахи. В текст умеет плохо - первое слово пишет, дальше уже всё. Цветные ящики ставит друг на друга как положено, но нахуя при таком оно надо не ясно. Если разрешение выкрутить, то становится получше, но всё равно шакально.
Различные версии драйверов и библиотек Драйверы видеокарт и CUDA могут использовать различные алгоритмы оптимизации, что также влияет на точность и результат. Например, различия в версиях torch, numpy, или других библиотек могут привести к разным результатам при тех же настройках.
Псевдослучайность (stochasticity) семплера Семплер euler_a (Euler ancestral) является стохастическим — он добавляет случайный шум в процессе генерации изображения. На разных видеокартах этот шум может быть сгенерирован чуть иначе из-за различий в обработке случайных чисел. Если начальные состояния генератора случайных чисел не идентичны (например, из-за платформенных различий), это также может влиять на результат.
Разная архитектура GPU Различные поколения архитектур NVIDIA (например, Ampere, Turing, Pascal) имеют свои оптимизации и особенности работы с арифметикой. Это может проявляться в разных интерпретациях одних и тех же вычислений.
У меня есличе 3060 и старая версия дров + куда 12.1 в системе
>>955317 Проще сразу сгенерить в правильном порядке, чтобы удобней было переименовывать. С пикрила сразу будет порядок - первая модель: промпты, вторая модель: промпты и так далее. С трех промптов, естественно, ничего не понятно, нужно побольше сетов или тестов, чтобы понять какая лора или настройка нравится больше. Как считается: если всего оценивается 4 модели, то первая пикча получает 4 очка, последняя - одно. Поэтому в результате даже самая плохая модель набирает больше 0%. Можно подправить в коде, если так не нравится.
>>955500 Странно. >>955502 Ага, контрольные суммы совпадают. Я помню когда натвис вышел я эту картинку воспроизвёл 1 в 1. Комфи поменял с тех пор что-то в себе, так что не важно.
Анончики, сгенерьте пожалуйста какого нибудь мультяшного персонажа, типа спанчбоба, только чтоб стилистика была как в мультике, не 3д. Хочу вкатиться, но интересно, может ли он нормально генерировать такое.
1й пикрел автора натвиса, 2й пердолинг https://github.com/BlenderNeko/ComfyUI_Noise нода без реквайрментсов и без установки самый близкий результат к оригиналу, нахуя я это делал, но теперь можно спать
Вроде как вкатился. Скачал фокус, скачал пару простых чеквеоинтов и лор, нагенерироыал всякое. Но куча неочеивдных вопросовк конечно. Иногда лора просто не делает июрабоиать. Иои еали я жоч от лоры лишл внешность человека, но поза из другой лоры, то как это расписать. И вот я правильно понял, что я, условно, качаю флюкс, качаю чекпоинт под него, сверху этого лоры и уже потом настраиваю?
кто нибудь тренил лоры для flux локально? у меня самое смешное что тренировка только на комфи запустилась нормально. OneTrainer при старте лезет на хагинфейс и пытается скачать json а поскольку там надо логиниться он получает хуй. Kohya_ss версия Flux после установки выглядит как обычная версия, в ней вообще не появилась опция тренировки flux
Ребят, помогите кто-нибудь - буду очень благодарен. Второй день занимаюсь сексом с workflows comfyui,
Проблема с BrushNet и ControlNet - они не загружены нормально или в другом проблема...
Вроде все модели есть, но не активна кнопка выбора
ControlNetLoader: - Value not in list: control_net_name: 'control_v11p_sd15_lineart.pth' not in [] VAELoader: - Value not in list: vae_name: 'vae-ft-mse-840000-ema-pruned.ckpt' not in ['taesd', 'taesdxl', 'taesd3', 'taef1'] BrushNetLoader: - Value not in list: brushnet: 'brushnet/segmentation_mask.safetensors' not in []
>>955844 модели брашнета в ComfyUI\models\inpaint (можно в подпапках как на странице установки пик1 указано) vae в ComfyUI\models\vae контролнеты в ComfyUI\models\controlnet
и никакой кириллицы в полном адресе не должно быть
Нашел интересный пак нод https://github.com/chrisgoringe/cg-noisetools, позволяющий управлять формой шума. Результаты очень интересные, выросла консистенция и адхеренс к промту. До, после. Если еще атеншнер включить то вообще еще лучше, пик3. Все на 15 шагах без негативов с дмд, настройки нойза пик4
>>955893 чекпоинт просто любая полная модель ембединги дополнительные фиксированные наборы векторов, которые добавляются к текстовым или визуальным входным данным, не изменяют веса модели, устаревшая хуйня рефайн это метод двухпроходной генерации когда тот же чекпоинт или другой докручивает за моделью на первой стадии генерации, уточняет и добавляет детали, работая на более высоком разрешении
>>955887 woman lying on the grass, yellow bikini, sunshine, cola bottle on the grass пик 1 дефолт пик 2 шум + атеншнер пик 3 дефолт + атеншнер если че атеншнер seg
>>955627 Позу старайся задать промтом, а лицо через Лору, никогда не ставь вес больше чем: 0.8, в каждом сиде свой базовый хлебальник, вопрос лишь в том, насколько он будет совместим с лорой, в случае когда нет дисонанса результат будет нормальный. Тут есть качели, чем сильней понимаешь вес Лоры, тем перс будет больше похож, но датасет у Лоры меньше, чем датасет модели, и поэтому выражением лица будет управлять тяжелее, морда будет все время кирпичом. Любая лора одежды содержит свой датасет со своими бабами, и они будут оказывать свое влияние на твоего персонажа, так что использовать их надо аккуратно, начинать с очень маленьких весов, по чуть-чуть поднимая и наблюдая, за тем будет-ли меняться персонаж. Про флюкс забудь, он требует ебануться каких ресурсов по железу. За один проход редко картинка получается на 100% готовой, всегда нужно уточнять лицо, руки, элементы одежды через импайнт. Как понял?
>>955942 >>955897 Ну и вопрос насчет фокуса. Если ставишь чекпоинт, то модель нет смысла вставить? Чекпоинт дополняет модель, или она standalone/самостоятельна?
>>955945 >насчет фокуса. насчет фокуса - дропай его нахуй, самый ублюдский UI, все профессионалы 40 лвл итт сидят в https://github.com/comfyanonymous/ComfyUI >Если ставишь чекпоинт, то модель нет смысла вставить? > Чекпоинт дополняет модель, или она standalone/самостоятельна? чекпоинт и есть модель, работает самостоятельно, к ней подключаются дополнительно дополнительные модели с концептами в виде лор и прочие мокрописьки
>>955948 Я тупой, и Комфи кажется мне сложным > прочец микрописьки А какие еще, кроме лор, есть? А так, я про флюкс спрашивал, ибо сейчас на SDXL. Или SD1.5. Какие требования у флюкса? Нифига непонятно. Ещё пони есть, на который очень много контента
>>955952 >и Комфи кажется мне сложным Ничего сложного, все что тебе нужно знать для базовой работы на пикриле. >А какие еще, кроме лор, есть? Да много чего, контролнеты, ипадаптер, брашнет, раунет/дипшринк, атеншнеры, апскейлеры... >А так, я про флюкс спрашивал >Какие требования у флюкса? Флюх все равно на факасе не запустится, тем более тебе нужно в комфи топать, т.к. там есть поддержка квантованных гуфов и залезет в нищенскую карту в целом или с оговорками по времени смены моделей. Вот у тебя какая карта? >Ещё пони есть, на который очень много контента Ну пони это сдхл бейзд.
>>955954 Ну и нахуй ты мне скинул ентри левел для детсадовцев? Я про нагромождение макарон как в факторио Там у челов вообще какие то непонятные функции непонятно че делающие но без них типа картинка кал получается
>>955954 > вот у тебя какая карта 4070. > >и Комфи кажется мне сложным > Ничего сложного, все что тебе нужно знать для базовой работы на пикриле. Ну так выглядит просто. Разве что непонятно, почему VAE модель отдельная нужна. Как я понял VAE из пикселя в шум и обратно переводит. А зачем тут модель то нужна? > Да много чего, контролнеты, ипадаптер, брашнет, раунет/дипшринк, атеншнеры, апскейлеры... Кроме последних двух остальные для меня новые инструменты > Ну пони это сдхл бейзд. Лоры взаимозаменяемые?
>>955958 >4070 Ну вот, у тя 12 гигов. Если тебе нужен флюх то идешь качать базовая модель https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main t5 https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf/tree/main + докачать clip_g и clip_l (они весят 1.6 гига вместе) + 327 метров вае флуха Допустим берем квант основной модели Q4KS это 6.81 гига, берем клипг и клипл на 1.6, качаем вае на 327 метров, остается 3.2 гига на т5, значит берем T5 в кванте Q4KM, итого у тебя полноценная модель без выгрузов частей на рам будет в карте висеть. > почему VAE модель отдельная нужна Это просто чтобы понимать что ее можно отдельно, если она в модель не запечена. Допустим во флюхе она так отдельно подключается. >Как я понял VAE из пикселя в шум и обратно переводит. Вае переводит из пикселя в латент если у тебя есть входное изображение. Если его нет то изначально берется латент на основе сида. >Лоры взаимозаменяемые? Только работающие с архитектурой (убыстрялки) и совсем редкие типа адддетайлс насколько я помню, в остальном нет, для пони нужны свои натрененные на пони лоры.
Чем можно ускорить флюкс? Накатил его на Forge и пиздец как он медленно генерит, в 20 раз дольше чем поня.
Я понаставил ускорялок по гайдам (vae + клип энкодер), но мне кажется что они нихуя ни на что не влияют. Разве что fp8 диффузия даёт быстрый результат в виде отказа вычислять картинку, но это не тот вид скорости, который кому-либо интересен).
Можно списать тормоза на нищую видеокарту 4GB, но я погуглил - на форумах 32GB бояре жалуются, что картинку им выплёвывают спустя пять минут, а не две секунды.
У кого-нибудь есть опыт сравнения комфиуи и форджа?
>>955968 Какая сложная схема то. Но вроде понятно. Вернусь домой буду пробовать. Я еще слышал, что генеративные сети очень чувствительны к памяти, и выгрузка на вторую видеокарту уровня р1000 или р102-1000 очень серьезно отразится на скорости. Это так?
>>955977 У тя на пикчу 2 часа генерило лол? Ебать ты терпишь. >Чем можно ускорить флюкс? Ну ты сравнил, сверточный юнет против рфлоу, RFLOW архитектура флуха не оптимизнута нихуя и считается гораздо труднее для карты, так что только купить норм карту 4090, чтобы ощутить себя человеком. >но мне кажется что они нихуя ни на что не влияют Да. >в 20 раз дольше чем поня >Можно списать тормоза на нищую видеокарту 4GB
ну то что у тебя на четырех гигах вообще что-то работает уже чудо, даже если взять во внимание что у тебя ублюдский nf4 дело в том что у тебя веса ни одной из частей модели не помещаются в карту полностью и отгружаются в рам, поэтому происходит ебейшее падение производительности
теоретически на 4 гигах можно попробовать частями грузить квант Q2K который весит 4.03 гига, но сам понимаешь даже он тебе залупу покажет
>>955993 >У тя на пикчу 2 часа генерило лол? Ебать ты терпишь. Я пообедал и погулял за это время, специально оставил эксперимент на время, когда пекарня простаивает. Но похоже, флюкс до обновы пекарни не подойдёт в мой пайплайн.
> ну то что у тебя на четырех гигах вообще что-то работает уже чудо Я тоже был удивлён, насколько за год лучше стала оптимизация. Раньше мне приходилось руками вписывать аргумент запуска что-то уровня "low vram", сейчас нехватку видеопамяти автоматически детектит (и в консоли на каждом тике попускает).
> так что только купить норм карту 4090, чтобы ощутить себя человеком. Всё так. Просто флюкс, похоже, даже владельцам топовых карт может дать пососать, если его неправильно готовить.
>>956007 > насколько за год лучше стала оптимизация. Это кожанка обнову выкатил год назад на драйвера, вместо OOM вылета теперь автоматом все невлезающее сгружается в рам и ждешь вечность. Оптмизация яебу.
>>956007 Анон, у меня генерит 20 шагов 1 мин на моём ведре и это пиздец долго, НО. Оно того вообще не стоит, поверь. Пикрел - частота генерации у меня на флюссене. Блюр, сфв, жопаборода, дженерик ёбла, неестественность композиций, нихуя селебрити не похожи на себя, понимание стилей на уровне 1/10 от базовой сдхл. Ну хуй знает почему я ещё не снёс этот кал.
>>955984 >что генеративные сети очень чувствительны к памяти, и выгрузка на вторую видеокарту уровня р1000 или р102-1000 очень серьезно отразится на скорости. Это так? Не совсем так. Сетки чувствительны к памяти когда ее нехватает, тогда веса сгружаются на рам и ты сосиошь как тут >>955977
Фактически ты можешь части модели рассовать по разным картам (есть ноды специальные для этого), но поделить условную модель с весами которая весит например 7 гигов на части нельзя будет.
Юзкейс примрено такой: на одну карту идут веса размером 7 гигов, на вторую т5, клипы и вае, итого будет то же самое как использовать одну карту но с использованием двух разных карт.
Это касается картиночных. На ллмках можно послоям на карты раскидывать, чем успешно и занимаются.
>>955942 >она как? Она не умеет в еблю, вообще флюкс в целом не умеет в еблю, он даже соски не может нормально нарисовать. Так что пока флюкс идёт лесом. Портретики-хуетики, ок, но не больше. Вероятно это не надолго, и кто сделает что-то на базе него, но не завтра, так что забудь пока и голову себе не забивай. Также не слушай ебланов с проводами, это ебаные сектанты, им нужен тот кто им будет в рот заглядывать и теребонькать их чсв. Ты для них 0, сам по себе. Как понял?
>>956035 >Также не слушай ебланов с проводами, это ебаные сектанты, им нужен тот кто им будет в рот заглядывать и теребонькать их чсв. Ты для них 0, сам по себе. Как понял? хуя себе факассина рванула
>>956029 Ну про ллм я знаю. Потому и спрашиваю. А то, что видеокарты будут из разных поколений, Ада и Паскаль, насколько сильне скажется на скорости? Да и имеет ли смысл,честно говоря?
>>956041 Комфи для тех кто хочет делать как он хочет, а факас для домохозяек, которые посмотрели видос инфлюенсера про "мижорни у вас дома одна кнопка шедевры бред питт" и восхитились.
>>956043 Это тот же фокус по сути. Фокус это собирательный образ вебюай с фиксированным конфигом, где можно только выбрать из того что илюша одобрил. Это как айфон, где барин решат что для тебя лучше всего, а не ты.
>>956046 Скорее для мазохистов. Я был наслышан о НЕВЕРОЯТНОЙ СЛОЖНОСТИ комфи для подпивасов, а когда сам пощупал — охуел. НАСКОЛЬКО же комфи, блядь, понятнее и приятнее ебаного фарша, просто небо и земля нахуй.
>>956041 >для заводчан для начинающих. потом если не сблеванёшь можешь потихоньку ковырять это корявое говно, пока очередная ещё более кривая обнова разъебёт всё к херам и оно перестанет даже загружаться) Тебе нужно для начала разобраться с общими принципами, понять как и что работает.
>>956042 >А то, что видеокарты будут из разных поколений, Ада и Паскаль, насколько сильне скажется на скорости? Ну там принцип что то что ушло на карту, то на этой карте и будет считаться. То есть т5 на одной карте будет считаться, а сам просчет генерации после обработки клипа уже будет делать карта с весами модели. В принципе никак на скорость не повлияет, разве что пару сек времени добавит на перенос инфы по шине псие с одной карты на другую через рам. >Да и имеет ли смысл,честно говоря? Разделять модели по картам? Ну если у тебя две карты одна 16 гигов, а вторая 8 то по сути у тебя одна карта на 24 и ты берешь условный флюх Q8 в 13 гигов (потери от фуовой модели вообще незначительны), на другую кидаешь клипы, вае, и Q8 Т5 (сейм по потерям от фуловой т5) и у тебя еще остается сверху на то чтобы генеритьразрешение повыше и поключать лоры и всякие мокрописи.
Мдаа... Почему так нахуй? 3060 народная карточка а всего 1.4ит в сек... На некоторых семплерах так вообще 2 секунды на ит Так жизни не будет надо походу на 1.5 перекатываться с 18 картинками в сек как на том графике..
>>956188 Локальный клип, глобальный клип, т5 трансфррмер ллм. Все три переводят твой пердежный промт в понятные для сети цифорки. Флюхговно не умеет работать с клипами без т5, в отличие от сд3.5, так бы можно было сэкономить врам и не юзать т5.
>>956228 > А я думал этим вае занимается. Что тогда на входе делает вае? Если нет входного изображения, то ничего. Если есть входное то преобразует в латент спейс (сеть работает с латентным шумом, а не пикселями). На выходе преобразует из латента в пиксели. > > все три > А каждая отдельно что делает? Г глобальное понимание контекста, л детали и точное соотствение изображения описанию, т5 улучшает промт чтобы сеть понимала что где зачем в какой форме и нахуя находится.
>>956231 Я наверно задолбал вас мвоими тупыми вопросам. А что из себя с точки зрения информатики представляет латентный шум. Или это уже углубление слишком и не здесь мне спрашивать про это?
> А что из себя с точки зрения информатики представляет латентный шум. многомерное сжатое пространство признаков, в котором данные представляются в числовых абстракциях
>>956051 Как приятно перекидывать провода, чувствую себя электриком такой кайф, захожу не для генерации, нахуя она нужна, у меня и видяхи то нет, дайте мне провода покидать. мимогомфи
>>956353 Я тоже не могу оторваться, иной раз так хочется узелок на память завязать, что-бы хлеб не забыть купить. Я это дело ещё в детстве полюбил. когда на курсы макромэ ходил, мама настояла, я поначалы брыкался, а потом каак втянулся, потом ещё вышивать крестиком начился и дружил только с девочками, но они меня не привлекали.
>>955977 Забей. Просто качай сд и сри в тред про флюксокал, как делают это все нищие и кривые итт. Это путь. Может когда-то заработаешь денег, тоже сможешь генерить готовые сложно-промптовые пикчи за 15-20 секунд. Нужно всего 30-50к рублей, бюджетная видеокарта на 12-16ГБ.
Затестил LTX. Качество лучше китайцев, в основном мутантов генерит из-за всратого VAE, но это уже уровень первых версий SD, что-то осмысленное можно генерить. Скорость хорошая, 1 секунду генерит за 3-4 секунды. VRAM жрёт ультрамало, меньше 10 гигов.
Анончик, подгони, пожалуйста, простенький воркфлоу под комфи, чтобы просто работал и не выёбывался. Работяга хочет генерить мультяшных девочек и шоб ёбла не колбасило сильно...
>>956476 Пони и по вкусу несколько лор на стиль/персонажей. Я пользуюсь дополнительно лорой easynegative (подключаю к негативному промпту), но иногда всё равно генерит уродов и артефакты.
>>956051 > Я был наслышан о НЕВЕРОЯТНОЙ СЛОЖНОСТИ комфи для подпивасов, а когда сам пощупал — охуел. НАСКОЛЬКО же комфи, блядь, понятнее и приятнее ебаного фарша, просто небо и земля нахуй. Пощупал комфи, вообще не вижу преимуществ перед форджем на небольших сценариях генерации. Это надо сильно хитровыебанный комбайн собирать (например, генерить картинку, распознавать на ней положение нейронного недо-текста и замещать его на фразу ТЫ ПИДОР).
Покажите самый хитровыебанный, но всё ещё полезный пайплайн на комфи, кстати.
>>956537 >тоже что и все ага. винду переустановил, вместо того чтобы консоль почитать и разобраться в ошибках. или скинуть их сюда, вместо пикрил унылого скрина. уже одно это показывает какой ты долбоеб.
Новая версия комфи ломает воркфлоу нахуй. Если переключиться между табами с воркфлоу, то он не сохраняет изменения и сбрасывает на состояние до изменений. Так же не работает иногда сейв воркфлоу, сбрасывает нахуй. Пидорасы криворукие. Джва часа ердолил воркфлоу, переключил таб и всё сбросилось сука.
У нас сегодня день пердолинга с комфи? Тоже сейчас решил новую версию накатить и 2 часа проебался, мое воркфло фризило по 2 сек, я заебался настроечки тыкать, ноды частями удалять, браузер другой поставил, оказалось они исправили баг в новом фронтенде. https://github.com/comfyanonymous/ComfyUI/issues/4820
Еще эта панелька теперь внизу всегда, я уже привык что она вверх съезжала. А новая занимает много места просто так и неудобная.
>>956571 Easynegative импортер с civitai скачивал мне в папку с эмбедами, но мне удалось заставить comfyui его видеть в лорах, только положив в папку с лорами.
Сейчас попробую сгенерить картинки с ним и без него с почти пустыми промптами, чтобы посмотреть на разницу.
Да ебанные овцы, специально для хлебушков есть же "StabilityMatrix", поставил и некакой ебли. Нажал одну кнопочку и комфи поставился, нажал вторую и генери 1гирл стендинг хоть до устрачки!!! Хули вы мозги ебете и себе и окружающим.
>>956610 А как ты генеришь тексты в вывесках и прочих встроенных надписях? Я откопал узел оверлея на гитхабе (результат пикрил), но он сильно не про это.
>>956612 Напомнило как я откапал узел в своей жопе и вправлял его, с тех пор стараюсь редко есть острое. У тебя тупо оверлей с текстом, а не вписанный в композицию сгенерированный текст. На фоне шакальной картинки с распидарасом анатомии выглядит кринжово. Удали.
>>956596 Бля, как же заебала эту хуита. Эти криворукие макаки вообще знают что такое тестирование и почему стейбл версия называется стейбл? Ебать, они выкатывают в стейбл говно с багами я такое впервые вижу на гитхабе у более менее массовых продуктов. Это уровень васяна с форча.
>websocket_image_save.py Удаляешь эту хуйню, а она САМА подгружается прям как в ФОКУСЕ, ты не можешь взять и просто отказаться от этой говноноды. >>956635 >НУ И ЧТО НУ И ПОДУМАЕШЬ НЕ ПРОБЛЕМА ПОТЕРПИМ А ЧЁ
Шёл 2024 год, васян-говнодел так и не смог внятно поязнить нахуя подчёркивание в конце имени файла ComfyUI_00010_.png и если самому скрипты править чтоб убрать, то идут по пизде кастомноды, где учитывается имя файла.
>>956642 ну если ты дефолтными настройками пользуешься, то может и норм, стоит чуть под себя настроит просто настройки комфи, то уже всё летит на хуй, кто вообще говорит про стиль епт, новое меню мне так-то зашло
>>956641 >потерпим Так тебе как раз и предлагают не терпеть, а сделать шоб всё было норм. Ты как те долбоёбы, которые в игрушечках для дебилов ставят 8X MSAA или что там сейчас актуально в 4К, а пользовать длсс и фреймген им не позволяют религия и гордость.
>>956666 Качественней. В 12 фпс. Если есть проблема, которая на стороне юзверя решается в 2 клика, но тот её решает не собирается, то юзверь не меньший долбоёб, чем разраб, пропустивший эту самую проблему. Только вот разраб довольно скоро проблему пофиксит, а юзверь такой долбоёб на всю жизнь.
>>956632 > Это уровень васяна с форча. Лол, если вдруг не вкурсе, то так оно и начиналось в форчевском /g/, плюс ещё нарратив подсибя и под линукс с амд был в первый месяц
Не работает, сломалося, но блять что может быть лучше этого? Собственно, критикуешь - предлагай, у меня когда что-то не работает - пытаюсь найти решение, что конкретно сломалось, читаю последние коммиты и на гите стараюсь отписать, чтобы починили. Вот вы такие интересные...
>>956674 У меня то все работает, там выше были посты с какими-то ахуевшими запросами к open source проекту. Я же наоборот восхищаюсь божественным комфиком
>>956682 >выше были посты с какими-то ахуевшими запросами там дебил не смог разобраться как ставить отсутствующие в встроенном питон пакете комфи модули, это я понял
еще у второй (или этой же) криворучки чето в воркфлоу при переключке табов и фризит - у меня все ок, это я понял
Как заставить эту панель быть всё время закреплённой снизу, а не каждый раз болтаться в воздухе при запуске комфи? Заёбывает каждый раз её вниз прикреплять. Может где-то в скриптах питона нужно подправить?
>>956476 Проще некуда, берешь модель, берешь на выбор модельки https://huggingface.co/YOB-AI/DMD2MOD/tree/main, генерироваешь, негативы не нужны, или нужны в минималке уровня ворст кволити (конкретно для нубая) дипшринк опционален, если генеришь огромные полотна одним проходом
>>956717 В хуйнях такого уровня я разобрался, но вне зависимости от разрешения и семплинга нахуй идут глаза и мелкие детали. При попытке сгенерить что-то с жЫрным лайном этот самый лайн колбасит и рвёт. Апскейлы делают только хуже. Вот на цивитаи есть какой-то хайрез-фикс. Вроде апскейл, а вроде и не апскейл. Что это и как можно сделать подобное в комфи? Это такой рефайнер или я тёплое с мягким путаю?
>>956719 Ждем, хз че ты так флакс хейтишь, мне кажется, если бы не он, то стабилити и 3.5 не выпустили нифига. Короче и там и тут есть приколы, я вот пока не нашел применения для 3.5
>>956722 >Вот на цивитаи есть какой-то хайрез-фикс. Вроде апскейл, а вроде и не апскейл. Что это и как можно сделать подобное в комфи? Это такой рефайнер или я тёплое с мягким путаю? Ало ебать, дипшринк и его замена опциональная в виде raunet это часть хайрезфикса, вторая часть хайрефикса это имг2имг проход обычный. >но вне зависимости от разрешения и семплинга нахуй идут глаза и мелкие детали. При попытке сгенерить что-то с жЫрным лайном этот самый лайн колбасит и рвёт. У тебя скилишуе. ?
>>956725 Шпашибо, держи добра и нефти Скиллишуе скиллишуем, а в локальной генерации ползти до уровня цивита по ощущениям даже тяжелее, чем при игре в osu, когда переходишь с мышки на граф планш.
>>956712 > 100степс Нахуя? 30 достаточно. Если разрешение побольше сделать, то чуть получше с качеством. Промпты обязательно должны быть длинным текстом, а не тегами. Ну и скорость очевидно про 4090, 5-секундный видос генерит за 25 секунд.
>>956722 >вне зависимости от разрешения и семплинга нахуй идут глаза и мелкие детали так нужно делать второй проход на среднем денойзе, там же можно повысить разрешение именно на данном этапе, так как чем больше пискелей на объект в картинке, тем лучше он прорисовывается.
>>956722 >Вот на цивитаи есть какой-то хайрез-фикс. Вроде апскейл, а вроде и не апскейл. Что это и как можно сделать подобное в комфи? Это такой рефайнер или я тёплое с мягким путаю? Эта фича изначально выдуманная в Automatic1111, в принципе не отличается от того, что я в этом посте описал. Приблизительно вот так можно воспроизвести его https://comfyanonymous.github.io/ComfyUI_examples/2_pass_txt2img/
>>956723 >хз че ты так флакс хейтишь Так а че он такой тормоз и весит дохуя. Хуй с ним с качеством как у сток фото и незнании множества концептов, не базовая модель, понимаю, но так медленно работать и сувать 12 лярдов параметров когда никаких профитов от этого нет по факту - но мерси.
>>956722 >>956803 Алсо, хайрез фикс - буквально фикс для того, чтобы предотвратить проебку картинки на высоких разрешениях.
Тебе тут писали про дипшринк и прочие альтернативы, но это уже манипуляция латентом, которая часто проводит к проебу пропорции на не квадратном соотношении сторон у картинки (так как ты фактически не можешь настроить денойз на латенте).
Лучше сделать нормальную картинку без всего этого на первом этапе генерации, а потом пройтись по картинке еще раз повысив ее разрешение, так будет меньше проебов в пропорциях (так как денойз контролируется в отличие от дипшринка).
какие же все эти маняпуляции с промпт клипом таргет резолюшен 4к епт скор квалити 8 епт, элитными шедулерами для избранных сраный плацебо аутотренинг дебилов нахуй не умеющих в промпт. Тупо на дефолтных настройках всё достигается. ШУМЫ-ХУЮМЫ блять все эти дрочильни с ОСОБЕННЫМ шумом с гпу ой бля, нененне не дефолтный ксемплер а надо мейдвасянвиайпи там ух уникальный шум такой шумочек нямка
>>956803 >нужно делать второй проход Ты имеешь в виду передать latent с одного сэмплера дальше на ещё один? Получается какая-то горелая хуйня. И чот не могу вкурить, как на этом этапе разрешение повысить, кроме как апскейлером. А может и понял уже, сейчас буду проверять свою догадку
>>956822 >Автоматик запилил ее еще до того, как все вкатились в SD, включая и Кохуй-я. Что тебе непонятно в формулировке "Эта фича вместе с дипшринком"? Или ты дебил ебучий понял это как "хуйрез фикс придумал коя"? Это же тупизм, сказать "придумал двухпроходный имг2имг" все равно что сказать "придумал нажимать кнопку генерейт", моск включай хоть иногда, дважды картнку прогонять это база и так всем известная, а дипшринк к ней присобачил коя.
>>956835 >Ты имеешь в виду передать latent с одного сэмплера дальше на ещё один? Нет, самый старый но надежный метод который работает еще с 2022 года - оригинальный hires.fix - ты сначала получаешь картинку как положено, потом увеличиваешь ее разрешение либо тупо растягивая до нужного количества пикселей либо применяя простую модель esrgan модель для этого, полученную картинку с большим количеством пикселей енкодишь через VAE Encode и получаешь латенту, которую суешь в другой сэмплер в котором ставишь величину денойза чтобы накинуть шума на картинку в зависимости от того, насколько ты хочешь чтобы картинка изменилась (к примеру среднее значение 0.4). Но тут надо понимать, что насрав шумом ты можешь получить искажения, а недосрав шумом нейронка слабо обработает картинку.
>>956836 >дважды картнку прогонять это база и так всем известная, значит ты не сидел тут с 2022 г. молокосос Все деды тут знают, что хайрезфиксом всегда была галочка, которую подключали при генерации в Automatic1111 еще за год до того, как Комфи и прочие начали клепать свои УИ. Уже потом, когда начали понимать процесс (так как Автоматик не делал свое вебуи понятным), это стало именоваться двойным проходом (понятие чисто от комфи, так как для пользователей Автоматика это не выглядело двойным проходом).
Именно поэтому, ты не найдешь в воркфлоу на civitai отдельное обозначание для дипшринка, а вот для хайреза в Автоматике1111 (и соответственно фордж) оно всегда было с самого начала.
>>956846 Погрешность сида. Ты берёшь и ролишь с дипшринком картинку и получашь годную, отрубаешь его - она кал. Что тебе мешает так же наролить годную без дипшринка? По статисттике ты будешь получать 50/50 результаты. Не обманывай себя псевдо улучшалками. Он может считаться работающем только в 100 положительных результатов в выборке.
>>956851 >значит ты не сидел тут с 2022 г. молокосос Я еще в gg сидел до запила этого раздела, пидарок. >Все деды тут знают, что хайрезфиксом всегда была галочка >буквально два раза прогонять картинку что знает любой овощ since sd 1.3 а у каломатикошизов на это отдельная галочка и только так и не иначе, каломатикобог даровал каломатикошизам ГАЛОЧКУ, хотя там кидануть в апскейл а из апкейла в имг2имг это просто джва блядских клика Ты диффузерсы в командной строке даже не запускал, молокосос. Сдрысни нах в б парашу, залетуха.
>>956815 >Лучше сделать нормальную картинку Вот оно как раз и не получается. Мне бы хотя бы допрыгнуть до результата, которого удавалось добиться на цивите. Я слишком тупой, но красивые картинки люблю...
Первый пик с цивита, второй локально, третий цивит с хайрез фиксом. Все настройки максимально приближены. Чекпоинт, сид, лоры, весы лор, сэмплы, а вот с сэмплером не понял. На цивите какой-то eualer a, а в комфи просто euler. Буду доволен как слон, если хотя бы до уровня цивита с хайрез фиксом доползу, что-то более ебучее для меня уже излишек, готов кушать дешёвые каки.
>>956861 >Я еще в gg сидел до запила этого раздела, пидарок. Я блять помню дедов и говно, поэтому ты по умолчанию проиграл. А еще я помню, как комфи запилил отдельный репозитории под примеры, только из-за того, что люди не понимали как "сделать как у A1111".
>кидануть в апскейл а из апкейла в имг2имг это просто джва блядских клика При этом при переходе на cumfy на том же реддите тонны постов на тему, как "воспроизвести" hires.fix как в Automatic1111
>>956851 > самый старый но надежный метод который работает еще с 2022 года - оригинальный hires.fix >txt2img -> up -> img2img lowered denoise >надежный метод >работает Ага, работает как говно, до сих пор анимедебилы генерят одну картинку, прогоняют двухпроходкой и получают вторую другую картинку и показывают как только выиграли от этого. Боженька дал вам мокрописи для тру хайрез генов, нет хочу жрать говно. >когда начали понимать процесс Судя по твоему посту понимать процесс ты не начал. >так как для пользователей Автоматика это не выглядело двойным проходом Лоу асикю хуль. > ты не найдешь в воркфлоу на civitai отдельное обозначание для дипшринка Потому что дипшринк это функция даунскейл-апскейла на конкретных слоях, о таком лоуасюкишки слыхом не слыхивали сложна сложна нипанятна. >что хайрезфиксом всегда была галочка Ага, ведь так сложно самому перекинуть из одного таба в другой, лоуасикюшки не справляются. >а вот для хайреза в Автоматике1111 (и соответственно фордж) оно всегда было с самого начала. Оно всегда было везде с самого начала, шиз.
>>956872 >Я блять помню дедов и говно И галочку очевидно, на большее запомнить у тебя сингл извилины нехватает. >только из-за того, что люди не понимали как "сделать как у A1111". >на том же реддите тонны постов на тему, как "воспроизвести" hires.fix как в Automatic1111 Вот что каломатик с людьми делает, не понимают базовых вещей и делают сось глоть. А если бы изначально понимали принципы работы то таких вопросов не было бы.
>>956877 >Оно всегда было везде с самого начала, шиз. Вот тут ты выдал в себе туриста.
civitai.com появился раньше чем comfyui Я еще помню времена (а они длились достаточно долго), когда на сайте не поддерживалось отображение никаких других воркфлоу, кроме метаданных с картинок, сгенеренных в Automatic1111
И ведь целых два года, до декабря 2023 мы назвали хайрезфиксом одну вещь, а теперь им обзывают всякие дипшринки и раунеты, которые часто херово работают с широкосторонними картинками и причиндалами вроде контролнетов. Только путаете новичков.
>>956864 1пик с воркфлоу для дмд, там справа сверху с 1500х на выходе после дипшринк хайрезфикс апскейла. И еще хуйни накидал ньюфагам. >>956898 анцентрал?
>>956895 1й и 3й это плацепо-пердолинг и самовнушение, что одна сигм_очка кривую изменила под звёздами в тумане и стало лучше пук среньк, скачал у васянов и рад. На2м пике всё ниже юниписи такой же васянский кал. Родные семплеры у комфи такие же как и на фокусе, сосируй.
>>956896 >civitai.com появился раньше чем comfyui Ты биполярник чтоли? Причем тут цивит и комфи если ты мог еще в 2021 диффузерсы гонять вообще без всего? Или у тебя начало времен наступает после рождения каломатика только? Так ты турист получается. >Я еще помню Говно какое-то запоминаешь только и ГАЛОЧКУ. >мы назвали хайрезфиксом одну вещь Кто вы то блять? Каломатикошизы? >которые часто херово работают с широкосторонними картинками и причиндалами вроде контролнетов. Ну я бы на твоем месте бы вообще осторожничал с такими заявлениями, а то придет какой-нибудь профессионал 40 лвл и вставит тебе пропиздонов за скилишью. >Только путаете новичков. Щас пока вижу как каломатикофан защищает ГАЛОЧКУ, которая буквально имг2имг.
>>956907 Ну, крч, из всего этого срача я понял только одну вещь: Дипшринк лучше не трогать, а лучше заняться реализацией полноценного хайрезфикса. Это прогресс? Я молодец? Я обучаемый?
Как же сложно вести диалог с золотыми рыбками у которых память ограничивается двумя постами.
>>956851 >Именно поэтому, ты не найдешь в воркфлоу на civitai отдельное обозначание для дипшринка, а вот для хайреза в Автоматике1111 (и соответственно фордж) оно всегда было с самого начала. >>956896 civitai.com появился раньше чем comfyui >>956907 >Ты биполярник чтоли? Причем тут цивит и комфи Еще раз, для совсем слепых с attention span уровня пресноводных - civitai, который является куда большим прибежищем всех нейрогенераторов ставит точку на i, в вопросе о том, что является хайрезфиксом.
>>956872 >>956861 В голос с вашей спецолимпиады, особенно с > Я блять помню дедов и говно, поэтому ты по умолчанию проиграл. >>956846 С дипшринком/раунетом всё равно вот такие уёбищные длинноторсовые получаются, двойной проход с нормальной моделью не перерисовывает сильно картинку, а лишь деталей добавит
>>956914 >civitai, который является куда большим прибежищем всех нейрогенераторов ставит точку на i, в вопросе о том, что является хайрезфиксом >на каком-то говносайте с женериком кто-то что-то написал А на заборе что написано? Я с цвитая ток модельки качал, просто потому что удобно, вообще поебать что там каломатикошизы друг другу в мануальчиках расписывают и обзывают как-то по своему по-каломатиковски.
>>956914 Тату с лого сивитаи на жопе уже сделал? Прям вижу твоё благоговение перед баринами. Дай угадаю ты постишь там свой кал, которые лайкают мимокитайский школьники чтоб за лайк базов фармануть а ты уже считаешь себя элитой? Щас как в ёбыч тресну а ну иди сюда сук
Вопрос знатокам Те штуки, которые на цивите помечают как эмбединги изинегатив там какой-нибудь, например — их пихать в папку с лорами комфиюай или в папку с эмбедингами?
И, раз уж поднялся вопрос по хайрезфикс, то какой в итоге ЛЕГИТИМНЫЙ способ повторить нечто подобное в комфи? Читаю вас тут полдня, а вывод пока только как у этого анона >>956913
>>956924 >С дипшринком/раунетом всё равно вот такие уёбищные длинноторсовые получаются Да нихуя, без шринкраунета ты всегда поулчаешь мутантов, а с ними нет, ну и вообще настрой чтобы не получались там же дохуя вариантов инферирования, скилишью, пик тотали рилейтед. >двойной проход с нормальной моделью не перерисовывает сильно картинку, а лишь деталей добавит Это противоречит самому принципу имг2имг, он не может сохранить изначальную картинку никак, она всегда будет немного другая. Нет конечно можно на 0.1-0.01 денойзе апскейлить с помощью дмд, но то такое. Вовторых два прохода это дольше чем один проход, плюс со шринками и раунетами можно тайлить и доступны точно также апскейлы. Такто я против тупасса ниче не имею, просто считаю что он нахуй нинужон.
Везде лоры на идеальных женщин с идеальным мейком и кожей. Приходится пробираться через горы говна, чтобы найти что то похожее на обычных неидеальных людец.
>>956935 Хайрез фикс это просто название, можешь хоть бибибоба называть. По факту, что делает:
1) После генерации изображения апскейлит латенты на число, где 1=100%, и снова прогоняет изображения через семплер с пониженным денойзом, в случае апскейла латентов изображение не проходит через кодировку из пространства латентов в обычное изображение в промежуточной итерации.
2) В автоматике можно было выбрать апскейлеры отличные от апскейла чистых латентов, в током случае в промежуточной итерации до апскейла латентов, латенты переводились с помощью vae в обычное изображение и лишь потом прогонялись через "апскейлер нейм"
Да, это все очень просто воссоздать в комфи и даже лучше, с помощью advanced ksampler можно не генерить латент изображение на на условные 30 шагов до конца, а передать то что получилось условно за 15 шагов, провести аспкейл латентов и добить вторым сэмплером остальные условные 15 шагов.
>>956938 > Да нихуя, без шринкраунета ты всегда поулчаешь мутантов, а с ними нет Естественно, если разрешение ставишь не родное, ну или там на пони генеришь, лол > ну и вообще настрой чтобы не получались там же дохуя вариантов инферирования, скилишью, пик тотали рилейтед. Да я знаю что он способен, вон пикрил когда то так сделал, уже не помню сколько генерился, но очень быстро, просто это скорее костыль для слабых чипов/риалтайм генерации, чтобы не ждать лоурез пасс и апскейл моделью > Это противоречит самому принципу имг2имг, он не может сохранить изначальную картинку никак, она всегда будет немного другая В этом наоборот вся суть, так большая часть косяков и выпрямляется, по типу хуёвых рук, если в лоурезе будет не совсем уж месиво. Нет, конечно можешь пойти потом поинпеинтить, добавив всяких свистоперделок дополнительных, но чисто слоппить на похуй нажимая на кнопку "генерировывать" с 3090/4090 имхо лучше всё таки через обычный даблпасс > плюс со шринками и раунетами можно тайлить и доступны точно также апскейлы А что ты там тайлить собрался? Покажи воркфлоу
Я ньюфаг. Мне нужен пошаговый гайд, как с нуля поставить себе локальный генерщик (скачал ComfyUI), чтобы генерить аниме девах в нормальном качестве. Пусть даже и 1024х1024, лишь бы пальцев было в нужном количестве, ну и в целом норм качество, а не уровня дефолт необученной нейросетки, рисующей на уровне девятилетнего любителя наруто. У меня 4060 и 32 гб озу, если это важно.
>>956976 Я читал, что нужно накатить сам UI, потом туда накатить какой-то ckpt, на всё это поставить лору...не понимаю я, короче. Мне нужна помощь, хлопцы. Вот поставил ComfyUI, открыл, мне вот это выдаёт.
Предположим, я зайду на civitai и скачаю понихл/аутизммикс, куда всё это ставить? Как настраивать? Я клянусь всеми богами, я несколько дней шароёбился по ютубу, но так и не нашёл понятного гайда.
>>956963 >Как же дипшринк ебет. Из-за того что это не староверофикс, у забавки мы имеем проёб клешней, зенки шестигранником, рыло сушит кривыми коронками, куте ебало мурзилки на бампере отдельная тема нахуй. Фраерок обосрался.
Смешно наблюдать, как у дмд-кофи-шиза >>956840 от бесконечного кума уже зрение подсело. Приводит в примеры свои "божественные" дегенерации, от которых блюешь дальше чем видишь, так кривой нейротой воняют. Кривое 2д с намазанными кривыми 3д-ребрами.
И да, это я про первую пикчу, которой ты "доказывааешь". Там и в остальных выше примерах такое, но мне лень мотать назад. И да, писать тут в конструктивном ключе и чем-то делиться, спасибо тебе, больше не охота.
>>956976 >(скачал ComfyUI) Тут проебался, комфи не для обычных генераций, а для изощренного пердолинга, им только "илитарии" пользуются, чтобы чувствовать себя кулхацкерами и выебыватсья в треде, что ты уже успел увидеть, походу. Причем выебываются они не убер-картинками (такого никто никогда не видел в их исполнении), а сугубо уровнем пропердоленности.
>>957016 Ты называешь чужое творчество "кривыми ребрами" и "воняющей нейротой"? Это говорит о твоей неспособности оценить красоту, которая выходит за рамки твоих вульгарных представлений. Не понимая глубины искусства, ты пытаешься его унизить, надеясь таким образом поднять свою собственную самооценку. Но это лишь иллюзия, ведь твой мир ограничен мерзкой завистью и страхом. Твои слова - лишь отражение твоей внутренней опустошённости. Ты пытаешься заглушить эту пустоту, бросая камни в сердца других, но это лишь усиливает твою изоляцию. Твоя «ирония» - это маска, скрывающая твою неуверенность и страх перед настоящим общением. Ты боишься быть увиденным таким, какой ты есть, поэтому ты предпочитаешь прятаться за шлюзами ненависти и презрения. Посмотри правде в глаза – твоя жизнь, как и твои слова, лишены смысла. Ты пытаешься навязать свою меру ценности, исходя из искажённого восприятия мира, забывая, что красота и значение существуют вне твоих ограниченных представлений. Те, кого ты называешь "дегенератами", скорее всего, обладают глубиной и искренностью, чего не скажешь о тебе. Вместо того, чтобы искать подтверждение своим убеждениям в оскорблениях, попробуй взглянуть внутрь себя – возможно, там ты найдёшь ответы на вопросы, которые мучают тебя.
>>956982 >Предположим, я зайду на civitai и скачаю понихл/аутизммикс, куда всё это ставить? Как настраивать? Модель суёшь в папку models/checkpoints, лоры суёшь в models/loras После этого они доступны для выбора в узлах комфи.
>>957040 Ты думаешь, что использование инструмента для выражения мысли делает аргумент слабым? Ты сам же утверждаешь, что твоя оценка ценности определяется лишь субъективным восприятием. Если тебе кажется, что чужие слова менее значимы, просто потому что они сгенерированы искусственным интеллектом, значит, ты не способен отличить суть от формы.
>>957051 Алё, кто терпел, выше по треду разрыв пердаков от обновы. Лично я тупо откатился изи, хули там пердолить-то епта. Ты просто высосал проблему из нихуя. А вообще этого говнодела что комфи клепает на коленке бы ёбнуть как следует. Буду сидеть на старой версии без обновлений, в пизду этот цирк.
>>956957 Если ты хлебушек и сидишь на шиндовс то у тебя итак хуев уже по самую макушку, так что одним больше одним меньше тебе погоду не сделает. А если ты не хлебушек то тебе эта прога и не нужна, ты итак всё сам настроишь прекрасно.
Сижу вырезаю из нескольких кастом нод только нужное и запихиваю в свою микроноду из одного файлика. Сколько же васяны лишнего кала суют пиздец. Качаешь ноду из-за одного шедулера, а в ней и дилдак и трактор и зажигалка и говно собаки качающее для себя зонды с майнерами.
>>956968 Спасибо, анончик. Кажется, я двигаюсь в правильном направлении.
У меня есть ещё более тупой вопрос, чем раньше. Вот, допустим, есть у меня сгенереная пикча. Как мне ещё лучше проапскейлить? Использовать ресган или что-то там ещё, или инкоднуть её в латенты, растянуть, а потом превратить в пикчу? Звучит как перпетум мобиле из магнитов
>>957185 Конкретно её мне апскейлить не надо, вопрос про апскейлеры скорее гипотетический. Ну, сопсна, я уже успел попробовать перегнать имадж в латент, проапскейлить и обратно в имадж. Ожидаемо вышло говно, но дух экспериментаторства появился, я такое люблю.
>>956596 кек, нода с этим фиксом не работает, вес залипает и всё время скролится в +- с движениями мыши, кнопка добавления не работает. Со всех сторон багами обложили. промпт pelmeni
>>957172 Если ты сделаешь денойз условно 1.0 то получается это тоже самое, что генерировать изначально изображение с повышенным разрешением (на котором модель не тренировалась), а значит потерять подсказку для второго прогона. То есть делая первую генерацию латентов в поддерживаемом разрешении это по сути, как набросок для второго прогона, чтобы модель не на нативном для себя разрешении не сошла с ума.
>>957170 Вообще есть базовая теория, что чем меньше ты гоняешь латенты в пиксели и обратно - тем лучше, если ты перегонишь изображение обратно в латенты ты потеряешь значительный пласт информации. В ситуации, где я имею исходное изображение и хочу его апскейлить сохранив исходник по максимуму то я бы просто использовал какие-нибудь популярные апскейлеры. Если же ты хочешь дать волю нейронке и к примеру добавить детали, которых не было ранее возможно перегон в латенты имеет место быть, но тогда имеет смысл прикрутить дополнительный контроль в виде контролнетов (tile, depth, canny). Тут уж придется эксперементальным путем понять, что для твоей задачи подойдет лучше.
>>957262 Картинка отвратное полуцп, это да. Но что именно запрещенно? Фембои или то что на картинки? Ни то, ни другое вроде не запрещено, тут ни возраста ни пропаганды.
>>957306 Бля всё ещё не уверен что понял. Но в комфи чтоб заапскейлить существующую картинку, надо: загрузить её через лоад имадж ноду - заапскейлить - потом превратить её в латент используя вае энкодинг - потом отправить это в генерацию Если надо сразу после генерации это делать можешь сразу апскейлить латент подхватив его после генерации и отправлять на на следующий этап генерации.
>>957351 >рандомиться будет кейсемплер Не я нихуя не понимаю чё ты хочешь. Ты денойз что ли не меняшь в сэмлере? Это тебе мешает? Уменьши денойз будет ближе к оригиналу.
>>957356 >как и промпт тоже руками надо вставлять Так ты что хочешь то? Ты левую картинку апскейлиш не сделанную нейронкой? Если да то да придётся самому описать чё там на картинке. Если ты хочешь за апскейлить то что сгенерил, скопируй или просто прицепи тот же блок промта что и изначально использовал для генерации картинки. Ты можешь из одного выхода промта в много разных места это тащить если что.
Насчет дмд мода. Сейчас работаю над самой бичевской версией для бичей, может генерить сносное качество в 6 шагов. Опять же будут джве-три версии, низкий кфг, высокий кфг и дпо. На пике низкий кфг.
>>957496 В современной редакции ComfyUI эта штука даётся прямо из коробки как один из шаблонов пайплайнов. Я опробовал, вроде бы даёт меньше анатомических уродов, чем обычная генерация. Более ценно для медленной машины, что если превью вообще не понравилось, можно кикнуть задачу и быстро перейти к следующей. По скорости в сумме генерится примерно столько же.
Мне кажется, стоит делать разный набор промптов для превью и исправленного хайреза: запретить наброску содержать мутантов и прочие крупные детали и запретить хайрезу иметь уродливые пальцы и прочие мелкие детали. Плюс на хайрез можно наложить какую-нибудь стилевую лору с цветокоррекцией, нет?
Попробую прогонять трёхступенчатый процесс, но на маленьких 256х256 картинках поня рисует хуету какую-то.
>>957496 >>957531 Мне кажется, в итоге это копия приёма рисования с генерацией множества мусорных скетчей и постепенным доведением до ума одного-двух из них.
Туда напрашивается автоматизация, чтобы какой-нибудь нейросеткой https://github.com/kijai/ComfyUI-Florence2 проверять вообще наличие ключевых фигур и выкидывать это превью из пакета, если оно сгенерилось неудачным. Других способов автоматической фильтрации я пока не вижу.
>>957534 >>957531 Потом в финале можно накинуть на хайрез фикс одежды и лиц персонажей и затем накинуть цветовую/стилевую лору. Так будет обеспечены высокая консистентность, что можно использовать к примеру для комикса или видео.
И фон стоит генерировать отдельно и примешивать к сценам, мне кажется.
>>957356 wd14 для автоматизации Анон когда то свой апскейлер кидал, можно и без контролнета и без вд ручками описать. Я им не пользуюсь, просто валяется на всякий случай.
Анончик, подскажи, есть ли более удобный способ работы с кучей лорок в комфи, чем тупо городить кучу нод? И есть ли возможность сделать так, чтобы цивит детектил ресурсы, использованые в пикче из-под комфи?
>>957544 >Анон когда то свой апскейлер кидал Лол, ты его сохранил. Я же потом писал что перешёл на другую версию, доработал и скинул потом, но я уже и обновлённым не пользуюсь, не нужный мусор и перегруженность нодами в итоге была. У этого скейл тотал пиксель не так работает как надо, там ошибки в вычислениях и контролнет без препроцессора вообще никакой. Апскейлер тоже не нормально подрублен, т.к. в том случае лучше нерест юзать. Так что осторожно. Советую простой хайрезфикс. тот анон
>>956956 >Нахуй вам нужен апскейл, который НИЧЕГО не меняет? Он ведь нужен в первую очередь для лучшей прорисовки деталей, а не просто для растягивания пикчи.
Растягиваешь ты пикчу для регенерации деталей в ней в stable diffusion. На высоком денойзе подключение апскейлеров вроде эсргана ничего не даст, так как их результат все равно будет стерт шумом, на месте которого будут сгенерены новые пиксели.
Другое дело, когда мы говорим про низкий (низко-средний) денойз. Тогда уже идет комбинирование эффектов простейщих нейронок вроде esrgan с stable diffusion.
>>957170 Опять же, растянуть ты ее можешь как без так и с дополнительными апскейл моделями, они ничего не весят, поэтому серьезного влияния на скорость генерации не должны оказывать. Другое дело, что для подключения этих моделей ты должен задекодить изображение из латента в настоящую картинку, проитись по ней простым апскейлером (так как они только с картинками умеют работать) и потом заэнкодить картинку обратно в латент, который пойдет для добаваления деталей через stable diffusion модель. Но мне к примеру все равно, так как и растягивание разрешения и проход апскейла у меня всегда идет по чистой картинке а не по латенту.
>>957596 Раз уж пошла пьянка про апскейлеры, то, может, кто знает, как корректно апскейлить "рисунки" с жирным лайном, чтобы его не колбасило и не рвало, а ещё лучше — делало более чётким и чистым? С реалистичными пикчами вариант с апскейлом латентов и вторым сэмплером работает кайфово, но, может, есть смысл на второй сэмплер посылать другой набор промптов, другие лоры и всякое такое? Особенно для стилизованных пикч. Но пока что не удаётся добиться каких-то профитов при таком подходе, получается уныло.
>>957597 если у тебя лайн жирный при изначальной генерации, а при втором проходе он теряется, то скорее всего тебе нужно увеличить значение денойза, оставив промпт и лоры такими же, какие они были и при первом проходе.
>>957601 Ну а есть какая-то возможность "реставрации" слегка покосяченого лайна. Вот, допустим, первый семплер высрал рваный, но целом адекватный лайн. Возможно ли вторым семплером сделать его более чистым и плавным? Бесит вот эта хуйня, что суперультрареализм с кучей мелочей получается норм, аниме-стайл с тонким лайном заебись, а жирный лайн рвётся и косячится. Абидна.
>>957642 >"реставрации" будет легче, если ты начнешь рассматривать как желаемый результат не то, что ты получил с первого прохода, а то, что ты получаешь со второго на более высоком разрешении. То есть, не бойся терять первую картинку с повышением денойза, она пойдет как заготовка для второго сэмплера, который выдаст тебе картинку, уже которую ты должен считать "базой" для дальнейшего улучшения посредством инпейнтинга и прочего.
>>957717 Еблан, у тебя сразу под ним тупасс. Отличия? Нода чекпоинта для второго прохода вместо прямой протяжки латента, что буквально нулевое отличие. Совсем пизданулся со своим дрочем на нейминг.
>>957736 >Где вообще смотреть требования к железу у модели? Главное требование чтобы у тебя модель в карту полностью залезала. >Есть ли возможность делать PNG c прозрачным фоном? Можно постпроцессить отделяя объект от фона допустим.
>>957753 >4 гб видеопамяти, и ponyxl >там в любом случае проёб по качеству Да причем тут качество, никакого влияния нет. Дело в том, что fp16 дефолт модель не поместится хоть усрись на 4 гига (там сам юнет 5 с копейками гигов весит, импосибл), так что у тебя определенно проеб по времени генерации. Для 4гб бомжей есть FP8 чекпоинт https://huggingface.co/YOB-AI/PDXL-FP8/tree/main, запускается как пикрил, попробуй, быстрее будет генерить.
>>957752 Это несколько человек. мимо-самый-первый-нубасос Гугл на мои вопросы отвечает очень плохо. Внезапно, плохо с этим справились даже индусы с ютуба, которые обычно вручали при любом предолинге даже в самых нишевых хуйнях. Но на родном мейлаче мне быстро и доходчиво объяснили чо да как, мои потребности ныне закрыты на 146%, всем очень благодарен
>>957763 Проёб по времени меня не пугает пока что. Оптимизационным пердолингом буду заниматься когда-нибудь потом, если вообще буду заниматься, а пока что осваиваю базу. Как бЭ, если проблема только со временем, а всё остальное работает как у более богатых бояр, то я спокоен. Моя судьба — терпеть и страдать, потерплю и лишние 20 секунд генерации пока что.
>>957768 >Моя судьба — терпеть и страдать, потерплю и лишние 20 секунд генерации пока что. Ну как бэ если у тебя веса ушли на рам частично, то у тебя там не 20 секунд. Сколько у тебя генерит 1024x1024?
>>957760 Лапша — круто. 10 лет блендера как-никак, зависимость есть, брат помер. Но хочу сказать, что комфи по совокупности квалити оф лайф мелочей сейчас сильно уступает моему любимом идутвуку, тут ничо не попишешь.
>>957770 >Сколько у тебя генерит 1024x1024 Ну тут от количества степов же зависит. Увы, не засекал и не за компом, но по ощущениям всё шустро. Или оно должно за 10 секунд генерить 50 проходов?
>>957776 Ну хуй знает, меня новые версии блендера дезориентируют, мой пик блендероёбки пришёлся как раз на 2012-2015. Синька мне тогда не очень понравилась, кстати. Но объективности от меня не жди, я ёбнутый.
>>957752 >со своим апскейлом и хурезфиксом А в гугле >ээээ пук среньк эээээээээээ и ваще иди нахуй кароч Даже в шапке про нейросетевые апскейлеры написано всего две строчки лол
>>957775 >Ну тут от количества степов же зависит. Ну дефолт 20 шагов на эйлер а условных сколько генерит до финальной пикчи? > Или оно должно за 10 секунд генерить 50 проходов? 50 проходов излишни, особенно с убыстрялками. А так зависит от поколения и мощности карты. Допустим на 3060 1024 на 20 шагов генерит 12 секунд примерно. У тебя четырехгиговая, а это вероятно 1050ти, а это старая архитектура и она медленная. Собсно, предполагаю, что у тебя ген одной пикчи на fp16 чекпоинте далеко за 5 минут уходит.
>>957781 Ну а ваще, ящитаю, что контингент современного мейлача слишком перебарщивает с неймоёбством. Анончик забыл древний принцип, что при ответе на пост ты отвечаешь на мнение, а не конкретному человеку. Иначе какой смысл в отсутствии регистрации, кармы и прочего социоблядства? Детектить шизов и семёнов — плохой тон, как по мне. Что, конечно, не снимает проклятье поноса с семёнов и шизов. Это не наезд ни в коем случае, прост тот же /b/ переполнен тредами, где каждое третье сообщение — это попытка задетектить семёна и обвинения анончиков в том, что те лезут в "чужой разговор".
>>957788 По стилю письма детектятся различные личности. Например итт есть шиз который постоянно употребляет "иМпеинт" и ")". Ну как тут не задетектить?
Вот у меня видяха 12Gb и оперативы 32Gb, я же правильно понимаю, что, например FLUX fp8 (11.85 GB) мне не подойдёт т.к. 10 винда тоже сколько-то жрёт видеопамяти и скорее подойдёт fp8 (11.08 GB)?
>>957754 Спасибо! Но я Автоматик использую и немного крутил Фокусом ещё. Комфи пока страшное, не понятное...
>>957795 ну почти, тестил говнонубаи с шедулерами и это говно он выдал при пустом промпте, мне стало мерзко и я чуть не блеванул, и решил что не я один должен страдать, хуле, мы все в одной лодке, терпите
>>957791 >10 винда тоже сколько-то жрёт видеопамяти Она процентов 5 жрет, можно в биосе на встройку отрисовку кинуть. Вот если у тя браузер/дискорд/и тд с гпу акселерацией включенной там да, +10-15% изи отожрет. > я же правильно понимаю, что, например FLUX fp8 (11.85 GB) мне не подойдёт >скорее подойдёт fp8 (11.08 GB) Нет, 11-12 в фп8 это чисто веса. Тебе еще надо t5 (сколько там он по дефолту в fp16, гигов 10), clipg+clipl (1.6 гига), вае (400 мб).
Но не отчаивайся, ты всегда можешь засунуть в 12 гигов кванты в gguf и будет полноценная модель засунутая в карту полностью (ток со сниженной точностью потомушто квантизация), вот псто >>955968
>>957819 >Не ебись с комфи, это хуйня для ебнутых красноглазиков Очень наглядно показывает процесс генерации. Шаблоны для базовых операций типа генерации по ключевикам можно спиздить в интернете, если тебе понадобится что-то более сложное - то ты скорее всего сможешь и сконструировать завод по производству вина как в Факторио.
>>957820 >>957823 >>957825 >>957826 >>957827 Ебать сколько порвалось красноглазиков, а теперь назовите почему ваш дроченный комфи лучше божественного форджа? Вы и не сможете потому что >пук среньк ыыыыыыы аааа пошёл нахуй я очень занятой)))
>>957816 https://files.catbox.moe/b069zg.png та картинка, кидаешь в комфи, подгружается воркфлоу. Недостающие ноды попросит докачать если стоит комфиманеджер. Force/Set ноды можно не юзать, это я подстраховываюсь.
>>957831 >божественного форджа у тя дохуя ошибок во фразе "обосранного форджа" >а теперь назовите почему ваш дроченный комфи лучше Ну вопервых комфи это не градиокал. Собственно уже этот факт ебет в жопу фордж, свежует и сушит. Продолжать дальше перечислять смысла нет, да и ты не выкупишь умные слова.
>>957834 У тебя случаем не завалялось заодно схемы инпэйнта в Comfy с отдельной моделью типа Dreamfusion 8? Я пытаюсь прогрузить модель - в Фордже она работает, но на этапе применения в Комфи она выдаёт ошибку. > Error occurred when executing ControlNetApply: > 'NoneType' object has no attribute 'copy'
>>957834 А ты потестируй этот форс клип, у меня с ним врам больше жрало видимо потому что не выгружало в обычную озу. Но надо делать рестарт комфи при изменениях, только тогда форс убирается. А для вае походу форс ничего не делает. Озаботился этим делом когда с юнион контрлнетом стал оом ловить на 12гигах с сдхл.
>>957838 Я контролнетами для инпеинта не пользуюсь хотя через юнион можно сделать. Могу скинуть свой воркфлоу для любой модели основанный не на контролнете, а на брашнете. Надо?
>>957846 >у меня с ним врам больше жрало видимо потому что не выгружало в обычную озу Так в этом и прикол, я не хочу чтобы вообще чето с карты утекало. >Но надо делать рестарт комфи при изменениях, только тогда форс убирается. Форс как и куча других вещей ситуативных типа нормализации глобально применяются, можно очистить кнопкой все модели из врам и нод кеш и загрузить другой воркфлоу без форса и оно обратно заработать должно без перезапуска. >А для вае походу форс ничего не делает. Ну вае мелкое оно и так в карте висит и так и так. Для вае еще из мультигпу ноду можно юзать пикрел. >
>>957847 > на брашнете В чём его принципиальное отличие?
> Надо? Если этим можно пофиксить косяки анатомии, сделать сильную консистентность персонажей между сценами или выдернуть позу - то думаю да, будет полезна альтернатива контролнету. Брашнет это могёт?
>>957819 Ты подразумеваешь, что фордж проще и не требует ебли? А я вот с высоты своего нулевого опыта скажу, что комфи требует меньше ебли хотя бы потому, что не падает от любого чиха. И хуй проссышь хули он упал. То есть фордж даже для новичка хуже, потому что требует красноглазия, чтобы НАЧАТЬ с ним работу. А комфи требует красноглазия только ВО ВРЕМЯ работы. Про опытных юзверей вообще молчу, фордж кондовый и обрубает твой потенциал, в то время как комфи позволяет реализовать любую шизофрению.
>>957851 >В чём его принципиальное отличие? Самая топовая реализация инпеинт фич для 1.5 и сдхл, является патчером для основной модели, вследствие чего модель становится инпеинт моделью со всеми знаниями основной модели. >Брашнет это могёт? Брашнет можно комбинировать со всем, в том числе с контролнетами и ипадаптерами, пикрел пример с гита.
>>957852 >реализовать любую шизофрению он её провоцирует, не путай понятия, т.к. через какое-то время ты заплываешь миллионом кастомнод нахуй не нужных и воркфлоу выглядит как сегментированное на несколько рабочих областей дерьмище, которое тупо лень разгребать и оно висит в муте постоянно
>>957856 Ну если у тя ОКР и ты не способен разделять задачи по разным воркфлоу и все спихиваешь в одну кучу, то сходи в дурку чтоли, колесики пропишут.
>>957855 Звучит интересно. Попробую заюзать для инпэйнта, а то другие способы не очень эффективны для чистки. Я уже начал подумывать сдаться и подправить картинку в Крите.
>>957871 >4й пункт у всех хозяйственных, особенно холостяков >тупо вопрос выживания Физически больно закрывать вкладки в браузере, постоянно кажется что недополучил информацию или закрыл не ту страницу, поэтому нередко ктрл+шифт+т нажимаю по пять раз чтобы открыть все взад и перепроверить. Помогает ли это выживать? Сомнительно.
>>957863 >и подправить картинку в Крите. Тащемта под криту свой плоген есть, который является фронтендом для комфи, можно инпеинтить удобненько и рисовать в лайве и много чего еще, в т.ч. контролнеты.
Всем привет, помогите пожалуйста, в чем проблема? Не работает openpose на аниме моделях animapencilXL, noobaiXLNAIXL, думаю на всех других анимешных тоже Пишет RuntimeError: mat1 and mat2 shapes cannot be multiplied (77x2048 and 768x320) mat1 and mat2 shapes cannot be multiplied (77x2048 and 768x320)
>>957852 >Ты подразумеваешь, что фордж проще и не требует ебли да >не падает от любого чиха Ты что с ним нахуй делаешь такое? В жопу ебешь проц? >фордж кондовый и обрубает твой потенциал, в то время как комфи позволяет реализовать любую шизофрению И ясен хуй ни одного примера не будет да?
>>957884 >не падает от любого чиха Просто установил, и он тупо падал от любого xl-чекпоинта. Если память мне не изменяет, то тут выше вкатун на что-то такое жаловался, только, блядь, у него какая-то нищая карточка, а у меня 4080. Комфиюи же просто включаешь и работаешь. Мимокрок. за другое не поясню, сам юзаю мегапростейший воркфлоу и не нуждаюсь в красноглазой шизе. Разве что у меня есть запасной вокрфлоу, где я реализовал такую хуйню, чтобы одну и ту же сцену генерить с пятью разными персонажами с тремя разными стилелорами по нажатии одной кнопки. Это вот самый примитивный уровень того, что там можно, глубже не копал.
>>957883 >Это у Флюкса такие особенности? Или у модели? Это просто 12 миллиардов параметров модели в фп16 и т5 в фп16 с клипами весят 24 гига. Если у тебя не 24 гига тебе ток пониженную точность и кванты. >Т.е. к этим моделям тоже нужны t5, clipg+clipl? Конечно. >Мне для реализма проще взять Pony Пони для рисунков и 2.5д в основном, есть говномерджи аля рилизм но то такое. > XL Да, NatVis ебет например. Ну и куча других файнтюнов, обмажешь контролнетами и ипадаптерами и ахуеешь. >Там же просто качаешь модель и всьо?! Ну... Нет. Как минимум тебе нужна лора убыстрялка типа дмд чтобы шизопромтингом не занимаься и не ждать по 30 шагов. >Есть смысл гнаться за Флюксом? С его скоростью и требованиями скорее нет, хотя вот флюкстулс недавно высрали и коммунити кончает с них, а мне както даже лень эту всю залупу заново качать и ожидать по полторы минуты гена (а с флюхтулами все две). Лучше погоняй SD 3.5 Large/Large Turbo/Medium, та же дит модель как и флюх, но не на рфлоу а на ммдите, т.е. быстрее и меньше требований к железу.
>>957938 Непохоже, чтобы браштулз на поне завёлся. Я сделал мелкий фикс исходников, который позволил пайплайну в принципе функционировать, но пока переработка идёт из картинки с маской в чёрный квадрат.
>>957969 У чекпоинтов всё внутри, но бывают исключения. У сдхл стандарт 1024х1024 и там плюс минус с тем же общим количеством пикселей, в гугле найдешь.
>>957950 Все там работает, пикрил >>957965 >Почему-то эта штука въебала цветокор. Потому что брухнет это латент патч для основной модели и если ты хочешь сохранить части изначального изображения нетронутыми тебе нужно пак нод для этого чтобы делать пик 2 и видео 3. >Ещё powerpaint несовместим с SD XL, а только с полторашкой. Ну так и не заявлена работа поверпеинта с хл.
>Тоже хз что это... Просто разные архитектуры, одна оптимизирована другая нет. >VAE идёт с моделью же? Ну либо инфа в модели, либо встроена в модель? Вае может быть в модели запакована, но конкретно когда разложенный чекпоинт условного флюха - там отдельно вае подгружаешь. Ну и редко но бывает что в сдхл не запекают вае. >Ещё изначальное разрешение генерации у моделей разное? Или как? Базовое разрешение основано на датасете обучения. Дефолт сдхл это 1024x1024 и его производные делящиеся на 64. Но тебе ничего не мешает въебать дипшринк патч или раунет и генерить 1920 на 1080 без мутантов. Для флюха размер не важен особо, там архитектура позволяет до 2к генерить хоть как. Ну так в целом да, у каждой модели свои ограничения или возможности. >Например в Автоматике Интерфейсы это просто интерфейсы, они сами ничего не ограничивают ну кроме факаса ебаного >Ну или где гайды по таким основам есть? В инторнете...
>>958003 >Это нормально для этой видеокарты? Да наверно. Еще следи чтобы веса модели в шаред врам не выливались через таск менеджер или через плогенсы комфи https://github.com/crystian/ComfyUI-Crystools которые показывают состояние врама, а то у тебя вместо 10 сек будет десять лет.
>>958025 выглядит как будто ты въебал хупер лору и забыл про нее сказать, щас я качну твое альфа говно и оно не поместится с нормальным квантом на карту и сделает мне дестяь минут гена
>>958025 >хупер лору шта? на скорость генерации в it/s все эти лоры не влияют, только на количество шагов, необходимое для получения нормальной картинки. их 20, что на первой, что на второй картинке.
>>958033 Так я про то и говорю, выглядит как наебка. У гуфов падение скорости изза конвертации из сжатия, но не в два раза, это нереалистично ни разу. Возможно проблема на твоей стороне.
>>958005 Ну, нихуя себе, очки нарисовал, ваау, это надо-же шаман однако! Такое ведь только комфи-хуе возможно, и только со стеной наукообразного бреда и километрами лапши. Хммм, надо запомнить...
>>958038 >факас доебался до примера и умных слов Ору. Тебе стоит ебальник завалить, у тебя в факасе вообще обосранная инпеинт говномодель встроена, которая ни хуй ни пизду не может сгенерить и мылит все в жопу, не сохраняя консистенцию, что аж приходится ебать себя в жопу вторым проходом рефайнером. Деал виз ит, чмо.
Что то от флюкса неолнозначные ощущения. Картинка конечно ууфф, но гкнкрауия по 2.5 минуты одной картинки в 1024х1024 это как то многовато. Надо смотреть нагрзуку видеокарты. Вероятно в озу вытекло что то.
>>958042 >аж приходится ебать себя в жопу вторым проходом рефайнером Ебать в жопу? Хммм, так-так продолжай, это интересно... >в факасе вообще обосранная инпеинт говномодель встроена, которая ни хуй ни пизду не может сгенерить Я открою тебе страшную тайну, этой "херовой моделью" рисуется вообще ВСЁ, основня модель лишь обводит за ней, если-бы её не было, то любая картинка напоминала-бы ваш скучнейший кал с бабой-столбом, руки по швам. Импейнт-модель в фокусе работает всегда и везде, а не только в импаинте, долбаёб ты тупой. Вот почему, вы пидары лапшичные, никогда, ни с какой лапшой не сможете в сюжет и сложную композицию.
>>958183 > этой "херовой моделью" рисуется вообще ВСЁ, основня модель лишь обводит за ней, если-бы её не было, то любая картинка напоминала-бы ваш скучнейший кал с бабой-столбом, руки по швам. Импейнт-модель в фокусе работает всегда и везде Ты пиздобол факассер ебаный шоб ты сдох, слева говно с факаса, справа брашнет, факассовский кал цензурирует. Все, ты попущен, говно!
>>958271 а ебать так оно с другими настройками нежели чем дев ебашит пиздец ну вот допустим кондишенинг 3.5 и цфг 1, ну да ПРИРОСТ ага, но мне то же качество выдает шатл за 16 сек
и блять в промт вообще не попадает альфа оно там ахуело чтоли
studio photo of asian skinny teen girl wearing white string_bikini, naughty face smile, wearing striped thighhighs, she is hot model and her hands grab her breast
Есть какие-нибудь подводные у того чтоб в промте было дохуя новых строк? Мне так удобнее орентироваться, разбив на части по смыслу и важности, чем когда всё в одной строке. Слышал что вроде новая строка работает как запятая, надо запятую в конце тогда ставить? Ещё вроде запятые без промта нихуя не делают, хуже от того что они в конце строки быть не должно, правильно?
Насколько зашквар пользоваться всякими ТУРБО ЛАЙТНИНГ 8 ШАГОВ чекпоинтами и лорами? Даже на 3060 типа народной беритевсе карте всего 1.3-1.5it/sec что невыносимо мало для 30 шагов на картинку
>>958315 >Насколько зашквар пользоваться всякими ТУРБО ЛАЙТНИНГ 8 ШАГОВ чекпоинтами и лорами? Не зашквар, это дистилляты, то есть оптимизированные векторы позволяющие сетке более просто достигать результата. Но тут нюанс что не все они пиздатые. Лайтнинг хуевый. Турбо ок, он еще и оффициальный прям от стабилити. Еще хороший есть PCM. Но самый ахуевший это dmd2, почитай по треду выше ссылки есть. Конкретно чекпоинты с всаженными лорами дистиллятов смысла юзать нет, ты можешь просто сам лору дистиллята подключить и пользоваться и так на любой модели. Итт вообще большинство так и сидит на дмд есличе.
>>958325 >Лайтнинг хуевый. Алсо от байтданс которые лайтнинг сделали есть более лучшая версия под название Hyper, но она мне лично тоже не нравится, но очень много кто хавает, в том числе на флюхе потому что на флюхе ток хупер и есть один пока что.
>>958325 А еще есть улучшайзеры именно стилистически картиночек в целом, это так называемые HPO/DPO (то есть условно на выборке того что нравится людям натренировали дистиллят, получился преференс оптимайзер). Итт многим нравится SPO https://civitai.com/models/510261?modelVersionId=567119
======================================
Предыдущий тред https://arhivach.top/?tags=13840
------------------------------------------
новый мод на высокий CFG в DMD2 от местноанона
- https://huggingface.co/YOB-AI/DMD2MOD/tree/main
------------------------------------------
схожий тематический тред
- аниме-тред
========================
Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях.
Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного бывшими разработчиками Stable Diffusion.
Полный функционал в локальной установке (см. ниже)
Пробный онлайн-генератор Stable Diffusion: https://dezgo.com/txt2img
Пробные онлайн-генераторы Flux:
https://huggingface.co/black-forest-labs
https://fluxpro.art/
⚠️ Официальные модели stable diffusion от Stability AI значительно отстают по качеству от кастомных моделей (см. civitai ниже).
🔞 Без цензуры и полный функци_анал: только ПК-версия
===========================================
🖥УСТАНОВКА НА ПК
Портативная версия основного WebUI от Comfy (запуск с одного из run.bat файлов)
https://github.com/comfyanonymous/ComfyUI/releases
Примерные workflow для ComfyUI (можно загружать напрямую из картинок)
https://comfyanonymous.github.io/ComfyUI_examples/
------------------------------------------
Альтернатива - еще поддерживаемый форк ранее популярного WebUI от Automatic1111 (R.I.P)
https://github.com/lllyasviel/stable-diffusion-webui-forge?tab=readme-ov-file
------------------------------------------
👉 Для новичков - простой в работе WebUI Fooocus
https://github.com/lllyasviel/Fooocus?tab=readme-ov-file#download
------------------------------------------
Для тех, у кого видеокарта не тянет - оптимизированная генерация на ЦПУ
https://github.com/rupeshs/fastsdcpu
===========================================
📚 РАЗЛИЧНЫЕ МОДЕЛИ (И МНОГОЕ ДРУГОЕ) 👇
https://civitai.com/
https://huggingface.co/
------------------------------------------
📊 ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ 👇
https://teletype.in/@stablediffusion/samplers_steps
===========================================
🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, СТИЛИ
https://teletype.in/@stablediffusion/artists_for_prompts
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols
Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her
------------------------------------------
♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇
https://supagruen.github.io/StableDiffusion-CheatSheet/
https://www.artvy.ai/styles
------------------------------------------
💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ
https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td
==========================================
🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇
https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora
https://civitai.com/models/train