Сохранен 548
https://2ch.hk/ai/res/570475.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #15 /tech/

 Аноним 11/12/23 Пнд 22:57:42 #1 №570475 
.png
.png
.png
.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>543635 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

https://2ch-ai.gitgud.site/wiki/tech/sdxl/

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.gitgud.site/wiki/tech/lycoris/

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.gitgud.site/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.gitgud.site/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.gitgud.site/wiki/tech/old_threads/

Шапка: https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
Аноним 11/12/23 Пнд 23:22:19 #2 №570494 
оп, дрёмбудка давно уже на 16 ГБ едет, если речь о полторашке. Вот сдохля - там да, 20 минимум, ЕМНИП.
Аноним 12/12/23 Втр 18:24:51 #3 №571171 
>>570494
> дрёмбудка давно уже на 16 ГБ едет, если речь о полторашке
А в прошлом ноябре-декабре спокойно крутилась на 12.
мимо
Аноним 13/12/23 Срд 13:58:33 #4 №571856 
аноны кто пользуется готовой кохой на васт.ай, помогите подключить логи. инстанс походу тупо перетащили с рунпода, видимо есть некоторые отличия. лог по команде tail -f /workspace/logs/kohya_ss.log не работает. подключил setup.log из кохи , но он не выдаёт прогресс тренировки, только первые команды.
Аноним 13/12/23 Срд 14:17:07 #5 №571870 
1614057587182.mp4
>>571856
Чел, с такими тупыми вопросами не пищи сюда.
Аноним 13/12/23 Срд 14:21:18 #6 №571874 
>>571870
https://www.youtube.com/watch?v=1TIDIWbCVUY
Аноним 13/12/23 Срд 14:32:46 #7 №571879 
>>571856
Ну вот кто будет копаться в левых васянских покакуньках? Возьми да запили свой контейнер, и засунь в него коху с нуля. Я лог вообще смотрю в консоли, например, а сессию держу открытой через tmux, так что могу подключаться и отключаться когда захочу.
Аноним 13/12/23 Срд 14:45:56 #8 №571889 
>>571879
Готовый контейнер нормально работает, заводится быстро. Можно и не пилить свой если кто-то уже сделал.
Аноним 13/12/23 Срд 21:02:50 #9 №572138 
1635904271148.png
1621788668357.png
Какой же коха дегенерат, столько времени убил на казалось бы простые вещи, которые надо юзеру сразу говорить.
Во-первых, блядские bucket, за каким-то хуем коха всегда ресайзит неквадратные пики, а если отключаешь bucket - кропит до квадрата. Вот у меня есть пики 768х1024 в датасете, я ставлю разрешение обучения 768, а они даунскейлятся до 640р. Что ещё хуже - если я поставлю разрешение 1024, эта хуита их заапскейлит, алгоритмом nearest. Хорошо хоть можно прописать костыль --bucket_no_upscale и ёбнуть разрешение обучения побольше, чтоб эта пидорасина не трогала мои пики. Остаётся только догадываться сколько лор запорото этим говном.
Во-вторых, про тренировку конволюшенов. Где-то в кишках документации ликориса хотя бы пик2 есть, но ни слова почему - просто возьмите такой-то пресет, нет времени объяснять. Потратил кучу времени чтобы выяснить какие слои конволюшенов вызывают пережарку и распидорашивание - это ебучие конволюшены в двух крайних ResNet с обоих концов сетки, естественно у кохи они тренируются. Опять надо костылить и отключать их через список conv_block_dims. У ликориса, кста, крайние ResNet нельзя выключить, ты либо тренишь конволюшены, либо нет, заебись. Алсо, лоры и так не тренируют все 25 слоёв, не понятно почему в ликорисе придумали тренировать конволюшены, но не протестили какие лучше не надо трогать, как это было сделано изначально с ванильными лорами.
Аноним 13/12/23 Срд 21:33:42 #10 №572160 
>>572138
>Какой же коха дегенерат
Сейчас бы не прочитать доокументацию, пользоваться не гуи от Кохи, а потом бомбить..
Аноним 13/12/23 Срд 21:40:08 #11 №572167 
>>572160
> доокументацию
Как будто у кохи она есть. В ней ни слово про то как надо делать, только описание параметров. Про то что он апскейлит пикчи говном можно только в коде узнать, а про конволюшены только проверив.
> гуи
Только хлебушки пользуются гуем от васянов, там уж точно про такое никто никогда не слышал, тренят как есть, а потом веса лор ставят 0.5-0.7, фактически выкидывая половину натрененого потому что говняк в паре слоёв пидорасит пикчу.
Аноним 13/12/23 Срд 23:16:51 #12 №572291 DELETED
Добрый день мне понравился https://app.textcortex.com, но он платный кто-нибудь знает аналоги реальные? Именно аналоги, а не просто похожие чаты.
Аноним 14/12/23 Чтв 11:30:36 #13 №572807 
>>572138
Было бы неплохо свести это в пасту, чтобы усилия не пропали зря. Только объяснив внятно.
Аноним 14/12/23 Чтв 15:29:55 #14 №572994 
>>572138
> ставлю разрешение обучения 768
> подает на вход 886
> Почему он ресайзит или кропает?
Ебать ты, оно даже пишет все наборы разрешений которые получаются и про это вроде где-то написано.
Но момент действительно может быть показаться неочевидным, двачую >>572807
> Опять надо костылить и отключать их через список conv_block_dims
Раз тестировал, есть иллюстрация сравнения с ними и без них? Ликорис сам по себе странный, дефолтная реализация кохи лучше работают по ощущению.
В других слоях подобного не проявлялось, или еще какие-то выявил?
> Потратил кучу времени
Вбрасывай если замечаешь не стесняйся, другие подключатся и быстрее будет в худшем случае дебилом назовут
Аноним 15/12/23 Птн 06:50:50 #15 №573624 
https://genforce.github.io/freecontrol/
Какой-то новый контролнет. От китайцев? Корейцев?
Пока без кода.
Кто разбирается - почитайте, расскажите, в чем там разница.
Аноним 15/12/23 Птн 07:58:08 #16 №573639 
>>573624
Очередной контроль во время семплинга. Можешь посмотреть на FreeDoM, уже был ранее. Нахуй не нужно из-за скорости.
https://github.com/vvictoryuki/FreeDoM
Аноним 15/12/23 Птн 18:36:52 #17 №573976 
Товарищи из КНР навалили годноты: любая анимация для персонажа, любой шмот на персонажа... Теперь можно сгенерировать по референсу любого персонажа в любой нужной позе, одеть в шмотку, сделать анимацию по шаблону, взятого из любого видео, - и всё это внутри одного workfow.

Это особенно радует меня как сторонника тотальной рандомизации (аатоматизации) в создании ИИ-арта.
Аноним 15/12/23 Птн 18:44:20 #18 №573984 
>>573976
Где?
Аноним 15/12/23 Птн 20:02:52 #19 №574065 
>>573984
хф демо https://huggingface.co/spaces/zcxu-eric/magicanimate

(очередь пиздец)
Аноним 15/12/23 Птн 20:28:38 #20 №574097 
>>574065
А, вот ты о чём. Ну так-то зирошот методов для пикч и раньше немало было, эта хуитка просто для видео.
Аноним 15/12/23 Птн 21:05:18 #21 №574133 
>>574097
Будущее - за видео
Аноним 15/12/23 Птн 22:36:37 #22 №574221 
>>574133
Nope
Аноним 15/12/23 Птн 23:11:34 #23 №574273 
>>574133
Разве что только будущее. В настоящем разве только за движухой следить, пока что покакуньки кривые до ужаса.
Я больше за трёхмеркой слежу. Вот тут реализуется новьё: https://github.com/threestudio-project/threestudio
Аноним 16/12/23 Суб 06:48:47 #24 №574473 
>>574273
Как они хитро ни на одном пике топологию не палят.
Аноним 16/12/23 Суб 13:33:57 #25 №574606 
>>574473
Потому что это те же покакуньки что и в видео, в юзабельных мешах вообще конь не валялся пока. Там вообще большинство в не-полигональных представлениях работает, полигоны если и выводить то классическими методами. А так гауссовы сплаты в анрилах с юнитями есть, не удивлюсь если рано или поздно их станут применять напрямую для каких-нибудь специфических элементов сцены.
Аноним 16/12/23 Суб 16:10:37 #26 №574698 
Kaolin-featured-1.png
sensors-22-07040-g001.png
>>574606
>вообще конь не валялся пока
Не скажи, работы ведутся. Через вокселизацию перегоняют в полигоны. И это на самом деле самое перспективное направление. Зачем кинематограф, художники, игори, когда весь контент можно генерировать на ходу по запросу, перестраивать сюжеты, внешний вид, выбирать удобный ракурс, если предложенный нейросетью не понравится.
https://developer.nvidia.com/blog/omniverse-kaolin-app-now-available-for-3d-deep-learning-researchers/
>рано или поздно их станут
Рано или поздно - да. Но не ближайшие 10 лет, там расход пяти ебический, а кожаный, как всегда, зажопил.
Аноним 16/12/23 Суб 16:18:40 #27 №574703 
>>574698
> это на самом деле самое перспективное направление
Никто уже так не делает, зачем ты притащил протухшую статью. Брутфорс вокселями очень медленный и имеет кучу проблем с мелкими деталями. Уже давно придумали gaussian splatting.
https://gsplat.tech/excavator/
Аноним 16/12/23 Суб 16:35:38 #28 №574725 
>>574698
Вокселизацией можно замешить кое-как, но юзабельным для риггинга это всё равно не будет, там надо учитывать топологию для анимации.
>Но не ближайшие 10 лет, там расход пяти ебический
Хуйня, как раз модная тема это эффективные репрезентации, жрущие всё меньше и меньше. В ближайший год-два может уже стать юзабельным для каких-нибудь вспомогательных штуковин, если так пойдёт.
У жужла другой интерес от 3Д - ресинтез фоток. Синтезируют 3Д представление из нескольких 2Д фоток, затем перегоняют обратно в 2Д. Таким образом можно снимать на смартфон в темноте с гораздо меньшим количеством мыла, свойственного даже стаку в GCam. Правда тоже пока не лезет в смартфонное железо, но скоро будет.
Есть ещё риэлторские конторы, заинтересованные в виртуальных турах по хате, полученных из допустим сотни фоток, им тоже полигоны нахуй не нужны.
Аноним 16/12/23 Суб 16:37:09 #29 №574727 
>>574703
Так про них и речь. Только как ими замешить? Гауссовы сплэты это просто облако точек, в котором каждая точка имеет цвет/альфу/размер/ориентацию.
Аноним 16/12/23 Суб 16:40:46 #30 №574729 
>>574703
>gaussian splatting
Для реального использования бесполезно.
>>574725
>заинтересованные в виртуальных турах по хате
В этой гауссовой залупе невозможно просчитывать освещение, только запеченное с картинки. А если клиент захочет лампы-фонари, приглушить освещение? Уже всё, нужны полигоны.
Аноним 16/12/23 Суб 16:47:36 #31 №574739 
>>574727
> Только как ими замешить?
SuGaR есть из свежего, до этого ещё несколько алгоритмов было. Но ещё было бы зачем, к сплатам уже анимации и физон даже прикрутили, у мешей производительность рендеринга сильно хуже чем у сплатов.
Аноним 16/12/23 Суб 16:56:10 #32 №574751 
>>574729
>В этой гауссовой залупе невозможно просчитывать освещение, только запеченное с картинки. А если клиент захочет лампы-фонари, приглушить освещение?
https://shunsukesaito.github.io/rgca/

Ну и вообще, потанцевала дохуя. С нейронками к этим штукам можно много чего прикрутить, от анимации до интерактива и нейро-имитации рейтрейсинга. Но это всё будет не скоро, если вообще будет.

>>574739
>к сплатам уже анимации и физон даже прикрутили
Анимации там пока что запечённые, нет интерактива.
>у мешей производительность рендеринга сильно хуже чем у сплатов
Не у мешей скорее, а у всего комплекса в целом, надо ещё смотреть как сплаты будут перформить в полноценных играх, если они вообще доберутся до них. А то облака точек уже лет 15 пророчат, а воз и ныне там.
Может так статься что протегированные меши и скелеты, обрисованные через контролнеты (условно говоря) темпорально стабильной нейронкой, будут быстрее и гибче и того и другого. Как тут https://isl-org.github.io/PhotorealismEnhancement/
а может и не статься
Аноним 16/12/23 Суб 17:06:36 #33 №574763 
>>574751
>https://shunsukesaito.github.io/rgca/
А эта штука основана на обучении. Никакого рилтайма, замены объектов на лету, всё приколочено гвоздями и требует очень, очень много времени на подготовку. То есть потанцевал околонулевой. Ну, для кинца ещё может быть, но памяти жрёт как не в себя.
Вообще, оно уже тоже "протухло". Было год назад на выставке меты.
https://www.youtube.com/watch?v=2mnonWbzOiQ
Аноним 16/12/23 Суб 17:38:11 #34 №574792 
>>574763
>А эта штука основана на обучении.
https://nju-3dv.github.io/projects/Relightable3DGaussian/ рейтрейсинг напрямую на сплэтах
Аноним 16/12/23 Суб 17:45:17 #35 №574799 
>>574729
>В этой гауссовой залупе невозможно просчитывать освещение, только запеченное с картинки.
А там нет ничего запрещающего кастомное освещение. Это же просто облако анизотропных пиздюлинок, можно его как обычную поверхность юзать для шадоумаппинга, рейтресинга, AO всех сортов и мастей и т.п. Там главное интерактив, физон и т.п. движение/коллизии/симуляция - можно это обеспечить обычным риггингом.
Аноним 16/12/23 Суб 18:53:54 #36 №574884 
smallnoisy.jpg
>>574792
>bounding volume hierarchy
Это не вокселизация случайно? И, опять же, оно не рилтаймовое.
>Pre-processed DTU
>For real-world DTU data, we follow the Vis-MVSNet to get the depth maps and then filter the depth map through photometric and geometric check. We then convert the depth map to normal through kornia. And we get perfect masks from IDR.
Восемь гигов предварительно запеченных данных.
>>574799
>рейтресинга
Денойзер ебанётся. АО тоже, все алгоритмы заточены на детект краёв, а в этом облаке заебёшься искать, где краёв нет. Физика похуй, там всё равно используются упрощённые меши, можно на основе тех же объёмов генерировать меши для физики. Да они, по сути, и не нужны, всё равно деревья на основе тех же объёмов под капотом. На счёт ригинга не уверен, GPU ускорение отваливается, всё либо на вычислительных шейдерах, либо вообще на CPU, что гарантированно медленнее существующих решений. И без поддержки старых карт.
Аноним 16/12/23 Суб 23:08:52 #37 №575080 
>>574884
>Это не вокселизация случайно?
Это та самая хуйня которую RTX призван аппаратно ускорять
Аноним 17/12/23 Вск 12:09:38 #38 №575413 
>>570475 (OP)
Легкий/удобный способ конвертировать имя с пиксива на бурятском или id в общепринятые теги существует?
Аноним 18/12/23 Пнд 02:47:03 #39 №576240 
>>575413
В итоге https://danbooru.donmai.us/artists основное покрывает, есть api с приемлемым рейтлимитом.
Аноним 18/12/23 Пнд 07:40:29 #40 №576327 
аноны посоветуйте параметры дримбудки дл sdxl
датасет человек, 20 фото, качество норм, разные, капсы подробные
сколько стоит поставить повторов, всего шагов, LR?
Аноним 18/12/23 Пнд 09:56:35 #41 №576374 
>>576327
>датасет человек, 20 фото
10 фото.
Аноним 18/12/23 Пнд 10:53:50 #42 №576395 
>>576374
Спасибо
LR дефолтный 1e-5 не много?
Аноним 18/12/23 Пнд 10:55:09 #43 №576396 
>>576327
> 20 фото
> дримбудки
Надеюсь, ты про лору хотябы?
Аноним 18/12/23 Пнд 10:57:21 #44 №576397 
>>576395
Такой норм, ставь 250 шагов и тестируй накидывая по 50
Аноним 18/12/23 Пнд 10:58:21 #45 №576398 
>>576395
Дримбут дает лучшее качество чем твои говнолоры куцые. Конечно, не у каждого есть боярские 10 гигов на модель.
Аноним 18/12/23 Пнд 11:38:56 #46 №576410 
>>576396
нахуй лору ебаную
дримбут полноценный
если уж очень надо лору можно потом из будки выдернуть. хотя лучше натренить будку на нужной модели.
Аноним 18/12/23 Пнд 12:59:57 #47 №576445 
>>576410
> 20 фото
> дримбут полноценный
> лору можно потом из будки выдернуть
Обучение лоры и ее извлечение - разные процессы и качество результата также будет отличаться в зависимости от конкретного случая, описанный подход - провальный.
Хочешь страдать - ебись. Нынче много любителей познать все ошибки на себе, не меньше и тех кто будет хвастаться своими идиотскими поступками.
Аноним 18/12/23 Пнд 14:25:10 #48 №576500 
>>576445
На всех лорах перекошенные ёбла. Они всегда были компромисом. Для тренировки лица на дримбуте 10 фоток достаточно. Особенно если брать ванильные модели, где с весами все хорошо.
Аноним 18/12/23 Пнд 14:53:01 #49 №576527 
>>576500
>>576374
Покежь результат на 10 фото. Вангую что выйдет хуйня.
>>576398
Дело не в гигах, а в невозможности потом композить несколько в одной пикче. Тогда уж локон делать, или что-то более продвинутое.
Аноним 18/12/23 Пнд 14:59:54 #50 №576538 
>>576500
> На всех лорах перекошенные ёбла
Проблема в обучении какая-то. Даже на циве большое количество реалистичный лор, которые работают прилично. Будка переломает все остальное и обойдется огромной ценой, лучше решить проблему чем заправлять шубу в трусы.
Аноним 18/12/23 Пнд 21:46:45 #51 №576908 
у меня с одним и тем же датасетом дримбудка дает однозначно лучший результат, чем лора. и лору, и будку тренил на разных параметрах.
боярином не обязательно быть, 4090 на васте менее 50 центов в час. за час можно успеть всё завести и натренить будку в 2000 шагов в сдхл.
Аноним 18/12/23 Пнд 22:39:43 #52 №576975 
Без имени.jpg
>>576500
>На всех лорах перекошенные ёбла.
На моей лоре охуенно получается лицо. Но я вам ее не покажу потому что это лора еотовой и существует поиск по лицу, не хочу чтобы она знала что кто-то генерит миллионы ее нудесов потому что из ее знакомых таких может быть 1,5 человека. Но что сука характерно - делал наугад и в первый раз, потом пробовал по гайдам и получалось говно. Надо расковырять лору и достать настройки, но вроде бы в большинстве они были стандартные, 1 эпоха, 200 фото 512х512 с включенным Flip augmentation по 100 интераций на каждую и адамв потому что от 8 бит мое железо скукоживается. Еще я смутно припоминаю что мог увеличить LR на еще один 0 после точки.
Аноним 18/12/23 Пнд 23:12:27 #53 №576997 
>>576975
Ебать ты крип, я б тебя скрысил
Аноним 18/12/23 Пнд 23:16:19 #54 №577003 
>>576908
SDXL с настройками, позволяющими влезть в 24 гига, нихуя не запоминает нормально.
А другие типы лор? Тот же локон.
Аноним 18/12/23 Пнд 23:27:18 #55 №577015 
>>577003
Значит ты тренишь через жопу.
> локон
Он наоборот для дампинга тренировки.
Аноним 19/12/23 Втр 00:25:26 #56 №577073 
>>576975
Иногда кажется что в фетишах совсем обдвачевался, но потом видишь такое.
>>577003
> с настройками, позволяющими влезть в 24 гига
Ты про gradient checkpointing? Он ухудшает качество тренировки а не просто ее замедляет?
Аноним 19/12/23 Втр 00:28:58 #57 №577075 
17028367510180.png
17028367510241.png
17028367510292.png
>>577073
>Иногда кажется что в фетишах совсем обдвачевался, но потом видишь такое.
Ты не знаешь насколько глубока кроличья нора.
Аноним 19/12/23 Втр 01:54:56 #58 №577135 
Кто-нибудь знает нейронку для смены эмоций на фото. Такие вообще есть даже во всяких инстаграм масках, но что-то опенсорсного с ходу не нахожу
Аноним 19/12/23 Втр 05:54:33 #59 №577240 
>>577075
Это ЕОС, не трогай.
Аноним 19/12/23 Втр 14:21:54 #60 №577483 
>>577135
В комфи забабахай конвеер - ip-adapter пересаживает то же самое лицо под управлением контролнета с mediapipe физиономией
Аноним 19/12/23 Втр 15:01:06 #61 №577530 DELETED
>>577483
>В комфи
Калоежка, уйди.
Аноним 19/12/23 Втр 18:17:33 #62 №577667 
>>577483
Это не правильно. Использовать sd просто для смены эмоции. На телефоне инстаграм далеко не sd гоняет
Аноним 19/12/23 Втр 18:52:42 #63 №577692 
>>577667
Правильно или нет, главное результат. Специфичных открытых сеток для этой задачи не знаю, знаю только универсальные.
Аноним 20/12/23 Срд 11:20:44 #64 №578350 
>>574606
https://www.youtube.com/watch?v=Dzdu4cQlS2k
https://arxiv.org/abs/2312.11417
Аноним 20/12/23 Срд 17:27:17 #65 №578506 
LAION-5B убрали из онлайна, ибо нашли в нём цопэ. а они быстрые, ещё бы в 5.8 миллиарда пикч со всего интернета не затесалось
https://www.404media.co/laion-datasets-removed-stanford-csam-child-abuse/
Аноним 20/12/23 Срд 18:33:32 #66 №578558 
>>577075
Фрики не удивляют, есть и больший пиздец. А то, насколько поехавшими могут быть нормисы, преподносит сюрпризы.
>>578506
Вот это лолита, выходит его зеркала - распространение?
Аноним 20/12/23 Срд 18:59:56 #67 №578595 
>>578506
Похуй, DataComp качественнее даёт результаты после обучения.
Аноним 20/12/23 Срд 19:05:56 #68 №578605 
>>578558
Слушай, братишка, мы все так или иначе нет-нет да удовлетворяем себя глядя на кого-то или представляя кого-то. У меня вот шишка колом на одну тян, но она замужем и влезать третьим не в моих правилах. Кроме того даже если бы она была одна - это все равно вариант без перспектив, потому что вместе я нас не вижу при любом раскладе. Что плохого в том что я стираю шишку в одиночестве на AI-генерации нудесов этой тян, при том что это является только моим маленьким секретом и кроме меня об этом никто никогда не узнает? Чем принципиально отличаются генерации на какую-нибудь Эмму Ватсон не будем упоминать что она светанула сиськи и трусы, Бель Дельфин не будем вспоминать про онлифанс или сорт оф, на которых тоже есть лоры? И в конце концов тысячи кулстори когда одна тян просит починить комплюктер/телефон из которого сливаются ее нудесы inb4 Желева - чем это принципиально отличается? Не этично? Возможно. Но вред это может принести только если это окажется в публичном доступе, но в этом мне интереса нет. Что же до нормисов - у всех есть загоны, выходящие из ряда вон. Даже их отсутствие на фоне прочих - это тоже девиация.

А между тем я пытаюсь вспомнить и повторить настройки, с которыми была натренена лора. Если получится - я вам их принесу.
Аноним 20/12/23 Срд 19:16:32 #69 №578621 
>>578595
Это да, лаион по сути гигантский скрейп говна с минимальной инженерией. (эстетический скор который нихуя не фильтрует)
Да один хуй, почистят и вернут.
Аноним 20/12/23 Срд 19:48:18 #70 №578649 
>>578558
>выходит его зеркала - распространение?
Если нефильтрованные - да, очевидно.
Аноним 20/12/23 Срд 19:53:01 #71 №578655 
>>578605
Да вообще без осуждения, каждый дрочит как хочет. Просто настолько преисполнились поехали, что подобные простые вещи вызывают удивление.
Аноним 23/12/23 Суб 17:17:54 #72 №581199 
image.png
Снимок экрана 2023-12-23 170613.png
image.png
000.jpg
автоматик добавил fp8 вычисления, неплохо экономят память для SDXL, для 1.5 результаты не такие заметные
на рендерах слева fp8 вкл, справа выкл, разница есть, но небольшая
Аноним 23/12/23 Суб 17:28:25 #73 №581206 
>>581199
Уже месяц как.
Аноним 23/12/23 Суб 19:42:14 #74 №581402 
>>581199
В этом режиме кстати помедленнее на 1.5 работает, чем в обычном fp16. По крайней мере при замере на дефолтных 512 шакалах
Аноним 23/12/23 Суб 21:37:38 #75 №581562 
>>581402
разницы не заметил, возможно от видеокарты зависит
Аноним 23/12/23 Суб 22:00:19 #76 №581626 
image.png
у кого скорость повысилась от этого hypertile? у меня что-то нет. перезапускал SD конечно же.
Аноним 24/12/23 Вск 02:54:25 #77 №582173 
1703323407280142.png
Миджорня тем временем продвинулась настолько что в ответ на промпт непосредственно выдает картинки на которых обучалось. Еще немного и сбудется моя мечта, можно будет использовать нейросетки с моделью в качестве оффлайнового поиска по картинкам, без этой вашей генерации шестипалых уродов.
Аноним 24/12/23 Вск 17:33:29 #78 №582756 
>>582173
Оверфит бывает везде, вопрос в том как его найти.
>можно будет использовать нейросетки с моделью в качестве оффлайнового поиска по картинкам, без этой вашей генерации шестипалых уродов.
Для этого нужно параметров в сотни тысяч раз больше, и сетку перетренить так что она всё запомнит.
Аноним 24/12/23 Вск 17:51:01 #79 №582764 
>>582173
О, это чтобы копирастам было проще набутылить тебя за использование их закопирайченной собственности. Найс.
Аноним 24/12/23 Вск 18:43:03 #80 №582800 
>>582173
Деградирует же.
Аноним 24/12/23 Вск 18:51:00 #81 №582805 
>>582756
>параметров в сотни тысяч раз больше, и сетку перетренить так что она всё запомнит.
Я верю в миджорни
Аноним 24/12/23 Вск 22:32:59 #82 №582993 
обнаружил, что тензорное смешение двух схожих моделей отфайнтюненых даже через трейндифренс по итогу увеличивает консистенцию результата и качетсво ответа на токен, ничеси приколы
Аноним 25/12/23 Пнд 02:31:32 #83 №583219 
>>582173
>в качестве оффлайнового поиска по картинкам
Это другая тема, про хранение информации в нейронках
Аноним 25/12/23 Пнд 08:11:06 #84 №583420 
IMG20230908230317713.jpg
Сап двосч. Подскажите, пожалуйста. У меня есть большой текст. Я натренил его на tesorflow. Но выдает он не то что можно. Как я могу дообучить какую-то крутую модель своему тексту? Есть гайд для тупых? Lora только для картинок или так же можно текст тренировать?
Аноним 25/12/23 Пнд 08:20:01 #85 №583433 
F-ibc7nSwrI.jpg
Сап двосч. Подскажите, пожалуйста. У меня есть большой текст. Я натренил его на tesorflow. Но выдает он не то что можно. Как я могу дообучить какую-то крутую модель своему тексту? Есть гайд для тупых? Именно для теста. Странно, я вроде заплатил уже и не увидел свой пост. Как-то потерся
Аноним 25/12/23 Пнд 09:05:45 #86 №583469 
Всем привет! Может кто-то поделиться пример дообучения какой-то сети на своем тексте?
Аноним 25/12/23 Пнд 09:10:55 #87 №583472 
>>583420
>>583433
Тебе сюда https://2ch.hk/ai/res/577814.html
Аноним 26/12/23 Втр 11:17:29 #88 №584329 
Поздравьте меня. Натренировал своё первое Lora. 10 эпох, сутки. Сейчас пойду смотреть как работает.
Аноним 26/12/23 Втр 11:40:28 #89 №584342 
(62).jpg
9a3208f0-1e66-4907-97d7-2f86f82f7602.jpg
Аноны, а подскажите, пжлста, если я хочу на мохнатую вагину натянуть эротические трусы, то это мне как такой датасет подготовить для лоры? Фоток таких для обучения у меня, естественно что, нет.

Есть только фотки, получается что:
1. Мохнатых вагин
2. Вагин с обычными трусами
3. Эротических трусов.

Как такое обучается?
Аноним 26/12/23 Втр 14:02:35 #90 №584393 
>>584342
для того, чтобы в итоге получить возможность генерировать эротические трусы на мохнатых вагинах, датасет тоже ложен быть из пикч с эротическими трусами на волосатых пездах.
Поищи то, что тебе подходит в паках ATKHairy на порнлабе или где получится найти.
Ты тренить для SD или XL собираешься?
Аноним 26/12/23 Втр 18:06:42 #91 №584534 
>>584342
>Аноны, а подскажите, пжлста, если я хочу на мохнатую вагину натянуть эротические трусы, то это мне как такой датасет подготовить
Удали фон трусов до прозрачности и кинь их на свою пизду в фотошопе, затем обработай имидж ту имидж чтоб убрать швы. Можешь обойтись без фотошопа, нарсисовов труселя руками в маске.
Аноним 26/12/23 Втр 20:18:52 #92 №584618 
>>584342
Зачем для этого обучать, инпеинтом не получается, что ли? Если нужно конкретную модель трусов - IPAdapter'ом перенеси.
Аноним 26/12/23 Втр 20:22:36 #93 №584619 
https://github.com/rockerBOO/lora-inspector пробовал кто-нибудь? Что скажете?
Нужно выдернуть настройки, с которыми обучалась лора, потому что методом тыка повторить не удается, а результат получился заебись.
Аноним 26/12/23 Втр 22:44:52 #94 №584740 
аноны, поделитесь, плиз, работающей SDXL inpaint моделью для автоматика.
все, что пробовал, либо не загружаются, либо выдают черное пятно в месте инпейнта.
Аноним 27/12/23 Срд 00:27:47 #95 №584811 
>>584740
К сожалению автоматик их не поддерживает. Наверное в будущем добавят, хотелось бы иметь возможность, вдруг она может более сложные вещи адекватно понимать
Аноним 27/12/23 Срд 00:54:58 #96 №584820 
>>584811
спасибо!
Аноним 27/12/23 Срд 02:44:14 #97 №584891 
>>584619
Так посмотри просто в интерфейсе автоматика, или в адднетах
>>584740
Стабилити ведь не релизили инпеинт модель для хл, откуда ты взял вообще что она существует? На 1.5 и 2.0 вижу, а к хл так до сих пор и нету
Аноним 27/12/23 Срд 10:42:14 #98 №585067 
>>584740
>>584811
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/14390
Аноним 27/12/23 Срд 13:20:50 #99 №585206 
Когда в кохе в поле "Model Quick Pick" указывается runwayml/stable-diffusion-v1-5 - что она грузит? v1-5-pruned или v1-5-pruned-emaonly? Или что? Или куда сохраняет чтобы посмотреть? В tmp чет не нашел.
Аноним 27/12/23 Срд 13:21:50 #100 №585207 
image.png
image.png
image.png
пытаюсь смержить 2 лоры в одну но не понимаю что я должен в "save to" указать так или иначе выдает еррор, не уверен что это в целом должно так работать или какие еще есть способы это сделать
Аноним 27/12/23 Срд 13:31:09 #101 №585211 
>>584619
Если они были записаны в метаданные, то эти настройки проще в Авто найти. Там ж есть кнопочка для показа всех метаданных на миниатюре для лоры.
Если настройки не были записаны - никакой плагин тебе нифига не вытянет.
Аноним 27/12/23 Срд 13:33:53 #102 №585214 
>>585207
Так целиком путь пропиши. Типа E:\LoraMerge.safetensors
Или что-то вроде того.
Можешь вообще супермеджер накатить.
Аноним 27/12/23 Срд 13:57:16 #103 №585226 
>>584891>>585211
>Так посмотри просто в интерфейсе автоматика, или в адднетах
>есть кнопочка для показа всех метаданных на миниатюре для лоры
Так он мне через интерфейс показывает "ss_color_aug": "False", а через инспектор "ss_color_aug": true лол. И хуй знает кому верить.
Аноним 27/12/23 Срд 14:18:52 #104 №585232 
>>585206
Он грузит диффузоры в папку %userprofile%\.cache\huggingface\hub\
Аноним 27/12/23 Срд 14:19:51 #105 №585234 
>>585232
Спасибо. Добра.
Аноним 27/12/23 Срд 16:24:11 #106 №585307 
avr_loss=nan ето плохо? Кое-где в инторнетах пишут что плохо, и что обучение можно килять. В другом месте пишут что норм и это потому что шедулер используется другой, а в третьем к шедулеру прибавляют проблемы bitsandbytes. А по факту что?
Аноним 27/12/23 Срд 16:26:45 #107 №585309 
>>585307
Если одиночный, то жить можно. Если все пошли NaN, то лору в мусорку. При нормальном обучении он никогда таким не будет, это определённо признак кривых рук.
Аноним 27/12/23 Срд 16:27:35 #108 №585310 
>>585307
Это пиздец означает, можешь заканчивать обучение
Аноним 27/12/23 Срд 16:47:28 #109 №585322 
>>585309>>585309
У меня с самого начала обучения nan лол.
Аноним 28/12/23 Чтв 03:02:14 #110 №585572 
>>585067
а как интегрировать эти 4 файла в автоматик?
Аноним 28/12/23 Чтв 03:20:15 #111 №585577 
Здравствуйте, я новенький, а что здесь надо делать?
Аноним 28/12/23 Чтв 06:54:04 #112 №585627 
>>585572
Как я понял, качаешь патч https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/14390.diff, и в ветке master с помощью git apply ставишь. Сам делать не буду, подожду 1.8, или где его добавят в релиз
Аноним 28/12/23 Чтв 09:34:02 #113 №585661 
>>585627
спасиб, попробуем
Аноним 28/12/23 Чтв 09:44:30 #114 №585664 
>>585627
Полгода будешь ждать, пока его в мастер пульнут. В дев, наверное, быстрее, но каломатик с 17 декабря хуи пинает.
Аноним 28/12/23 Чтв 13:13:18 #115 №585777 
Есть тут кто с амуде 6800ХТ или 6900ХТ
Какую модель посоветуете, за сколько у вас изображение генерится?
У меня щас за 20 сек на турбо хл 512х512 20 шагов, можно ли быстрее?
Есть ли гайд какой то по пердолингу настроек для амуды в виндоусе?
Аноним 28/12/23 Чтв 13:35:50 #116 №585783 
>>585777
>6900ХТ
>для амуды в виндоусе
Ты же судя по карте не нищеброд как я, купи отдельный SSD и сделай дуалбут с линуксом.
Аноним 28/12/23 Чтв 13:42:51 #117 №585786 
>>585783
Я ваще не шарю в этой хуйне, это жестко пердолиться придется? У меня как раз лежит нераспечатанный ссд на 500 гигов на полке
Аноним 28/12/23 Чтв 16:12:02 #118 №585849 
>>585664
Ладно, так уж и быть, поставил. Дело то пару секунд, и ждать еще долго

Работает с базовой моделью, а вот с мержем у меня не получилось
Аноним 28/12/23 Чтв 16:19:31 #119 №585851 
>>585786
Линукс - это синоним пердолинга. Но тут как обычно, гуглишь гайды и делаешь по ним.
Аноним 28/12/23 Чтв 16:19:59 #120 №585852 
>>585849
Upd, с juggernaut xl получилось смержить inpaint разницу. Это значит из-за даунского кастомного запечённого vae в realvisXl 3.0 не работает, который видимо не сохраняется при мерже
Аноним 28/12/23 Чтв 16:40:14 #121 №585868 
>>585852
> juggernaut xl

Заметил что с ним какие-то цветные полосы появляются. Но он хоть генерирует, realvis просто латентные нули выдаёт (просто бежевая заливка)
Аноним 28/12/23 Чтв 19:45:29 #122 №586034 
image.png
image.png
>>585777
зачем 20 шагов для турбохл? там 5-6 с DPM++ SDE Karras хватает для вменяемой картинки
Аноним 28/12/23 Чтв 19:51:54 #123 №586038 
image.png
image.png
>>585777
тоже самое но с 20 шагами - очевидный пережог. турбо и LCM модели требуют других настроек
Аноним 28/12/23 Чтв 20:04:20 #124 №586054 
>>586034
>>586038
Это на амуде?
У меня на 6900ХТ 1.5 мин генерится, пиздос...
Аноним 28/12/23 Чтв 20:06:18 #125 №586056 
>>586054
нет, нвидиа. просто самое простое ускорение без пердолинга для тебя это уменьшение количества шагов, 20 не нужны для турбо.
Аноним 28/12/23 Чтв 20:26:32 #126 №586080 
>>585852
мержить надо после обновления автоматика до dev версии? а то на 1.7 ошибку выдаёт
Аноним 28/12/23 Чтв 20:28:08 #127 №586083 
>>586056
У меня на амуде почти не меняется от количества шагов время
С 20 где то 1 мин 40 сек генеринг с 5 шагами 1 мин 20 сек
Аноним 28/12/23 Чтв 21:18:21 #128 №586124 
>>586083
может на процессоре генерится? провеь нагрузку на видеокарту
Аноним 28/12/23 Чтв 21:42:22 #129 №586148 
123.png
>>586083
попробуй это https://github.com/nod-ai/SHARK
тут есть возможность выбрать на чём рендерить
на хилой встройке AMD аж заработало, думал она никуда не годится в SD
Аноним 28/12/23 Чтв 21:48:45 #130 №586154 
>>586148
На винде такое запустится или надо линукс?
Аноним 28/12/23 Чтв 21:50:47 #131 №586155 
>>586154
винда https://github.com/nod-ai/SHARK/releases/download/20231208.1070/nodai_shark_studio_20231208_1070.exe
Аноним 28/12/23 Чтв 21:51:46 #132 №586156 
>>586155
Окей спасибо попробую
Аноним 28/12/23 Чтв 23:15:05 #133 №586201 
>>586080
Я в master 1.7.0 мержил
Аноним 28/12/23 Чтв 23:24:40 #134 №586207 
>>586201
подскажи настройки пожалуйста
Аноним 29/12/23 Птн 01:54:19 #135 №586282 
>>586207
Не понял, как связан git и настройки?
Аноним 29/12/23 Птн 07:08:12 #136 №586363 
>>586282
настройки объединения кастомной xl модели с inpaint моделью
Аноним 29/12/23 Птн 12:17:53 #137 №586481 
>>586363
А - sdxl base inpaint
B - твоя модель
С - sdxl base
M - 1
Аноним 29/12/23 Птн 17:13:45 #138 №586638 
>>586481
сработало, но модель не грузится. ладно да и хер с ним, подожду официальной поддержки от автоматика вместо тыканья дев билдов
Аноним 29/12/23 Птн 23:03:07 #139 №586815 
1703880186549.jpeg
Оцените inpaint с помощью realVisXL 3.0
Аноним 29/12/23 Птн 23:08:48 #140 №586819 
>>585307>>585322-кун реквестирует помощь.
Реквестирую работающий конфиг, который не будет выдавать avr_loss=nan, я заебался искать причину. Но у меня не работает bf16 и AdamW8bit потому что невидия 16 в это не умеет.
Если с вашим конфигом будет все хорошо - значит вот этот >>585309 господин прав насчет рук.

И еще пара вопросов:

Допустим я хочу использовать runwayml/stable-diffusion-v1-5, он его конечно закачивает в .cache (спасибо вот этому >>585232 доброму человеку), но я хочу держать его в другой директории. Как зделоть? При выборе custom я просто не ебу что указывать, там ёбаная куча safetensors в поддиректориях.

У меня довольно много всякого говна нагружено и помнить про что оно только по названию можно ебануться, поэтому я поставил https://github.com/butaixianran/Stable-Diffusion-Webui-Civitai-Helper и оно нагрузило мне превьюх, может подставлять триггеры и вообще оче удобно, но проблема в том что нагрузило оно в ту же директорию, где лежат модели. Можно как-то их разделить, чтобы модели были в одной директории, а их потроха в другой? очевидно что нет
Аноним 29/12/23 Птн 23:36:06 #141 №586830 
>>586819
> закачивает в .cache (спасибо вот этому >>585232 доброму человеку), но я хочу держать его в другой директории. Как зделоть?

Гугли символические ссылки. Очень полезная вещь
Аноним 29/12/23 Птн 23:37:46 #142 №586832 
>>586819
>>586830
Но вообще кеш hugging face можно через переменную окружения перемещать, гуглится за секунду. Так что осиль сам
Аноним 29/12/23 Птн 23:56:24 #143 №586837 
>>586832
Кэш SD у меня и так лежит в директории SD (спасибо дружку хача, рили удобно), но runwayml/stable-diffusion-v1-5 я бы хотел держать в директории models например, а перемещать туда кэш переменной - это значит насрать туда всем остальным, что в кэш пишется.
>>586830
Симлинки это канеш все хорошо, но немного не то. Я хотел бы в директории с чекпоинтами/лорами/etc видеть только чекпоинты/лоры/etc. Кроме того, я не знаю корректно ли обрабатывает SD симлинки - мне встречался софт, который в упор этого не делал.
Аноним 30/12/23 Суб 02:47:40 #144 №586933 
В дополнение к этому >>586819
Вероятно дело не в настройках или кривых руках (по крайней мере не моих), а в том что с какого-то релиза обучение сломано https://github.com/bmaltais/kohya_ss/issues/1758
Укажите пожалуйста, какой версией (или когда она была скачана/установлена) вы пользуетесь, пожалуйста. Попробую откатиться, но не знаю куда.
Аноним 30/12/23 Суб 04:23:29 #145 №586961 
StrawberryPancake(1).PNG
newspaper news english.PNG
Расширение, снижающее артефакты при больших CFG: https://github.com/scraed/CharacteristicGuidanceWebUI

Может быть это станет спасением для lcm лор, чтобы негативы включить? Надо будет протестировать
Аноним 30/12/23 Суб 10:05:17 #146 №587003 
Block merge охуительный underrated метод, когда берешь из другой модели только освещение и эффекты поверхностей. Гораздо лучше и практичнее чем обычный мердж. Ничего сложного там нет, делаешь две кривые на ползунах и всё, так что теперь запилю свой собственный зоопарк оранжей для XL.
Аноним 30/12/23 Суб 10:07:16 #147 №587004 
>>586961
Что, ещё одно? Это, старое, не помогало с лцм, если что. https://github.com/mcmonkeyprojects/sd-dynamic-thresholding
Аноним 30/12/23 Суб 14:44:48 #148 №587117 
Ну что вы блядь, немощи, ни у кого не закомменчен git pull в батнике и никто не может посмотреть дату создания файлов/директорий в проводнике блядь? >>586933
Аноним 30/12/23 Суб 15:06:00 #149 №587131 
>>587117
Какой нахуй батник, у нас запуск через скрипт на питоне, последняя версия кохи работает без проблем.
>>586933
> с какого-то релиза обучение сломано
Нихуя там не сломано. С таким припизднутым lr, как по твоей ссылке, и должны NaN идти через 100 итераций, ничего в этом нет что надо было бы чинить. Алсо, bf16 уже можно называть признаком дебила, потому что использующие его думают что оно как-то спасает от говна ебанутых настроек тренировки. Наоборот у bf16 точность значимой части ниже 7 бит вместо 10 у fp16, экспонента большая никогда не нужна, если всё нормализовано.
Аноним 30/12/23 Суб 15:51:44 #150 №587147 
>>586933
Давно не обновлял, но на этой должно всё работать, хз что там с последней версией 2a23713f71628b2d1b88a51035b3e4ee2b5dbe46
>>587131
> думают что оно как-то спасает от говна ебанутых настроек тренировки
Ну а что же тогда спасает?
Аноним 30/12/23 Суб 16:45:59 #151 №587184 
>>587131
>у нас запуск через скрипт на питоне
Ну каждый дрочит как он хочет, мне например удобно срать только в директорию с кохой, а не в юзердир, поэтому у меня запуск через батник. Это вощем-то не отменяет моего вопроса, но ты уже ответил на него, спасибо.
>>587147
Благодарю, я попробую.

Олсо повторяю реквест, дайте пожалуйста работающий конфиг. В кохе же 1,5 настройки в вебморде, ну не мог же я блядь объебаться конечно же мог, просто в упор не вижу где.
Аноним 30/12/23 Суб 16:46:55 #152 №587185 
>>587003
> когда берешь из другой модели только освещение и эффекты поверхностей.

Очередной чел с магическим мышлением по отношению к sd. Нет в моделе специальных областей с "освещениями и эффектами поверхностей", к которым нейронка обращается, когда "выбирает освещение и эффекты поверхности" что бы это не значило
Аноним 30/12/23 Суб 16:49:59 #153 №587188 
>>587184
> Ну каждый дрочит как он хочет
Это конечно верно. Но пользоваться виндой в 2023 - это, конечно, пиздец...
Аноним 30/12/23 Суб 16:52:08 #154 №587191 
>>587188
Ну извинити, у меня нет свободного времени впрочем и желания чтобы натянуть и настроить гуй на голый линупс, а искаробочными решениями пользоваться вызывает рвотный рефлекс наравне с виндой, поэтому из двух зол.
Аноним 30/12/23 Суб 18:07:40 #155 №587223 
>>587188
Не у всех есть деньги на Мак, а пользоваться гну-высером из нулевых - это вообще зашквар, ты бы ещё предложил на ХР перекатываться.
Аноним 30/12/23 Суб 19:32:00 #156 №587263 
>>587223
> Не у всех есть деньги на Мак
Щаз бы SD на маке запускать лол.
Аноним 30/12/23 Суб 19:34:41 #157 №587267 
>>587263
Лучше чем на амуде, лол.
Аноним 30/12/23 Суб 21:07:45 #158 №587345 
>>587267
Одинаково, вообще-то.
Аноним 30/12/23 Суб 21:18:54 #159 №587357 
>>587345
Что-то мне кажется, что на амд совместимость подучше. А на маке на уровне видеокарт интл
Аноним 30/12/23 Суб 21:39:11 #160 №587368 
Амуде бы сейчас не видеокарты пилить, а бросить силы штата разрабов пилить либы для нейросетей. А то ёбаная куртка жмется на память словно она бешеных денег стоит, хотя стоит она почти нихуя на самом деле.
Аноним 30/12/23 Суб 22:04:02 #161 №587390 
>>587357
> А на маке на уровне видеокарт интл
На Маке автоматик из коробки работает так-то, в отличии от амуды.
Аноним 30/12/23 Суб 22:14:32 #162 №587401 
>>587368
Куртка начнёт конкурировать сам с собой, если добавит дохуя памяти в потребительские карты. Жди новый тип ядер для жёсткого ускорения нейросетей, которых не будет в потребительских картах. Тогда памяти доложат побольше. А пока куртка финансирует ии-сжатие текстур, чтобы можно было класть ещё меньше памяти.
>бросить силы штата разрабов пилить либы для нейросетей
Они и пилят, ROCm уже есть.
Аноним 30/12/23 Суб 23:08:40 #163 №587435 
>>587184
> дайте пожалуйста работающий конфиг
Для какой гпу и чем именно тренишь?
Аноним 31/12/23 Вск 01:20:41 #164 №587508 
>>587435
Я имею в виду конфиг для webui, параметры тренировки. Я где-то наебываюсь именно здесь, потому что ранее получал значения avr_loss хотя бы отличные от nan. Но в то же время это происходило на более ранней версии, примерно 22.1.1. Однако я попробовал ее и все равно получаю nan. Возможно конечно дело не в кохе а в модулях пердона, я попробовал откатить на более древние но и это не решило проблему.
Офк я попробовал чистую реинсталляцию (которую рекомендуют в 95% при решении проблем потому что никто нихуя не знает).
У меня 1063 и 1630@4gb, треню кохой, пытаюсь запуститься на runwayml/stable-diffusion-v1-5.
Аноним 31/12/23 Вск 03:43:57 #165 №587571 
Я сам себе злобный буратина, поначитавшись всяких гайдов включил Full fp16 training (experimental). Корочи я дебил и еб бы вам голову зря, но... Отключив его я наконец начал получать на 1063 валидный avr_loss, наконец сохранил работающий пресет чтобы больше не заниматься такой хуйней, но перенеся его на другую тачку с 1630@4gb я снова начал получать nan. Охуеть, что за магия бля?
>>587508-кун
Аноним 31/12/23 Вск 06:39:14 #166 №587627 
>>587571
> 1063
Да какое обучение на 3 гб vram, успокойся. Для адекватного взаимодействия с сетью 8 гб мало, чтобы без постоянных компромиссов, а ты в обучение со своими тремя полез
Аноним 31/12/23 Вск 06:43:09 #167 №587630 
>>587627
Что в наличии есть - на том и учу. Пару раз даже успешно потом начал обсираться с каждым разом все жиже, но разговор не об этом, так что нормальное обучение, принципиально все работает, это я мудак конфиги кручу и не могу понять где сломалось.
Аноним 31/12/23 Вск 22:38:31 #168 №588208 
Ля, вот вы...
Короче я сделал еще один тест. Голый конфиг, единственное что поменял - это оптимизатор AdamW8bit на AdamW (чтобы было одинаково, одна машина в AdamW8bit не может).
На 1063 голый конфиг заводится, на 1630@4gb получаю nan. Правда я не могу сказать с уверенностью, тренил ли я на 1630@4gb уже или еще нет, могу только сказать что генерил. Возможно этому огрызку отрезали что-нибудь нужное для обучения.

А так как вы молчите, я пожалуй скастую одного юродивого в этот тред: Я ИСПОЛЬЗУЮ ВЕРСИЮ ОТ ДРУЖКА ХАЧА
а потом буду его тыкать носом в хачевский батник, где написано git remote add origin https://github.com/bmaltais/kohya_ss.git && git pull origin master и размазывать по ебальнику user environment variables. Да, мне наконец совершенно нечем заняться в этот новый год, как же пиздато заниматься вот такой хуйней. С НГ всех, целую-обнимаю.
Аноним 31/12/23 Вск 22:57:25 #169 №588221 
>>588208
Дегенератина, показывай свой конфиг и используй нормальную версию от кохи, а не всяких хачей-трюкачей.
> bmaltais/kohya_ss.git
Это ещё что за мокрописечная хуета? Оригинальная репа тут - https://github.com/kohya-ss/sd-scripts
Аноним 31/12/23 Вск 23:01:01 #170 №588222 
изображение.png
>>588208
Ладно, я нашел в чем дело https://github.com/kohya-ss/sd-scripts/issues/293
И действительно указав mixed_precision=no обучение на 1630@4gb начало отдавать значения avr_loss.
Кроме того, там же лежит решение чтобы mixed_precision=fp16 заработал, но у меня чет не получилось его завести. Ну да и хуй с ним, посмотрю на результат при =no.

>>588221
>Это ещё что за мокрописечная хуета
Это мокрописечная хуета, в которую коха сделал 600+ коммитов, так что ебальничек завали.
Аноним 31/12/23 Вск 23:27:39 #171 №588226 
>>588222
> коха сделал 600+ коммитов
Принятия пул-реквестов и мержей из основной репы? Не вижу ни одного коммита с кодом от кохи за последние месяцы один багфикс нашёл всё же на 5 строк, да. И речь тут в первую очередь про то что авторы этого кала в конфигах по умолчанию делают, пользовался бы оригинальной репой - не было бы вопросов кто насрал.
Аноним 01/01/24 Пнд 00:58:00 #172 №588293 
>>588226
>Принятия пул-реквестов и мержей из основной репы?
Хотя бы это делает мокрописечную хуету потенциально рабочей. На данный момент большинство мокрописечных хует - это суть то же самое, что развернуто на твоей пекарне, только ставится из гита. И я ебал ставить все руками когда можно почти полностью развернуть автоматически, тем более что (!) в мокрописечной хуете принятия (!) пул-реквестов и мержи (!) из основной репы (!). Не понимаю как даже не форк, а по сути аддон вдруг делает оригинальный код неоригинальным.
И как показывает практика - насрал обычно сам пользователь, но и вы далдоны не знаете нихуя как исправить ту или иную проблему, вся ваша помощь - это сиплые вскукареки на тему оригинальности источника и неканоничности мокрописечных хует. С одной стороны это не ваша вина - насколько я слышал но не читал, да маны кохи крайне неинформативны, что-то уровня "делай так и будет заебись". Но если такой подход вполне канает в треде, то в качестве официальной документации это полное говно.
И однако я удачно тебя скастовал лол.
Аноним 01/01/24 Пнд 02:23:18 #173 №588336 DELETED
H
Аноним 01/01/24 Пнд 07:37:12 #174 №588394 
>>588293
> проблему
Ты пока ни одной проблемы не обозначил. "Не работает" без показывания что ты там напердолил - это не проблема, а диагноз об умственной отсталости.
Аноним 01/01/24 Пнд 17:21:17 #175 №588594 
>>588226
>Не вижу ни одного коммита с кодом от кохи за последние месяцы
Хорошо, давай я повожу твоим ебальником по говну немного иначе: идешь в свою ультра-мега-гипер-оригинальную репу и в readme.md находишь
>For easier use (GUI and PowerShell scripts etc...), please visit the repository maintained by bmaltais. Thanks to @bmaltais!
А в браузере на странице "the repository maintained by bmaltais" вообще выполнено ссылкой на мокрописечную хуету.
Неудобненько вышло, коха ссылается на мокропиську, вот так новость.
>>588394
>Ты пока ни одной проблемы не обозначил. "Не работает" без показывания что ты там напердолил
Я обозначил что получаю nan, и будь у нас всех чуть больше информации об этом - можно было бы сказать в каких кейсах это может происходить, прочекать эти кейсы и найти проблему.
Уже в этом >>587508 посте можно предположить проблемы с совместимостью, а не проблемы в настройках или дистрах. А вот в этом >>587571 посте я специально сказал что попробовал голый (читай - дефолтный) конфиг только с одним изменением, то есть я нихуя там не накрутил.

А уж указывать что дистрибутив не был инсталлирован руками - это вообще для вас, долбаёбов, красный флаг. Не перестаю лолировать с этого ощущения исключительности на самоподдуве - "я поставил все руками вместо автодеплоя, какой же я охуенный".
Аноним 01/01/24 Пнд 17:52:51 #176 №588605 
анончики, а есть какой-то нормально работающий теггер для НСФВ, без разницы на базе чего, данбору или нет - просто смотрю в гитхаб и там какая-то ебань для красноглазых, а в kohya гуе нет нифига нормального теггера для всяких пезд и жоп
Аноним 01/01/24 Пнд 17:56:02 #177 №588609 
и поделитесь пожалуйста нормальным гайдом по обучению лор на сдхл - карточку купил новую, а чето нихуя kohya не тренит - когда-то давно 1.5 модели нормально обучались, а щас sdxl какая-то пиздатня, и все гайды это сука двухчасовые видосы на ютубе от индусов и иранцев каких-то
Аноним 01/01/24 Пнд 18:08:38 #178 №588616 
>>588605
>в kohya гуе нет нифига нормального теггера для всяких пезд и жоп
Ну обычно они прописываются в промт, стандарта как правило нет, но как одно из предположений - скачай другой чекпоинт, какой-нибудь эпикреализм или сорт оф. Дефолтный чекпоинт хуево рисует пезды и жопы.
Еще на пезды и жопы можно задействовать лору, им иногда нужен триггер.
>>588609
Ну давай попробуем, хз. Расскажи модель новой карты и что происходит при обучении - какой выхлоп в сосноль дает, ошибки там чи шо?
Аноним 01/01/24 Пнд 18:32:57 #179 №588630 
>>588222
> mixed_precision
> на 1630
Она разве вообще умеет в него? Все через жопу костыльно всегда было на недо-тьюрингах.
>>588594
> вместо автодеплоя
Автодеплой что заменяет 2.5 строчки кода? Гуйня bmaltais в целом неплоха и для будки пригодна для формирования параметров запуска, хотя многого там всеравно нет. О чем у вас спор вообще?
> я поставил все руками вместо автодеплоя, какой же я охуенный
Случаем сам не имплаишь что юзать васянскую залупу - норма? Или что вообще хочешь сказать?
>>588605
WD теггер работает с нсфв хорошо, не так давно там новая модель вышла которая знает оче интересные концепты и теги но при этом очень обильно срет и надо с ней устроить правильное обращение.
> там какая-то ебань для красноглазых
Все так, нормальный путь - пачка из нескольких моделей. Есть ленивый путь - экстеншн к автоматику, позволяет тегать батчами, выбирать модельки, делать базовые настройки и т.д., для простых задач хватит.
Аноним 01/01/24 Пнд 18:47:03 #180 №588653 
>>588630
>Она разве вообще умеет в него?
1063 поколением ниже внезапно заводится норм, хотя казалось бы.
>Автодеплой что заменяет 2.5 строчки кода
В случае bmaltais - нет, но в случае портабельного варианта, который развертывает дружок хача - вполне себе годно, зависимости развернутся сами.
>хотя многого там всеравно нет
Вот с этого момента подробнее. Мне интересно, без сарказма.
>Или что вообще хочешь сказать?
Я хочу сказать что предмет нашего спора (конкретно репа bmaltais, на которую ссылается деплоер дружка хача) - сорт оф плейбук. Если взять эту аналогию, нихуя криминального в использовании плейбука из инторнетов в случае если он тебе подходит и работает - нет. И более того, сейчас это стандарт, никто не дрочится с деплоем и конфигурированием руками, но почему-то в этом треде это вызывает жопное горение.
Аноним 01/01/24 Пнд 18:59:43 #181 №588661 
>>588653
>Я хочу сказать что предмет нашего спора (конкретно репа bmaltais, на которую ссылается деплоер дружка хача) - сорт оф плейбук. Если взять эту аналогию, нихуя криминального в использовании плейбука из инторнетов в случае если он тебе подходит и работает - нет. И более того, сейчас это стандарт, никто не дрочится с деплоем и конфигурированием руками, но почему-то в этом треде это вызывает жопное горение.
Ну или вот еще одну аналогию приведу. Вот есть SD, у него есть дефолтный чекпоинт. Приходит в тред анон и говорит "у меня не генерируется пиздохуй, что делать? Генерирую на чекпоинте пиздохуй.safetensors". В ответ на свой вопрос анон получает взвизги про то, что генерировать пиздохуй надо только на дефолтном чекпоинте, а все остальное мокрописьки и вообще пошел нахуй.
Я не призываю использовать одно, но не использовать другое, если что - дрочитесь как угодно, хотите ставить руками, срать в кэш юзердира и переменные среды - ваше право, никаких претензий, это дефолтный и рабочий вариант.
Аноним 01/01/24 Пнд 19:04:00 #182 №588666 
>>588653
> 1063 поколением ниже внезапно заводится норм, хотя казалось бы.
Все верно, паскаль был полноценным, хоть и уже старенький, а обрезки тьюринга проблемные, хотя чипы мощнее и новее.
> В случае bmaltais - нет
Для гуйни офк нет, но просто поставить коху - гит пулл, венв@торч@реквайрментс, при необходимости раскомментировать дополнительные модули. Бмалтис еще много лишнего тащит для обеспечения остального функционала, он норм, особенно если начинаешь, но потом - неудобен. Например, лоры лучше тренить пачками с варьированием параметров, для будки там отсутствуют нужные параметры
> Вот с этого момента подробнее
Аргументы шедулеров (под них есть поле но для половины оно делает неверное форматирование из-за чего лезут ошибки), аргументы оптимайзеров (в основном работают), тренируемые слои, zero_snr - первое что в голову приходит, были еще. Ну и банально неудобно каждый раз все тащить-вбивать или переназначать даже при наличии сохранения конфигов (если речь о лорах).
> нихуя криминального в использовании плейбука из инторнетов в случае если он тебе подходит и работает - нет
Абсолютно, а что такое плейбук?
> никто не дрочится с деплоем и конфигурированием руками
Там нет дрочки и все относительно просто, проблемы прежде всего в отсутствии норм документации. Как только запросы выходят за рамки дефолта типа (натренить вайфу/натренить на еот) или не удовлетворяет их качество - придется вникать.
> но почему-то в этом треде это вызывает жопное горение
Хз, тут может вызвать пожар разве что когда варебух приходит и начинает что-то требовать, а на вопросы что не так - говорит "а вот у меня хуйня из под хача он мастер и знает как надо, настраивайте".
Аноним 01/01/24 Пнд 19:09:08 #183 №588671 
>>588661
> Генерирую на чекпоинте пиздохуй.safetensors
Очевидно что сначала нужно проверить на заведомо нормальном, чтобы исключить релейтед к васянизации проблемы. А потом уже разбираться по дефолту. Хз чего тебя тригернуло на этом.
Ну и не эктраполируй мнение возможно вполне уместное, лень сильно сейчас ту нить читать на всех, и сам тут явно предвзят и напираешь на эту тему. Тред не быстрый и сейчас праздники.
Аноним 01/01/24 Пнд 19:23:09 #184 №588685 
>>588666
Спасибо за пояснения.
>а что такое плейбук?
Суть скрипт с необходимыми действиями для получения готового к работе хоста или внесения изменений в существующий, используется в ansible, но есть еще пяток аналогов. В принципе это можно и шелл/помершелл/бат-скриптами делать, но возможно существуют некоторые нюансы. В основном используется в интерпрайзе, например когда нужно поднять очередной хост с типовой конфигурацией.
>проблемы прежде всего в отсутствии норм документации
Да, я выше уже посетовал на это. Возможно что-то сформирует комьюнити со временем.
>а вот у меня хуйня из под хача
А вот у меня хуйня из-под хача. Но по крайней мере я осознанно сделал этот выбор и осознаю что хуйня из-под хача разворачивает из репы bmaltais - а это дает возможность работы с проблемой не смотря на все прочее энивей. Приходится либо умалчивать про хача чтобы у очередного хлебушка не полыхнуло, либо тыкать носом под настроение.
>>588671
>сначала нужно проверить на заведомо нормальном
Верное замечание с одной стороны, и я сам хотел его сделать, но по опыту в большинстве случаев к этому прибегают если попробовали уже все что можно.
Аноним 01/01/24 Пнд 19:25:09 #185 №588687 
Как завести коху ебаного на гетерогенной системе?
Аноним 01/01/24 Пнд 19:26:07 #186 №588691 
>>588687
>гетерогенной
Подробности?
Аноним 01/01/24 Пнд 19:26:59 #187 №588692 
>>588653
> Вот с этого момента подробнее.
В ваших гуях очень много чего нет из того что появилось за последние пол года.
Разные виды демпинга, типа debiased_estimation_loss. DPO и тренировка RL с ревардами от OpenPose или CLIP. Multistep-тренировка с дополнительными шагами на высоких timestep чтоб меньше уродов было. Референс-модели.
Можно кучу всего ещё по мелочи перечислить.
Аноним 01/01/24 Пнд 19:32:02 #188 №588698 
>>588691
3090+3060
Аноним 01/01/24 Пнд 19:38:38 #189 №588703 
>>588685
Дело в том что так называемый "сложный деплой" что кохи, что гуйни - это несколько дефолтных строк в консоль, а гуй - вообще склонировать репу и запустить один скрипт. В случае васян-инсталляторов требуется сначала понять что именно там наделано внутри, чтобы потом не страдать из-за левых костылей или идиотских решений. Особенно если эти васяны - недостойный гной и гниль, не раз пойманная на воровстве и включении вишмастеров. Реакция именно поэтому, а не потому что тут недружелюбные или надрачивают, что именно там внутри врядли кто-то будет разбираться и смотреть.
> В основном используется в интерпрайзе
Здесь не тот случай.

По докам все сложно, если найдешь их - скидывай, в основном обрывки в обсуждениях между теми кто понимает, что печально.
> но по опыту в большинстве случаев к этому прибегают если попробовали уже все что можно
А что у тебя не работает то?
>>588687
>>588698
Не стоит. Если реально хочешь - ставь wsl, под шинду в теории сделать можно, но придется собирать аккселерейт с нужными либами, или искать альтернативные пути.
Но вся проблема в заточенность на синхронное исполнение, 3060+3090 дадут скорость как две 3060 и скорее всего окажется медленнее чем 3090. Такое имеет смысл на близких по перфомансу гпу типа 3090+4090 и подобное. Если при конфигурировании выключишь параметр синхронизации - вообще вылетит вскоре после запуска.
Хочешь больше батчсайз - юзай градиент аккумулейшн.

Алсо есть альтернативный путь - трень разные модели на разных карточках, cuda visible devices в помощь.
Аноним 01/01/24 Пнд 19:49:24 #190 №588714 
>>588698
И обе задействовать нужно, чи шо? Я чет слышал что такое возможно только при обработке разными картами разных же словоев.
Если разные - можно указать нужную при запуске accelerate config, но вот здесь вроде бы эту проблему решили https://github.com/bmaltais/kohya_ss/issues/521 правда с нюансами - зделоли использование VRAM+CUDA на одной карте, и CUDA на второй карте. При том что у 4090 больше VRAM - это может иметь смысл даже если >>588703
>>3060+3090 дадут скорость как две 3060 и скорее всего окажется медленнее чем 3090

>>588703
>Здесь не тот случай.
Для дома тоже используется иногда, например один анон из треда про умный дом в /dom держит плейбуки для ядра, чтобы в случае падения железки можно было развернуть замену за 5 минут.
>А что у тебя не работает то?
Да все уже работает, я имел в виду опыт не с нейросетями, а в принципе - волею случая приходится воевать с разным софтом по работе, запускаться на нестандартных конфигурациях или чинить такой запуск. Но для полноценного девопса мои задачи будут детскими шалостями так-то.
Аноним 01/01/24 Пнд 19:50:59 #191 №588716 
>>588714
>При том что у 4090 больше VRAM
Наебался. Имел в виду 3090 конечно.
Аноним 01/01/24 Пнд 19:58:59 #192 №588727 
>>588703
>Здесь не тот случай.
Ну и вообще это аналогия была, я не предлагаю использовать деплой через энтерпрайзные инструменты для нейросетей лол.
>не раз пойманная на воровстве и включении вишмастеров
Соглашусь. Учитывая что пердон разворачивается из архива, а не скачивается из официального источника - это опасненько, тут уж хуй знает что могли туда впихнуть. В остальном firstrun на 10 строк и запуск примерно во столько же, особо вникать не нужно. Вообще ты навел меня на хорошую идею разворачиваться примерно так же, но закачивать тот же гит или пердон через curl из инторнетов. Не думаю что скрипт для этого сильно больше получится, а опасности меньше.
Аноним 01/01/24 Пнд 20:06:21 #193 №588744 
>>588714
> И обе задействовать нужно, чи шо? Я чет слышал что такое возможно только при обработке разными картами разных же словоев.
Еще как можно и скорость пропорционально выше количеству, каждая видюха обрабатывает свои пикчи (считай батчсайз в N раз больше), а потом результат определенным образом усредняется.
> VRAM+CUDA на одной карте, и CUDA на второй карте
Вут? Это немного другая степь.
> из треда про умный дом
>>588727
Там нужно быстро провести кучу автоматизированных типовых действий и все. Тут даже действий нет, скачал, нажал и все. Зато потом уже сидишь пердолишься, занимаясь подготовкой датасетов или настройками.
Суть не в нейросетях а в опенсорце. Там где нужно что-то готовое простое использовать - да. Но тут даже не готовый инструмент а кит-набор, с помощью которого разобравшись и настроив можно что-то делать.
> закачивать тот же гит или пердон через curl из инторнетов
Все что нужно - гит клон а потом запустить батник или шеллскрипт. Ну и после установки акселерейт конфиг под свое железо, если хачелла там конфигурирует под бф16 по дефолту а у тебя карточка младше ампера - то земля пухом бай дефолт скорее всего.
Аноним 01/01/24 Пнд 20:09:29 #194 №588750 
>>588714
>https://github.com/bmaltais/kohya_ss/issues/521
У меня при таких же настройках происходит краш как в ишуях, фикс в library/train_util.py помогает, но тренировка происходит только на первом гпу, а если задать число процессов 2 то там такие ошибки, как будто запустили 2 раза тренировку на разных гпу, лол.
Аноним 01/01/24 Пнд 20:13:13 #195 №588755 
>>588750
Какая система стоит на пекарне где идет обучение?
Аноним 01/01/24 Пнд 20:26:39 #196 №588764 
>>588755
Винда, а акселерейт запускает гуи от дериана, который уже запускает коху. Пробовал и наоборот, чтобы гуй запускал акселерейт фиксом в main_ui_files/MainWidget.py, тоже что-то не получилось. Позже попробую без гуя короче.
Аноним 01/01/24 Пнд 20:33:37 #197 №588776 
>>588692
> DPO и тренировка RL с ревардами от OpenPose или CLIP. Multistep-тренировка с дополнительными шагами на высоких timestep чтоб меньше уродов было. Референс-модели.
И это всё уже есть у кохьи? В патч ноутах только про debiased_estimation_loss
Аноним 01/01/24 Пнд 20:34:49 #198 №588778 
>>588764
Под шинду дефолтный акселерейт не может в мультигпу. Если пройдешь по пути поиска ошибок то придешь к отсутствию нужных параметру и заглушке о том что ваша версия - говно, а при попытке собрать нормальную столкнешься с отсутствием всякой херни, если писать коротко.
На любом линуксе или wsl аккселерейт из коробки может. Просто установи убунту из магазина, а на нее накати тот же гуи и пользуйся им. Бонусом будет работать быстрее.

При конфигурировании аккселерейта выставляешь this mashine, multi-gpu, 1, Should distributed operations be checked while running for errors? - Yes, FullyShardedDataParallel - No, all или 0,1 на списке гпу. При запуске оно само запустится на двух гпу без доп параметров, но можешь их указать, в мане к аккселерейту есть. Эффективный батчсайз будет больше в 2 раза, учитывай это при задании числа шагов/эпох/повторов датасета.
Аноним 01/01/24 Пнд 20:39:03 #199 №588783 
>>588778
>Эффективный батчсайз будет больше в 2 раза, учитывай это при задании числа шагов/эпох/повторов датасета.
Как он может быть в 2 раза больше, если у 3060 не хватит на такое видеопамяти? Придется урезать заданный батч сайз ровно в два раза, чтобы уместить? Какая же неповоротливая хуита.
>wsl
б-же упаси
Аноним 01/01/24 Пнд 20:45:19 #200 №588789 
>>588783
> Как он может быть в 2 раза больше, если у 3060 не хватит на такое видеопамяти?
Ты не понял, при запуске будет работать в 2 потока каждый с заданными параметрами и на своей видюхе. Результат будет как с батчсайзом в 2 раза выше, поэтому нужно скорректировать число шагов, уменьшив в 2 раза.
> Придется урезать заданный батч сайз ровно в два раза, чтобы уместить?
Нет, на 3060+3090 придется выставлять тот, который влезет в 3060 ибо она ограничивающий. Возможно полезут еще какие-то подводные из-за асиметричного конфига или будет вылетать, оно и на симметричной системе может упасть если, например, подключать мониторы/телек.
> б-же упаси
Тогда ставь полноценный линукс и грузись в него. Или займись добавлением поддержки в шиндовскую версию, оба варианта несравнимо затратнее.
Аноним 01/01/24 Пнд 20:46:11 #201 №588790 
>>588776
> И это всё уже есть у кохьи?
Ну коха слишком тупой чтоб это запилить, но в форках есть.
Аноним 01/01/24 Пнд 20:46:33 #202 №588791 
>>588789
Да, вообще покури доки пустил слезу и код кохи, возможно всеже можно задать разный батчсайз на девайсах чтобы получить ускорение на подобных ассиметричных, или это уже как-то реализовано.
Аноним 01/01/24 Пнд 21:13:15 #203 №588816 
>>588789
Так это ты не понял, я вот это имел в виду
>на 3060+3090 придется выставлять тот, который влезет в 3060 ибо она ограничивающий
На 3090 получается 12 гигов будут простаивать, что есть половина.
>ставь полноценный линукс
Давно бы уже накатил и радовался бы жизни. А так бля какая же хуйня, только на линуксе не под wsl блядь работает одна половина софта, только на винде другая половина, а я использую комп как сервер блять и мне нужно чтобы он 24/7 работал. Пидорасы.
>>588791
>задать разный батчсайз на девайсах
Походу все же придется курить. Пиздец бля, уверен что запилить такую фичу с уже рабочим аккумулейшеном на мультигпу это дело 10 минут, просто прописав опции в конфиге, но ее до сих пор походу нет.
Аноним 01/01/24 Пнд 21:14:06 #204 №588817 
изображение.png
>>588790
>в форках
Тише, тише, а то услышит юродивый и завизжит про мокрописечную хуету
Аноним 01/01/24 Пнд 21:15:21 #205 №588820 
>>588817
Бля, на пик не обращайте внимания. Я хотел ответит с ним, но потом понял что вощем-то просто и не за чем.
Аноним 01/01/24 Пнд 21:21:03 #206 №588824 
>>588816
> На 3090 получается 12 гигов будут простаивать, что есть половина.
Ага, увы, может получиться не ускорение а наоборот замедление. Возможно как-то можно, но вероятность сделать малой кровью, без больших правок кохи, мала, когда в свое время смотрел - было крайне примитивно средствами аккселерейта.
Если что-то получится - выкладывай.
> Пидорасы
Двачую
>>588817
Блять, васяны рили этот пиздец с зашкваренными бинарниками хавают, вместо того чтобы скачать полноценные версии гита и питона?
Аноним 01/01/24 Пнд 22:23:54 #207 №588861 
Почему вы все до сих пор дрочитесь с юнетом и сд, когда есть дит и пиксарт?
Аноним 01/01/24 Пнд 22:26:13 #208 №588863 
>>588861
Говно же
Аноним 01/01/24 Пнд 22:27:11 #209 №588866 
>>588863
А ты пробовал?
Аноним 01/01/24 Пнд 22:27:55 #210 №588867 
>>588861
О, точно, нужно их хотябы понюхать пока есть свободные дни. В любом случае наличие комьюнити и уже готовых средств запуска и обучения - крайне серьезный фактор.
Аноним 01/01/24 Пнд 22:28:03 #211 №588868 
>>588866
Да
Аноним 01/01/24 Пнд 22:29:29 #212 №588871 
1704137370112.png
>>588868
Аноним 01/01/24 Пнд 22:35:49 #213 №588873 
photo2023-11-0813-06-23.jpg
AQAKIs81SjciSqnUkU9lPr5ecZGMEiUZM2g6LYkIctjtdrbQV-F2g3mcGSgWbnTnlnnfHQ6vmcdCHvHdb25OxIKDvNc.webp
AQAKfvkpxpPhImhu0LPfOOjNscpC084MvFTRGRIMizKrRiSSXcjTAseWE2qkSvVqk3unq5A9O43kC6LJg33DI55kI.webp
16969328351908.webp
>>588861
>пиксарт
Попробовал загуглить и проиграл
Аноним 01/01/24 Пнд 22:37:59 #214 №588874 
>>588861
Пиксарт как модель ничего нового не предлагает, оно и понятно, бюджет у них меньше чем у сд 1.X почти в 12 раз. Да, понимание промпта присутствует (в первую очередь за счет большого Т5), но вот картинка все равно получается говном из-за малого размера денойзера, тут уже ничего не поделать.
Аноним 01/01/24 Пнд 22:38:03 #215 №588875 
>>588873
Какой-то уровень дримбудок образца сентября 2022г.
Аноним 01/01/24 Пнд 22:39:17 #216 №588878 
>>588874
Там основная причина говна — всратый и маленький датасет
Аноним 01/01/24 Пнд 22:40:31 #217 №588879 
>>588878
И это тоже.
Аноним 01/01/24 Пнд 22:43:06 #218 №588880 
sXYcU7Xqcko.jpg
wDyUoW18sEY.jpg
b6768dc2bc9163455c744075b5bad70bcropped666x666.jpg
597011600x0.webp
>>588875
На самом деле я неправильно загуглил прост, но проигрывать не перестаю.
Аноним 02/01/24 Втр 00:03:44 #219 №588942 
>>588790
Их там много, в каких конкретно?
Аноним 02/01/24 Втр 01:47:25 #220 №589006 
>>588616

а при чем тут чекпоинт СД и чекпоинт клипа, это ж разные вещи. Если использовать клип через интерргейтор, то ты модель прям там выбираешь, и там нифига не СД модели a всякие vit16-h
Аноним 02/01/24 Втр 17:06:58 #221 №589652 
изображение.png
В поисках информации попался видос (из тех, что 3,5 штуки на русском) про сравнение базовых настроек при обучении лор. Таблица пикрил, оценка субъективна.
От себя добавлю что dim=16 alpha=8 тоже канают.
Сам видос тут https://www.youtube.com/watch?v=_8_k9LUOEes
Аноним 02/01/24 Втр 23:58:52 #222 №590088 
Уже пара месяцев прошло, а sd 1.6 так и не открыли...
Аноним 03/01/24 Срд 04:43:14 #223 №590179 
>>590088
А оно его живое? Вроде как упоминание повышенных разрешений из релиза вообще убрали...
Аноним 03/01/24 Срд 05:27:11 #224 №590193 
>>590179
Кстати о повышенном разрешении. Realistic Vision 6 тоже планировался как повышенное разрешении. Но в итоге и на заявленном 800+px выходит глючное говно

И еще там в комментах пишут, что переобученно на голых девушках, и выдает их даже тогда, когда не просят. Ну и в плане реализма - тоже говно, даже близко не EpicPhotogasm

Короче очень разочарован в realistic vision 6
Аноним 03/01/24 Срд 05:37:35 #225 №590194 
Когда завезут в SD zero-shot персонализацию и фидбэк? (Типа как finetune в реальном времени, когда пользователь оценивает сэмплы и модель медленно дообучается по оценкам, в CharacterAI было такое)
Аноним 03/01/24 Срд 07:29:32 #226 №590219 
>>590194
Завези. Софт развивается сообществом

(А вообще звучит как что-то очень требовательное)
Аноним 03/01/24 Срд 11:55:25 #227 №590316 
>>590194
> когда пользователь оценивает сэмплы
Такое уже есть, 24гб врам для простых генераций приготовил?
> в CharacterAI было такое
Это вообще не близко к файнтюну и влияло крайне редко и опосредованно, 99.x эффекта - плацебо для пользователя.
Аноним 03/01/24 Срд 12:04:03 #228 №590321 
Какое хорошее значение constrain для COFT?
Аноним 03/01/24 Срд 13:57:51 #229 №590381 
>>590316
> Такое уже есть, 24гб врам для простых генераций приготовил?
Где? 24Гб врам есть.
Аноним 03/01/24 Срд 14:08:34 #230 №590385 
>>590321
1
Аноним 03/01/24 Срд 14:29:05 #231 №590396 
>>590321
Что это такое?
>>590381
https://github.com/dvruette/sd-webui-fabric
Аноним 03/01/24 Срд 14:37:11 #232 №590404 
>>590396
А, это я уже видел. Мертворожденный проект.
Аноним 03/01/24 Срд 14:38:58 #233 №590405 
>>590321
Как в публикации - 1е-5. На 1 от него результата ноль, с тем же успехом можешь выключить просто.
Аноним 03/01/24 Срд 14:55:07 #234 №590408 
>>590405
Пробовал уже по пейперу, с 1е-5 слишком слабо, без него пережарка быстрая, видимо надо пробовать промежуточные.
>>590396
Алгоритм прошлогодний https://github.com/KohakuBlueleaf/LyCORIS/blob/main/docs/Algo-List.md#diag-oft
Аноним 03/01/24 Срд 15:02:00 #235 №590409 
>>590408
> с 1е-5 слишком слабо
Чем меньше, тем эффект сильнее.
> пережарка быстрая
OFT тренируется сильно быстрее, он не работает с теми же lr что и обычные лоры. Ставь lr раз в 10 ниже, не выше 5е-5. И я надеюсь ты там не жаришь по 10+ эпох. А лучше вообще не используй его, если не можешь осилить настройку.
Аноним 03/01/24 Срд 16:01:22 #236 №590451 
>>590409
С constrain 1e-3 уже почти не отличается от лоры, надо его чуть понизить вместе с лром и будет норм.
> И я надеюсь ты там не жаришь по 10+ эпох.
Скорее всего слишком долго тренил и лр был слишком большим.
Аноним 03/01/24 Срд 19:57:07 #237 №590614 
У меня есть около 4к картинок с тегами, мне нужно протегать еще столько же в подобном стиле. Есть ли где то гайды как можно натренить свою модель для распознавания того что на картинке?
Аноним 03/01/24 Срд 20:00:02 #238 №590615 
>>590614
Берешь и файнтюнишь BLIP2. В чём проблема? Всё найдёшь в документации HF.
Аноним 03/01/24 Срд 21:56:42 #239 №590708 
>>590408
> Алгоритм прошлогодний
Ха ха 🤦🏻♀️
Аноним 03/01/24 Срд 22:05:21 #240 №590726 
>>590614
> протегать еще столько же в подобном стиле
Что за стиль? 4к пикч, наверно, будет маловато для тренировки клипа или чего подобного, но можно попробовать.
Если стиль описания дефолтный (натуртекст или буру теги) то есть готовые решения.
Если там что-то хитровыебанное то поможет комбинация вд-теггера, клипа, мультимодалки и ллм, с ними можно сделать почти любые описания без необходимости тренировки, если офк там не что-то суперспецифичное.
Аноним 04/01/24 Чтв 00:02:21 #241 №590849 
>>590726
В большинстве своем это рендеры с койкатсу, моя цель что бы она узнавала персонажей и только. Если есть гайды как это все сделать, то я бы был крайне рад.
>>590615
Можно меня лицом тыкнуть, куда мне копать?
Аноним 04/01/24 Чтв 00:06:08 #242 №590857 
>>590849
> Можно меня лицом тыкнуть, куда мне копать?
https://huggingface.co/docs/transformers/training
Аноним 04/01/24 Чтв 00:11:29 #243 №590863 
>>590849
Если персонажи популярные и их модельки там качественные - их имеющиеся модели будут узнавать. Если такого нет - нужно свою тренить. Если в этом будешь успешен или что полезное накопаешь - поделись потом.
Аноним 04/01/24 Чтв 12:07:41 #244 №591068 
>>590194
Нахуй не нужно, неудобная хернь.

Зерошот должен быть в виде промпта - даёшь ему набор рефов, даёшь промпт что именно из них вытащить (бабу, дерево, веснушки, спицы колеса, прямые углы, красные цвета, стиль наброска), он вытаскивает и это потом можно использовать при генерации.
Аноним 04/01/24 Чтв 16:32:34 #245 №591246 
Лороделы! Ай нид ё хелп!
Какой пресет выбрирать в kohya_ss?
Я пытаюсь сделать лору на простой концепт. Для этого как я понял надо поставить Network Rank и Network Alpha поменьше, что бы не сильно корявило стили. Но эксперименты показали что очень сильно на результат влияет Optimizer. Пробовал разные, но так и не понял какой самый крутой.
Вроде в кохе есть куча пресетов, но хрен просышь какой и для чего нужен.
Аноним 04/01/24 Чтв 16:38:29 #246 №591254 
>>591246
Не все мысли написал. Генерю для sdxl.
И суть проблемы в том, что какой бы я пресет не выбирал, такое чувство что через 20 минут лора перестаёт обучаться. avr_loss - не меняется (даже увеличивается). Семплы которые я через каждые 200 шагов делаю по качеству не отличаются.
Аноним 05/01/24 Птн 18:55:12 #247 №592322 
>kohya
>коха
>юзаю коху
зачем, если есть это?
https://github.com/Nerogar/OneTrainer
Аноним 07/01/24 Вск 15:33:25 #248 №594053 
1000101627.png
1000101628.png
1000101625.png
1000101624.png
Интересно, на этой херне контролнет возможно сделать? Было бы прикольно

https://orhir.github.io/pose-anything/
Аноним 07/01/24 Вск 15:55:15 #249 №594061 
>>594053
Нахуй не нужно, сам попробуй демо, работает крайне погано с очень плохой точностью.
Аноним 07/01/24 Вск 16:10:22 #250 №594068 
Листаю твиттер градио - они там видосы с демками выкладывают разные. И их ссмщик не знает как звук при записи с экрана отключать, и слышны сопения, зеляик мыши и т.п. Кринж бля
Аноним 07/01/24 Вск 16:11:34 #251 №594069 
>>594068
> зеляик мыши
Бля
Аноним 07/01/24 Вск 16:22:30 #252 №594082 
>>594061
Ну так если будет контролнет, то это особо значения не будет иметь, что точность приблизительная. А так, поза - это, наверное, самый главный концепт для контроля. Т.к. форма и всякие линии - это слишком уникально
Аноним 07/01/24 Вск 16:27:30 #253 №594086 
1000101649.jpg
1000101648.jpg
В общем говно это все. За 2 месяца пролистал, из интересного - это только этот pose anything, и magic animate. Нашел что тут его вскользь обсуждали, сказали говно качество. Да и по примерам видно

А еще StyleAligned Controlnet - круто. Наверное даже круче тех двух

Остальное - бесконечные text2image, нашли чем удивить. И еще хуже: text2music. Этим нейронкам уже лет 5 наверное
Аноним 07/01/24 Вск 16:28:39 #254 №594088 
Но этот твиттерский левацкий вайб, конечно, дико бесит. Пошел он нахуй
Аноним 07/01/24 Вск 16:40:44 #255 №594092 
>>594082
Тебе перед использованием ещё надо будет референс рисовать руками.
Аноним 07/01/24 Вск 16:57:09 #256 №594103 
>>594092
Печалька
На я больше боюсь, что он для контролнета вообще не сгодится, лол
Аноним 08/01/24 Пнд 16:39:10 #257 №594822 
>>594053
Можно, конечно, его на что угодно можно натренить, включая и на парах картинка-выхлоп этой штуки. Получится годно. Как тренить, показано здесь. https://github.com/lllyasviel/ControlNet/blob/main/docs/train.md
Аноним 08/01/24 Пнд 20:13:41 #258 №595125 
>>594822
> Note that if you find OOM, perhaps you need to enable Low VRAM mode
> Note that training with 8 GB laptop GPU is challenging.
Выходит тренировка доступна на десктопных гпу, почему тогда моделей контролнета так мало?
Это получается можно как минимум сделать свой скелет, отличающийся от имеющихся, потратить какое-то время на составление датасета, где он выставлен под генерации, и новый контролнет готов?
Аноним 08/01/24 Пнд 22:20:36 #259 №595550 
Сап аноны, экспериментирую с лорами, треню конкретные участки тел тянок. Например сейчас зеттай область. Да, они скорее всего есть, но у меня научный интерес. Датасеты без лиц и мишуры, чисто тематический ручной кроп. В целом выходит неплохо, но картинка слегка желтеет и становится какой-то немного другой стилистически. Это проходит, если уменьшать номер эпохи и веса, но тогда проходит и целевой эффект.
Мне копать в сторону понижения ранга/альфы? Насколько я понимаю, ранг соответствует количеству "идей", которые лора усвоит в тренинге, возможно желтизна одна из них. Но непонятно, усвоит ли она именно геометрию, а не что-то другое.
Фиксить ли колор левелы в датасете? (Они в целом не желтые)
Алсо стараюсь фиксить кепшены после блипа, но они куцые и повторяются.
Может мне вообще кепшены не делать?
Не делать тематический кроп? (Тогда вылезают особенности окружения)
Вредна ли регуляризация в таком случае? Например supermodel подходит, судя по пикчам. Если правильно понимаю, она помимо всего участвует в контрасте между как обычно и как с лорой.
Делал ли кто свой класс регуляризации?
Из того, с чем пока игрался, это snr gamma, swn. Треню обычно lr=1e-4, ulr={1,2}e-4, dim/a=128, adafactor+cos (12гб жрет), bs=2, ориентирусь на 3000 шагов / 10 эпох. База 1.5 прунед 7гб с морды. Пришел к этому набору на лицах.
Советуйте плиз, датасаентисты.
Я и сам пробую, но полчаса на итерацию -- печально как-то все это дерево вариантов перебором искать.
Все гайды тренят чаров или хуй в пизде, которые вместо мягкого добавления меняют вообще все. Бесполезные
Аноним 08/01/24 Пнд 22:49:54 #260 №595652 
>>595125
>почему тогда моделей контролнета так мало?
Технических препонов немного. Просто 99% сообщества кумеры с выжженными мозгами, и кроме дрочбы рулетки и прумптинга 24/7 ничем не интересуются. В SD довольно много непочатых краёв, которые дадут неплохой арт-инструмент если ими заняться. Но диаграмма Венна между людьми которые могут сделать что-то интересное и знают какой инструмент им нужен, людьми которые умеют тренить что-либо, и людьми которые юзают SD, исчезающе мала. (

>Это получается можно как минимум сделать свой скелет, отличающийся от имеющихся, потратить какое-то время на составление датасета, где он выставлен под генерации, и новый контролнет готов?
Ну да, и не обязательно скелет. Контролнет это универсальный механизм. Можно его натренить на пары "позиция камеры"-"пикча", или на нарисованную позицию источников света (на цивите есть такие эксперименты), на всё что угодно.
Аноним 09/01/24 Втр 16:43:48 #261 №597464 
>>592322
Это то же самое, но с другой оболочкой.
Аноним 09/01/24 Втр 17:18:13 #262 №597538 
>>595550
Попробуй разбавить кропы некропнутыми примерно пополам или в другой пропорции, желательно чтобы были разнообразны. Что по описанию к пикчам?
> копать в сторону понижения ранга/альфы?
Альфу попробуй снизить (с повышением лра), размерность для начала не трогай.
> прунед 7гб
Вут?
> которые вместо мягкого добавления меняют вообще все
Нормальные не портят ничего лишнего.
>>595652
Грусть-печаль.
Про универсальный механизм - согласен, просто новый скелет кажется достаточно простым с точки зрения составления датасета и дальнейшего использования, как раз чтобы попробовать. Если есть что релейтед почитать про это - будут благодарен.
Аноним 09/01/24 Втр 22:28:37 #263 №598327 
Пробую завести Nerogar/OneTrainer. Кто-то пробовал уже эту казуальную штуку с одной кнопкой "зделоть лору заебись"?
Нет, она бы наверное у меня завелась и так, поставь я в систему гит с питоном. А так я ей накидал потрохов от хача и насрал в батник с запуском кастомными set env по аналогии. Чето качает теперь наверное майнеры, ух бля.
Аноним 09/01/24 Втр 22:42:29 #264 №598356 
Стикер
>>598327
> потрохов от хача
Аноним 09/01/24 Втр 23:25:01 #265 №598416 
изображение.png
>>598327
Однако здравствуйте, кое-как запустил руками.
Аноним 10/01/24 Срд 00:00:01 #266 №598472 
изображение.png
>>598416
Я не знаю что будет на выходе, но в кохе у меня было 50s/it+, а здесь просто космические 3-5s/it.
Аноним 10/01/24 Срд 00:34:07 #267 №598520 
изображение.png
>>598472
Одна беда, из памяти она не выгружается, VRAM так и забит. Возможно для этого есть где-то в интерфейсе триггер, но я пока не искал. А запускать ее заново руками мне дико лень, буду завтра пердолить батник, половину которого спиздил из-под хача. Нагенерю хуйни сегодня, а завтра тестировать буду.
А еще эта штука может тренить по маске, и более того, сама эту маску генерит. Ну охуеть вообще.
Аноним 10/01/24 Срд 07:52:01 #268 №598830 
А можно как-то отдельно мёрджить текст и юнет?
Аноним 10/01/24 Срд 13:21:29 #269 №599477 
>>598327
>>598416
>>598472
>>598520
Оно уже научилось работать без гуёв, чтобы можно было запустить не на жалких 24ГБ, а на большом утюге?
>в кохе у меня было 50s/it+, а здесь просто космические 3-5s/it
Скорее всего потому что в кохе врубил/не врубил что-либо, не должно быть такой разницы. Коха наркоман, хуёво документирующий свои поделия
Аноним 10/01/24 Срд 13:46:12 #270 №599529 
>>599477
Думается мне что оно умеет работать без гуев, просто разраб не выложил ключи запуска. И кто-то с более сильным кунг-фу вполне может расковырять/отдебажить чтобы ты мог запуститься на своем ботнете из роутеров лол.
Аноним 10/01/24 Срд 15:32:48 #271 №599705 
>>597538
Разбавить попробую да, чот не думал об этом.
>прунед 7гб Вут?
v1-5-pruned.safetensors https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
Я поначалу тренил на чекпоинтах, потом прочитал, что правильно на базе. В автоматике была по-дефолту(?) емаонли (== 4.1гб по ссылке), подумал - она. Но выходило говно. Потом я допер и где-то прочитал, что это не для тренинга модель и скачал v1-5-pruned. Не знаю правильно или нет, но стало нормально.
>Что по описанию к пикчам?
Делаю блипом за что меня обосрали в базовом треде и послали в cogvlm с докой на китайском, по которой я кажется сам должен написать плагин для кохи, хз и правил руками / смотрел. Но конкретно щас пикчи такие, что и блип норм справляется. Там 90% собственно концепция на симпл фоне, плюс минус цвет одежды.
-
Вчера сам альфу скинул до 1, желтизна ушла. Лучше всего получилось вообще без кепшенов, видимо из-за датасета. Лры пока не трогал, попробую. Я их вообще боюсь трогать, потому что их три за каким-то хером.
Спасибо за советы, анон!
Аноним 10/01/24 Срд 15:39:19 #272 №599711 
>>599705
В целом все правильно, только без капшнов совсем лучше не стоит, оно будет всирать когда более гибко применить захочешь.
Блип для простых пригоден более чем, ког для чего-то заморочного, и то не факт что обучится. Лры - тот что для unet равен базовому, тот что для te - в диапазоне от 0.5 до 1 от базового.
Аноним 10/01/24 Срд 15:57:22 #273 №599742 
>>599529
Вот эти
https://github.com/Nerogar/OneTrainer/blob/master/modules/util/args/TrainArgs.py#L253
Передавать судя по всему надо сюда
https://github.com/Nerogar/OneTrainer/blob/master/scripts/train.py
Аноним 10/01/24 Срд 16:13:34 #274 №599769 
>>599742
И в целом смотрите "modules/utils/args/xxxx.py" для аргументов scripts/xxxx.py.
Питонисты, вечно распиздячат все по разным папкам в папках в папках в классах в бейзклассах в метаклассах, блять. Кода на три копейки, но хуй чо найдешь, будто в миллионнике ковыряешься. Хвала всевышнему за иде прям в гитхабе
Аноним 11/01/24 Чтв 00:27:55 #275 №600874 
CRIPOTA.gif
images.jpg
Аноним 11/01/24 Чтв 02:46:24 #276 №601069 
Что может вызвать отключение питания на видеокарте и отрубание компа с крит ошибкой питания, после нескольких генераций в sd, даже если нету нагрузки, а только был открыт webgui с загруженым в память sdxl чекпоинтом? На фукусе была та же фигня с другими моделями Он там 60% памяти занимал примерно из 12гб на 4070 от гигабайта. Стресс тесты и игры нормально держит

может кто встречался с таким
Аноним 11/01/24 Чтв 05:31:50 #277 №601157 
>>601069
а что предшествовало кернел пауэру то глянь в журнале событий

обычно полное отключение это невывоз блока питания пука с просадкой по одной или несколким линиям и уход блока в защиту, или может файлы винды поломались и надо восстанавливать чрез дисм и сфцсканнау, но во втором варике обычно бсод
из-за драйвера видяхи маловероятно, т.к. саму видяху просто ебануло бы и переключило на встройку, если конечно у тебя не старый срузен без встроенного граф ядра

>даже если нету нагрузки, а только был открыт webgui с загруженым в память sdxl чекпоинтом?
а нагрузка на видяху с процем есть даже если ты вебуи запустил, питоновская среда исполнения, в вебуйке даже багуля есть забавная которая ломает карту если недостаточно памяти - вставка через ктрл+в изображения в инпеинт и попытка начать рисовать маску поверх, начинается бесконечное расширение виртуального рабочего разрешения окна для рисования что вызывает фризы вебуя и в итоге краш карты если не успеть нажать крестик на рабочем поле
Аноним 11/01/24 Чтв 13:37:22 #278 №601477 
>>601157
Спасибо за рассказ про все варианты, я думаю ты прав насчет блока питания, скорее попался дефектный и не держит на малых нагрузках
Аноним 11/01/24 Чтв 13:53:57 #279 №601506 
>>601477
Вообще хуйня какая-то, БП должен норм держать в простое, это под нагрузкой он может посыпаться если хуевый.
Ну канеш есть еще вариант когда БП и в простое хуевые показатели дает, просто потому что хуевый сам, но тогда отказы были бы и просто при серфинге с выгруженными AI-инструментами.
Аноним 11/01/24 Чтв 14:07:38 #280 №601525 
>>601069
Бп не модный сосоник невысокой мощности или его аналоги случаем? Они триггерились на всплески потребления амперов-ады, хотя мощность при этом не была превышена.
>>601506
Были косячные серии, в которых "умная защита" была настроена чрезмерно агрессивно, срабатывание шло по скорости изменения потребления а не самой мощности. Могло отрубить и на малой нагрузке, такие бп меняют по гарантии.

Но это только версия, стоит проверить журнал как расписано >>601157
Аноним 11/01/24 Чтв 17:45:04 #281 №601858 
>>601506
>>601525
https://www.dns-shop.ru/product/8dfa7785edb83332/blok-pitania-cooler-master-mwe-gold-850---v2-full-modular-mpe-8501-afaag/opinion/

Сейчас долго ставил тесты на стабильность с 10% 40% нагрузкой, а потом комп опять вырубился, да еще и вместе с еще с сетевым фильтром и монитором.

А потом сразу после загрузки винды стал обрывать питание. Резкие всплески при генерации как раз могли тригернуть дефектный бп, который до этого еще держался при стабильных нагрузках. В днс в коментах у некоторых он тоже накрылся. Спасибо за помощь, может по гарантии пройдет
Аноним 11/01/24 Чтв 17:53:47 #282 №601878 
>>601858
>мусор мастер
Хотел выпендриться? Нет денег - бери любой DeepCool. Есть деньги? Бери дорогой DeepCool. Брат жив: PF750 год 4(!) 3060 непрерывно держал, сейчас PX1000 держит как скала 4090
Аноним 11/01/24 Чтв 18:18:37 #283 №601933 
>>601878
> DeepCool
Это же китай говна. У кулер-мастера хорошая 1200 платина есть, в отличии от глубокого охлаждения.
Аноним 11/01/24 Чтв 18:27:02 #284 №601951 
>>601878
Точнее у меня тоже на 750, я его специально брал из этого списка b tier
https://cultists.network/140/psu-tier-list/
Аноним 11/01/24 Чтв 18:29:27 #285 №601957 
>>601933
> Это же китай говна.

От владельца
>мусор мастер
смешно слышать.

Почитай про платформы, что использует DeepCool. Это хотя бы что-то, в отличие от вентилятор-мастера.
Аноним 11/01/24 Чтв 18:38:28 #286 №601989 
>>60 →>>601957
да не это другой анон, я согласен, что дип кул делает качественные вещи, у меня корпус и охлад от него, просто на момент сборки не было доступных моделей по типу
https://www.dns-shop.ru/product/56ad175cfa53d763/blok-pitania-deepcool-pq750m-r-pq750m-fa0b-eu/
Аноним 11/01/24 Чтв 20:34:22 #287 №602329 
>>601933
>>601957
Вы оба бредите. Что у мусормастера, что у дуплокула, нет топовых платинум моделей. Я бы не стал втыкать две 4090 в дупло кула.
Аноним 11/01/24 Чтв 20:37:22 #288 №602337 
>>602329
> две 4090
Уже появился смысл?
Аноним 12/01/24 Птн 06:44:10 #289 №603583 
> Требования к системе для обучения SDXL выше, чем для обучения SD 1.x.
Сколько надо VRAM для XL лоры? Мне 12 не хватает даже обучение 128x128 пикч запустить.
Аноним 12/01/24 Птн 08:40:34 #290 №603691 
image.png
image.png
>>601878
>Нет денег - бери любой DeepCool. Есть деньги? Бери дорогой DeepCool
Я б не был столь радикальным в брендах, это ж всетаки просто сборный компонентный девайс. То есть ситуация с бп как с оем смартфонами - бренды просто заказывают сборку с нужными хар-ками заводам других брендов (или подвалу) в корпус со своей шильдой. То есть буквально покупка любого бп это лотерея, где ты только посмотрев внутрь сможешь понять чей на самом деле это бп и где был сделан. Конкретно дипкул заказывает у Channel Well Technology бп, которые делают естественно не только для дипкула. Собственно поэтому с кулермастером больше лотерея - они сборку заказывают не у одного завода, а у нескольких, то есть по факту в одной и той же модели может быть разная компонентная база, то есть больший рандом.

Так что я бы выбирал бп примерно так: берем вендора, смотрим с какими бп заводами сотрудничает, если там больше одного - скип просто потому что труднее контролировать качество, далее смотрим на спецификации и наличие всех нужных защит, далее на шильду 80Plus по 12в, и наконец пытамеся найти видос с разборкой блока, желательно от челика который разбирается в пайке, обвязках и кондерах (с видяхами проще, есть ремонтники ютуберы которые нормально рассказывают про то почему и в каких местах видяхи сосут и насколько часто).

То есть если выбирать из условного дипкула и кугара, то я бы выбрал кугаровские, потому что кугар это прямой дочерний бренд завода по производству бп HEC, а дипкул это оемщики.

>PF750 год 4(!) 3060 непрерывно держал, сейчас PX1000 держит как скала 4090
Статистически несущественный опыт на самом деле.

У меня вот есть бп ocz stealthxstream 2, этот бп работает не выключаясь уже 13 лет, со стоковым вентилятором причем, и даже спустя столько лет спокойно вытягивает 2 карты за раз под свою мощность, притом что у него есть софтверная просадка по 12в линии на 11.7в (не напрямую зачеканная, а через датчики имею в виду), я его один раз вскрывал и там ни намека на какие-то неполадки в обвязке. И не у меня одного судя по пикам. Оем ли ocz? Нет, сами производили. О чем это говорит? На самом деле ни о чем, просто квалити контрол выше из-за безоемности и всё.
Аноним 12/01/24 Птн 09:19:06 #291 №603724 
image.png
image-2.png
>>601878
>PF750 год 4(!) 3060 непрерывно держал, сейчас PX1000 держит как скала 4090
Типичная ошибка выжившего - я вот выиграл в лотерею и вы играйте, деняк заработаете ух бля.
Напомню положнях из /hw, не дипкулом единым.
Аноним 12/01/24 Птн 17:48:47 #292 №604730 
>>603691
Разумные слова, не поспоришь
Аноним 13/01/24 Суб 01:49:51 #293 №605708 
>>603583
Емнип для обучения XL минимум 16, но это не точно.. Попробуй включить все оптимизации, в т.ч. эффективный атеншн и градиент чекпоинтинг (меняет результат тренировки!).
>>601878
> Хотел выпендриться?
А только пукнул в лужу, устроив анрелейтед срач, пиздуй в hw на бренды дрочить, и суперфлавер тебе в анус.
>>603691
> Я б не был столь радикальным в брендах
Абсолютно, особенно учитывая что даже у "именитых" до половины ассортимента - странный OEM, а самые йобы имеют провальные и проблемые модели. Плюс от брака никто не застрахован, увы.
Алсо прилично расписал за анализ. Вообще есть смысл рассматривать конкретные модели и обзоры на них после отсеивания, а 80+gold и dc-dc на +5 вместо не дай бог ДГС это вообще входной порог.
Аноним 13/01/24 Суб 16:34:32 #294 №606404 
>>603724
>это творчество душевнобольных
Хорошо что я не хожу в /hw/
Аноним 14/01/24 Вск 12:13:57 #295 №608687 
Аноны, есть ли какой-то тул, чтобы из видео вынимать кадры с лицами, причем желательно:
- только без артефактов
- только при существенном изменении (смена выражения, позы, етц)
?
Вынималки гуглятся, но хочется именно фильтр по качеству и дифференциальность.
Аноним 14/01/24 Вск 21:20:14 #296 №609286 
Подскажите пожалуйста, почему kohya_ss сначала выдавала нормальную скорость, а теперь работает в 10 раз медленнее, хотя никакой конфиг не менялся. По сути все осталось тем же самым, что было до.
Аноним 14/01/24 Вск 21:24:35 #297 №609293 
>>599477>>599742
>Оно уже научилось работать без гуёв
>Передавать судя по всему надо сюда
Внезапно на гитхабе расписано че и куда передавать.

Но помимо этого можно не лопатить тысячи параметров руками в текстовом виде, а запустить на пеке, намышевозить в гуе и сделать экспорт параметров. И экспортированный файл запускать в CLI хоть где.
Аноним 14/01/24 Вск 22:04:04 #298 №609388 
>>609286
Все, я разобрался, я идиот, делал дримбут, а не лору.
Аноним 14/01/24 Вск 22:05:27 #299 №609389 
Мне кажется, или автоматик на неактивной вкладке генерит значительно медленнее, чем если ее на экране держать?
Аноним 14/01/24 Вск 22:06:47 #300 №609393 
>>609389
> Мне кажется
Да. Таблетки два раза в день и пройдёт.
Аноним 14/01/24 Вск 22:19:05 #301 №609427 
изображение.png
изображение.png
>>609393
Таблетки не помогут. Ведь мне таки не кажется.

Латентный и2и х2 апскейл с двумя модулями контролнета, DPM++ 2M Karras, 20 шагов, 4 картинки подряд.

Первый пик - держал вкладку открытой.
Второй - переключался между двачом и ютубом (ютуб в фоне работал и на первом прогоне тоже), на вкладку с автоматиком принципиально не заглядывал, пока прогресс до 100 не добрался.

Причем, судя по ощущениям, максимум тормозов случается на финализациях картинок. Т.е. на 23-47-073-97%
Аноним 14/01/24 Вск 23:36:33 #302 №609571 
>>609427
Такой хуйни не должно быть, потому что бровзер только отображает что происходит внутри каломатика. (что за браузер кстати?)
Навскидку могу предположить что фоновая вкладка гасится по-максимуму, поэтому либо отображает пикчу 4 минуты (превьюшки включены?), либо ещё как-то тормозит отображательную часть процесса, а не саму генерацию.
Аноним 14/01/24 Вск 23:58:31 #303 №609610 
>>609571
>что за браузер
Мозилла.
>превьюшки включены
Нет. Выключены. Вообще на медврам запускаю.
>Такой хуйни не должно быть
Вот и у меня такая же реакция сейчас.
Что? Почему? Непонятно.
Сейчас без контролнета запустил, просто и2и - тоже тормоза. Виснет на финализации картинки наглухо практически. На вкладку переключаюсь - и тут же генерация продолжается.
Аноним 15/01/24 Пнд 01:46:18 #304 №609664 
>>605708
Нашел .json в гугле для kohya. Завелось на 11.7гб 1024x1024.
Аноним 15/01/24 Пнд 02:32:10 #305 №609687 
>>609389
Обычно на неактивной быстрее если включен лайфпревью, тогда его не делает.
>>609427
>>609610
Используешь видеопамять другими вкладками, дело не в активности вебуя а другой нагрузке.
> максимум тормозов случается на финализациях картинок
Отрабатывает VAE, на разрешениях побольше требует много памяти. Tiled Diffusion костыль и tiled vae в его составе в помощь, или просто снизь батч сайз.
Какое разрешение пытаешься делать? Оптимизации (xformers/sdp) включены?
>>609664
Какие там параметры, можешь скинуть?
Аноним 15/01/24 Пнд 02:37:12 #306 №609688 
1705275432599.png
>>609687
https://kemono.su/patreon/user/83632369/post/86817035
Возможно в этих параметрах дело было
Аноним 15/01/24 Пнд 02:43:54 #307 №609691 
>>609687
Это >>609427 были буквально две абсолютно идентичные генерации, но на активной вкладке весь процесс занял в пять раз меньше времени.
Не думаю, что VAE, батчи, иксформерсы и тайлад диффужн тут хоть как-то влияют - в браузере же тоже ничего не менялось, набор вкладок оставался тот же самый, я просто сменил активную с автоматика на двач.
Аноним 15/01/24 Пнд 02:59:27 #308 №609700 
>>609691
Очень странные вещи у тебя происходят. Процессы там асинхронны, ты можешь нажать кнопку generate, подождать долю секунды чтобы запрос достиг хоста, а потом вообще закрыть браузер - генерация будет продолжаться пока не отработает то что было задано и браузер на это никак не повлияет. Потому наиболее вероятен описанный случай, попробуй для начала отключить аппаратное ускорение в браузере.
Алсо включи в шинде gpu hardware scheduling, выстави план питания на перфоманс и проверь что происходит с частотами и нагрузкой на видеокарту в момент когда вкладки переключаешь. Или нет у тебя там какого-нибудь майнера, который проц на 100% занимает.
Также чекни dpi и аппаратные ошибки, первое в latency mon, второе сразу в hwinfo можно глянуть в самом конце.
Аноним 15/01/24 Пнд 07:12:13 #309 №609757 
>>609427
>максимум тормозов случается на финализациях картинок
У меня так происходит когда врам кончился.
И он будто "свапается", видимо в рам хз что там на самом деле
Аноним 15/01/24 Пнд 08:19:27 #310 №609800 
>>609610
> Мозилла.
Я в последнее время тоже испытываю проблемы - на финале генерации отваливается сессия по таймауту, хотя раньше такой хуйни не было. Плюс ко всему после окончания генерации страница подвисает и фурифокс спамит сообщениями о замедлении на этой странице. ЧСХ если на страницу перезайти - все ок становится до следующего раза. Дико бесит
Аноним 15/01/24 Пнд 08:22:18 #311 №609804 
>>609757
Vae decoder
Аноним 15/01/24 Пнд 11:09:53 #312 №609924 
>>609700
Да, я знаю про асинхронность и всё такое.
Сегодня решил на хроме потестить - так проблема и на мозилле перестала воспроизводиться. Хотя все условия воссоздал - и набор вкладок, и запущенный видос, и открытый файл в фотошопе.
Майнера точно нет, заметил бы.
Аппаратное ускорение отключил на всякий случай.

Ничерта непонятно, короче.
Аноним 15/01/24 Пнд 17:34:21 #313 №610537 
Можно ли зафайнтюнить wd tagger, чтобы распознавало новые таги?
Аноним 16/01/24 Втр 06:54:08 #314 №611134 
1705377247718.png
Рейт график
Аноним 16/01/24 Втр 11:48:45 #315 №611262 
>>610537
Надо просто заменить danbooru.csv в расширении на новый. Вроде как в imageboard grabber можно было скачать теги в таком виде. https://github.com/Bionus/imgbrd-grabber
Аноним 16/01/24 Втр 11:54:09 #316 №611263 
>>611262
Бля, жопой вопрос прочитал.
Аноним 16/01/24 Втр 16:08:59 #317 №611505 
1705410538523.mp4
Разобрался с тем, как запустить magic animate. На самом деле поразительно, не смотря на плоховатое качество

Решил сравнить оригинальное видео со сгенерированным на снятом с него же denpose, и первым кадром. Прикольно, но не практично. Я думал можно синпаинтить что-то на первом кадре и распространить это на все видео. Но не получится, так как видно, что видео хоть и похожи, скомбинировать их малозаметным швом не получится

По поводу скоростей, rtx 3060, генерация denpose рose быстрая, в magic animate получается сгенерировать видео максимум 2 секунды (25фпс), на большее не хватает памяти. Время генерации около 10 минут

Установить саму демку проблем не было, разве что тупой hugging face качал в кеш сразу весь репозиторий sd1.5, с моделями во всех возможных форматах в сумме на 44гб. Но больше проблем не было

А вот с denpose проблем было куча. Криво настроены зависимости как-то. Долго мучился, чтобы запустить локально
Аноним 16/01/24 Втр 20:27:40 #318 №611908 
>>611505
Хотя не, на самом деле 5 секунд влезает в 12 гб. Что ж тогда влезает в 24 гб, если разница между 2 и 5 всего пара гб

А если заморочиться с интерполяцией кадров, то можно и 10-20 секунд выжимать
Аноним 16/01/24 Втр 21:02:11 #319 №612007 
Нихуя нипонимаю, как оценить качество лоры? Допустим я натренил 50 эпох, начиная с 30 уже получаю то что мне нужно. Есть ли какой-то объективный метод выбора, чтобы не запускать на лору с каждой эпохи генерацию в сотню изображений и смотреть какая лучше? Где-то тут инфа проскакивала что нормальная лора будет выдавать результат от 0.8 до 1.2, но это все равно вкусовщина же. Смотреть логи через тензорборд и кривую обучения? А на что внимание обращать?
Аноним 16/01/24 Втр 23:12:58 #320 №612714 
273609-19507.png
00896.png
eff944e4.jpg
00792.png
>>612007
У меня то что нужно с 6-7-й получается, треню 10 для галочки, там все равно косинус.
У вас какие-то особенные эпохи что-ли, или 1 рипит из 20 пикч на эпоху?
У меня получается говно? Речь о сложных концепциях?
Объясните плес.
У лор с цивика тоже бывает вижу 000005-000009, 000030-40 не видел.
Аноним 16/01/24 Втр 23:26:28 #321 №612775 
>>612714
>У вас какие-то особенные эпохи что-ли, или 1 рипит из 20 пикч на эпоху?
>У лор с цивика тоже бывает вижу 000005-000009, 000030-40 не видел.
Я треню на черты лица. Глянул мельком три с цивика (img-repeat-epoch) - для гарольда 1100-100-1, Эмма Ватсон 999-9-3, Даддарио 3600-100-1 и то говно какое-то генерирует, у меня лучше. Так что я еще малой кровью обхожусь со своими 400 пикчами на 1 репит и 50 эпох лол.
Аноним 16/01/24 Втр 23:34:04 #322 №612814 
>>612775
2000-3000 шагов же стандарт обычно.
И то 3000 - это лютый оверкилл, я что ни тренил - обычно насыщение наступало в районе 1500 шага, а иногда вообще на 700-м бывало.
Аноним 16/01/24 Втр 23:36:28 #323 №612824 
>>612775
>черты лица
А чо это такое, из разных лиц черты собираешь что-ли?
Типа "усредненный расовый кавказский монголоид"?
>пикчи
Говно или как? У них 3-3.5к степов в сумме.
Аноним 16/01/24 Втр 23:38:22 #324 №612832 
image.png
>>612814
Я тоже думаю он куда-то не туда смотрит
"ss_dataset_dirs": {
"100_harold": {
"n_repeats": 100,
"img_count": 11
}
},
Аноним 16/01/24 Втр 23:42:37 #325 №612859 
изображение.png
>>612814
Хуй знает как у тебя так, у меня все параметры близкие к дефолтным, LR:0.0001, ND:16, NA:8 и пиздец. Ну еще шум подмешиваю в районе 0,1. На 30 эпохе, которая вот только начала выдавать нужный мне результат, это 12к+ шагов, а сейчас 40 эпоху тестирую и она мне нравится даже больше, а это уже 16к. У вас там либо батчсайз накручен, либо градиент чекпоинтов, что вы в 1,5к укладываетесь, а мне мощности не позволяют.
>>612824
>А чо это такое, из разных лиц черты собираешь что-ли?
Нет, лицо определенного человека.
>Говно или как?
Когда как. Я попробовал отдельно потренить на HQ и не увидел особой разницы с датасетом где пикчи вперемешку вместе с шакальными. Более того, этот вариант мне зашел даже лучше.
>>612832
Я из веб-морды информацию глянул, пикрил для гарольда, как раз с твоего пика.
Аноним 16/01/24 Втр 23:48:08 #326 №612876 
Вообще вопрос не о том как тренить - как тренить никто нихуя не знает например, просто потому что четких мануалов нет (и быть не может, потому что слишком много вводных) или вы жлобы. Вопрос в том, как объективно оценить качество лоры и выбрать по этой оценке эпоху. Но похоже тут та же ситуация как и с манами - объективных критериев нет, только тесты и субъективная оценка.
Аноним 16/01/24 Втр 23:48:23 #327 №612879 
>>612859
>пикрил для гарольда, как раз с твоего пика
Все верно, у меня мозги от параметров поплыли, не понял сразу о чем ты.
>>>Говно или как?
Я про свои пикчи спрашивал. Не понятно просто, зачем ты столько степов делаешь, поэтому спрашиваю -- говнолоры у меня или нет, с твоей точки зрения.
Щас напишу как треню если интересно
Аноним 16/01/24 Втр 23:52:59 #328 №612891 
>>612859
Батч всегда на 2 стоит. ЛР тоже базовый.
Тэги, может, влияют?
16к шагов - это я даже и не знаю, что столько тренить можно без того, чтоб оно там нафиг не пережарилось в одну сплошную запеканку.
Аноним 16/01/24 Втр 23:55:19 #329 №612899 
>>612879
>Не понятно просто, зачем ты столько степов делаешь
Потому что лично у меня с меньшим количеством степов стабильно получается говно. Единственный раз вышла ультра-годнота при 4000 шагов, которую я до сих пор не могу переплюнуть почему-то.
>говнолоры у меня или нет
А на какой паттерн ты тренил свою лору? Я вижу схожие черты лица на 3 и 4 пике, но это разная стилистика же, а ничего другого не угадываю.
>>612891
>Тэги
Насколько я понял, можно не тегать, и я так и стараюсь делать чтобы просто подключать лору и не прописывать триггер-ворды в промт. Ну максимум писал tyan_name, но и то в промт ее подключал без триггера, и работает заебись.
Аноним 16/01/24 Втр 23:58:11 #330 №612914 
>>612899
>Насколько я понял
Неправильно ты понял.
99.5% лор без нормальных тэгов выходят говном.
Сетка просто не понимает, что ей тренировать. Чем более подробно ты всё протэгаешь - тем лучше и гибче будет результат. Это применительно вообще ко всему - от тянок до стилей.
Аноним 17/01/24 Срд 00:06:33 #331 №612940 
>>612914
> 99.5% лор без нормальных тэгов выходят говном.
А схуяли? Не, это не попытка оспорить, это вопрос о механизме.
Вот допустим тебе нужно натренить лору на желтый гудок - ты готовишь датасет с сотней пикч желтого гудка в разных ракурсах, с разным фоном, с разным удалением и прочим разным. Сетка начинает учить паттерн - и она выучит желтый гудок просто потому что на каждой из сотни пикч он повторяется. Нахуя ей теги нужны? Чтобы что?
Теги оправданы на сложных лорах и нужны на чекпоинтах, иначе оно просто не поймет что рисовать. Но указывая лору ты фактически даешь сетке трафарет, и триггер здесь ни к чему.
Поэтому объясни мне пожалуйста нахуя, потому что я рили не знаю, а все вот это мое объяснение - субъективное впечатление с дивана.
Аноним 17/01/24 Срд 00:08:52 #332 №612950 
>>612899
> Ну максимум писал tyan_name, но и то в промт ее подключал без триггера, и работает заебись.
Кстати триггер-ворд для лоры я тоже пробовал писать. Изменений в генерациях не заметил, поэтому и хуй забил это делать, по крайней мере для своих лор.
Аноним 17/01/24 Срд 00:21:42 #333 №612982 
>>612940
>Нахуя ей теги нужны? Чтобы что?
Чтобы лучше отделить желтый гудок от фона и понять его как концепт.
Вот у тебя гудок на фоне леса/улицы/кровати/бассейна/космоса/белой пустоты.
Сам гудок в проекции снизу/сверху/сзади/кверху ногами.
Вот он ночью/днем/утром/вечером.
Вот гудок держит тянка/мужик/собака/рыба/ктулху.

Чем точнее ты это все протэгаешь - тем лучше сетка сможет вызывать этот гудок в разных комбинациях. Без этого у тебя в большинстве случаев будет дикая нестабильность результатов.
Да, сетка поймет этот гудок как что-то такое, желтое и определенной формы, но это всё. Как это применить и куда его рисовать - уже будут проблемы.
Втройне будут проблемы, если изначально у исходной сетки были нулевые или около-нулевые знания об этом желтом гудке, тут вообще полная катастрофа может случиться.
Аноним 17/01/24 Срд 00:33:25 #334 №613003 
>>612982
>Как это применить и куда его рисовать - уже будут проблемы
Чтобы парировать мне придется вернуться к своему частному случаю - ни разу еще не было проблем с лорами на определенные черты лица без тегов. Из 10 лор и порядка 20к+ нагенеренных пикч было все что угодно - хуевая анатомия, двойная генерация, не слишком похожие черты лица, но ни разу лицо не рисовало на коленке или вместо жопы, оно всегда на своем месте, при том что кроп датасета примерно в районе плеч, только самые шакальные фото (10-15%) по пояс.
>Втройне будут проблемы, если изначально у исходной сетки были нулевые или около-нулевые знания об этом желтом гудке
Ну с этим проще, гудок тут действительно оверкилл для примера.
Аноним 17/01/24 Срд 00:36:10 #335 №613011 
xyzgrid-0000.png
>>612876
Я думаю если бы была объективная оценка, то был бы и параметр отсечки по ней. А такого нет

'--resolution=768,768',
'--network_alpha=' + alpha_value, // для лиц 128, для остального пробую от 1
'--text_encoder_lr=0.0001',
'--unet_lr=0.0001',
'--network_dim=' + dim_value, // обычно 128
'--lr_scheduler_num_cycles=10', // вроде не юзается, но пусть
'--learning_rate=0.0001',
'--lr_scheduler=adafactor',
'--train_batch_size=2',
'--max_train_steps=' + String(n_steps), // обычно выходит 3к+
'--save_every_n_epochs=1',
'--mixed_precision=bf16',
'--save_precision=bf16',
'--optimizer_type=Adafactor',
'--keep_tokens=1',
Вот к этому пришел пробами и ошибками. Это не все параметры, только те, что я менял/раскуривал. Остальные дефолт.

>>612899
>с меньшим количеством степов стабильно получается говно
Хм
>Единственный раз вышла ультра-годнота при 4000 шагов, которую я до сих пор не могу переплюнуть почему-то
У меня тоже такая есть. Чисто звезды сошлись один раз.
>на какой паттерн ты тренил
Паттерн не знаю чо такое. Я вкидываю регуляризаций скриптом (да, щас обосрут) и делаю блипом кепшены. Без регуляризаций выходит хуже. Без кепшенов лица выходят хуже, а концепции лучше, если на пикчах ничо нет кроме нее. С к3йв0рдом не заморачиваюсь, если он не прям ебучее слово. Если совсем все плохо, иду кепшены править руками.
Возможно пора что-то менять, но я не знаю что.
>разная стилистика
Да, я в sweetMint генерил. В реалистичных иногда выходит, иногда нет, см.пик. Они все примешивают свой изначальный "дефолтный стиль" или типа того. Во всяких киберах например всегда азиатки выходят. И к пику еще вае чужой прилепился, но и хер с ним.
Вообще для себя я это воспринимаю как норму. Четкого прям идентичного соответствия не жду, т.к. даже в рамках одного чекпоинта и набора лор, лица... ну, как бы, чуть разные. Перевесишь одну лору, она насрет в черты. Переставил теги, все поменялось. То есть как бы практическая ценность-то какая?, даже если я добьюсь 100 процентов сходства в пустом промпте.

>>612940
В теории, идея тегов (кепшенов) в том, чтобы сказать "на пикче Х, У, Й". И потом при генерации сказать "надо Х, У". Так Й отпадет. Я так наушники относительно успешно удалял у асмрщиц например. Также в теории, в теги не надо писать то, что тебе всегда нужно -- пусть оно вжарится в триггер и в сами веса. Не спец, но думаю если у тебя на пикчах прям только то чо надо, то можно без тегов. (Я так делал, норм.)
>триггер/без триггера
У меня иногда бывает что можно не писать, а бывает что НАДО писать. Не ебу от чего это зависит. Так что я бы не скипал это по дефолту.
Аноним 17/01/24 Срд 00:38:49 #336 №613016 
>>612940
>Вот допустим тебе нужно натренить лору на желтый гудок - ты готовишь датасет с сотней пикч желтого гудка в разных ракурсах, с разным фоном, с разным удалением и прочим разным.
Из такого датасета без тегов эта хуйня обязательно пикнет паразитные общие черты помимо твоего ебучего гудка. Невозможно подобрать 100 пикч с абсолютно 100% изолированными жёлтыми гудками. Точнее тебе может показаться что можно, но она найдёт лазейку и схлопнется на ненужном. И 1000 нельзя. И 10000. Нужны миллионы. Лора это не про количество, это про качество.

А с очень подробными тегами можно даже на одной пикче натренить, и оно худо-бедно поймёт что где, зерошотом. (что можно легко проверить, удаляя/заменяя теги по одному в инференсе). Попробуй натренить лору на одной пикче без тегов, чтобы не было оверфита (т.е. выделить из неё субъект, а рисовать потом всю картинку) и сразу поймёшь разницу.
Аноним 17/01/24 Срд 00:43:02 #337 №613025 
>>613016
Вот например чел демонстрирует эксперименты с однокартиночной лорой. https://civitai.com/articles/3021/one-image-is-all-you-need
Штука специфичная, но то что это вообще в принципе работает, возможно лишь из-за подробного кэпшена. Попробуй провернуть это без кэпшенов в принципе.
Аноним 17/01/24 Срд 00:49:01 #338 №613037 
>>613003
О чем и речь.
Если ты тренируешь тян без тегов, то когда ты вызываешь просто 1girl, то результат тренировки тупо накладывается поверх, без разбору, и получается что-то похожее или нет.

А вот когда тебе захочется гибкости - то начнутся проблемы. Эта твоя тянка из лоры будет влиять вообще на всё - потому что при тренировке не сформировался правильный концепт, и она не была отделена от фона/других предметов/одежды.

Почему тестом "на качество" является картинка тянки, держащей в руках свинью? Как раз потому - если тэги были правильные, и параметры тоже, то и тянка, и свинья получатся нормально и раздельно. Если ты где-то проебался, то либо у тянки пятачок нарисуется, либо свинья человекоподобная выйдет. Именно от непонимания общего концепта.
Аноним 17/01/24 Срд 01:00:10 #339 №613050 
test.png
>>613011
> Хм
Ну это у меня, я не знаю что это - правило, ошибки в настройках или что-то еще.
>Паттерн не знаю чо такое
Нечто повторяющееся, что лора должна заучить и воспроизводить. В случае с тренировкой на определенного человека - черты лица, в случае с желтым гудком выше - собственно желтый гудок. А вот что ты написал дальше уже не понял я лол.
>Во всяких киберах например всегда азиатки выходят
Просто добавляй european или сорт оф.
>В теории, идея тегов (кепшенов) в том, чтобы
Да, именно это я и имел в виду под "сложными лорами". В твоем варианте вроде бы можно указать для Й (ну или наушников у АСМРщиц) отрицательные значения, кстати.
>в теории, в теги не надо писать то, что тебе всегда нужно -- пусть оно вжарится в триггер и в сами веса
Ну так блядь вот это мне и надо, лол. И вообще как правило именно это от лоры и надо.
>Я так делал, норм.
Вот и мой опыт показывает что норм.
>>613016
>Лора это не про количество, это про качество.
>с очень подробными тегами можно даже на одной пикче натренить
Не до конца согласен, лора должна понимать черты лица с разных ракурсов, а для этого нужна вариативность датасета. Если бы я хотел иметь пикчи с лицом с одного ракурса - я бы тупо использовал инпейнт, и примерно это и получается по линку. Тренировка лица на одном пике - это суходроч от безысходности, можно за неимением лучшего, но не надо если есть возможность. С остальным может и проканает.
>>613037
>Почему тестом "на качество" является картинка тянки, держащей в руках свинью? Как раз потому - если тэги были правильные, и параметры тоже, то и тянка, и свинья получатся нормально и раздельно.
Или мне просто повезло, или теги в конкретном случае все-таки не нужны. Промт просто woman holding a pig in her arms, <lora:loraname:1>, обучение без тегов, часть лица оставил просто показать что там нет пятачка.
Аноним 17/01/24 Срд 01:01:26 #340 №613052 
>>613050
> Да, именно это я и имел в виду под "сложными лорами". В твоем варианте вроде бы можно указать для Й (ну или наушников у АСМРщиц) отрицательные значения, кстати.
В смысле тренить лору на наушники, а потом в промте давать ей отрицательные значения. Так будет понятнее что я имел в виду.
Аноним 17/01/24 Срд 01:03:38 #341 №613057 
>>613050
>Или мне просто повезло, или теги в конкретном случае все-таки не нужны.
Возможно и повезло.
Само лицо то хоть похоже получилось?
Хрюшка с виду "очеловечилась" немного.
Аноним 17/01/24 Срд 01:10:16 #342 №613062 
>>613057
>Возможно и повезло.
Сделал еще несколько генераций, на текущей тестируемой лоре и самой первой, на которой сошлись звезды и получилась ультра-заебись - факапов нет, обе тренились без тегов, у обоих в промте триггер отсутствует, только имя лоры.
>Само лицо то хоть похоже получилось?
Похоже, черты лица в основном заучены, но прям фотореалистичное сходство примерно на каждой десятой пикче - в остальных случаях 2-3 пикчи в мусор, а остальные более-менее норм.
Аноним 17/01/24 Срд 01:17:17 #343 №613077 
grid-0000.png
>>613050
>отрицательные значения наушников
Да, если вылазит, я в негатив пишу (ну или сразу, если лора проблемная)
>что ты написал дальше уже не понял я лол
Это все термины из дефолтных туториалов, blip captioning, regularization [+ class], keyword = trigger-word. Про кейворд говорят "пиши n4t4sha вместо natasha, чтобы не совпадал с известными словами" - они примешивают якобы свои веса. Но на практике хер поймешь чего происходит, то хуже, то лучше. Чувство такое, что если в кейворд писать имена, то он как-то лучше понимает, что это тня, что-ли, и ему проще докинуть из лоры. Но иногда это селебрити с другим луком, и тогда от этого хуже.
>>613057
У меня тоже хрюшки няшные выходят, хоть и с тегами
Аноним 17/01/24 Срд 01:20:03 #344 №613088 
>>613011
> --network_dim=' + dim_value, // обычно 128
Кстати >>589652
Я треню на гораздо меньших значениях >>612859 (16/8), как только получу идеальный результат - собираюсь попробовать их снизить, dim оставить 16 а альфу спустить до 4 например, или 8/4 сделать.
Аноним 17/01/24 Срд 01:26:01 #345 №613095 
>>613050
>Не до конца согласен, лора должна понимать черты лица с разных ракурсов, а для этого нужна вариативность датасета. Если бы я хотел иметь пикчи с лицом с одного ракурса - я бы тупо использовал инпейнт, и примерно это и получается по линку. Тренировка лица на одном пике - это суходроч от безысходности, можно за неимением лучшего, но не надо если есть возможность. С остальным может и проканает.
Речь не о том. Ты сможешь получить лицо с ракурсов, нет проблем. Речь о том что у тебя модель должна обобщать и отсеивать мусорные признаки, не принадлежащие твоему объекту. Каждая новая модальность (картинки, текст, видео, звук...) это новый короткий путь через многомерное пространство в обход уже имеющихся длинных в других измерениях, и добавляет качества экспоненциально. Естественно данные для этого должны быть реально связаны.
Аноним 17/01/24 Срд 01:32:51 #346 №613101 
>>612940
> Нахуя ей теги нужны? Чтобы что?
Чтобы желтый гудок был для нее понятным концептом, связанным с текстовой частью, а не просто неуправляемым мусором что отравляет модель.

Господа хорошие, кто на XL тренил, поделитесь рецептами хороших результатов, будьте же людьми. Насколько параметры совпадают с 1.5, в чем отличия и т.д.
Аноним 17/01/24 Срд 01:45:57 #347 №613107 
>>613088
Я пробовал d32/a32 - для лиц хуже. Где-то на d70-90 по ощущениям становилось норм, так что я просто забил и стал 128/128. Отдельно альфу тоже менял: d128/a1 например прям сильно хуже для лиц, но было сильно лучше для лоры тонких ног. Она на 128/128 желтила пц, а щас красота, на плотах тупо линейное утоньшение без артефактов (до 1.4 ясно дело, дальше пиздец).
Алсо, раньше я сидел на AdamW и constant, быстро с них ушел на Adafactor adafactor. У последних меньше "артистичность" что-ли или типа того, хз как передать. Они более реальные и менее "дримерские". Но зато они "стабильные" между разных датасетов, не надо вечно переподтюнивать, нет пережарки. Я бывает даже не смотрю эпохи, если нет косяков.

Я вот думаю допилить свой скрипт и заставить его за ночь-две нахерачить разных лор по уже готовым датасетам. И напилить огромных плотов по параметрам тренинга. А то задолбало в темноте бродить и ждать пока очередной эксперимент выйдет говном.
Аноним 17/01/24 Срд 13:46:55 #348 №613676 
дратути
Аноним 19/01/24 Птн 02:57:39 #349 №616176 
Xen или kvm чтобы чтобы можно было пробрасывать видеокарту в гостевые win и nix? Ну и еще если в контейнере крутить - норм работает, или цпу-онли говно?
Аноним 20/01/24 Суб 01:29:51 #350 №618743 
Что тред затих
Аноним 20/01/24 Суб 03:32:53 #351 №619039 
>>618743
Расползлись по тематика xl тренировать.

Есть модель, которая может определить "качество рук" на пикче? Нужно детектить поломку на сгенерированных, или кривого артиста. Наверняка ведь что-то натренили готовое.
Аноним 21/01/24 Вск 21:51:19 #352 №621704 
Чем можно тренировать лору и просто файн тюн на нескольких картах?
Аноним 22/01/24 Пнд 00:56:04 #353 №621945 
>>621704
Стандартным кохой, распараллеливанием будет заниматься аккселерейт. Под шиндой на мультигпу с такими вопросами даже не надейся, костыльно через wsl, хорошо на линуксе. Просто работать параллельно для удвоения скорости тренировки - на любых карточках, так чтобы складывалась память - без нвлинка можешь не надеяться.
Аноним 22/01/24 Пнд 21:49:24 #354 №622873 
>>619039
Если бы такая была, её бы использовали для обучения модели, которая всегда даёт идеальные руки.
Аноним 22/01/24 Пнд 22:30:34 #355 №622933 
>>619039
Что значит детектить? Можно натренировать контролнет или типа OpenCV детектор сделать
Аноним 22/01/24 Пнд 23:15:36 #356 №623023 
>>622933
Классифаер же, можно в комбинации с модялями что в адетейлере для выделения области. Если кто-то тренил и есть изи ленивый путь - прошу поделиться.
>>622873
Если бы, нормальный датасет составить и от мусора почистить не могут, а тут такое. Стоит узнать как делались котируемые многими модели - удивляешься насколько оно толерантно к пиздецу.
Аноним 23/01/24 Втр 23:31:50 #357 №624348 
https://crowsonkb.github.io/hourglass-diffusion-transformers/

Кто-то пытается воскресить пиксельную диффузию без латентной компрессии, скрещивая юнет с трансформерами
Аноним 23/01/24 Втр 23:33:43 #358 №624349 
>>624348
Уже давно есть такое.
Аноним 24/01/24 Срд 07:01:01 #359 №624458 
>>624349
где?
Аноним 24/01/24 Срд 11:22:21 #360 №624527 
>>624348
>Кто-то
Два автора из Stability AI, не совсем они видимо сдохли, что-то готовят.
Заявы по ссылке выглядят неплохо, интересно насколько оно соответствует.
Аноним 24/01/24 Срд 11:36:46 #361 №624530 
>>624527
> из Stability AI
Значит точно будет кал. Или опять придётся допиливать месяцами за этими говноделами.
Аноним 24/01/24 Срд 12:28:02 #362 №624558 
>>624530
Главное чтобы было что допиливать
Аноним 24/01/24 Срд 16:39:35 #363 №624682 
image.png
Технари, поясните за comfyUI, как можно перегенерировать картинку из батча? Например мне 4я нравится. Хочу её взять только для неё начать плавно менять промпт или примешивать другой шум к основному.

И не знаю, то же это самое или нет, но в автоматике была настройка смещения шума. Это как проворачивать в комфи?
Пока что я тупо сую картинку в VAEencode и кручу денойз
Аноним 24/01/24 Срд 16:48:54 #364 №624685 
>>624682
> ищет функционал автоматика, которого в комфипараше просто нет
Ты тупой?
Аноним 24/01/24 Срд 16:58:10 #365 №624692 
>>624685
Да, я тупой. Пожалуйста помоги мне.
Виляет жопой
Аноним 24/01/24 Срд 17:14:56 #366 №624698 
>>624692
Используй автоматик. Нахуй ты взял эту парашу и теперь жалуешься тут?
Аноним 24/01/24 Срд 21:24:37 #367 №624926 
>>624682
Точно также как в автоматике берешь и ставишь ее сид, вариэшны толи в стандартной ноде были, толи нужно было кастомную добавлять, но все было.
Аноним 24/01/24 Срд 22:59:43 #368 №625085 
>>624926
Ну так вопрос как раз в этом сид-вариаэйшн, где его взять.
так же я могу предположить, что сид тот же, шум тот же, но есть сдвиг шума, так как картинка является тайлом внутри батча.
Аноним 24/01/24 Срд 23:02:14 #369 №625087 
>>624685
Я сомневаюсь, что в комфи чего-то нет. Вот в автоматике точно нет, просто в силу устройства.
Аноним 24/01/24 Срд 23:08:48 #370 №625091 
>>625087
> в комфи чего-то нет
Там до сих пор нет fp8 или нормального инпейнта. Вообще в комфи много чего нет из того что в автоматике из коробки. Про гуй я вообще молчу.
> в силу устройства
В плане экстеншенов комфи менее гибок, потому что там каждая нода изолирована, в отличии от автоматика, в котором можно поставить хуки хоть где.
Аноним 24/01/24 Срд 23:53:27 #371 №625150 
image.png
123155451.png
Сам разобрался.

Variation seed есть в к-сэмплере Inspire.

Для извлечения сегмента Latent нужен Latent from batch, но конкретно с Euler_a он не работает.

>>624698
А ты иди нахуй.
Аноним 24/01/24 Срд 23:59:06 #372 №625152 
image.png
>>625091
>или нормального инпейнта
В наличии 2 или 3 редактора в браузере.
Нормальнее чем в Автоматике с его ужасной кистью, отсутствием нормального зума, слоёв и прочей хуйни. Я даже маски рисовал во внешнем редакторе.

>fp8
не ебу что это. Вроде написано «Less VRAM», но по факту комфи у меня делает батчи по 32, автоматик же лимитировал батч 8ю, если не ошибаюсь. И то падал.

Ну и пикрил, конец прошлого года, твои данные устарели.
Аноним 25/01/24 Чтв 02:33:22 #373 №625255 
1706139201093.png
Поставил себе задачу натренить себе модель по типу этой https://www.youtube.com/watch?v=j2dI0B4VHxk чтобы генерировать пиксельные тайлы к играм через imgtoimg. Накачал картинок, заскейлил в нужный размер и порезал на части 512x512. Натренировал модель и вот пока что у меня пока выходит в режиме imgtoimg на пике. Собсна мои вопросы:
1. Увеличение размера датасета поможет сделать пиксель арт более похожим на пиксель арт? А то будет такое себе заготовить огромный датасет, а в итоге после обучения результат останется тем же.
2. Увеличение количества эпох сделает пиксель арт более похожим на пиксель арт? Христ говорил что эпохи вообще нихуя не дают, может это и так, если ты просто лицо копируешь, однако я ща потестил на двух эпохах, результат сильно лучше чем на одной.
3. Нейросеть сама хорошо понимает что за предметы находятся на каждом изображении или все таки правильнее указывать промпты в тхт файле для каждого изображения? Христ опять же говорил, что нейронка нихуя не использует промпты и всю инфу в основном берет с CLIP'а, но в моем случае хуй она поймет, что там на пикче есть цветок, например. Обязательно это прописывать?
4. Этот способ с разбиением на рандомные куски 512х512 это вообще нормально? Вот есть на пикче дерево, пенек и пол дома например, оно нормально поймет все эти концепции если оно все будет вперемешку?
Аноним 25/01/24 Чтв 02:42:49 #374 №625262 
>>625152
> но по факту комфи у меня делает батчи по 32, автоматик же лимитировал батч 8ю, если не ошибаюсь. И то падал.

Ахуеть, это все, что надо знать про Комфи даунов. Не осилили как изменить максимальное значение ползунков, и веулючить medvram, поэтому выбрали Комфи

fp8 - это квантизация. В 2 раза меньше потребление памяти без видимой потери качества. Пока в релизе не завезли
Аноним 25/01/24 Чтв 07:37:42 #375 №625328 
>>625255
> Увеличение размера датасета поможет сделать пиксель арт более похожим на пиксель арт?
Да. Для начала надо хотя бы пару десятков тысяч. Больше - лучше.
> Увеличение количества эпох сделает пиксель арт более похожим на пиксель арт?
2-3 - оптимально. Больше 5 лучше не делать. Но вот батчсайз нужен как можно больше. Оптимальные значения для стандартных оптимизаторов на 16+.
> Обязательно это прописывать?
Без капшенов это просто мусор, а не датасет.
Аноним 25/01/24 Чтв 09:46:50 #376 №625381 
>>625152
>по факту комфи у меня делает батчи по 32
тому що вместо того чтобы крашиться он автоматически переключает тебя в lowvram режим, подкачивая куски модели с оперативки, соответственно замедляя инференс
Аноним 25/01/24 Чтв 12:38:11 #377 №625457 
>>625328
>Без капшенов это просто мусор, а не датасет.
А как на десятки тысяч изображений это прописывать? Не в ручную же, а если CLIPом, то sd же итак его юзает
Аноним 25/01/24 Чтв 13:06:23 #378 №625467 
>>625255
> 1.
Да. Огромный не нужен, нужен разнообразный и примерно охватывающих все возможные области (по яркости, содержимому и т.п.).
> 2.
Правильные-оптимальные настройки сделают это, просто эпохи в отрыве от всего не интересны.
> правильнее указывать промпты в тхт файле для каждого изображения
this
> Христ
Зашкварный петушара, который запизделся.
> Этот способ с разбиением на рандомные куски 512х512 это вообще нормально?
Может быть использован. Алсо увеличь разрешение, особенно если планируется использовать не на стоковом сд, лучше пойдет и будет лучше работать если потом соберешься апскейлить.

Алсо качественный пиксельарт в 1.5 всеравно не получить, потребуется пост обработка. Можешь про это найти в популярной подборке лор на циве.
>>625328
> 2-3 - оптимально. Больше 5 лучше не делать
Вот это довольно странно, почему такие значения?
Аноним 25/01/24 Чтв 13:08:55 #379 №625468 
>>625328
> Для начала надо хотя бы пару десятков тысяч.
А это уже откровенный троллинг
>>625457
> а если CLIPом
Им или другими моделями.
> а если CLIPом, то sd же итак его юзает
Что за бред, там тренится в соответствии с тем что задал, если нет капшнов - на вход текстовый пойдет название концепта в структуре датасета, это плохо.
Хотя вообще если задача только делать img2img на одну единственную тематику, можно просто тренировкой все поломать и оно как-то будет работать.
Аноним 25/01/24 Чтв 13:19:42 #380 №625470 
>>625467
>качественный пиксельарт в 1.5 всеравно не получить
Вообще не тру. Нашел классную лору, которая хорошо пиксель арт делает, именно сам стиль. В text to image конечно проскакивает дефолтная полтарашная хуйня типа трех рук, но в image to image и с controlnet мое почтение
Аноним 25/01/24 Чтв 13:41:00 #381 №625482 
>>625470
> Вообще не тру.
Ты приблизь и посмотри на те пиксели, они все разного размера, округлые, с градиентами на краях и т.д., требуется доработка. Общий стиль будет выдерживать офк.
Аноним 25/01/24 Чтв 13:58:21 #382 №625492 
>>625482
Не, прям все топ и по сеточке, при скейлинге в 64х64 получается то же самое > >>615554 →
Аноним 25/01/24 Чтв 14:01:36 #383 №625495 
image.png
image.png
>>625492
1. генерация
2. 64x64 scale
Аноним 25/01/24 Чтв 14:05:57 #384 №625502 
1.png
>>625381
Ты думаешь, я время не замерял и просто так батчи гоняю?
Да, потребление памяти прыгает до 9—10Гб. Но никакого торможения и падения качества нет. Огромный батч эффективнее. Это всё, что меня волнует как пользователя. Вот скрин из консоли.
В скобках — время на одну картинку.
512х744

Практически же батчи по 32 я заряжаю редко. Чаще 4, 8, 16

>инференс
Выебнулся, да?
Аноним 25/01/24 Чтв 14:17:11 #385 №625509 
>>625255
1. была очень приличная лора на пиксель-арт
2. Проще генерировать сначала что-то типа тюринговского шума с примесью другого в малом разрешении, чтобы создать пятна и «реки», затем на базе этой пиксельной сетки генерить обычные картинки а потом уменьшать и пропускать через слои эффектов в фотошопе. Постеризация/индексированная палитра, шахматная клеточка (диффузия).

> видео
Хуйня, чё-то совсем. Прям совсем унылый пиксельарт, однородная каша. По базовым цветам неприятно, по структуре невнятно и его даже взять в доделку до нормальных тайлов не хочется.

Классические генераторы на базе шумов, «червей» и прочих внятных правил, а так же симуляций во времени, выглядят гораааздо лучше.

>>625495
Ну такое… Если говорить о превращении слева направо то неплохо, можно руками дотянуть.
Аноним 25/01/24 Чтв 14:28:06 #386 №625520 
>>625509
>тюринговского шума
Это как? Может шум перлина?
>затем на базе этой пиксельной сетки генерить обычные картинки а потом уменьшать и пропускать через слои эффектов в фотошопе.
Ну во-первых, пиксель арт нихуя не так прост, весь искуственный пиксель арт палится на раз два, тут процедурной генерацией не отделаешься. Во-вторых не только же реки и травка нужны, хорошая модель должна и данжи генерировать и домики, вообще все знать. Тут нужен охуенный датасет пиксельных top down картинок как не крути, но к сожалению нихуя такого нет в интернете. Есть датасеты игровых тайлсетов. Вот если бы была возможность процедурно генерировать когерентные пиксель арт пикчи из пиксельных тайлсетов (чтобы оно вручную все эти травинки и домики расставляло), вот это уже было бы круто.
Аноним 25/01/24 Чтв 14:39:22 #387 №625524 
>>625495
Ну вот как раз оно, требует доработки. Про отступлении от 512х512 и в других ар становится хуже, но тоже можно вытянуть. В исходном виде неюзабельно.
>>625509
> потом уменьшать и пропускать через слои эффектов в фотошопе. Постеризация/индексированная палитра, шахматная клеточка (диффузия)
База. Но изначально нужную палитру и особенности детализации чтобы не херилось все можно задать как раз лорой. Сами пиксели после диффузии мэх, использовать как исходник можно но не обязательно.
Аноним 26/01/24 Птн 00:42:26 #388 №626483 
>>625520
>Может шум перлина?
Нет. https://rreusser.github.io/multiscale-turing-patterns/
Тут из шума эволюционируют паттерны пятнисто-полосатые. В демке они затайлены.

>тут процедурной генерацией не отделаешься.
Я имею в виду процедурную генерацию базовой канвы.
>охуенный датасет
Как минимум длинный список разных тайлов и их свойств (что с чем стыкуется).
Инфы валом, вот например
https://www.youtube.com/watch?v=YShYWaGF3Nc&list=PLsk-HSGFjnaH82Bn6xbQNehatj3sIvtMQ
Забыл как эта система называется, где к каждой стороне своё правило стыковки.

А вот конкретно рисовать тайлы и их стыковку, хотя бы основу, уже можно подрядить нейронку.

>>625524
да, ограничить цвета лорой или эмбеддингом — мысль хорошая.
Аноним 26/01/24 Птн 00:51:26 #389 №626498 
Все эти ваши попытки хуйня, с таким же успехом можно фотку пикселизовать/соляризовать в фотошопе. В нормальном пиксельарте по сетке выровнены фичи, Т.е например дом стоящий наискосок будет стоять так что край будет ровный или точной лесенкой.

Есть такой проект retrodiffusion https://www.retrodiffusion.ai . Это самая пиздатая модель на сегодня, она обучена на горе пиксельарта, который предоставляли сами пиксельхудожники. Она умеет это и многое другое, например аутентичные палитры с ретродевайсов, обводку и т.п. тонкости. Смотрите на сравнения внизу страницы, каким должен быть правильный пиксельарт.

Жаль что она закрыта, но я уверен что если дотренить SD соответствующим образом то получится нечто похожее. RD это по идее вроде и есть файнтюн SD.
Аноним 26/01/24 Птн 02:03:56 #390 №626576 
>>626498
> В нормальном пиксельарте по сетке выровнены фичи, Т.е например дом стоящий наискосок будет стоять так что край будет ровный или точной лесенкой.
Правильно говоришь. Только при должной внимательности к обучению сетка эти свойства вполне себе усвоит, а кривые пиксели -
> пикселизовать/соляризовать в фотошопе
> RD это по идее вроде и есть файнтюн SD.
Никто не мешает сделать также, насобирать датасет, обработать должным образом, и зафайнтюнить. Для 1.5 это более чем доступно на хайль-энд десктоп железе, на то чтобы со всем разобраться и сделать уйдет от нескольких вечеров до месяца+, но результат будет.
> самая пиздатая модель на сегодня
Они ее продают? Хотя почему бы и нет раз сделали, просто сложность такого по современным меркам не столь высока.
Аноним 26/01/24 Птн 12:12:17 #391 №626872 
К слову о палитрах, я попробовал контролнет, но он именно зонирует цветами с картинки, а хотелось бы использование палитры.
Какой постпроцессор для этого нужен?
Аноним 26/01/24 Птн 17:26:46 #392 №627157 
Когда же до толстолобых долбоебов дойдет, что для пиксельарта нужно тренить вае.
Аноним 26/01/24 Птн 19:28:16 #393 №627291 
>>627157
И как он тебе поможет, даунёнок? Ты с таким же успехом можешь вообще выкинуть вае и латент конвертить в одноцветные кубы.
Аноним 26/01/24 Птн 21:45:40 #394 №627459 
>>570475 (OP)
Ананасы, выручайте. Черт дернул обновить мою сборочку афтоматик1111 и гитхаб теперь меня нахуй шлет.
RuntimeError: Couldn't fetch Stable Diffusion.
Command: "git" -C "C:\nai\stable-diffusion-webui-directml\repositories\stable-diffusion-stability-ai" fetch
Error code: 128
stderr: error: RPC failed; curl 92 HTTP/2 stream 23 was not closed cleanly: CANCEL (err 8)
Пробовал с впн, хттп прокси (за 60 рублей, охуеть), просто так тыкался, гитхап для шиндовс обновил - нихуя не выходит. Это чо, я без сисиков остался?
Аноним 26/01/24 Птн 22:07:52 #395 №627472 
>>627157
Интересная тема, есть примеры? Есть предположение что даже его тренинг не поможет обеспечить идеальный пиксельарт, что делается более простыми средствами. Но это не точно, кайфану если ты опровергнешь.
>>627459
Погугли ошибку гита 128. Ты точно просто скачать обновлений а не пытаешься запушить свои модификации? Удали git.lock, используй гугл. Прокси и прочее тут не причем.
Аноним 27/01/24 Суб 05:35:46 #396 №627847 
>>627459
Помогло отключение всего нахуй что юзает сеть и дёрганье ануса адаптера. Отключил/включил и держишь пальцы крестиком что бы докачалось.
Пиздец. Миллионы юзают гитхаб а докачку впилить не осилили. Даунлоад мастер мог 20 лет назад а эта залупа жиденько обсирается.
Короче, пришлось перекачивать весь юяй в новую папочку, потому что при обновлении эта параша что то ломала. Ну хоть опять генерация писек работает, это победа.
Аноним 27/01/24 Суб 09:33:43 #397 №627910 
>>627459
>>627847
Похоже на превышение лимитов API. У них нет лимита на трафик, хотлинкинг или ещё какую хуйню, но есть лимит на тилибоньканье программных верёвочек в минуту/час
Аноним 28/01/24 Вск 01:34:01 #398 №628814 
123235951.png
>>627910
Иногда бывает такое. Есть этому решение?
Видеопамять не переполняется, судя по графику, а оперативы вообще 64.
Аноним 28/01/24 Вск 01:49:19 #399 №628818 
>>628814
Сегфолт питона, вот это чудеса.
Это больше на битое железо или малварь похоже, лол.
Аноним 29/01/24 Пнд 03:18:07 #400 №629902 
Какие есть технические тэги ракурсов, помимо "high angle, low angle, wormeye angle возможно некорректно написал, fisheye тут хз как точно, wide shot" ещё есть? Где-нибудь была по этому статья?
Аноним 29/01/24 Пнд 03:57:25 #401 №629912 
>>629902
Любые пространственные хинты довольно паршиво работают. Для пространственной композиции лучше img2img по грубой мазне и/или контролнеты.
Аноним 29/01/24 Пнд 16:58:47 #402 №630300 
>>629912
Ну это от модели зависит. Если она говно, то да не работают.
Аноним 29/01/24 Пнд 17:15:47 #403 №630325 
>>630300
Чаю этому господину.
Еще негативно/позитивно могут влиять остальные теги-описания. Например, если запросить фейс-клозап но при этом запромтить туфли то будет ерунда, и наоборот подробно описав черты лица без всего остального - будет стремиться сделать портреты.
>>629902
Описывай натурально что нужно, pov еще хорошо работает, можно противоположные пары размевать в негативе/позитиве. Алсо без всяких тегов ракурса можно получить направление если указать ceiling/sky и типа такого.
Аноним 29/01/24 Пнд 17:37:49 #404 №630349 
123591326.png
123601227.png
>>630325
Попробовал уже ставшие классическими тесты на Далли
Прогресс, ебать! Наконец-то, сука!
Аноним 29/01/24 Пнд 17:46:05 #405 №630352 
>>630300
>>630325
Не работают нормально хинты ни на какой модели. Хит-энд-мисс. Не пытайтесь меня подъебать, я на этом собаку съел. (далишную)
Есть лоры-слайдеры под это дело, но они регулируются не промптом, а силой влияния, и всё это кривое-косое и мутирует результат.
Единственный, я повторяю единственный способ указывать пространственную композицию по-человечески - напрямую нахуярить её в пространстве. Пердолиться с текстом и рероллами это мрак сознания.
Аноним 29/01/24 Пнд 17:52:39 #406 №630354 
>>630352
На твоих говномоделях не работает, у меня работает всё, поэтому я и спрашиваю, какие ещё есть.
Аноним 29/01/24 Пнд 17:55:33 #407 №630356 
>>630352
>У меня не работает, значит у всех не работает
типичный скуф, сидящий на делиберейт, поясняющий, что все вокруг говно, а он один шарит
Аноним 29/01/24 Пнд 17:56:36 #408 №630357 
image.png
Поясните, где к каломатику модели качать на вот это?
Аноним 29/01/24 Пнд 18:37:15 #409 №630384 
>>630357
Расширение sd-webui-controlnet https://github.com/Mikubill/sd-webui-controlnet
Аноним 29/01/24 Пнд 19:03:55 #410 №630408 
>>570475 (OP)
Занимаюсь гравировкой на станке с ЧПУ. Через эти ваши нейросети можно сделать ЧБ PNG? У кого-то, возможно, есть примеры?
Спасибо!
Аноним 29/01/24 Пнд 19:41:16 #411 №630438 
>>630357
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
https://huggingface.co/h94/IP-Adapter/tree/main/models
Аноним 29/01/24 Пнд 19:42:13 #412 №630439 
>>630438
>>630357
Ещё вот это
https://huggingface.co/h94/IP-Adapter-FaceID/tree/main
Аноним 29/01/24 Пнд 20:13:44 #413 №630471 
>>630408
Можно обучить лору на имеющихся картинках, и оно будет тебе генерить в том же стиле. Но если у тебя гравюра должна соблюдать определённые правила (например не делать слишком тонкие линии или что-нибудь в этом духе), не жди от сетки чудес, она в это не умеет. Например если её заставить делать витраж, обучив на реальных витражах, она тебе нарисует что-то очень похожее, но нарезать и собрать реальный витраж, который ещё и не рассыплется при этом, будет проблемно. Ну или понадобится очень сильно ебаться при обучении. В общем та же проблема что с пиксельартом, татухами и прочими специфичными штуками.
Аноним 29/01/24 Пнд 20:18:29 #414 №630474 
Кто-нибудь уже пробовал здесь Yi-VL для теггинга датасетов? По тестам бьёт даже CogVLM, но тесты это тесты.
Аноним 29/01/24 Пнд 20:29:14 #415 №630483 
>>630471
Спасибо за развернутый ответ!
Аноним 29/01/24 Пнд 22:42:57 #416 №630595 
image.png
Что по факту делает эта галка? Меняет промпт и снова запускает? Как указать набор промптов? Комфи.
Аноним 29/01/24 Пнд 22:59:38 #417 №630610 DELETED
>>630595
> Комфи.
Пидор.
Аноним 29/01/24 Пнд 23:01:38 #418 №630615 
>>630474
> По тестам
Это тесты в текстовых задачах, они тебе не важны, а визуальная часть там обычный клип. Ког по визуальной части даже жпт выебать сможет.
Аноним 29/01/24 Пнд 23:25:12 #419 №630627 
>>630615
На одной 4090 ког может работать?
На гитхубе написано "For INT4 quantization: 1 * RTX 3090(24G) (CogAgent takes ~ 12.6GB, CogVLM takes ~ 11GB)" — это оно?
Насколько он тупой становится с 4-битной квантизацией?
Аноним 30/01/24 Втр 00:47:45 #420 №630684 
>>630408
Любую пикчу можно превратить в подходящее для гравировки математикой, но результат не всегда будет хорош. Сетку изначально можно заставить генерировать что-то типа чб скетча и даже рисунка чернилами, который потом легко и качественно можно сконвертировать.
Также возможно переделывать уже имеющуюся картинки в нужный стиль-формат, для такого подойдет отлично. Но будь готов вникать и разбираться, кнопки "сделать готовое" тут нету.
>>630474
Да, так себе. Галюны встречаются, нсфв не хочет, внимания к деталям не то чтобы сильно много. 34б версия чуточку лучше, но всеравно мэх.
Тебе что именно тегать? Для анимца и нсфв есть очень шустрый и прилично работающий вариант, но его нужно чуток затеймить ибо в редких случаях ломается.
>>630627
На 4090 ког влезает в 8 битах, yi34vl в 4х, 6б в полных весах.
> Насколько он тупой становится с 4-битной квантизацией?
Хз, надо сравнить, так норм.

Мультимодалки и их прикладное применение вообще интересут тут кого-то?
Аноним 30/01/24 Втр 01:30:53 #421 №630705 
>>630610
> Мультимодалки и их прикладное применение вообще интересут тут кого-то?
Меня интересуют, как пользователя и как перспектива будущего.
В целом с оптимизмом смотрю на «яйцеголовых», которые уже поняли, что исполнение узкой локальной задачи это для лабораторий и очень узких мест производства, а бизнесу и пользователям нужно что-то с чем можно общаться хотя бы немного эффективнее, чем с обезьяной или малолетним ребёнком.

Ащемта я не многого ожидаю. Додумались к чатгпт модули разные прикрутить, типа вольфрама, калькулятора, фактчекере/поисковика и умения говорить «да не знаю я, блядь!» — уже отлично. Прикручивают к рисовальным нейронкам умение рубить промпт и сегментировать, а так же проверять чё нагенерилось (GAN) — уже чудно. Прогресс и так прёт ебать как.
Аноним 30/01/24 Втр 03:24:48 #422 №630748 
>>630705
> как пользователя и как перспектива будущего.
Смотря какого пользователя. Если обывателя или просто инджиера - рано еще. Даже жпт4в ни разу не юзерфрендли для применения и областей его использования не так много.
Юзать можно прямо сейчас для подготовки датасетов, сортировки, обработки пикч (универсальное сегментирование), взаимодействия с интерфейсом (см все демки к когу). Для разработки чего-то с той же обработкой/генерации изображений.
Это подходит под пользование, или не то?
Аноним 30/01/24 Втр 04:59:46 #423 №630774 
Оказывается, цивитаевские баззы теперь можно обналичить, переведя в доллары, 1$ за тысячу.
Сначала вспомнил, что у меня есть пара акков с около 30к баззов, нафармленных махинациями с партнеркой и трансфером. Чтоб трейнить лоры на сайте. 30 долларов - это не много и не мало, это средне.
Но потом я также вспомнил, в какой стране живу. Родина мамонтов, страна-мистер-сидр, страна-под-санкциями, страна-железный-занавес-снаружи. Пойду что ли накачу за родину лол.
Аноним 30/01/24 Втр 06:36:55 #424 №630790 
>>630438
>>630439
Ой спасибо, хорошо!
Аноним 30/01/24 Втр 14:40:30 #425 №631035 
>>630774
30 баксов сравнимо с кучей баззов это ни о чём.
Там так и задуман курс, чтобы выводить или фармить было не выгодно.
Аноним 31/01/24 Срд 12:43:09 #426 №632006 
Реквестирую вопрос на ответ, для чего нахрен нужны инпеинт модели и в чем их отличии от обычных, когда работаешь с инструментом инпеинтом.
Аноним 31/01/24 Срд 14:45:36 #427 №632069 
>>632006
для SD 1.5 разницы нет
для SDXL в инпейнт моделях дефекты на швах импейта в разы меньше чем на обычных моделях, но все еще есть. sdxl пока еще существенно хуже чем полторашка импейтит
Аноним 31/01/24 Срд 15:04:08 #428 №632085 
>>632006
>>632069
Что за даунские вопросы и еще более даунские ответы?

Инпеинт модели нужны для инпеинта. Не инпеинт модели работать не будут, они напрочь маску игнорируют, потому что у них нет слоя, обученного на масках
Аноним 31/01/24 Срд 15:29:33 #429 №632115 
>>632006
For inpainting, the UNet has 5 additional input channels (4 for the encoded masked-image and 1 for the mask itself) whose weights were zero-initialized after restoring the non-inpainting checkpoint.
Аноним 31/01/24 Срд 21:59:07 #430 №632416 
>>632085
> Не инпеинт модели работать не будут
При использовании адетейлеров каждый раз переключаешься на инпеинт модель?
С такими формулировками ответ тоже даунский выходит.
>>632006
Они могут работать лучше обычных. Хотя учитывая что "дополнительные веса" хрен знает какой давности, может оказаться и наоборот. Сделай по инструкции ту инпеинт модель и сравни, это недолго.
Аноним 31/01/24 Срд 23:25:48 #431 №632559 
>>632416
> При использовании адетейлеров каждый раз переключаешься на инпеинт модель?
Ты понимаешь как работает адетейлер? Он находит на изображении требуемый объект, вырезает прямоугольный кусок изображения с объектом, прогоняет его через img2img и вставляет обратно.
Да, если выставить высокий "Inpaint denoising strength" в параметрах адетейлера, то инпейнт модели работают гораздо лучше (обычные модели обсираются уже на денойзе 0.6). На стандартном денойзе 0.4 обычные модели в целом работают нормально, но в некоторых случаях могут давать заметные артефакты по краям маски.
Если снять галочку "Inpaint only masked", то тогда адетейлер прогонит через img2img всё изображение, вырежет из него нужный кусок и вставит на исходное. В этом случае от инпейнт модели никакого толку не будет.
> Хотя учитывая что "дополнительные веса" хрен знает какой давности
Какие веса, какой давности, что ты несёшь? Там дополнительные 5 слоёв в модели, у неё банально больше входов. Модель принимает на вход не только кусок изображения для перерисовки, но и всё изображение целиком (4 слоя, так как VAE кодирует изображение (WxHx3) в латентное пространство в виде тензора размером (W/8)x(H/8)x4 ) + альфа-маску (1 слой). Да, там есть дополнительные масочные веса (для лучшей согласованности результатов с исходным изображением), но устареть они никак не могут.
Аноним 31/01/24 Срд 23:37:59 #432 №632569 
>>630748
>Смотря какого пользователя
продвинутый пользователь пекарни, умеющий её собрать, не боящийся командной строки и начинавший с доса и нортона.

То есть даже если нужно задротствовать ради рабочего результата, я могу, но при гарантии что оно вообще работает.

Но запрос мой — решение задач графического дизайнера.

>Это подходит под пользование, или не то?
ну разве что сортировка и обработка пикч — моё.

>>632006
Инпейнт всегда смотрит на то, что окружает маску. Обычная только на то, что непосредственно внутри.
Если понизить денойз до 0.5, то благодаря имеющейся инфе обычная модель не сильно проебётся.
Инпейнт ограничен окружением, обычная — подложкой. Но обычной можно снизить вес подложки, а как снизить значимость окружения инпейнту я хз, подскажите.
Аноним 31/01/24 Срд 23:40:59 #433 №632574 
>>632559
>На стандартном денойзе 0.4 обычные модели в целом работают нормально
Это если перетасовать примерно схожее мыло.
А вот если заменить большие сиськи на малые — уже проблема, от больших сисек останутся следы на фоне например. Или огромная грудная клетка.

В общем я использую обычную модель вместе с контролом контуром (руками рисую), чтобы радикально что-то поменять, резко снизив опору на имеющееся изображение.
Аноним 01/02/24 Чтв 01:22:27 #434 №632636 
>>632559
> прогоняет его через img2img и вставляет обратно
Уверен что так? Заявлялось что там не просто кроп img2img, который легко сильно уедет от оригинала, а как раз инпеинт по маске в повышенном разрешении.
> гораздо лучше
Есть сравнение этого гораздо? Пока главное вариант где это демонстрировалось - с костылем на автораздевание, и то там достаточно специфичная-сложная задача + реализм.
> Там дополнительные 5 слоёв в модели
И они не менялись годы.
> там есть дополнительные масочные веса (для лучшей согласованности результатов с исходным изображением), но устареть они никак не могут
Ну хуй знает, может и так. Ты описываешь их поведение как абсолютно детерминированное, типа накладывают маску, это действительно так? Если же их влияние более опосредованное то эффект их "устаревания" по сравнению с основными весами, которые хорошо ушли от ориганала, не стоит недооценивать.
Аноним 01/02/24 Чтв 01:39:37 #435 №632640 
>>632569
> ну разве что сортировка и обработка пикч — моё.
Потребует написания своих скриптов скорее всего.

Простая гуйня, которая может работать с разными моделями, настраивать параметры, умеет в батчи и их визуализацию. Возможно паттерны на какие-то базовые задачи. Есть интерес? Готовность содействовать?
>>632574
> А вот если заменить большие сиськи на малые — уже проблема, от больших сисек останутся следы на фоне например. Или огромная грудная клетка.
И как в этом поможет инпеинт модель? Если Если окружение не в маске инпеинта - его и не затронет, если в ней - будет согласовано при нормальном исполнении. Странные вещи тут у вас происходят.
Аноним 01/02/24 Чтв 02:38:49 #436 №632648 
>>632640
>Есть интерес? Готовность содействовать?
Интерес на уровне хотелки и ожидания,
содействовать, увы, некогда.

>>632640
Инпейнт смотрит не маску, а, как минимум, на маску+отступы.
И, вероятно, какую-то самую общую инфу берёт с картинки. В деталях не знаю, но практически ощущается так.
>>632115
Инпейнт модель даже при 100% денойзе редко всё выворачивает нахуй относительно начальной картинки.
Аноним 01/02/24 Чтв 18:41:05 #437 №633173 
вопросы к знатокам, я помню,
SD-модели были по 4—6Гб, сейчас подрезанные по 2Гб

SDXL ещё не научились так подрезать или оно невозможно?

И почему лоры бывают под 30МБ а бывают по 6 но очень даже эффективные.
От чего это зависит. Я так чувствую, что не удержусь и начну обучать лоры рано или поздно, хочется понять, есть ли смысол делать толстые.
Аноним 01/02/24 Чтв 18:50:48 #438 №633191 
>>633173
За такие тупые вопросы тут пиздят и обоссывают.
Аноним 01/02/24 Чтв 22:21:44 #439 №633327 
>>633173
Вот это ты тупишь. Это подрезание называется fp16
Аноним 02/02/24 Птн 00:19:37 #440 №633444 
>>633173
> SDXL ещё не научились так подрезать или оно невозможно?
Умела сразу и уже была подрезана, иначе изначально весила бы 15+гигов.
> почему лоры бывают под 30МБ а бывают по 6 но очень даже эффективные
Разная размерность, у нее нет прямой корреляции с эффектиновстью. Но для чего-то сложного большой размер необходим, а регулировать толщину лайна или среднюю гамму можно и мелочью.
На 1.5 для персонажа dim 64 с головой, даже несколько поместятся, но, например, в 8 может запоминать мелочи хуже и вызывать побочные эффекты.
На xl нормально получится и с меньшей размерностью.
Аноним 02/02/24 Птн 00:19:56 #441 №633446 
>>633191
>>633327
я в курсе, что такое точность floating point.
Тем не менее ответов на вопросы вы не дали
Аноним 02/02/24 Птн 00:21:13 #442 №633447 
>>628814
>>628818
>битое железо
Железо справляется и память может быть загружена плотно и надолго, к тому же адрес видишь? инструкция обращается в теоретический конец памяти.
Аноним 02/02/24 Птн 01:17:54 #443 №633477 
>>628814
почитал на ремонтке, похоже что решил.
Засада была в том, что SSD под нейронки, с которого всё читается и на который пишется уже подзабит неприлично во-первых. А во-вторых на нём был выставлен ещё и файл подкачки. Походу, питон не вывозил нормально всё чтение и запись разом на одно устройство.
Принудительно выставил размер и перенёс на более свободный диск — пока не падало.
Аноним 02/02/24 Птн 01:22:13 #444 №633482 
>>633477
> Походу, питон не вывозил нормально всё чтение и запись разом на одно устройство.
Ерунда, больше похоже на кривой разгон памяти или ошибки фс. Адрес куда обращается ни о чем не говорит.
Аноним 02/02/24 Птн 02:07:58 #445 №633509 
>>633482
После длительного дрочения и сотен генераций, всё-таки опять упало.

Память не гналась, идеально исправна, надёжна как Калашников.
Процу отключал анлок и андервольт — абсолютно без разницы.

Да и не падало никогда на более страшных задачах на проц и ОЗУ. Они проверены и симуляциями и рендерами.

Ну хз, чо думать. Разве что на сам кривой питон/комфи, ибо ничто больше проблем не вызывает, бсодов нет.
Аноним 02/02/24 Птн 02:12:06 #446 №633510 
>>633509
Диск на ошибки проверь и системные файлы. Если их нет - время переустанавливать шиндоуз. Если и это не поможет - железо.
Аноним 02/02/24 Птн 02:23:42 #447 №633514 
>>633510
ну ок, погоняю, может быть.
Тенденция к падению в случаях:
1. сбросил пару раз генерацию и запустил сразу снова (пока идёт генерация, поправляю ключи, вижу что уже хуйня выходит, прерываю)
2. После отгенерированного большого батча на следующем падает
Аноним 02/02/24 Птн 02:26:15 #448 №633515 
Ещё один вопрос по комфи.
У него есть болячка, начинает вставлять либо по 2 копии нодов по Ctrl+V либо вместе с нодой вставляет load image с картинкой из буфера. То есть будто предыдущее значение буфера вставляет.

Не встречалось такой хуйни?

Если что, использую мультибуфер CLCL, попробую ща отключить.
Аноним 02/02/24 Птн 04:09:54 #449 №633539 
>>633514
Перенёс папки аутпут/темп с этого диска и поставил печку генерить батчи по 48.
И параллельно 3д-моделить.
Пока ни одного отвала.
Раньше после 1-2 батчей почти с гарантией падало.
Пока что всё сходится на старом ССД. ШТОШ, нужно делать резервную копию с него. Все свои сроки он давно отслужил.
Аноним 02/02/24 Птн 05:02:18 #450 №633547 
>>632006
Например для этого >>542778 →
Без примердженной инпеинт модели с аниме и тем экстеншеном просто не работало как задумывалось
>>633173
XL и так уже в фп16 по 6.5 гигов, сама модель просто намного больше, а размер лор зависит от выбранного дима, ну и естественно они тоже больше, до 32 так же как и на 1.5 не особо заметны потери при тренировке или ресайзе чего нибудь не особо сложного, для простых чаров мб можно и меньше
Аноним 03/02/24 Суб 00:32:56 #451 №634054 
>>633547
Спасибо за ответ.
>выбраного дима
что такое?

>для простых чаров мб можно и меньше
была такая догадка, что мелкие лоры оч прицельные и внутри простые концепции. Но ащемта мне такие и нравятся, узконаправленные слайдеры.
Аноним 03/02/24 Суб 02:53:59 #452 №634103 
>>634054
https://github.com/bmaltais/kohya_ss/wiki/LoRA-training-parameters#network-rank-dimension
Аноним 03/02/24 Суб 04:35:33 #453 №634134 
>>634103
Понял, ещё раз спасибо.
Аноним 03/02/24 Суб 18:25:51 #454 №634468 
SVD 1.1 вышла. Качаю. Кто-нибудь уже тестил, есть разница?
Обещают лучшее качество для 25 frames at resolution 1024x576.

https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt-1-1
Аноним 03/02/24 Суб 18:49:31 #455 №634484 
>>634468
Гуй нормальный сделали для него? Или всё так же одно говно пердольное настолько что проще скрипт написать?
Аноним 03/02/24 Суб 19:03:10 #456 №634495 
>>634484
Комфи, чтобы править всеми
Аноним 03/02/24 Суб 19:25:53 #457 №634506 
Вопрос косвенно касаемо темы. В Fooocus нет уменьшителя, только апскейл. В фотошоп лень таскать картинку. Надо всё в браузере. Можно ли самому написать простое приложение на градио? Буквально надо уменьшитель изображений в х раз. Кидаешь картинку в окно, задаешь масштаб и жмешь кнопку. Со скриптами на питоне немного знаком. Джава-скрипт в глаза не видел. Есть у меня шансы вообще?
Аноним 03/02/24 Суб 21:12:23 #458 №634620 
>>634506
А для фокуса можно свои расширения делать (никогда им не пользовался)?
То, о чём ты говоришь на градио делается как нехуй, но держать отдельный градио-вебсервер, только ради того, чтобы уменьшать картинки — такое себе.
Либо нужно глянуть исходники фокуса и посмотреть как там реализован апскейл. Думаю, прикрутить туда уменьшатель как нех делать.
Аноним 03/02/24 Суб 21:33:03 #459 №634650 
>>634620
Расширений нет. В фокусе всего два предустановленных выбора апскейла 1.5х и 2х. И я заменил в его коде 1.5х на даунскейл 0.5х. Но проблема в том, что фокус потом не обновляется из-за вмешательство в его файлы. Как этот момент разруливать не знаю.
Если делать даунскейл через графический редактор, то возникает необходимость открывать окно с проводником и вот это вот всё.
А так я бы держал градио во вкладке браузера и перетаскивал картинки из вкладки фокуса во вкладку с приложением. Удобно. Памяти 32.
Аноним 03/02/24 Суб 21:40:13 #460 №634655 
>>634506
>>634650
К чему вообще нужен даунскейл: при апскейле повышается детализация. Типа как инпаинт всего изображения. Но размер картинки-то увеличивается. И я уменьшаю её до исходного размера в фотошопе, а затем снова апскейлю в фокус. Очень хорошо подвышает детализацию, автоматически выправляет лица, пальцы.
Аноним 05/02/24 Пнд 00:43:05 #461 №635425 
image.png
124255537.png
Такблэт. Пытаюсь установит insightface для faceID в автоматике.

Мне пишет как-то невнятно пик1
Типа библиотеки у тебя дохуя новые, не соответствуют, но что-то я там установил.
Мне с этим что делать нахуй? Откатиться на питон 3.10?
или искать эти библиотеки под 3.11?


И, вероятно, как следствие, инсайтфэйс не инсталлировался полноценно или конфликтует и выдаёт пик2

Облазил уже кучу страничек. Там или неведомая хуйня и «ставь VC и билди сам» или методы, проблему не решающие

>>634655
модели апскейла работают на фиксированный апскейл x2 x4 x8
если тебе нужно меньшее разрешение, быстрее апскейл моделью и даунскейл до нужного
Аноним 05/02/24 Пнд 00:44:39 #462 №635427 
image.png
>>635425
Аноним 05/02/24 Пнд 01:49:05 #463 №635443 
>>634506
Много ебатории ради все равно возить картинку мышкой.
Напиши лутше батник
@magick %1 -resize 50%% %1.out.png
и добавь его в правую кнопку в проводнике
```dobavit_batnik.reg
Windows Registry Editor Version 5.00

[HKEY_CURRENT_USER\SOFTWARE\Classes\pngfile\shell\Downscale_x2]
@="Downscale x2"

[HKEY_CURRENT_USER\SOFTWARE\Classes\pngfile\shell\Downscale_x2\command]
@="c:\\Users\\User\\MoeGovno\\downx2.cmd \"%V\""
```
Папку с пикчами кинь в избранное, сортировку по новые сверху
ImageMagick лежит в интернетах
Код не тестил, сляпал из шаблонов
Аноним 05/02/24 Пнд 02:10:02 #464 №635462 
>>634506
хз, никогда не думал писать своё, потому что есть у меня XnView, а в нём есть пакетная обработка макросом.
А в макрос можно напихать всего, что умеет программа. Базовую редакцию умеет (обрезка, ватермарки, размер, уровни, пересжатие форматов)
Аноним 05/02/24 Пнд 02:18:35 #465 №635468 
>>635462
У тебя обычный или мп?
Аноним 05/02/24 Пнд 06:26:55 #466 №635523 
>>635468
написано MP, хз чем отличаются.
Помню, что он бесплатен для некоммерческих задач официально, потому и выбрал. И он мне перекрыл все нужды. Так что imagemagic просто пылится в архиве на всякий случай. Я его использовал для каких-то ну очень специфичных задач типа сравнить поканально, намазать разницу, извлечь палитру 8-битную
Аноним 05/02/24 Пнд 06:47:10 #467 №635529 
>>635425
>>635427
Прискорбно, но ничего так и не решилось малой кровью.
Видел коммент такого же невезучего. Пришлось последовать его совету, тупо накатить свежий комфи, на него ipadapter и insightface, а потом намазать сверху все кастомноды.
Ну и заодно выпиздил все крупные модели в папку common и прокинул симлинки, чтобы в случае ахтунга просто их заново прокинуть.

Есть подозрение, что конфликт непосредственно с обновлённым комфи или питоном был.
Аноним 05/02/24 Пнд 08:10:09 #468 №635538 
уже февраль 2024, ну и где 1.6
Аноним 05/02/24 Пнд 09:30:13 #469 №635574 
>>635538
што?
Аноним 05/02/24 Пнд 11:01:59 #470 №635641 
Кто-нибудь пользовался контролнетом outfitToOutfit? Я уже второй раз пытался разобраться, и понял, что он лучше работает в инпеинте (даже с заездом на лицо и подобное), и он ультра чувствителен к промпту. Буквально удаляешь из негативного промпта одно слово без изменения смысла, и он уже тупа не работает

То есть работает очень не стабильно, но если работает, то прям конкретно заменяет или убирает одежду, оставляя все элементы +- как они есть в оригинале. Может как-то можно стабильности добиться, на цивите в комментах пишут что даже в video2video у них работает
Аноним 05/02/24 Пнд 11:11:28 #471 №635656 
https://github.com/NVIDIA/Stable-Diffusion-WebUI-TensorRT
Аноним 05/02/24 Пнд 14:38:43 #472 №635787 
>>635523
Да у меня тоже мп, чот не найду где там макросы делать.
А так удобный да, юзаю для дедупа, кропа, конверта, ренейма.
Хуле никто не сделоет мне нормальный единый графический
Заебали, в одном одного нет, в другом другого
Аноним 05/02/24 Пнд 15:01:57 #473 №635800 
>>635574
релиз стаблдифужена 1.6
Аноним 05/02/24 Пнд 19:09:19 #474 №636105 
image
>>635425
>и даунскейл до нужного
Да блин нет там. Читай выше.
>>635443
>все равно возить картинку мышкой.
>Напиши лутше батник
Это надо открывать проводник. В него тянуть. Мне кажется не удобно, но спасибо.
>>635462
>есть у меня XnView
Это еще хуже. Сохранять кртинку. Открывать редактор. Потом еще раз сохранять.
----------------
Вот что я имел в виду gif(на второй вкладке представим что там не 2х, а 0.5х). Сейчас подумал. А можно же такое сделать на джава-скрипте? Типа локальную страничку в браузере. Без градио.
Аноним 06/02/24 Втр 03:32:50 #475 №636452 
>>636105
>В него тянуть
А, я думал оно у тебя куда-то сохраняет по дефолту. Если нет, то да, удобно не будет. В автоматике например можно сохранять все генерации в указанную папку, и пикчи просто появляются в xnview уже выделенными. Там забиндены на альт-1-2-3... всякие действия типа апскейла и пр. Появилось - сразу жмешь. В окно пикч самого автоматика я вообще особо не смотрю, разве что прервать заранее, если на превью очевидная херня.
>А можно же такое сделать на джава-скрипте? Типа локальную страничку в браузере.
Можно найти где у фокуса лежит фронтенд и в него программно добавить кнопку, которая по клику найдет в document нужный элемент с пикчей, положит ее данные в canvas, поресайзит его и выплюнет куда-то как img+dataurl. Либо в отдельный всплывающий див, либо сразу в дроп-таргет ручным событием. Если есть дохера времени и не боишься заныривать, нет преград.
https://github.com/lllyasviel/Fooocus/blob/main/javascript/
Начинать видимо тут.

Алсо, имей ввиду, что нейропухтонщики обожают в update.bat засовывать git reset --hard, так что при обновлении все твои правки улетят в пизду. Выноси бакапы за пределы папки.
Аноним 06/02/24 Втр 03:44:17 #476 №636458 
>>636105
Еще есть варик поднатореть в ahk и автоматизировать сами шевеления мышкой/етц. Наркомания пиздец, и язык там делал ебучий мухоморщик, но по итогу часто проще, чем все это внутри ковырять, реальный опыт.
Аноним 06/02/24 Втр 03:55:55 #477 №636463 
image.png
https://github.com/lllyasviel/Fooocus/blob/1bcbd6501bb3e5db5674a18a8a8074034cda318b/entry_with_update.py#L37
Короче отбой, об ин-пейдж яваскрипте можешь не мечтать, да и об ин-прожект градио правках тоже
Аноним 06/02/24 Втр 04:08:51 #478 №636468 
image
>>636452
Я делал проще. Изменял в бакенде кнопку 1.5х на 0.5х. Но проблема в том, что потом Fooocus не обновляется. Надо как-то самому разруливать эти гит пулы, мёрджи и вот это вот всё.
Аноним 06/02/24 Втр 04:28:06 #479 №636472 
>>636452
>на джава-скрипте
Я имел в виду что-то отдельное офлайн html++js страничка. Вот нашел пример https://pencilsketch.imageonline.co/ правда там нет масштабирования. Да, наверно так будет лучше всего.
Аноним 06/02/24 Втр 06:23:09 #480 №636490 
>>636105
>Сохранять кртинку
она автоматически сохраняется на диск в temp
>открывать редактор, потом ещё раз сохранять
не закрываешь редактор, выделил всё, пакетная обработка, выбрал макрос, всё.
Макрос сам сохраняет картинки, куда укажешь.
Ты будто никогда не работал с файлами массово.
Аноним 06/02/24 Втр 06:24:18 #481 №636491 
>>636468
>>636463
вы нашли что дрючить. Фокус для простых васьков с завода, он не подразумевает кастом. Хотите кастома — идите в комфи
Аноним 06/02/24 Втр 06:26:26 #482 №636492 
поясните за sdxl, что-то в сети невнятное.

1. clip_l и clip_g нахуя выдумано?
2. чем турбомодели отличаются
3. снизить потребление памяти можно? а то у меня в потолок 12Гб уже чуть ли не долбится.
хз почему так, ведь модель 6Г ест.
Аноним 06/02/24 Втр 07:06:42 #483 №636496 
>>636468
git reset origin/master --hard
Аноним 06/02/24 Втр 07:10:58 #484 №636497 
>>636490
> пакетная обработка
Ясно, ты не читал вообще зачем это надо. Надо:
1. Апскейл в Fooocus в 2х одного файла - этим повышается детализация, улучшаются все лица в картинке и т.п.
2. Довнскейл 0.5х в исходное разрешение
3. Goto 1 пока результат не устроит
Аноним 06/02/24 Втр 07:59:26 #485 №636503 
>>636497
Ты же в курсе что при шаге 1 в твоем пункте картинка увеличивается до попадания в sdxl? Ты сначала делаешь 0.5х, затем 2х, чем просто подшакаливаешь изображение

Просто картинку повторно пусти в img2img. В sd-webui есть для этого скрипт loopback
Аноним 06/02/24 Втр 08:24:06 #486 №636508 
>>636503
>Ты же в курсе
Я хотел облегчить и упростить, то что я уже делаю сейчас через сохранение и уменьшение в редакторе и т.д. То есть это практически рабочий метод. Не надо теории. Всё уже получается шикарно. По сути многократный хайрезфикс. А хайрезфикс всегда хорошо. Кроме растущего разрешения картинки.
И да: речь не об автоматике или комфи.
Аноним 06/02/24 Втр 09:11:00 #487 №636526 
Видели вот эту вещь?
https://github.com/lllyasviel/stable-diffusion-webui-forge

Как я понял, это совсем новый ui, полностью совместимый с расширениями для автоматика
Аноним 06/02/24 Втр 09:11:44 #488 №636528 
>>636508
А нахуя ты это делаешь? Используй этот хайрез не с 2х, а с 1х, и увеличиваться не будет
Аноним 06/02/24 Втр 11:47:27 #489 №636551 
>>636526
Этот шизоид уже не знает какого бы говна ещё сделать. Сдохнет так же как и sd-next, ибо пердольное говно. Про совместимость с автоматиком пиздит конечно. Я чекнул и сходу вижу что Neg-PiP и супермерджер не работают.
Аноним 06/02/24 Втр 12:50:40 #490 №636568 
>>636497 >>636508
Ты какую-то хуйню выдумал нелепую.
Чтобы улучшать лица есть фэйсрефайнер, который сам вырезает-апскейлит-даунскейлит
Чтобы деталей нагнать есть лоры всякие и грамотный подбор промпта, шагов и cfg
Аноним 06/02/24 Втр 13:09:53 #491 №636580 
image.png
Антуаны, поясните.
Вот есть у меня адаптер стиля.
Можно каким-то образом ослабить его действие?
Пробовал и аверэйдж кондишн и таймстеп, нихуя на него не действует чё-то.
Даже совал батчем картинки, включая исходную, чтобы смешать стиль с основным. Тоже не особо помогает.

Или нахуй это всё и юзать лору?
Аноним 06/02/24 Втр 13:50:45 #492 №636605 DELETED
>>636580
> комфипараша
> ищет функционал
Чел, зачем очевидные вещи спрашиваешь? Не можешь сам напердолить что-то в этот говне - идёшь нахуй.
Аноним 06/02/24 Втр 14:51:25 #493 №636670 
>>636580
Попробуй concat conditioning. В inspire pack даже вариант с весом есть вроде.
Аноним 06/02/24 Втр 15:01:59 #494 №636687 
image
>>636526
>Видели вот эту вещь?
Спасибо анон. Потестил. На 1.5 примерно одинаково, а на ХЛ этот быстрее на 16% автомитика. Автоматик почему-то в конце больше лезет в озу цп.
На скрине хайрезфикс 1024х1024 х2.
Аноним 06/02/24 Втр 16:01:33 #495 №636756 
>>636491
На практике такие штуки, как комфи, рождаются, чтобы решать проблему, которой они позже сами же и становятся. Убить дракона, вот это все. Но поскольку юзеры растут внутри нее, им она проблемой не кажется. Это такой гровтх хак. Ни хорошо, ни плохо, но с нуля вкатываться ради одной механики - тот же хуй, только в другой руке. Я для себя предпочитаю простые систем-левел нашлепки, чем залочиваться в рамки чего-то, потому что опыт никуда не денется при смене обстановки или области. С годами понял, насколько это охуенно, когда он просто есть, переносится и не устаревает.
Аноним 06/02/24 Втр 16:04:59 #496 №636763 
>>636687
Дая у него какой-то странный менеджмент памяти. У меня 12 гб medvram-sdxl стоит только для уверенных контролнетов, хайрезов и т.п. Но по графику илюхоматик использует medvram, хотя мог бы смело лезть в fullvram для простой генерации 1024х1024

При включении fp8 потребление поднялось, всетаки вылез в fullvram

Это конечно, хорошо. Но если мне память нужна для чего-то другого, а он сам решает сколько жрать? Сомнительно в общем
Аноним 06/02/24 Втр 16:20:19 #497 №636782 
>>636687
Включи сжатие vae. Будут лица разъёбанные в щщи, но со сжатием и fp8 я гонял XL где-то 8-9 гигах vram. Выше расход не поднимался.
Аноним 06/02/24 Втр 16:36:54 #498 №636800 
image
>>636687
А это апскейл в Fooocus тоже 1024х1024 х2. Выброса в озу цп нет вообще. 38 секунд генерация + 150 сам апскейл. Как так - х.з. Я бы комфи показал, но как там сделать тот же апскейл не знаю.
Аноним 06/02/24 Втр 18:29:32 #499 №636901 
>>636800
Блять, этот шиз на полном серьезе даунскейлит, а затем апскейлит по сотням секунд, вместо того, чтобы поставить сд апскейл 1х или как он там в фокусе называется - результат будет чуть лучше, и без сотен секунд мусорной работы
Аноним 06/02/24 Втр 22:35:26 #500 №637090 
>>636670
Вроде все перепробовал, и бленд и комбайн и конкат, ебошит стиль поверх всего оч жёстко. Буду ковырять ещё
>>636756
Ради одной механики не стоит с нуля, но можно спиздить готовый пайплайн и не думая запускать.
Я тут на днях говорю челу с цивитая:
— Ты почто все ноды слепил и запинил? выглядит как говно, неудобно.
— А их и не надо двигать.
Ну и ниже пишут челики «вай как круто и удобно».

Выглядит это пикрил. Всё в кучу, что к чему подключено хуй разберёшь и сопли на верх.
А кому-то проблемой не кажется.


>>636901
а как работает апскейл х1?
Разве это не просто добавление шума и перегенерация?
Аноним 06/02/24 Втр 23:41:17 #501 №637149 
>>636800
> 150 сам апскейл
Шо? Какой-то инвалидный lsdr?
>>636901
> результат будет чуть лучше
Там суть не в апскейле-даунскейле, а в том что обработка диффузией в повышенном разрешении добавляет деталей. Оставить как есть, продолжить увеличивать, или даунскейлить и повторять этот процесс - вопрос отдельный.
>>637090
> Разве это не просто добавление шума и перегенерация?
Именно, энкодинг в латентное пространство и процесс диффузии с заданной интенсивностью и последующим декодингом обратно.
Аноним 07/02/24 Срд 01:42:30 #502 №637199 
>>637149
> а в том что обработка диффузией в повышенном разрешении
А кто тебе мешает в повышенном разрешении на 1х прогонять? Ты просто не даунскель

>>637090
> а как работает апскейл х1?
Так же, как и при других икс, только без масштабирования

Ну и даунская херня. Как человек с таким магическим мышлением по отношению к сд апскейлу можно вообще писать в технотред
Аноним 07/02/24 Срд 01:50:01 #503 №637203 
>>637199
> в повышенном разрешении
> на 1х прогонять
Речь не о повышенном размере тайла, а об обработке пикчи большего размера, будь то одним тайлом, или ее более укрупненных кусков несколькими тайлами. И даунскейлить потом не обязательно, перечитай пост на который отвечаешь.
> к сд апскейлу
Сам придумал@сам подорвался. Там братишки повышают детализацию достаточно старым и простым способом, а ты бомбишь.
Аноним 07/02/24 Срд 03:26:29 #504 №637256 
К слову про апскейл.

Сколько раз ни пробовал тайлед — у меня стабильно видны границы между тайлами, чуть отличающиеся по тону. Это вообще ликвидируется как-то (кроме рефайна границы на полтайла и ещё так же по круну) или пошло оно всё нахуй и нужно брать модели х4 и х8 сразу и не ебать мозги?
Аноним 07/02/24 Срд 04:20:17 #505 №637276 
>>637256
> Это вообще ликвидируется как-то
Если отличия именно по тону - увеличивай оверлап при генерации (вплоть до максимально возможного), увеличивай область смешивания, используй контролнет. Если же на стыках госты и наслаивания - наоборот уменьшай маску.
> нужно брать модели х4 и х8 сразу
Вут?
Алсо эта ерунда может быть если используешь низкое разрешение тайла, от 1к на современных 1.5 и выже для XL.
Аноним 07/02/24 Срд 11:17:34 #506 №637335 
>>637276
Ну есть конкретно модели nmkd x4 и x8, сразу хуярят без всяких тайлов. Но такое разрешение потом не посэмплировать почище.

>низкое разрешение
использовал дефолтные 512 для сд1.5

Ну да, я догадывался, что перекрытие надо увеличивать, но это сильно затягивает время рендера. Ну да ладно, ради годноты какой можно подождать.

Ок, попробую ещё повозиться.
Аноним 07/02/24 Срд 11:52:29 #507 №637349 
>>637335
>использовал дефолтные 512 для сд1.5
Как там в каменном веке 2022 году?
Аноним 07/02/24 Срд 13:29:40 #508 №637398 
>>637335
> Ну есть конкретно модели nmkd x4 и x8, сразу хуярят без всяких тайлов.
Ну это типичный ган апскейл, в автоматике для нужной кратности оно потом даунскейлится до получения нужного целевого разрешения, и уже на нем идет обработка диффузией.
> использовал дефолтные 512 для сд1.5
Вот, проблема обозначена, для тайлового апскейла дефолты другие были еще давно, для современных 1.5 даже для генерации сейчас это мало.
> но это сильно затягивает время рендера
С 512 - да. С 1024 увеличение с 64 до 128 - незначительно.
Аноним 07/02/24 Срд 14:49:31 #509 №637420 
>>637349
>>637398
понял, спасибо.

Я как раз в 22м бросил, а ща вкатился, да и в ноде по дефолту 512 стояло.
Аноним 07/02/24 Срд 16:08:14 #510 №637466 
>>637199
Щас бы называть субъективное экспериментальное магическим мышлением. Это термин из точных маломерных областей, от которых генеративная херь настолько далеко, насколько еще ничего наверное не было в истории технологий.
Аноним 07/02/24 Срд 16:51:25 #511 №637502 
Намерен прошариться в регуляризациях для лор. Поясните еще раз, что они делают.
1. Первое, что я понял, это предотвращение класс дрифта, т.е. тот факт, что в кепшенах будет "a huy v sapogah", не будет делать остальные "huys in background" похожими на целевой объект/концепцию.
2. Второе, что я вроде бы понял, это то что в самой лоре, в имени `img/5_sapogi huy` после пробела указывается базовый класс "о чем речь".
Так ли это? На что влияет?
3. В пнг инфо видно, что стандартные регуляризации это просто результаты базовой модели с промтом равным имени класса + ддим, кфг 7.
Можно ли делать классы дву/много- словными? Как тогда называть папку, `img/5_sapogi huy v palto`? Как вообще воспринимается текст после пробела? Как промт, как отдельные слова?
Алсо, даже в обычном случае, зачем нужен этот суффикс в img, если в `reg/1_huy` и так есть это слово?

Без обид всем, но хотелось бы инфу от конкретно знающих или практиков-экспериментаторов. Балабольство из туториалов всё уже прочитано, и доверия к нему немного, т.к. их клеймы я проверял, и они не бились с реальностью. Например, что нельзя апскейлить датасет, что кропать плохо, что тренить на генерациях смертный грех, что регуляризации это пережиток -- на поверку все это категоричный булщит.
Так что просьба не пересказывать слепые догмы, т.к. я не могу различить, кто проверил, а кто поверил. Зрячие догмы приветсвуются. Я их энивей проверю, но хочу начать с чего-то очевидного или наоборот.
Аноним 07/02/24 Срд 16:52:18 #512 №637504 
Речь об 1.5 если что
Аноним 07/02/24 Срд 17:36:20 #513 №637583 
>>637502
> в регуляризациях
Чего добиться хочешь?
Практика показала что если капшнинг хороший - можно немного разбавить датасет чем-то нейтральным, что частично повторяет особенности тренируемого (тоже вангерл, похожая одежда и т.п.) но отсутствует ключевая тренируемая фича, и она же не указана в капшнах. Позволяет точнее разделять концепты и снизить импакт от хуевости датасета. Т.е. "регуляризировать" пихая в основной пулл а не в регуляризации, требования к качеству картинок там аналогично высокие, а не "всратая генерация с минимальным промтом".
Если на 1.5 и тренировать стиль, то с подобным осторожнее нужно быть, ее текстовый энкодер сильно слабее и такое может снизить усвояемость.
С регами сколько не пробовал - или эффект не заметен, или херь. Если поведаешь как ими можно что-то улучшить - велкам.

> что нельзя апскейлить датасет, что кропать плохо, что тренить на генерациях смертный грех, что регуляризации это пережиток
Дьявол как всегда в деталях
Аноним 07/02/24 Срд 18:48:27 #514 №637679 
>>637583
>Чего добиться хочешь?
Чуйки. Обзорное исследование, оценка влияния при неизменных датасетах и капшенах. У меня набралось лор, и я стал хорошо знаком с ними и их комбинациями, теперь смогу более-менее понимать разницу.
>Если поведаешь как ими можно что-то улучшить - велкам
Да, отпишу позже, что усвоил. Если лень не будет, сделаю репу с плотами.
На текущий момент пробовал только с/без регов, а также их количество. Когда "с" - юзал стандартные woman, реже sexy_woman, supermodel, для области жопоног, но тут без задней мысли. Без регов woman лица всегда выходили не те, что надо, с ними лучше. Количество странно влияло, опытным путем как-то пришел к (пикчи х 6). Это все мутный стихийный опыт, собираюсь его ломать и смотреть прям детально. Кепшенинг у меня тоже эволюционировал во времени, поэтому оценивать результаты по памяти сложно.
>"регуляризировать" пихая в основной пулл
Попробую так тоже, сравню, спс
Аноним 08/02/24 Чтв 00:14:03 #515 №637919 
>>636492
бамп вопросу
Аноним 08/02/24 Чтв 02:28:00 #516 №637975 
>>636492
По мне так хуйня без задач этот сдхл. Пикчи borderline uncanny. Жрет как не в себя, и врам, и место, и время. Лоры наверное вообще помрешь пока натренятся. Единственный плюс, что композиция поточнее, но в остальном трейдофф так себе.
>в потолок 12Гб уже чуть ли не долбится
Да явно долбится, на вае-этапе специфичная пауза и картина ресурс-мониторинга такие же, как если разрешение задрать туда, где в 1.5 хайрес фиксу памяти не хватило. Только в сдхл так происходит в каждой пикче.
Аноним 08/02/24 Чтв 02:58:04 #517 №637982 
>>636492
> clip_l и clip_g нахуя выдумано?
Изначальная задумка предполагала описание в маленьком энкодере стиля, в большом всего остального, до сих пор имеем что их даже раздельно нормально тренить не получается
> чем турбомодели отличаются
Быстрое семплирование за несколько шагов в обмен на качество
> снизить потребление памяти можно?
Пробуй оптимизации, самая важная фп8 режим, с ним могут быть проблемы при использовании нескольких лор
Аноним 08/02/24 Чтв 04:16:32 #518 №638009 
>>637982
Благодарю.
А то на реддите какие-то домыслы уровня «я пробовал пилить позитив на куски, совать в оба поля, дублировать и как-то что-то примерно не очень понятно»

>быстрое
Понял, аля LCM.

>фп8
знаю про понижение точности но не знал про лоры, спасибо.
Аноним 08/02/24 Чтв 13:02:15 #519 №638119 
Кде перекат?
Аноним 08/02/24 Чтв 15:18:19 #520 №638182 
>>637679
> Когда "с" - юзал стандартные woman, реже sexy_woman, supermodel
Это про капшны для них, или какие-то "стандартные наборы"?
> ез регов woman лица всегда выходили не те, что надо, с ними лучше.
Каков был состав датасета и как были описаны пикчи с лицами? Хотябы примерно.
Аноним 08/02/24 Чтв 16:05:27 #521 №638213 
>>638182
Это про папки с пикчами регов вот отсюда:
https://huggingface.co/datasets/ProGamerGov/StableDiffusion-v1-5-Regularization-Images
Встречал эту ссылку не в одном туториале по лорам. Хз насколько оно "стандартное", честно говоря.
>Каков был состав датасета и как были описаны пикчи с лицами? Хотябы примерно.
С/без регов пробовал как с кропами, так и с оригиналами. Кепшены из блипа выходили примерно такие:
a woman with brown hair and a red sweater looking at her phone
Я фиксил пиздеж, и от себя добавлял что-то вроде touching her hair, outdoors, trees with leaves, in a bathroom, beige walls, blurry background, furniture to the right, в таком духе (алсо см.сноску). Но без избытка, 2-4 запятых итого, не считая кейворда. Для кропов недавно стал добавлять close up - вроде чутка помогает.
Раньше мало правил кепшены, позже стал править больше, т.к. написал удобные скрипты. Опыт с с/без регов есть и в прошлом, где кепшены хуевые, и сейчас, где они неплохие кмк.

* Обычно я описываю то, что по моему мнению не является объектом тренинга. Но честно говоря это как-то конфликтует с "a woman with a long hair and a red sweater". Чо мне, не воман что-ли нужен? Или мне теперь всегда прописывать woman в промт? Я например girl/1girl пишу, т.к. woman их местами старит/жирнит, а я чот не по толстым старухам. Вот такие вопросы я и собираюсь расковырять.
Аноним 08/02/24 Чтв 16:11:13 #522 №638216 
>>638213
> https://huggingface.co/datasets/ProGamerGov/StableDiffusion-v1-5-Regularization-Images
Учитывая что они 512 - лучше отправить на свалку истории.
С капшнами вроде все делаешь правильно.
> написал удобные скрипты
Что за скрипты?
> Обычно я описываю то, что по моему мнению не является объектом тренинга
А то что является игнорируешь?
> Или мне теперь всегда прописывать woman в промт
Пропишешь всегда вумэн и оно сместит выдачу по этому тегу в сторону твоего датасета, если грубо и упрощенно описывать.
Аноним 08/02/24 Чтв 16:25:51 #523 №638225 
>>638216
>Что за скрипты?
Один запускает блип в текущей папке, потом собирает все в один файл вида:
```cap.tmp.txt
0001.txt::a woman with foo bar
0002.txt::a woman posing in baz
```
Слева xnview, справа файл. Потом как закончил, второй обратно его разделяет по отдельным файлам.
>А то что является игнорируешь?
В целом да.
Аноним OP 08/02/24 Чтв 23:04:27 #524 №638493 
Есть предложения по правкам для шаблона шапки? Хочу завтра днём перекатить.

>>570494
Может кто подтвердить, по будке это актуальная инфа? 1.5 можно тренить начиная с 16 GB VRAM, а XL начиная с 20 GB VRAM?
Аноним 09/02/24 Птн 00:18:04 #525 №638534 
15996020615971.jpg
А че, разве нельзя две лоры в одну соединить?
Аноним 09/02/24 Птн 00:34:17 #526 №638546 
>>570494
Ты про dreambooth-lora или полноценный файнтюн?
>>638493
TLDR: Можно тренить лору на сдохлю и в 8 гигах. Качественный результат и адекватная скорость в сделку не входят.
Нормальный файнтюн XL недоступен обывателю, так что стоит ожидать повышенного наплыва лор и чекпоинтов, где живых нейтронов и половины не наберется.
Тренировка ниже 20 гигов достигается за счет градиент-чекпоинтинга, ниже 12 - треш типа загрузки базовой модели в 8 битах. Как это повлияет на выход - хз.
Чекпоинтинг позволяет легко бустануть батчсайз без сильного роста жора памяти и необходимости в аккумуляции, но снижает скорость тренировки.

Потребление памяти в гб:
> дримбус с тренировкой всех слоев
обычный запуск: бс1 38.5, бс2 44.0
градиент чекпоинтинг: бс1 34.4, бс2 35.2, бс8 40.5
> лора дим 32
обычный запуск: бс1 17.4, бс4 47.7
обычный + фуллбф16: бс1 16.7
градиент чекпоинтинг: бс1 9.4, бс2 13.1
фулл бф16 + чекпоинтинг: бс1 9.1
fp8base + чекпоинтинг: бс1 6.4
> лора дим 128
обычный запуск: бс1 20.5, бс3 41.7
обычный + фуллбф16: бс1 18.3, бс4 47.8
градиент чекпоинтинг: бс1 12
фулл бф16 + чекпоинтинг: бс1 10.3, бс4 15.0
fp8base + чекпоинтинг: бс1 9.9
> ликорис дим64+32
обычный запуск: бс1 18.6, бс2 30.4
градиент чекпоинтинг: бс1 10.6
фулл бф16 + чекпоинтинг: бс1 9.7
fp8base + чекпоинтинг: бс1 7.2

Хочешь не 8битный оптимайзер, аккумуляцию градиента или что-то еще - добавить еще несколько гигов к потреблению.
Аноним 09/02/24 Птн 00:37:27 #527 №638549 
>>638546
> Как это повлияет на выход - хз.
Стоит читать как
> Насколько сильно всрет

Алсо все значения - только потребление пихона, если делается на шинде с ускоряемым браузером, ютубчиком, парой мониторов и т.д. - можно гиг-два еще накидывать.
Аноним 09/02/24 Птн 01:40:20 #528 №638571 
Аноны, я натренил лору и она при весе 1.0 несколько пережареная, но при весе 0.8 выглядит идеально. На меньших эпохах то же самое. Нужно снижать количество повторов (их 4 сейчас) или крутить нетворк альфу?
Аноним 09/02/24 Птн 02:04:23 #529 №638585 
>>638571
Просто юзай ее с весом 0.8. Причин пережарки может быть множества и одна из основных - датасет. Если других побочек нет то просто забей.
Аноним 09/02/24 Птн 02:15:48 #530 №638587 
>>638546
Ого, серьёзный подход, спасибо.

Мда, жозенький гейткип по железу для тренировки полноценных XL-чекпоинтов выходит. Получается, для полноценного запуска будки для XL нужна пара видеокарт топа потребительского сегмента (34-39 GB VRAM для бс1). Без них только лоры/ликорисы тренить остаётся.
Аноним 09/02/24 Птн 02:36:47 #531 №638596 
>>638587
> нужна пара видеокарт топа потребительского сегмента
Если расскажешь как можно объединить врам двух десктопных карт для использования в скриптах кохи (не в голом диффузерсе) - буду очень благодарен.
Аноним 09/02/24 Птн 02:45:06 #532 №638598 
Подскажите как тренить Лору, если у меня только 37 картинок перса:(
Аноним 09/02/24 Птн 02:57:18 #533 №638601 
>>638598
Этого вполне достаточно. Я тренил лоры и с 15 картинками и заебись получилось.
Аноним 09/02/24 Птн 10:43:00 #534 №638707 
>>638534
Бамп.
Аноним 09/02/24 Птн 14:03:35 #535 №638805 
>>638534
Можно, в редких случаях оно действительно объединится, в большинстве просто поломается.
Аноним 09/02/24 Птн 14:16:06 #536 №638820 
>>638601
Окей, а какие параметры надо ставить?
Я ставлю lr 0,0001 по один повтор и 10 эпох но она явно не готова:(
Аноним 09/02/24 Птн 14:52:57 #537 №638853 
>>638820
37 картинок по 1 повтору и 10 эпох = 370 шагов. Она точно не будет готова.
Для обучения лоры на перса нужно 1500-2000 шагов. Поставь хотя бы 5 повторов.
Аноним 09/02/24 Птн 15:04:53 #538 №638865 
>>638853
Окей, попробую.
А что лучше крутить, эпохи или шаги?
Аноним 09/02/24 Птн 17:22:13 #539 №638951 
>>638571
Лорам с цивика 1.0 часто тоже дохера. Особенно если лора в пикче не одна, они воевать начинают. Это норма, попробуй комбинации типа <лора:0.8> (кейворд:1.2).
Если это первая лора, то еще лучше убедиться, что это именно лернинг пережарка, а не задранные дим/альфа например.
Или поиграться с параметрами - лр, шедулер. Ну или взять адаптивный оптимизер, может понравиться.
>>638585
>Причин пережарки может быть множества и одна из основных - датасет
По какому критерию?
Аноним 09/02/24 Птн 17:52:20 #540 №638963 
>>638865
Тоже интересно, но лично у меня такое чувство, что никто толком не знает. Вот этот https://rentry.org/59xed3#number-of-stepsepochs в начале пишет что репиты теперь чутка переоценены, а в #-секции пишет что репиты чутка лучше эпох, и эпох якобы надо немного, и то только чтобы если вдруг пережарил, то можно было взять предыдущую и не начинать заново.
Туториалы от индусов вообще без задней мысли советуют какие-то догмы по методичке. Сколько читал, ни разу не видел внятного объяснения различия например 10-ти эпох по 5 репитов против 50-ти эпох по одному репиту.
>у меня только 37 картинок перса
Депендс, натренишь увидишь. У меня иногда бывало, что из 30-50 выкинуть 10-20 пикч которые "не в тему" давало даже лучший результат, чем просто все что есть. А так в целом цифра неплохая.
Аноним 09/02/24 Птн 18:10:57 #541 №638980 
>>638963
> Сколько читал, ни разу не видел внятного объяснения различия например 10-ти эпох по 5 репитов против 50-ти эпох по одному репиту.
Тоже искал инфу по этому поводу. По идее разницы вообще не должно быть. Количество эпох удобно только количеством сохраненных промежуточных результатов.
На качество лоры (не беря во внимание другие параметры/качество датасета) влияет только общее число шагов и количество повторов каждого изображения в рамках одного обучения (в случае 5 повторов по 10 эпох и 50 повторов с одной эпохой эти числа одинаковые).
Аноним 09/02/24 Птн 18:18:25 #542 №638984 
>>638571
>>638951
Снизил количество эпох до 16 (до этого было 20, косинусный планировщик, оптимизатор prodigy) и поставил альфу равную половине дима (до этого была 1) и всё заебись стало.
Аноним 09/02/24 Птн 19:03:54 #543 №638998 
>>638980
Тоже так думаю, но меня смущает существенная пауза между эпохами. Она долговата для просто скидывания на диск, хотя возможно там какой-то процесс, который рабочее представление лоры в враме выводит в он-диск веса, и он нетривиальный. Плюс для сохранения не каждой эпохи есть параметр, что антинамекает.
Муть короче. Всегда так лень тестить то, что скорее всего правда...
>>638984
Мой опыт для лиц таков, что низкая альфа даже не напоминает чара. А когда только общая геометрия важна, типа поз, объектов, то наоборот с альфа 1 лучше выходит. По ощущениям, альфа как бы тянет пикчу конкретнее в датасет.
>prodigy
Чо как он вообще по сравнению с адамом?
Аноним 09/02/24 Птн 19:20:06 #544 №639009 
>>638820
Лр имеет мало смысла без указания оптимайзера и альфы. Эпохи ни о чем не говорят без количества повторов (и батчсайза хоть в меньшей степени).
>>638951
> По какому критерию?
Много их, хреновое содержимое, однообразие в чем-то помимо тренируемого, капшнинг если в общем.
>>638963
> что никто толком не знает
Не то чтобы там много нужно знать. Раз в эпоху идет сохранение результата (если не задано иное), перемешивание капшнов (поправьте если не так), порядок прохода датасета с несколькими папками (раньше по очереди каждая прогонялась число повторов и только потом шел переход к следующей, если одна то не актуально).
> 10-ти эпох по 5 репитов против 50-ти эпох по одному репиту
Если дефолтные настройки и обычнолора без каких-то нюансов - получишь 50 файлов вместо 10, вот и все. Ну и где 50 эпох будет трениться дольше из-за перерывов на сохранения. Результаты будут чуть ли не идентичными в пределах рандома на одинаковом числе шагов, специально сравнивалось, так что стоит выбирать исключительно из удобства оценки. Получить меньше-больше файлов можно приказав сохранять каждые N эпох, или наоборот каждые N шагов.
Так что похуй, ставь 6-8-10 эпох, повторами подгоняй до нужного числа и инджой. Или наоборот выставляй космическое количество эпох, а потом выискивай какая из десятков плацебо покажется лучше.

Нюанс с батчсайзом и аккумуляцией градиента, не нужно увеличивать число шагов пропорционально им. Если стоит 2-3 то вообще не трогай, если 5+ то можешь процентов на 20-30 увеличить.
Аноним 09/02/24 Птн 19:22:36 #545 №639012 
>>638998
> но меня смущает существенная пауза между эпохами
--persistent_data_loader_workers
> для лиц
Анимублядские лица и все черты с альфой 1 запоминает превосходно, бонусом не тащит лишнего. Скорее всего дело не в 2д-3д а в том что учишь на клозапах вместо более общих планах, потому и нужен больший вес.
А лр крутить то пробовал?
Аноним 09/02/24 Птн 20:44:58 #546 №639041 
>>639009
Альфа 1, Адам оптимайзер
Аноним 09/02/24 Птн 20:54:26 #547 №639045 
>>639041
Для альфы 1 и адама это низкий лр, начать стоит хотябы с 5e-4. Так, приличные лоры на адаме получались даже с 3e-3 на альфе 1 или 1..2e-3 на альфе 8, но это с бс побольше на 1.5.
ПЕРЕКАТ Аноним OP 09/02/24 Птн 21:10:19 #548 №639062 
>>639060 (OP)
>>639060 (OP)
>>639060 (OP)
comments powered by Disqus

Отзывы и предложения