Сохранен 539
https://2ch.hk/ai/res/198503.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Stable Diffusion технотред #9 /tech/

 Аноним 02/04/23 Вск 00:59:24 #1 №198503 
.png
.png
.png
.png
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>155386 (OP)

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)

Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA

Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)

Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale

Оптимизации для современных ПК:
https://rentry.org/sd_performance - мастхев для владельцев 40XX поколения; для 20XX-30XX прирост производительности менее существенен

GUI для тренировки лор от анона: https://github.com/anon-1337/LoRA-train-GUI
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8

Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
№8 https://arhivach.top/thread/873010/
Аноним 02/04/23 Вск 01:21:50 #2 №198524 
Аноны на каких моделях тренить фотореалистики? Пробовал СД15, но вроде как на реалистик вижн бодрее получается. Может есть какие то скрытые гемы?
Аноним 02/04/23 Вск 03:38:07 #3 №198648 
https://github.com/ddPn08/Lsmith кто то пытался запустить? Я кое как смог но сконвертить модель не получается. Conv_639: image size is smaller than filter size вот эта ошибка крашит все.
Щас пердолюсь что бы попытатся запустить voltaml
Аноним 02/04/23 Вск 03:46:28 #4 №198653 
>>198524
СД ванила даёт крайне непредсказуемый результат на свежих моделях, я бы даже сказал - их просто распидорашивает адово. Реалистик неплохо отрисовывает своих персонажей, но для тренировки лично мне не зашёл, как-то старит, ебала угловатые получаются и морщин много. Сижу-пержу на делиберате в2, показался мне оптимальным вариантом, с него лоры хоть в реалистик, хоть в любой модный аналоговнет или нейрогон заходят, но по неизвестной мне причине не на оборот.
Аноним 02/04/23 Вск 07:39:01 #5 №198739 
>>198503 (OP)

Ребята, а почему коха лора колаб по завершению обучения, вместо моего запроса выдаёт какую-то хуйню? Какие-то пейзажи, часы, хуй пойми что, только не то что я ему указываю, хотя я и указывал в текстовых файлах то как оно должно называться. Я как только не пробовал, а всё равно хуйня. Скажите пожалуйста как правильно делать?

Были какие -то картинки с 2д тянкой, я по её инструкции пытался делать, но сразу же обнаружил, что та версия колаба на которую она указывала уже был видоизменён и обновлён, в итоге мне пришлось интуитивно под конец делать по своему и всё равно нихуя не вышло.

Причём оно если и показывает, то на что я его обучал, то в очень видоизменнёном виде, будто этот промт не являлся приоритетным и выдавалось максимум на 1 из 5 генераций сторонней хуйни в виде пейзажей и т.д

Или мне надо было эту лору сохранить и запихнуть уже в другой колаб и в вебуи интерфейсе надо было выбрать лору и уже оттуда установить на текущую модель? Это так рабоатет??? Типо как ДЛС???
Аноним 02/04/23 Вск 07:40:21 #6 №198742 
>>198739

Я как длс пытался, но оно теперь вообще не работает, вообще ничего не генерирует из моего запроса. Может в сайференс надо какой-то сохранять? Просто там в списке конвентируемых моделей нету лоры там только длиффузия, сайферонс скпт и всё.
Аноним 02/04/23 Вск 08:07:22 #7 №198762 
>>198739
Ты в sample_prompt.txt запрос указал?
Аноним 02/04/23 Вск 11:52:58 #8 №199009 
>>198762

Блять, ну оно в кнопке тренинга указано, я посомтрел по дериктории и там ничего не было, я решил создать файл ткст и указал там промт. Потом я нажал кнопку, смотрю, а там уже вместо моего самп промта другой сампл промт и там вообще другие промты. Это из за него у меня нихуя не работает? Сейчас опять тренинг включился, но я думаю опять говно будет.
Аноним 02/04/23 Вск 11:55:37 #9 №199010 
>>199009

Теперь я обнаружил, что указанные там промты находятся на 2-ой строке, тоесть они негативные? И мне надо на 1-ой строчке написать мой промт? Прямо во время обучения? Я прямо сейчас так и сделал, не знаю что выйдет.
Аноним 02/04/23 Вск 11:58:34 #10 №199018 
>>199010

Теперь я обнаружил, что укзанный в самплере промт, так же указан во вкладке сейференс, тоесть мне надо сначало было изменить промт в сейференсе и оно бы на этот запрос и тренировало бы модель?
Аноним 02/04/23 Вск 12:01:28 #11 №199027 
>>199018
Теперь я онбаружил, что во время тренировке оно сначало тренирует тот промт что я указал на 1-ой строчке, а потом тот что во 2-ой, ну в общем буду эексперементировать
Аноним 02/04/23 Вск 13:27:24 #12 №199131 
>>199027
Одна строка - один промпт. Негатив пишется после ключа --neg вроде, там же идут ключи для ширины, высоты, шагов, цфг, сида и прочего.
Если не хочешь, чтобы эта хуйня не переписывала твой промпт, то указываешь отдельный файл и там пишешь.
Аноним 02/04/23 Вск 17:57:01 #13 №199549 
>>199131

Бляяять но это никак не решило моей основной проблемы... Колаб вместо моего промта генерирует полную хуйню, хотя я и указывал в ткст промт
Аноним 03/04/23 Пнд 00:13:05 #14 №200318 
>>199549
Значит, ты что-то не так делаешь.
Аноним 03/04/23 Пнд 00:20:15 #15 №200338 
Ну блджажд, опять тренировку лор по второй ссылке сломали, ну сколько можно.
Аноним 03/04/23 Пнд 01:56:04 #16 №200497 
>>200338
Кто в гит умеет, научите, как этот патч применить
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/9191
Аноним 03/04/23 Пнд 02:29:25 #17 №200547 
>>200497
git remote add vladmantic https://github.com/vladmandic/automatic
git fetch vladmantic
git checkout vladmantic/torch

Так попробуй например, должно работать вроде
Аноним 03/04/23 Пнд 03:01:18 #18 №200574 
screenshot.jpg
>>200497
Спасибо, в следующий раз так попробую.
Сделал через gh pr checkout 9191
Аноним 03/04/23 Пнд 07:53:55 #19 №200733 
image.png
Градиентная аккумуляция чёт не работает при тренировке Лоры.
Использовал последнюю версию скрипта кохи.
16 изображений, 6 повторов, batch size (BS) 2.
Второй столбец gradient accumulation (GA) = 1.
Третий GA = 8.
Лора с GA = 48 (В этом случае BS * GA = количество изображений в одной эпохе), которую не включал в этот грид, в принципе не меняет генерацию.
Кто-нибудь использует её вообще? Встречались с таким?
Аноним 03/04/23 Пнд 10:45:29 #20 №200871 
анон подскажи пожалуйста, правильно ли я понял, что если буду на поддерживаемом железе тренировать лоры в bf16 то на какой-нибудь gtx 1070 они работать не будут?
Аноним 03/04/23 Пнд 10:59:30 #21 №200891 
>>200871
Нет, неправильно.
Аноним 03/04/23 Пнд 12:19:29 #22 №200987 
439ea6bc-48fa-43a9-ba39-db04b57ddbf8.jpg
8b46d62b-3004-4172-a71b-0372ebd8b3f1.jpg
00722-1447534819.jpg
00756-1614179037.jpg
Вот вас реально прёт тратить столько времени на этот безликий дженерик аниме-педо-лоли-арт?
На форчке треды по АИ-арту на 95% состоят из одинаковых "субъектов" японской анимации. Меняется только медиум, тип освещения и цвет волос.
Вместо того, чтобы творить гиперреальность, они делают картинки, которые на этих ваших девиантартах уже 10 лет доступны.
Столько мощностей в трубу сливается. Пиздец просто.
Аноним 03/04/23 Пнд 14:28:44 #23 №201174 
resultvoice (1).mp4
Ничего лучше ещё не придумали?
Аноним 03/04/23 Пнд 14:37:46 #24 №201196 
>>200987
>аниме-педо-лоли-арт
зачем нужна гиперреальность без перечисленного?
Аноним 03/04/23 Пнд 14:43:33 #25 №201206 
>>200733
Можешь объяснить что это и как этим правильно пользоваться в параметрах тренировки, ну или хоть направить где почитать? Тоже хочу потестить
Алсо зачем ты тренируешь сиськи?
Аноним 03/04/23 Пнд 16:36:08 #26 №201380 
Анон, а как мне сохранить модели на гугл диск в колабе, чтобы каждый раз не перекачивать? Где есть инструкция?
Аноним 03/04/23 Пнд 17:16:57 #27 №201448 
>>201206
https://towardsdatascience.com/what-is-gradient-accumulation-in-deep-learning-ec034122cfa
https://huggingface.co/docs/transformers/perf_train_gpu_one#gradient-accumulation
Параметр $gradient_accumulation_steps в скрипте
Использовал при тренировке гиперсетей, там писали задавать значение, при котором GA * BS <= количество пикч, при этом BS лучше всего задавать максимально возможный
А вот по лоре чёт нигде не находил чтоб использовали, вот и спрашиваю
Аноним 03/04/23 Пнд 18:04:13 #28 №201540 
>>201380
Берешь, монтируешь гуглдиск и сохраняешь. А вообще модель за секунды скачивается, не вижу никаких проблем с перекачиванием.
Аноним 03/04/23 Пнд 21:14:09 #29 №201899 
Нужен человек умеющий с нейросетками работать и шарящий в трендах тем r34 для коллаба. Сам я nsfw аниматор, но я не люблю рисовать фоны и бывают затупы и не знаю за что конкретно взяться, так как обычно беру на заказ. Будем делать типо этого
https://www.newgrounds.com/art/view/prywinko/professor-garlick-animation
но в моём стиле.
@CursorXP17
Аноним 03/04/23 Пнд 21:20:07 #30 №201913 
>>201899
5$/час или иди нахуй. За бесплатно никто не будет нихуя делать. И судя по описанию ты криворукое хуйло, нахуй ты вообще нужен нам.
Аноним 03/04/23 Пнд 21:23:40 #31 №201927 
>>201913
и сколько ты зарабатываешь?
Аноним 03/04/23 Пнд 21:24:06 #32 №201929 
>>201913
я не за бесплатно лол
Аноним 03/04/23 Пнд 21:38:40 #33 №201960 
>>201899
>но в моём стиле
кидай свои высеры в тред, ща лору обучим
Аноним 03/04/23 Пнд 21:43:52 #34 №201977 
А у СД есть какой-то прогресс? SDXL - какая-то хуйня, 2.1 хуйня, все крутые штуки делают рандомные опен сурсеры. У СД 1.5 есть много фундаментальных проблем, которые решаться только серьезным треннингом на кластере ГПУ, но что-то никто этим не знанимается кажется и есть ощущение что эта модель вскоре очень устареет по сравнению с закрытыми типа Midjourney.
Аноним 03/04/23 Пнд 21:46:01 #35 №201983 
>>201977
>все крутые штуки делают рандомные опен сурсеры
Пример?
покормил нейропост
Аноним 03/04/23 Пнд 21:46:12 #36 №201984 
>>201960
Я анимации делаю, лол.
Аноним 03/04/23 Пнд 21:49:09 #37 №201997 
16645704158673.mp4
>>201984
это не пикабу, тут сайт анимации поддерживает
Аноним 03/04/23 Пнд 21:50:28 #38 №202004 
>>201977
Лоры, чекпоинты, Auto1111, ControlNet, ComfyUI
Аноним 03/04/23 Пнд 22:17:28 #39 №202064 
>>201540
>Как смонтировать гуглдиск, чтобы сохранить модели?
>Берешь, монтируешь гуглдиск и сохраняешь
Отлично, сразу всё ясно! Как бы без тебя справился! А подробнее есть инструкция? У меня пропадают файлы после приостановки колаба
Аноним 03/04/23 Пнд 22:20:04 #40 №202071 
>>201997
https://imgur.com/a/2Qks9lP
Вот пример
Аноним 03/04/23 Пнд 22:29:18 #41 №202096 
>>202071
И люди дрочат на такое? Ноу оффенс, просто на подобные анимации шишка вставала лет 20 назад. Сейчас уже прилично фап контента на блендере выпускают достойного качества.
Аноним 03/04/23 Пнд 22:36:25 #42 №202127 
>>202096
Зато душа есть. Фильтр графики из ps1 накатить и вообще конфетка будет.
Аноним 03/04/23 Пнд 22:38:05 #43 №202130 
>>202096
Ты чего такой агрессивный? Это не 3д, а 2д.
Аноним 03/04/23 Пнд 22:46:53 #44 №202156 
>>202130
Короче, вердикт анонов треда: потренируйся ещё пару лет перед тем как такое людям показывать, и тем более продавать. Не обосрать ради, у тебя картинка выглядит как на MMD модельку накинули хуёвый шейдер, и если к этому фон сгенерировать - вообще ничего не понятно будет.
Аноним 03/04/23 Пнд 22:53:18 #45 №202165 
>>202156
Ты свои работы покажи, умник. Я уже много лет делаю приватные анимации, щас хотел просто упростить себе жизнь через нейронку, чего ты вылез вообще? Я не стараюсь делать реалистик и 3д, этого говна в инете навалом.
Аноним 03/04/23 Пнд 22:55:35 #46 №202176 
>>202127
> Зато душа есть.
Ну хз, очевидно что кволити выше чем у толпы интересных личностей, которые без задней мысли тупо картинки морфят. Но вот насчет души, не сказал бы. Otameshidouga pretty pridot dounyuhen, эх, вот где душа была, такого больше не делают
> Фильтр графики из ps1 накатить и вообще конфетка будет.
С разумной пикселизацией мейби и правда лучше будет.

>>202130
> Ты чего такой агрессивный?
Если бы я был агрессивным то сказал бы что результат хуета и автор безрукий еблан, а так даже "но оффенс написал"
> Это не 3д, а 2д.
Да, и у людей есть выбор.
Аноним 03/04/23 Пнд 23:13:09 #47 №202219 
>>202165
>Ты свои работы покажи, умник.
Не, я же не дурак что-бы свои высеры на двач скидывать.
Просто сообщил что ты можешь лучше.
>Я не стараюсь делать реалистик и 3д
Тогда почему твоя гифка не выглядит как нормальная 2д анимация? Как тут >>201899
Аноним 03/04/23 Пнд 23:20:44 #48 №202230 
>>202165
>>202219
Вообще можем прямо тут эксперимент провести. Тебе только статичный фон нужно сгенерировать?
Аноним 03/04/23 Пнд 23:22:27 #49 №202231 
>>202219
Потому что на самом деле это хуёвая анимация, так как это тупо сделанный меш на готовый арт. То есть персонаж не может например повернуть голову или сделать более сложное движение и тд. Я делаю с нуля и рисунок и тени у меня всё в векторе и я могу хоть покадрово хоть поворот всего тела и прочее. Так же я научился особую систему волос делать, где я могу им настраивать блеск, тени и прочее. То есть это не примитивная анимация.
Аноним 03/04/23 Пнд 23:24:08 #50 №202235 
>>202230
Можно с персом, но я его всё равно заменю своим. Я просто в студии анимации работал, и параллельно делал комишки, поэтому своей "тямы" не хватает.
Аноним 03/04/23 Пнд 23:32:20 #51 №202244 
>>202230
Напиши в телеге
Аноним 03/04/23 Пнд 23:48:43 #52 №202269 
249883667122778996819344962091826870501566n.jpg
2489934561227790368193405438309729709766977n.jpg
2989648641854786738827091383319105107086265n.jpg
16713713265601.jpg
>>198503 (OP)
вопросы нуба.

реально ли обучить на Вареньке (пики) или нужны фотки именно похожие? и что использовать?
лору через коллаб? или встроенную обучалку в автоматик 1111? или это я хуйню несу?
Аноним 03/04/23 Пнд 23:56:53 #53 №202288 
>>202269
Нихуя не понятно, ты можешь изъяснять свои желания понятным для людей языком?
Обучить можно хоть по одной фото.
Аноним 04/04/23 Втр 00:03:45 #54 №202304 
16686071049360.png
>>202288
есть пикрил. хочу с ней красивые AI-фото. как это сделать полному нубу в генерации?

в наличии видюха на 6 гигов, 100 фоток пикрила и установелнный автоматик.
Аноним 04/04/23 Втр 00:08:47 #55 №202313 
>>202304
Или читай шапку, или:
https://www.youtube.com/watch?v=A15M4cbUM5k
Аноним 04/04/23 Втр 00:15:24 #56 №202329 
>>202064
Инструкция есть в гугле. Можешь посмотреть как это в других колабах делается.
Аноним 04/04/23 Втр 00:17:34 #57 №202335 
>>202329
>Инструкция есть в гугле. Можешь посмотреть как это в других колабах делается.
Где? Я не могу найти. Ты сам-то делал?
Аноним 04/04/23 Втр 00:30:55 #58 №202363 
image.png
>>202235
>>202231
Типо live2D или своя какая ебало-приблуда?
Аноним 04/04/23 Втр 00:44:25 #59 №202385 
>>202363
Векторами анимирую. Это арт нейросети?
Аноним 04/04/23 Втр 02:32:48 #60 №202502 
>>202313

>returned non-zero exit status 1

по видосу сделать ничего не реально. за 4 часа ебли словил 100500 ошибок. пошел он нахуй, этот ебучий пидарас.
застрял на первых 15 минутах видоса.

есть проще варианты, для даунов? в оп посте тем более ничего непонятно. там версии для онлайна. у меня оффлайн.
Аноним 04/04/23 Втр 03:01:16 #61 №202528 
>>202502
Ищи у Хача Train Hypernetwork. Ничего устанавливать не надо, работает из автоматика1111, наверное это для тебя оптимальный вариант.
Аноним 04/04/23 Втр 03:28:02 #62 №202557 
oss is NaN, your model is dead. Cancelling training.
Что это? Гугл не знает.
Аноним 04/04/23 Втр 06:49:36 #63 №202682 
>>202557
Отбой. Виноват андервольт видюхи.
Аноним 04/04/23 Втр 12:48:26 #64 №202916 
если я хочу натренировать только лицо человека конкретного для лоры, желательно ли в датасет брать что-то кроме крупного плана, или лучше только крупный план лица?
Аноним 04/04/23 Втр 13:30:51 #65 №202967 
>>202916
Если у тебя в сете будет только крупный план лица, то и на выходе у тебя будет только лицо. Будет очень сложно заставить сгенерить поясной портерт, например, или вообще фуллбоди.

Но это еще от тэгов для сета зависит, от параметров и длительности тренировки. Если повезет и со всем верно угадаешь - может получиться лора с большей вариативностью.

Но проще всё-таки разнообразить сет.
Аноним 04/04/23 Втр 13:49:46 #66 №202990 
image.png
00867-3352591574.jpg
>>202502
Да не ставь ты сборки со скриптами у этого уебана гнилого. Это обычный васян-бумер, который научился кодить и теперь стрижет лохов, подкидывая им свои скриптики на бусти. Обычный, блять, наперсточник из 90-х.
Не качай его сборку говна.

Заходи на гитхаб, на страницу КОХУИ
https://github.com/bmaltais/kohya_ss

Выбирай папку, в которую ты хочешь КОХУЮ инсталлить
Зайди в неё через Powershell

запусти там
git clone https://github.com/bmaltais/kohya_ss.git
cd kohya_ss

потом в появившейся папке запусти setup.bat
Ответь на вопросы как на скрине. Большего тебе не надо
Запускай gui.bat
ВСЁ

Если что-то непонятно, смотри видео этого мужичка. Если английского не знаешь, то похуй. Просто смотри, что он делает.
https://www.youtube.com/watch?v=9MT1n97ITaE

Тренируй с Богом. Скалли тебя благословляет. а Хача нахуй
Аноним 04/04/23 Втр 15:35:04 #67 №203124 
>>198503 (OP)
Подскажите, какие есть дополнения к webui которые считывают теги с картинки?
Аноним 04/04/23 Втр 15:59:54 #68 №203179 
>>203124
Tagger.
Аноним 04/04/23 Втр 16:32:12 #69 №203233 
>>203124
Если там есть метаданные - вкладка PNG Info.
Если их нет - можешь встроенным в автоматик CLIP картинку разобрать, будет тебе описание по типу SD.
Если нужны тэги для аниме-моделей - качай wd-tagger.
Аноним 04/04/23 Втр 18:36:17 #70 №203409 
>>200987
двачую зайчик, нанейронят своих аниме хуиме и сидят дрочат
Аноним 04/04/23 Втр 19:23:46 #71 №203512 
>>202990
двачую, у меня таким макаром заработало. лоры нюде еот бесподобны, обфапался.
Аноним 04/04/23 Втр 19:27:52 #72 №203520 
странно, у 4090 терафлопсов в 2 раза больше чем у 4070ti, тензорных ядер и пропускной памяти тоже примерно х2, почему же разница it/s 20 у 4070 ti и 28 у 4090? где 40 it\s?
Аноним 04/04/23 Втр 20:07:09 #73 №203580 
>>202990
ну и в чем разница между ним и хачевским
Аноним 04/04/23 Втр 21:11:28 #74 №203713 
>>200987
Два чая, 10 туториалов лор по манямэ залупе с одинаковым результатом. Кому все это нахуй надо?
Аноним 04/04/23 Втр 21:15:53 #75 №203721 
>>203713
анимэшникам с красными от дрочки писюнами, очевидно.
Аноним 04/04/23 Втр 21:36:22 #76 №203764 
>>203520
У 4090 так-то около 32-34 it/s.
Аноним 04/04/23 Втр 22:33:56 #77 №203910 
>>203520
Потому что для 4ххх серии надо другие библиотеки ставить, чтоб она полностью раскрывалась.
Но в любом случае линейной зависимости тут не будет.
Аноним 04/04/23 Втр 22:54:55 #78 №203954 
Скажите, а как тренить в лора что-либо кроме людей? Какой class prompt забивать? Для людей использовал "person", а вот к примеру хочу именно какой-то отдельный атрибут одежды добавить с генерациям, определенная юбка или что-нибудь ещё. Что забивать туды? Style, outfit, skirt, clothes? А то везде пишут person etc.
Аноним 04/04/23 Втр 23:19:18 #79 №204026 
Насколько реально сделать анимэ модель на базе Dall-e 2 Pytorch?
Аноним 04/04/23 Втр 23:19:48 #80 №204028 
Или Imagen Pytorch, похрен
Аноним 05/04/23 Срд 00:05:35 #81 №204167 
Где можно найти готовые controlnet openpose позы?
Аноним 05/04/23 Срд 00:10:13 #82 №204183 
>>204167
На цивите фильтрацию по Poses выбери, там было несколько паков.
Аноним 05/04/23 Срд 00:43:48 #83 №204213 
>>203954
Просто пиши - 100_skirt, 100_pants. Ваще похую на класс.
Аноним 05/04/23 Срд 02:05:28 #84 №204334 
так и не понял, почему этого гайда нет в шапке. лучший на сегодня. по нему все получилось у меня.

https://civitai.com/models/22530/guide-make-your-own-loras-easy-and-free
Аноним 05/04/23 Срд 04:57:12 #85 №204485 
.jpg
.jpg
.jpg
.jpg
.jpg
.jpg
.jpg
.jpg
Кто-нибудь проводил нормальное исследование на тему того, какую модель лучше использовать в качестве базовой при обучении лорок на аниме?

Из рекомендаций слышал только либо использовать NAI, либо модель, под которую планируешь генерировать, но каких-либо пруфов в виде гридов на эту тему не видел.

Попробовал обучить лоры под 5 разных моделей - NAI, AOM2_safe, капуста3, мейна и пастель. Далее построил гриды по тому, как эти 5 лор работают с этими же пятью моделями. Результат, на мой взгляд, выглядит неоднозначным:
1. Обученная под NAI лора действительно в среднем выглядит лучше всех в качестве универсальной модели
2. Обученные на мейне и пастеле лоры выглядят в среднем хуже всех
3. Обученная на пастеле модель выглядит плохо даже на самой пастеле, убивая всю стилистику базовой модели
4. На мейне любые лоры впринципе выглядят лучше среднего, хотя это, вероятно, вкусовщина

На самом деле сложно сделать какие-либо выводы по такой небольшой выборке, и, что наиболее тревожно, я не думаю, что этот опыт можно будет обобщить на любой датасет, даже если речь заходит хотя-бы просто про лоры на аниме-тяночек. Не говоря уже о том, что тестировать нужно куда-большее число моделей.

При этом, я помню, что, в случае того же пастеля, лучше всего показывали себя одновременные применения двух-трёх лор, обученных на разных моделях - добавьте сюда возможность мёрджить лорки и в плане возможностей тестирования различных сочетаний вы уже упираетесь в комбинаторный взрыв.

Я для себя делаю вывод, что лору, в идеале, надо пытаться обучать под каждую интересную вам модель (кроме стилизованных, типа пастеля - ну, это и так в гайде из шапки было описано) и потом сравнивать её с другими - мне, например, понравилось сочетание лоры, обученной на AOM2 при её использовании на мейне, но такое никак заранее нельзя просчитать. А для ленивых обучать просто на NAI.
Аноним 05/04/23 Срд 09:05:55 #86 №204557 
>>204485
Так как для SD1 аниме модели в подавляющим большинстве случаев идут от наи, а реалистик / иллюстрационные от SD 1.5, то для максимизации совместимости лучше тренить именно на них.

Более того тренировка на базовой + юз на миксе выдают в среднем лучшире результаты чем в любом другом соотношении.

Ну, в целом у тебя то же самое и получилось.
Аноним 05/04/23 Срд 11:35:14 #87 №204676 
Заебали обновлениями ломать мой воркфлоу

У вас composable lora работает после обновления автоматика?

еще в консоль срет ошибками просто при применении, хотя всё работает
Traceback (most recent call last):
File "E:\stable-diffusion-portable-main\modules\extra_networks.py", line 75, in activate
extra_network.activate(p, extra_network_args)
File "E:\stable-diffusion-portable-main\extensions-builtin\Lora\extra_networks_lora.py", line 23, in activate
lora.load_loras(names, multipliers)
File "E:\stable-diffusion-portable-main\extensions-builtin\Lora\lora.py", line 214, in load_loras
lora = load_lora(name, lora_on_disk.filename)
File "E:\stable-diffusion-portable-main\extensions-builtin\Lora\lora.py", line 185, in load_lora
assert False, f'Bad Lora layer name: {key_diffusers} - must end in lora_up.weight, lora_down.weight or alpha'
AssertionError: Bad Lora layer name: lora_te_text_model_encoder_layers_0_mlp_fc1.hada_w1_a - must end in lora_up.weight, lora_down.weight or alpha


Не встречался с такой залупой, анон?
Аноним 05/04/23 Срд 21:14:24 #88 №205536 
.png
.png
.png
.png
В общем да - если тренить лору на NAI, то перестаёт фоны/перса плющить на половине моделей. Ну и стилистика моделей в среднем не так сильно убивается.

Для сравнения - по центру лора, которую обучал на AOM2. Сейчас она выглядит переобученной, но, из-за того, что я тестировал её буквально на паре интересных лично мне моделях, я этого раньше не заметил, т.к. на той же мейне она, в среднем, неплохо отрабатывала.
Аноним 06/04/23 Чтв 09:04:40 #89 №206121 
>>204676
> обновления автоматика
Ебланидзе, спок.
Аноним 06/04/23 Чтв 10:26:08 #90 №206167 
изображение.png
Прописал в webui-user "git pull", чтобы обновить Automatic, и теперь при запуске файла пикрил, интерфейс не запускается - нет ссылки, которую можно открыть в браузере. Что делать?
Аноним 06/04/23 Чтв 11:45:21 #91 №206246 
>>206167
У тебя на пике буквально написано что делать. --reinstall-xformers --reinstall-torch в батник добавь, после установки удалишь. Ну или venv снеси
Аноним 08/04/23 Суб 23:27:10 #92 №212201 
Кто-нибудь в курсе, можно конвертировать лоры из формата в формат? Lycoris -- Loha -- Lora, и т.д., пусть и с потерей информации?
Ну или смерджить ликорисы с обычными лорами.
МегаМерджер не дает такое делать, к сожалению.

P.s. и как-то их можно вообще отличать, быстро и понятно? Что-то не нашел никакой инфы о формате в метаданных. Хз, может не туда смотрю?
Аноним 09/04/23 Вск 06:20:49 #93 №212664 
>>212201
> и как-то их можно вообще отличать, быстро и понятно
По network/conv dim/alpha.
Аноним 09/04/23 Вск 14:17:01 #94 №213157 
>>212201
извне - никак, только помечать в имени файла, например
Аноним 09/04/23 Вск 15:53:51 #95 №213380 
Есть какой-нибудь стандартный промпт для теста модели или лоры, с негативом, для теста персонажа и теста бэкграунда? 1girl слишком упрощенно получается, а если с тэгами переборщить, то модель улетает в сторону от того, в каком стиле она должна работать.
Заранее благодарю.
Аноним 10/04/23 Пнд 05:37:41 #96 №215162 
Как использовать concept images, туда сувать лучшие пикчи? Как это вообще работает?
Аноним 10/04/23 Пнд 09:03:00 #97 №215236 
>>213380

Ну я тесчу через одежду, допустим выоский каблук
pos: [age] woman/girl/child/loli, standing, stiletto high heels, [type] background, sfw/nsfw
neg: (worst quality,low quality:1.4) или любой эмбед по вкусу

либо если чисто нсфв, то lifted skirt

или

girl with a pig с вариациями - если сохраняется лицо модели и свиньи то все ок
Аноним 10/04/23 Пнд 11:57:41 #98 №215432 
>>202269
Анон, ну что там, получилось чёт? Поделись результатом если что, или датабазой через облако поделись, мож тоже попробую натренить.
Аноним 10/04/23 Пнд 16:17:30 #99 №215940 
>>215432
Ты же по любому будешь НСФВ делать!
Аноним 10/04/23 Пнд 16:27:03 #100 №215975 
>>213380
https://rentry.org/nai-speedrun#hello-asuka
Аноним 10/04/23 Пнд 19:24:59 #101 №216584 
>>215236
>>215975
Спасибо большое.
Аноним 10/04/23 Пнд 19:31:11 #102 №216606 
image.png
grid-0057.png
grid-0058.png
>>215432

получилось. я доволен. хотя и не всегда похоже. и только один ее лик. для каждого образа надо отдельную Лору, я так понял.
Аноним 10/04/23 Пнд 19:33:07 #103 №216609 
>>215432
>датабазой через облако поделись, мож тоже попробую натренить.

Ты картинки не можешь скачать?
Аноним 11/04/23 Втр 13:53:44 #104 №218343 
image.png
перестало работать, раньше запускалось нормально. Чего она хочет от меня?
Аноним 11/04/23 Втр 14:04:08 #105 №218347 
image.png
>>218343
о, это моя ошибка. проблема с памятью - по словам гугла. у меня исправилось, когда выставил другую модель. попробуй запустить без всех моделей. из папок убери.

если не поможет - я хз
Аноним 11/04/23 Втр 14:35:00 #106 №218370 
Есть ли гайд для кохи, какие настройки выставлять чтобы максимально похожее лицо на оригинал получалось?
Аноним 11/04/23 Втр 16:36:49 #107 №218505 
>>218370
Нету
Аноним 11/04/23 Втр 22:01:23 #108 №218939 
Screenshot1.png
>>218343
При константе на плане обучения просит 0 или пустоту в warm_up num steps. Такая вот ошибка. Попробуй там ноль поставить.
Аноним 12/04/23 Срд 13:48:35 #109 №219955 
Промахнулся тредом как обычно >>219946 →

умоляю на коленях
Аноним 12/04/23 Срд 15:21:16 #110 №220112 
>>219955
Расширение есть которое сохраняет промт и настройки которые сам выберешь, посмотри сам в расширениях, у меня сейчас webui не запущен
Аноним 12/04/23 Срд 15:22:16 #111 №220113 
xyzgrid-0008-677295882.jpg
Посоветуйте как правильно выбирать оптимальную модель.
Вот мне кажется что для LoRa net rank 64 и alpha 32 годится вторая эпоха (1780 шагов оптимизации). Все что выше мне кажется перетренированной.
Но может быть есть и другие критерии, например не проверять вес модели выше 1.0?
Цель - расписать аниме под хохлому.
Аноним 12/04/23 Срд 15:45:39 #112 №220144 
Запускаю поломатик на Kaggle. Квоту пока не режут, но до 10 часов (как анон из соседнего треда) ни разу не доводил. Но я понемножку, мне оно, собственно, только для URPM-inpainting...

Проблема в том, что кегля - это пихон 3.7. А современный обломатик требует, ЕМНИП, 3.8. Я где-то нашёл какой-то коммит хэш не помню, а сейчас с ягеля и к нему sed-скрипт для рихтовки зависимостей. И это даже завелось и работает. Иногда.

Основная проблема в том, что иногда (часто - если генерация заняла много времени) кнопка Generate перестаёт работать, в консоли браузера джаваскриптовая ошибка, в консоли пихона тишина. Помогает обновить вкладку - но настройки при этом слетают, что особенно бесит при инпеинтинге. Возможно, виновата кривая версия gradio (я руками не ставил, какая встала сама - такая и есть), но это не точно.

Есть ли мысли, как мне облегчить мою жизнь?
Аноним 12/04/23 Срд 15:59:58 #113 №220157 
>>220144
pyenv. в чем проблема дать автоматику другую версию питона?
Аноним 12/04/23 Срд 16:02:16 #114 №220159 
>>220144
Конечно, сидеть на старом ватоматике - это не очень хорошая идея хуже только ежедневно его обновлять, поэтому я нашёл хак, позволяющий взгромоздить на кеглю пихон 3.9 а теоретически - вообще любой через apt там же виртуальное окружение с убунтой. Но при применении этого костыля автовсратик запускается 20 минут и больше конца запуска так ни разу и не дождался и занимает десятки доходило до 80 гигабайт на диске.

Это современный ладноматик действительно так себя ведёт? Или это кегля глючит?

Если ему реально столько надо - то есть ли у анона идеи, что можно сделать? У меня идей только две:

а) sudo ln -s /usr/lib/python3.7/dist-packages /usr/lib/python3.9/dist-packages
и надеяться на Environment pinning

б) Само жирное вынести в публичные kaggle-датасеты и
sudo ln -s /kaggle/input/torch /usr/lib/python3.9/dist-packages/torch

Я так с моделями делаю. Во-первых, это позволяет экономить квоту (а там 20 ГБ на основной output и ещё 80 на всякое вспомогалово - не считая неизменного input). Во-вторых, чем меньше объём output - тем быстрее и беспроблемнее проходит Files and variables preservation, т.е. перенос файлов между сессиями - а это штука приятная.

Не копируйте команды, набираю по памяти с ягеля, ожидая замены масла и фильтров

Алсо, можно ли отключить установку gfpgan? Он мне не нужен, не очки же я с тянок снимаю а идея интересная
Аноним 12/04/23 Срд 16:04:51 #115 №220160 
>>220157
Добра тебе!

питонист из меня очень не очень, хотя написанием опенсорсного кода на потихоне я даже деньги зарабатывал

Он, получается, и все библиотеки прямо в папочку с автоматиком поставит? Я ведь правильно понимаю, что файлы библиотек после установки, вообще говоря, не изменяются?
Аноним 12/04/23 Срд 16:09:50 #116 №220165 
>>220160
Сорян, невнимательно читал, за Kaggle не скажу, но локально ставил.
У автоматика есть небольшая бага с определением venv, хоть он и создает его.
проще создать его вручную, в папке с автоматиком
python3 -m venv ./venv

Затем отредактировать ./webui-user.sh, поменять переменную python_cmd="полный путь к автоматику/venv/bin/python3"

инструкцию к pyenv уж как нибудь сами найдете.
Аноним 12/04/23 Срд 16:56:22 #117 №220224 
adamw8bit.jpg
>>201448
Нейкропост, игнорируем.
Вообщем почитав я думал что с бс10, га1 на выходе получится сетка генерирующая почти тоже что и бс1, га10. Попробовал потренить с залоченным сидом и результаты получились разные.
SGD оптимайзер из статьи у меня не взлетел, никаких ошибок нету в консолях при тренинге и использовании, но генерация точно такая же как и без лоры, поэтому лишь дефолтный адамв.
По времени не сильно быстрее:
бс1 га10 - 240 шагов 10:18
бс1 га1 - 2400 шагов 10:52
бс10 га1 - 252 шага 2:30 - может поэтому и не повторяется результат? Я хз почему лишний шаг с бс10 делается.

Ну да хрен с ним с повторением, а разницу то как вообще ощутить. Нужен сильно различающийся датасет чтоли? Лору же вроде под конкретные вещи тренируют, а если несколько "вещей" надо засунуть в одну, то разбивают по папкам со своими тегами.
Алсо зачем обновлять веса лишь раз за проход по датасету для того же гипера, это разве не слишком редко?
Аноним 14/04/23 Птн 22:35:19 #118 №225999 
image.png
image.png
image.png
>>201977
SDXL лучше понимает что ты от нее просишь, токены чуть меньше "просачиваются не туда", в этом плане она намного лучше SD 2.1, примерно на уровне dalle (встроенном в бинг), может чуть хуже. Качесто генерации часто не очень, напоминает детские проблемы SD 1.5, но вроде лучше чем чистый 1.5
Аноним 14/04/23 Птн 22:39:06 #119 №226013 
>>201977
>все крутые штуки делают рандомные опен сурсеры.
Чё еще пизданешь? Они все на базе 1.5
Аноним 15/04/23 Суб 01:17:25 #120 №226650 
https://github.com/hpcaitech/ColossalAI
Почему в кохью эту хуйню еще не засунули? Тогда можно было бы тренить лоры по 5 минут
Аноним 15/04/23 Суб 03:11:51 #121 №227023 
>>226650
Не у всех под рукой а10.
Аноним 15/04/23 Суб 03:13:47 #122 №227032 
изображение.png
поясните ньюфагу, что я делаю не так, я и так уже не пытаюсь ничег осам тренить, вот сейчас скачал какую-то чужую сделанную анимешную лору, открыл в коллабе автоматик, загрузил ее, а на выходе опять получается какой-то дефолтный низкокачественный кал. Что делать то я не понимаю, как вы высираете столько артов? Я каждые два месяца открываю коллабы, че то тыкаюсь в них, мне генерирует полный кал по типу пикрил, закрываю, не захожу 2 месяца.
Аноним 15/04/23 Суб 05:12:20 #123 №227093 
>>227023
Так ведь там насколько я понял буст при любом юзе?
Аноним 15/04/23 Суб 08:12:32 #124 №227243 
>>227032
ЛОРА часто требует киворды (теги) и понижение веса.
Аноним 15/04/23 Суб 08:31:19 #125 №227266 
>>227032
Во первых - убери её в зад строки, во вторых хотя бы евелин напиши ну или какие там теги, как анон выше сказал. Затем начинай уменьшать единицу до 0.6 и смотри результат. Обычно любая лора подтягивает с собой какой-нибудь говностиль, в зависимости от того на чем её тренировали.
Аноним 15/04/23 Суб 13:49:41 #126 №227559 
>>227032
Промтп у тебя, конечно, зашибенский.
С цивита выбери картинку получше под свою лору и копируй оттуда промпты. Позитивные и негативные.
Не забудь только оттуда лишнее убрать, типа встроенных эмбедов (ну или сам их скачай по названию), и других лор.
Аноним 15/04/23 Суб 14:51:46 #127 №227650 
>>226650
Это не про то что ты думаешь. Это про параллельную генерацию больших батчей. Там в их таблицах минимум 16. По скорости одного всё тоже самое.
Аноним 15/04/23 Суб 18:32:34 #128 №228167 
>>226013
Я о том что stability ai ничего кроме 1.5 годного не выдало, при том что у них есть инвесторы, а webui, controlnet, лоры и модели делаются за бесплатно рандомными анонами.
Аноним 15/04/23 Суб 19:26:54 #129 №228243 
>>228167
> controlnet, лоры и модели делаются за бесплатно рандомными анонами
Все эти технологии сделаны китайцами, сидящими на космических грантах, туда вваливаются миллиарды на развитие ИИ. Даже каломатик - это какой-то китаец из Калифорнии. Аноны сделали только десяток экстеншонов и натренировали лоры на волосатые анусы. И на самом деле наработок сейчас очень много новых, но сидящие на грантах ссутся выкладывать модели в паблик после недавних бурлений говн, в лучшем случае выкладывают код обучения, которые требует гигантский датасет и сотни часов A100. Всё это уходит в крупные корпорации, а не в паблик, сейчас уже даже Адоб готовится выпускать инструменты для дизайнеров/художников. Вангую какие-то прорывы в опенсорсе будут оказываться не чаще чем раз в год, в моменты затишья у сои.
Аноним 15/04/23 Суб 20:20:15 #130 №228310 
>>228243
Адоб пока сделал только фиговую версию Стэйбл Диффужн, тренированную на бесплатных картинках, чтоб проблем с копирайтами не было.
И показал будущее развитие, которое копирует где-то треть от всех функций из каломатика, только с более удобным интерфейсом.
И без юзерских надстроек по типу лор и контролнетов.
И платно (самый главный момент, ага).
Аноним 16/04/23 Вск 00:24:34 #131 №228964 
>>228167
> рандомными анонами
Ну да, ведь у каждого рандома есть желание и тысячи баксов на трени моделей.
>Because the Canny model is one of the most important (perhaps the most frequently used) ControlNet, we used a fund to train it on a machine with 8 Nvidia A100 80G with batchsize 8×32=256 for 3 days, spending 72×30=2160 USD (8 A100 80G with 30 USD/hour). The model is resumed from Canny 1.0.
Аноним 16/04/23 Вск 00:35:04 #132 №229002 
>>228243
https://www.youtube.com/watch?v=Sbg3UcBOwng
Аноним 16/04/23 Вск 00:37:31 #133 №229015 
>>228964
>Ну да, ведь у каждого рандома есть желание и тысячи баксов на трени моделей.
Полно студентоты с доступами к университетским и доцентоты с доступом к НИИшным моностям. реально смешно ваши визги читать и теории заговоров. В позднем совке ФИДО каким-то волшебным образом было бесплатным, но жило целиком на междугородних звонках, которые вообще-то дохуя стоили тогда. Как же так?! Наверное все крупные ноды были фбровцами проникшими в СССР.
Аноним 16/04/23 Вск 00:39:18 #134 №229027 
>>228964
Достаточно посмотреть вниз репы на гитхабе - если есть ссылка для цитирования, то это работа на грантах. Там же и в 90% случаев будет автор из Китая.
Аноним 16/04/23 Вск 00:41:07 #135 №229038 
>>229027
Но пруфов не будет, вы идите и увидьте что я ск0зал. И жэто точно из КНР чинчонги, а не из кореи или японии или сша, они все с партбилетом, чес-слово! Ето нейрозаговор Кси!
Аноним 16/04/23 Вск 00:42:53 #136 №229044 
1671406702743.png
>>229038
Ты реально даун, да?
Аноним 16/04/23 Вск 00:46:01 #137 №229059 
>>229015
> Полно
Где, покажи? Это надо собрать комбо из "быть нейрошизом" и "иметь доступ". И почему-то в большинстве случаев это комбо у китайцев. И к этому китайскому комбо еще добавляется пункт "знать английский и выбираться за пределы своего интернета".
Аноним 16/04/23 Вск 00:52:58 #138 №229081 
show.png
>>229044
Ну Чжан, и чё дальше?

>>229059
Шизик, спок.
Аноним 16/04/23 Вск 05:07:58 #139 №229446 
>>227650
Ну тогда жду пока AITemplate засунут в автоматик. Скомпилировав две модели можно достичь ахуенного буста по скорости. У чела который пилит у меня достигается x2 прирост по скорости генерации, что вообще супер.
Аноним 17/04/23 Пнд 14:21:49 #140 №233530 
1681730508622.jpeg
Антоны, кто-то сталкивался с зис хуетой? При первом запуске вебуи доходит до сборки торч и просто зависает намертво пека. Пробовал торч отдельно через пип инстолл ставить, ничего не поменялось.

P.s: скрин не мой, а с гита, у меня питон 3.10.6. На гите соответственно тоже 0 ответов к теме
Аноним 17/04/23 Пнд 21:05:13 #141 №234901 
>>233530
сама ссылка с торчем открывается в браузере?
https://download.pytorch.org/whl/cu117

У меня вот открывается, все ставится
Аноним 18/04/23 Втр 19:23:22 #142 №237559 
Как в имг2имг настраивать силу первичной картинки? Как в дримстудио.
Аноним 18/04/23 Втр 21:44:08 #143 №237913 
>>237559
Ты только количество добавленного шума через ползунок денойза можешь добавить.
Больше - будет сильнее отличаться.
Меньше - будет отличаться меньше.
Заметные изменения начинаются с 0.5, на 0.7 сильные вариации, на 0.9 другая картинка.
Аноним 18/04/23 Втр 21:55:43 #144 №237927 
show.png
>>237559
Для голой пизды твоей мамки - 0.66

мимо
Аноним 20/04/23 Чтв 04:03:37 #145 №241614 
image.png
обучение лоры при таких настройках примерно 5 минут идёт вместо 20, batch size 4 очень сильно сокращает время обучения. может кому поможет, у кого 12 гб врам.
Аноним 20/04/23 Чтв 04:05:37 #146 №241615 
да и картинки обрезать и текстовые описания делать не нужно, достаточно поставить галочку enable bucketing. всё это справедливо для персон, насчёт стилей хз
Аноним 20/04/23 Чтв 06:08:05 #147 №241670 
Есть ли способ вытащить из модели список слов, на которые он реагирует? А то на цивите, если модели тренировались на определенных художниках, авторы не удосуживаются выложить список этих художников. Просто брутфорсом перебирать варианты возможных художников это мучительно долго.
Аноним 20/04/23 Чтв 06:53:52 #148 №241694 
Подскажите, пожалуйста, начинающему нубу. Пробую раздеть тян в чёрной или серой одежде, но получается только переодеть. Почему не убирает одежду? Что делаю не так? Может где в настройках что выставить надо?
Аноним 20/04/23 Чтв 06:55:44 #149 №241695 
>>241694
Метод Fill выбирай.
Аноним 20/04/23 Чтв 06:56:55 #150 №241696 
>>241670
В метадате могут быть упоминания в тегах. Могут и не быть.
Аноним 20/04/23 Чтв 07:35:30 #151 №241712 
>>241696
А метадату где смотреть?
Аноним 20/04/23 Чтв 07:37:21 #152 №241713 
>>241712
А, ты про модели. Тогда никак.
Аноним 20/04/23 Чтв 13:30:13 #153 №242381 
16819865264876761637591988794555.jpg
>>241695
У меня такого почему-то нет... что выбирать?
Аноним 20/04/23 Чтв 13:39:09 #154 №242417 
>>242381
Чел, masked content.
Аноним 20/04/23 Чтв 13:51:45 #155 №242452 
16819875064801118948697595727409.jpg
>>242417
Опять не вижу где это(
Аноним 20/04/23 Чтв 14:49:56 #156 №242609 
Подскажите ещё нибудь как обрабатывать неквадратные фотки чтобы картинка не искажалась?
Аноним 20/04/23 Чтв 15:30:54 #157 №242692 
>>242452
Чел, смотри внимательней.

>>242609
Разрешение то же выставляй. Либо инпейнти только маску.
Аноним 20/04/23 Чтв 16:23:09 #158 №242808 
>>242609
Выставить разрешение с таким же соотношением сторон как у исходного изображения
Аноним 20/04/23 Чтв 16:29:04 #159 №242816 
>>219955
Кнопка есть же, которая подгружает последние настройки перед перезапуском.
Аноним 20/04/23 Чтв 17:26:09 #160 №242968 
>>242816
Что за кнопка?
Аноним 20/04/23 Чтв 18:11:54 #161 №243103 
>>242968
Тебе что сохранять надо? промт? короче это может помочь
https://github.com/ilian6806/stable-diffusion-webui-state
Аноним 20/04/23 Чтв 21:15:39 #162 №243585 
image.png
>>242968
Ты не поверишь...
Аноним 21/04/23 Птн 12:25:44 #163 №244530 
>>243585
Она у меня почему то вешает весь интерфейс. В итоге проще перейти в последнюю картинку и отправить её обратно в промпт
Аноним 21/04/23 Птн 19:33:22 #164 №245281 
>>204676
> после обновления автоматика?
А как ты её обновляешь? И зачем?
Аноним 21/04/23 Птн 20:56:12 #165 №245502 
6.png
У меня автоматик1111 установлен на диск Д. Что за папка образовалась C:\Users\Anon\.cache\huggingface\hub в которой 23 гигов сейвтензоров? Как перенести этот кеш на диск Д? Есть где-то такое настройки в автоматике? В скриптах где-то может путь надо прописать? У всех так что ли
Аноним 21/04/23 Птн 21:04:57 #166 №245518 
>>245502
>Как перенести этот кеш на диск Д?
Можешь перенести эту папку на диск D и создать символьную ссылку на диске C
mklink /D C:\Users\Anon\.cache\huggingface\hub D:\hub
Так же из этой папки можешь поудалять всё кроме:
models--bert-base-uncased
models--openai--clip-vit-large-patch14
models--laion--CLIP-ViT-H-14-laion2B-s32B-b79K
Аноним 21/04/23 Птн 22:21:55 #167 №245724 
>>245502
> Как перенести этот кеш на диск Д?
https://kirsanov.net/post/2016/07/05/Getting-most-from-your-SSD-drive-by-redirecting-directories.aspx

То есть как выше и посоветовали, только с ГУИ.
Аноним 21/04/23 Птн 23:00:47 #168 №245815 
7.png
>>245518
>>245724
Спасибо, перенес.
Аноним 21/04/23 Птн 23:01:25 #169 №245819 
Что-то у меня автоматик гит-пуллом не обновляется.
Пишет что последняя версия. Ветка вроде "мастер" прописана.
Можно его как-то пнуть на принудительную обнову?
Аноним 21/04/23 Птн 23:03:31 #170 №245825 
>>245819
О, спрошу. Что там нового ожидаешь? И можно ли гитом ролбэк делать, если новое+=косячное?
Аноним 21/04/23 Птн 23:30:52 #171 №245949 
>>245825
Аутпейнт скрипт не пашет на разрешениях, не кратных восьми.
Вроде был фикс для этого с неделю назад, я гитпульнул, а оно не обновилось. Пришлось картинку в результате масштабировать под него специально.

Откатиться то всегда можно.
>git reset --hard <commit hash>
Хэш коммита на гите смотреть.
Аноним 21/04/23 Птн 23:47:21 #172 №246015 
>>245949
>Хэш коммита на гите смотреть
Спасибо, а как посмотреть сейчас какой комит у меня стоит?
Аноним 21/04/23 Птн 23:51:42 #173 №246033 
Есть ли какой-то скрипт или настройка чтобы именно на картинке(а не в exif) впечатывалось какая-то информация по моему выбору? Например сид или что-то еще. Нашел вот такое расширение, но оно только на таблицу работает. И то хз как работает. Мне надо на каждое фото печатать инфу, чтобы видно было.
https://github.com/AlUlkesh/sd_grid_add_image_number
Аноним 22/04/23 Суб 00:12:29 #174 №246136 
>>246015
В сааааамом низу открытого интерфейс будет мелкая такая строчка с текущим коммитом.
Аноним 22/04/23 Суб 00:39:17 #175 №246219 
>>246136
Спасибо, она даже кликабельна. У меня commit: 22bcc7be
Аноним 22/04/23 Суб 01:16:47 #176 №246283 
>>246219
И у меня такой же.
Сейчас зашел на гит - а там он последние 3 недели не обновлялся оказывается, лол.
Потому гит пулл и не пашет, что версия последняя.

Но 3 недели прям много что-то, вот я и запаниковал.
Раз ввел - обновлений нет.
Второй ввел, третий, еще раз через пару дней - нифига.
Думал, сломалось чего, а оно вот как.
Аноним 22/04/23 Суб 15:16:36 #177 №247398 
Суп, тред.
Решил потеребить SD, читаю мануалы по локальной установке на винду.

Большинство мануалов ссылается на automatic1111. Это самый удобный способ?

Я так понимаю, оно запускает у меня сервер, к которому я подключаюсь из браузера. Этот сервер у меня в памяти висеть будет, пока я его вручную не прибью? Или там есть кнопка выхода?
Аноним 22/04/23 Суб 15:50:23 #178 №247505 
>>247398
> Я так понимаю, оно запускает у меня сервер, к которому я подключаюсь из браузера. Этот сервер у меня в памяти висеть будет, пока я его вручную не прибью? Или там есть кнопка выхода?
Будет висеть пока не закроешь окошко с консолькой или не нажмешь ctrl+c в нём.
Аноним 22/04/23 Суб 16:12:14 #179 №247569 
Как всегда, гугл ненавидит бедняков, жителей стран третьего мира, вообще всех кто без внушительного дохода. Корпорации - это зло, особенно американские.
Аноним 22/04/23 Суб 16:17:23 #180 №247582 
>>247569
Что случилось?
Пару недель был вне темы сеток
Аноним 22/04/23 Суб 16:19:32 #181 №247593 
>>247582
Администрация колаба поссала в хари пользователям автоматика без про-подписки.
Менеджер колаба сказал, что из-за них не хватает видях на интерактивные сессии, поэтому стали для начала отображать предупреждение, а дальше хз как будет.
Аноним 22/04/23 Суб 16:21:53 #182 №247604 
На kaggle недавно было так же. В итоге пидорнули ноутбук от camenduru. Но там еще вдобавок набегали китайцы, небольшими группами по 10к рыл в час.
Аноним 22/04/23 Суб 16:25:07 #183 №247617 
>>247569
> бедняков
Конченные мрази, которые приняли халяву как что-то само собой разумеющеюся, а когда лавочку прикрыли, начали исходить на говно, вместо того, чтобы выразить благодарность за предоставленные, хоть и на время, возможности. Ну или хотя бы промолчать.
Аноним 22/04/23 Суб 16:27:29 #184 №247626 
>>247617
>пук
))
Аноним 22/04/23 Суб 16:45:23 #185 №247667 
000200.png
Пост менеджера на реддите, пидорас огрызается в ответ на критику: сколько gpu-времени лично ты раздал бесплатно миллионам человек?
Аноним 22/04/23 Суб 19:24:54 #186 №248075 
>>247667
Реддит - это соевая параша, там всегда будут топить за барина до последнего, даже когда им будут золотой дождь на лицо пускать.
Аноним 22/04/23 Суб 20:14:59 #187 №248228 
>>246283
>последние 3 недели не обновлялся оказывается
А может забросили?
Вот посмотри, тут форк какой-то образовался.
Опять качать все по новой?
Кто пробовал?
https://github.com/vladmandic/automatic
Аноним 22/04/23 Суб 20:16:51 #188 №248237 
Intel_ARC_GPU_WSL_Stable_Diffusion_WEBUI
Intel ARC GPU A750 A770 WSL Stable Diffusion WEBUI - 7.20 it/sec

https://github.com/TotalDay/Intel_ARC_GPU_WSL_Stable_Diffusion_WEBUI
Аноним 22/04/23 Суб 20:18:17 #189 №248242 
Intel ARC XPU
полный аппаратный доступ в Блокноте и не только

https://github.com/TotalDay/Intel-ARC-750-770-XPU
Аноним 22/04/23 Суб 20:20:07 #190 №248250 
Intel ARC Gimp

https://www.youtube.com/watch?v=q8xJjPBjqso

Stable Diffusion Powered by Intel® Arc™, Using GIMP

https://game.intel.com/story/intel-arc-graphics-stable-diffusion/
Аноним 22/04/23 Суб 20:21:17 #191 №248257 
image.png
Аноним 22/04/23 Суб 20:27:16 #192 №248289 
>>248228
> форк
Больше похоже на сборку от хача. Там из нового только вырвиглазная тема. Ничего нового не вижу, кроме как поломанная совместимость с кучей экстеншонов. Автоматик уже давно перестал добавлять новый функционал для того чтобы была стабильная версия, которую допиливали бы экстеншонами, а в том "форке" теперь будет как в раннем автоматике - каждую неделю что-то отъёбывает.
Аноним 22/04/23 Суб 21:23:44 #193 №248558 
>>248289
Еще б у него более понятный интерфейс на странице с экстеншнами был. А то иногда хрен поймешь, чего там какое расширение делает, и зачем оно вообще нужно.
Аноним 22/04/23 Суб 23:00:46 #194 №248915 
Есть ли смысл учить лору плохому? что если я получил желаем результат, и хочу исправить всякую хуйню с родной модели? Типа буду генерировать, и где плохие руки, или проёбаная анатомия скармливать лоре на дообучении?
Аноним 22/04/23 Суб 23:36:10 #195 №249033 
>>248915
> Есть ли смысл учить лору плохому?
Нет. Негатив бывает только текстовый. Лоры будут только веса вычитать, что даст хуёвый результат. Для полноценного негатива с лорами надо вторую модель держать в памяти для этого негатива.
Аноним 23/04/23 Вск 03:45:11 #196 №249764 
>>249033
Это точно? Проверялось?
Аноним 23/04/23 Вск 14:55:13 #197 №250521 
>>247617
>когда макдак и икею прикрыли, россияне начали исходить на говно, вместо того, чтобы выразить благодарность за предоставленные, хоть и на время, возможности.

Развил мысль фашиста
Аноним 23/04/23 Вск 15:05:45 #198 №250558 
>>250521
> Развил мысль фашиста
Если бы ты, даун, еще был на это способен. Мак и икея сами сюда пришли зарабатывать деньги, колаб - просто давал (и дает) пользоваться мощностями как есть, ничего не требуя взамен. В любом случае твой пример дебильный и даже в нем исходить на говно = быть дебилом.
Аноним 24/04/23 Пнд 00:56:36 #199 №252417 
image.jpg
image2.png
02024-247046283-two girls one cup.png
02025-247046283-two girls one cup.png
Подскажите, unet, text encoder, vae — понимаю, а что находится в others?
Без others модель меньше на 0.5Гб, генерация, воде бы, не меняется.
Аноним 24/04/23 Пнд 02:19:47 #200 №252708 
>>252417
Правая картинка на 1кб больше.
Аноним 24/04/23 Пнд 03:39:25 #201 №252908 
>>252708
Ну такие вот deterministic results с Sdp-No-Mem-Attention. А что находится в others?
Аноним 24/04/23 Пнд 06:35:17 #202 №253215 
>>252417
>>252908
Safety checker — специальная отдельная GAN-сеть, которая проверяет nsfw твоя картинка или нет. Без шуток.
По идее ещё должен быть tokenizer, но в transormers реализации используется внешний.
Аноним 24/04/23 Пнд 09:13:53 #203 №253400 
>>253215
А научи, пожалуйста, как ты это определил?
Аноним 24/04/23 Пнд 11:14:32 #204 №253624 
>>253400
Здесь есть описание как устроена модель: https://huggingface.co/runwayml/stable-diffusion-v1-5
Любая модель SD состоит из следующих частей:
text_encoder
unet
vae
scheduler
tokenizer
safety_checker
feature_extractor

text_encoder и unet — это в совокупности непосредственно веса модели.
vae — и так понятно, что это вариационный автоэнкодер.
tokenizer и scheduler — это просто конфиги для внешней модели токенизера и алгоритма планировщика.
feature_extractor — это простенький декодер, который декодирует изображение из латентного пространства и передает его на вход safety_checker'a.
safety_checker — модель классификатора проверки содержимого:
The intended use of this model is with the Safety Checker in Diffusers. This checker works by checking model outputs against known hard-coded NSFW concepts. The concepts are intentionally hidden to reduce the likelihood of reverse-engineering this filter. Specifically, the checker compares the class probability of harmful concepts in the embedding space of the CLIPTextModel after generation of the images. The concepts are passed into the model with the generated image and compared to a hand-engineered weight for each NSFW concept.

Model Converter может оперировать с text_encoder, unet, vae и others. Так как scheduler, tokenizer и feature_extractor нихуя не весят (это просто небольшие текстовые файлы), то единственное что остаётся, что может влиять на размер файла модели — safety_checker. Кстати говоря. в несжатом виде он весит почти 1.22 Гб (unet при этом весит 3.44 Гб, а text_encoder 492 Мб).
Аноним 24/04/23 Пнд 12:29:19 #205 №253837 
image.png
>>253624
Пасиб, похоже все так и есть. А чем проверить? Скрипт convert_original_stable_diffusion_to_diffusers.py содержимое папочки safety_checker не вынимает из ckpt, а берет с huggingface. Есть еще какой-то инструментарий для ковыряния, кроме diffusers\scripts?

Алсо, получается, в тех редких случаях, когда в others оказывается копия stable-diffusion-safety-checker, его лучше не удалять ModelConverter-ом, что бы не потерялись tokenizer и scheduler, а перегонять в формат diffusers и назад, благо convert_diffusers_to_original_stable_diffusion.py эту каку в .ckpt не засунуть не пытается. Правильно?
Аноним 24/04/23 Пнд 12:39:32 #206 №253874 
Снимок.PNG
Аноны, помогите запустить. Вообще нихуя не понимаю что тут написано. Пока сам попробую погуглить
Аноним 24/04/23 Пнд 12:50:54 #207 №253918 
>>253874
Ну допустим я понял, а дальше он мне новую портянку выкинул. Ебаный рот этого амд.
Аноним 24/04/23 Пнд 12:58:16 #208 №253950 
>>253624
А ты случайно лорки/ликорисы не тренишь? Если да, можешь объяснить основные отличия loha/locon/dylora от обычной лоры?
Мимо
Аноним 24/04/23 Пнд 17:32:03 #209 №254743 
Аноны, как установить SD на арендованный виртуальный сервер? Я совсем не погромист, застопорился на torch is not able to use gpu с RTX 3080 windows, 16 озу тд тп, пытался по советам реддита удалять все эти venv, но не помогает.
Аноним 24/04/23 Пнд 17:46:28 #210 №254783 
Torch не поддерживает все виды виртуальных машин.

Например Hyper-v и не только
Аноним 24/04/23 Пнд 17:47:58 #211 №254786 
>>254743
Арендуй Linux server
Аноним 24/04/23 Пнд 20:05:18 #212 №255229 
Ребзя, подскажите почему grabber выдает такую шнягу danbooru-No result possible reasons: server offline и как фиксить?
Раньше работал нормально, пробовал гуглить но нифига не выкупил.
Аноним 24/04/23 Пнд 23:54:01 #213 №256110 
>>255229
https://rentry.org/ezlora#configuring-danboorugrabber
Аноним 25/04/23 Втр 01:19:25 #214 №256356 
>>256110
Спасибо Анон
Аноним 25/04/23 Втр 08:55:45 #215 №256864 
Пытаюсь открыть гугл колаб для работы с сд, выдает такую ошибку
Чего эта скатина от меня хочет?

---------------------------------------------------------------------------
ModuleNotFoundError Traceback (most recent call last)
<ipython-input-5-751725d58dc1> in <cell line: 6>()
4 import sys
5 import fileinput
----> 6 from pyngrok import ngrok, conf
7
8 Use_Cloudflare_Tunnel = False #@param {type:"boolean"}

ModuleNotFoundError: No module named 'pyngrok'

---------------------------------------------------------------------------
NOTE: If your import is failing due to a missing package, you can
manually install dependencies using either !pip or !apt.

To view examples of installing some common dependencies, click the
"Open Examples" button below.
Аноним 25/04/23 Втр 08:56:06 #216 №256865 
Пытаюсь открыть гугл колаб для работы с сд, выдает такую ошибку
Чего эта скатина от меня хочет?

---------------------------------------------------------------------------
ModuleNotFoundError Traceback (most recent call last)
<ipython-input-5-751725d58dc1> in <cell line: 6>()
4 import sys
5 import fileinput
----> 6 from pyngrok import ngrok, conf
7
8 Use_Cloudflare_Tunnel = False #@param {type:"boolean"}

ModuleNotFoundError: No module named 'pyngrok'

---------------------------------------------------------------------------
NOTE: If your import is failing due to a missing package, you can
manually install dependencies using either !pip or !apt.

To view examples of installing some common dependencies, click the
"Open Examples" button below.
Аноним 25/04/23 Втр 09:09:16 #217 №256869 
>>253837
Да, он докачивает safety_checker с хагинфейса, если он отсутствует в ckpt.
Чтобы этого избежать можно добавить в скрипте convert_original_stable_diffusion_to_diffusers.py к параметрам функции download_from_original_stable_diffusion_ckpt строку
load_safety_checker=False
Либо запускать пайплайн вручную через скрипт convert_from_ckpt.py из diffusers\pipelines\stable_diffusion\

> Алсо, получается, в тех редких случаях, когда в others оказывается копия stable-diffusion-safety-checker, его лучше не удалять ModelConverter-ом, что бы не потерялись tokenizer и scheduler, а перегонять в формат diffusers и назад, благо convert_diffusers_to_original_stable_diffusion.py эту каку в .ckpt не засунуть не пытается. Правильно?
Нет, tokenizer и scheduler не теряются, без них бы модель вообще не работала. В others идут только feature_extractor и safety_checker.
Так что можно просто конвертировать с удалением others. Но вообще я проверил десяток популярных моделей, в большинстве safety_checker уже отсутствовал.

>>253950
Сложно простыми словами объяснить что там происходит под капотом. По сути всё это просто различные реализации и модификации алгоритма LoRA.
LoCon (LoRA for Convolution layer) — тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки, меньше вероятность перетренировки и большую вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше https://github.com/KohakuBlueleaf/LyCORIS/tree/locon-archive#difference-from-training-lora-on-stable-diffusion
LoHa (LoRA with Hadamard Product representation) — тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно. У меня, честно говоря, пока ещё не получилось результатов лучших, чем при использовании чистой LoRA.
DyLoRA (Dynamic Search-Free LoRA) — по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности. Пока ещё не пробовал.
Аноним 25/04/23 Втр 09:39:39 #218 №256908 
>>256869
Почему лоры и контролнеты замедляют скорость генерации? Есть с контролнетами еще как-то можно объяснить дополнительными слоями, то лоры же просто веса меняют?
Аноним 25/04/23 Втр 09:47:25 #219 №256918 
>>256908
https://youtu.be/dVjMiJsuR5o?t=595
Аноним 25/04/23 Втр 09:53:21 #220 №256926 
>>256908
Ну так изменения весов происходят в процессе генерации. Это дополнительные математические операции, которые требуют дополнительного процессорного времени. То же самое с контролнетом.
Аноним 25/04/23 Втр 09:54:01 #221 №256928 
>>256869
> LoCon (LoRA for Convolution layer) — тренирует дополнительные слои в UNet
Я же правильно понимаю что весь unet состоит из convolutional layers, которые извлекают feature maps? Что за слои там такие дополнительные образовались, или типо не весь слой просто тренировался?
Ну я так понял надо основные дим с альфой указать
> --network_dim "RANK_FOR_TRANSFORMER" --network_alpha "ALPHA_FOR_TRANSFORMER"\
и для этих слоёв
> --network_args "conv_dim=RANK_FOR_CONV" "conv_alpha=ALPHA_FOR_CONV" "dropout=DROPOUT_RATE"
А dropout для чего?
Можешь кстати свои настройки подсказать, желательно прямо полной командой для кохьи, чтобы понимать от каких отталкиваться?
> LoHa (LoRA with Hadamard Product representation)
Здесь бы тоже настройки от которых начинать отталкиваться, если можно. Это же тоже вроде с пакетом ликориса тренится?
> DyLoRA (Dynamic Search-Free LoRA) — по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые.
Правильно понимаю, что это можно будет делать on-the-fly, например если я захочу чтобы моя лора превратилась из 128 ранга в 32, это будет достаточно где то указать параметром до начала применения её к генерации?
> Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128.
Где можно подробнее изучить как указывать это командой и что будет значить это число? Не совсем понятно, оно на unit делится типо и соответствующие ранги добавляет в лору? У кохи и кохаки в релизах нашел указание рангов и весов слоев только.
Аноним 25/04/23 Втр 11:34:39 #222 №257127 
>>256926
>>256918
Да, но модель-то уже в памяти. Почему сразу к весам изменения не применить, как это делается мержами, только не в отдельный файл?
Аноним 25/04/23 Втр 11:37:21 #223 №257137 
>>256928
> Я же правильно понимаю что весь unet состоит из convolutional layers, которые извлекают feature maps? Что за слои там такие дополнительные образовались, или типо не весь слой просто тренировался?
UNet состоит из ResNET блоков (свёрточные слои + пропускные соединения) и слоёв CrossAttention. Изначально LoRA тренировала только CrossAttention слои (разработчики проверили и решили, что этого необходимо и достаточно), LoCon и LoHa ещё тренирует свёрточные слои. Весь матан здесь описан https://github.com/KohakuBlueleaf/LyCORIS/blob/main/Algo.md Алгоритм CP-разложения (CANDECOMP, PARAFAC разложение тензора) свёрточных сетей описан здесь https://arxiv.org/pdf/1412.6553.pdf Обрати внимание кто авторы и где они обитают, лол
> А dropout для чего?
Dropout — это метод предотвращения переобучения модели. Суть в том, чтобы во время обучения случайным образом отключать некоторые теги. Этим параметром регулируется сколько тегов удалять в процентах от общего числа (значение от 0 до 1). Честно говоря, я никогда этим не пользовался.
> Можешь кстати свои настройки подсказать, желательно прямо полной командой для кохьи, чтобы понимать от каких отталкиваться?
> Здесь бы тоже настройки от которых начинать отталкиваться, если можно. Это же тоже вроде с пакетом ликориса тренится?
Ближе к вечеру покажу. Можно еще ориентироваться на это видео https://www.youtube.com/watch?v=Icf3ZQ67KPI Я по нему ориентировался, когда у меня поначалу не получалось
> Правильно понимаю, что это можно будет делать on-the-fly, например если я захочу чтобы моя лора превратилась из 128 ранга в 32, это будет достаточно где то указать параметром до начала применения её к генерации?
Да, когда взываешь dylorа можно указывать в параметрах требуемый ранг https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris#arguments
> Где можно подробнее изучить как указывать это командой и что будет значить это число?
У кохи https://github.com/kohya-ss/sd-scripts/blob/main/train_network_README-ja.md#dylora%E3%81%A7%E5%AD%A6%E7%BF%92%E3%81%99%E3%82%8B правда описание на японском.
> Не совсем понятно, оно на unit делится типо и соответствующие ранги добавляет в лору? У кохи и кохаки в релизах нашел указание рангов и весов слоев только.
Оно делит максимальное число рангов на число unit
Аноним 25/04/23 Втр 12:29:46 #224 №257275 
Стоит ли трейнить лору на сете из 80% вертикальных пикч и 20% горизонтальных? (Нужны именно вертикальные результаты в HD, типа как постеры фильмов или dvd обложки)
Аноним 25/04/23 Втр 13:23:39 #225 №257411 
>>257275
Да. Ты же сам потом размер пикчи выбираешь, анон
Аноним 25/04/23 Втр 13:25:35 #226 №257417 
>>257411
Я имею в виду, датасет без кропа до 512p, но чтобы все легло корректно в высоком разрешении
Аноним 25/04/23 Втр 13:34:00 #227 №257439 
>>257417
Ну, вот мой опыт: тестил датасеты с дефолтным размером и с кропом. С кропом лучше прорисовываются глаза, уши и т.д. Если не лень, то попробуй две лоры запилить и сравнить, как лучше будет.
Аноним 25/04/23 Втр 13:34:46 #228 №257442 
>>257439
Упд: кропал до 768.
Аноним 25/04/23 Втр 14:27:54 #229 №257563 
Несколько заметок про моё пердоленье.
Были зависания при смене моделей, а также иногда при генерации картинки. Через какое-то время я понял, что зависание при смене модели происходит не сразу, а только на 4-5 раз. А при генерации картинки зависание происходило очень редко, но в последнее время - буквально каждые 20 картинок.

Удалось выяснить, что:
1.
При смене модели утечка памяти, ну тут нихуя не поделать, просто теперь слежу за памятью и после смены нескольких моделей перезапускаю отоматик.

2.
--medvram - зло, тоже создаёт утечки памяти, из-за которых и происходил крэш либо зависание. После того как обмазался плагинами, на одну картинку стало утекать вообще порядка 1 гб, крэши стали постоянными.
Если наблюдаете такое на Линуксе, вырубайте эту хуйню нахуй, если есть возможность.
Теперь вырубил и счастлив, генерирую сотни картинок за сессию.

До того, как я понял, в чём дело, я пытался бороться с этой хуйнёй, выключив превью генерации - благодаря этому при засирании всей памяти в 99% случаев процесс хотя бы сразу убивался, а не зависал на несколько минут.

Единственная проблема, которая осталась - это то, что в ControlNet, если выбрать препроцессор, картинка игнорируется, обрабатывается только то, что нарисовано поверх неё. Однако если не выбирать препроцессор, всё работает, так что мне норм. Вроде бы кто-то на сосаке отписывался что-то про настройки canvas в браузере, чтобы это исправить, но я не помню, что там было. А так описание проблемы я встречал, но решения не видел.
Аноним 25/04/23 Втр 14:34:22 #230 №257577 
>>257439
Что если сделать отдельные лоры для одного стиля, лиц и дальнего плана, и применять вместе? (Типа "illustration in style of <lora1>, face in style in <lora2>")
Аноним 25/04/23 Втр 14:35:42 #231 №257581 
>>257439
>Если не лень
Дело не в лени. А в конечности халявных ресурсов (колаб еще прикрутил квоту юзерам каломатика)
Аноним 25/04/23 Втр 14:36:06 #232 №257584 
.png
>>257137
> Весь матан здесь описан https://github.com/KohakuBlueleaf/LyCORIS/blob/main/Algo.md Алгоритм CP-разложения (CANDECOMP, PARAFAC разложение тензора) свёрточных сетей описан здесь https://arxiv.org/pdf/1412.6553.pdf
Херово всё таки не знать матан, я нихера не понял, хорошо хоть картинки чуть объсняют суть.
> Which means it can use 2x dim to get square rank.
Х2 к информации в лорке на том же диме?
Про локон еще меньше понял, короче матан мне бессмысленно объяснять походу, ведь я уже сразу не понял что означают W Y и X.
Хоть на схеме пытаюсь понять где это находится, красным намазюкал сверточные слои, зеленым пропускные соединения, я вообще на ту схему хоть смотрю? Алсо где находится crossattention вообще представить не могу, наверное примерно где намазюкал синим.
> Обрати внимание кто авторы и где они обитают, лол
Забавно, вебуи и его форк ведь тоже Володьки делают, лул.
> Dropout — это метод предотвращения переобучения модели. Суть в том, чтобы во время обучения случайным образом отключать некоторые теги. Этим параметром регулируется сколько тегов удалять в процентах от общего числа (значение от 0 до 1). Честно говоря, я никогда этим не пользовался.
Мне вот тоже не особо понятно зачем это может быть нужно вообще.
> Ближе к вечеру покажу. Можно еще ориентироваться на это видео https://www.youtube.com/watch?v=Icf3ZQ67KPI Я по нему ориентировался, когда у меня поначалу не получалось
О неплохо, возьму тогда за начальные его и твои настройки. Кстати там dadaptation, он с последним обновлением перестал работать с разделенными лр, это же не нормально?
> Да, когда взываешь dylorа можно указывать в параметрах требуемый ранг https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris#arguments
А, так dyn это ранк получается? Я пробовал кстати через эту штуку обычную лору пытаться запустить, ради ТЕ в промпте, не получилось, но ликорис ради такого стоит потренить, да и вообще он многообещающе выглядит, если научиться тренить разные методы.
> Оно делит максимальное число рангов на число unit
Dim = 128, unit = 8 будет 16, 32, 48... 128
Dim 8, unit = 4 будет 2, 4, 6, 8?
А что у такой лоры с размером будет, не раздуется?

Кстати, не в курсе, а можно комбинировать например locon+dylora?
Аноним 25/04/23 Втр 14:41:59 #233 №257598 
>>257577
Такое ещё не делал, извини.

>>257581
Да, это не приятно, теперь боюсь запускать.
Аноним 25/04/23 Втр 14:52:02 #234 №257627 
>>257598
Не, ну запускать-то можно, если поменять слово webui в коде на зашифрованную переменную. Но гарантий никаких нет, технически это так же нарушает TOS.
Аноним 25/04/23 Втр 16:39:23 #235 №257910 
Пардон за откровенно тупой вопрос, но всё же...
Так как Колаб, походу, ВСЁ, а поставить новую видеозатычку нет возможности (не только жаба душит (как и в случае с PRO-подпиской), как, думаю, и у многих, но и, например, в бук её толком не всунешь, может, у кого тот же случай), вновь поднимается вопрос о возможной тренировке лорок на CPU. Встанет ли оно, к примеру, на виртуалку, которую можно время от времени запускать и "замораживать", если нужно?
Аноним 25/04/23 Втр 16:43:44 #236 №257916 
>>257910
Забудь про процессор, на нем даже мелкую превьюшку долго генерировать.
Юзай колаб, но не пались. Трейнить лору можно и скриптом без градио-ui. Если совсем закрутят гайки - тогда kaggle, paperspace, сатурн.
Аноним 25/04/23 Втр 16:52:00 #237 №257943 
Корифеи трейнинга лорок еще не покинули тред? Подскажите оптимальные параметры.
Нужнен эмбеддинг стиля как charturner, но с более сложной структурой. Как концепт персонажа, два ракурса одной и той OC манямэ школьницы на белом фоне. Один в полный рост в одежде, другой вид - крупным планом в нижнем белье с акцентом на попе или сиськах, с задранной юбкой и так далее. Или, школьница держит телефон, показывая фотку ее пизды (одежда такая же чтоб было понятно что это она). 100-150 образцов в сете, теги с danbooru
Аноним 25/04/23 Втр 20:49:45 #238 №258555 
Из-за леса, из-за гор - кровь, кишки, пиздец хардкор.

- Гугл всё, банит неиллюзорно.
- Кагля требует верификацию телефона и шлёт нах номера РФ
- Paperspace требует подписон - а РФ карты не работают
- Что за сатурн, кстати?

Ну и собственно - где генерить...
Аноним 25/04/23 Втр 21:16:10 #239 №258643 
.jpg
>>258555
> Ну и собственно - где генерить...
Аноним 25/04/23 Втр 21:54:08 #240 №258796 
>>258555
>Гугл всё, банит неиллюзорно.
Можно ссылку или скрин в качестве пруфа? Я не слежу прост
>Кагля требует верификацию телефона и шлёт нах номера РФ
У меня два акка (второй через прокси), оба были зареганы благополучно с ру номера НО это было до СВО и санкций
Говорят, на saturn cloud можно насосать гпу кредиты за хвалебные отзывы на сайтах
Аноним 26/04/23 Срд 05:19:54 #241 №259476 
>>258555
> Гугл всё, банит неиллюзорно.
В аноноколабе молниеносно фикс выкатили, пока работает с молитвами, лол. Можно ещё с названиями поебаться, если хочется. А в кохаскрипте гуй вообще нинужон, не знаю, кто его использует. Может, влияет, что у меня подписка пока есть, лол
Аноним 26/04/23 Срд 10:02:22 #242 №259700 
>>228964
Так то 2000 баксов не такая уж большая сумма (относительно) даже для одного нейрошейха-энтузиаста, не говоря уже о всяких краундфандингах
Аноним 26/04/23 Срд 11:47:17 #243 №259879 
Хочу сделать Лору на определенный автомобиль, сколько шагов нужно примерно? Так же 1500? И теги можно автоматически проставить с помощью wd или нужно клипом? Тренить очевидно буду на сд2.0
Аноним 26/04/23 Срд 12:05:03 #244 №259910 
>>258555
- Кагля требует верификацию телефона и шлёт нах номера РФ

https://5sim.biz/
Индийский номер от 2 до 20 рублей.
Карты из РФ принимает.

Тренировку лор то не забанили? Только генерацию картинок?
Аноним 26/04/23 Срд 12:09:40 #245 №259921 
изображение.png
>>259910
Вчера тренил лору, вроде нормально всё. В койе, кстати, тоже вылезает предупреждение.
Как же хочеца лору опробовать...
Аноним 26/04/23 Срд 12:10:56 #246 №259924 
Ща охуенная идея: трейнить лору на негативный эмбеддинг. Скормить ей всю блядскую ссанину, копро, гуро, артефактные пикчи, разные болезни и мутации, просто рисунки низкого качества и мыло. Да, такие лоры уже есть - но индивидуальный подход тоже важен, сделать как лучше (хуже) с моей т.з.. Например мне не нравится выкрученный контраст.
>>259879
Специально для индивидуумов с мозгом хлебушка сделали kohya dreambooth в колабе. Заливаешь и трейнишь с дефолтными параметрами. Можно тупо вставить ссылку на zip в драйве.
Аноним 26/04/23 Срд 12:12:19 #247 №259926 
>>259910
Генерация картинок не запрещена, просто накати либу diffusers без ui
Аноним 26/04/23 Срд 13:02:00 #248 №260003 
>>259926
Да картинки то у меня и локально нормально генерятся.

Лоры в коллабе удобнее тренить - чтоб надолго комп не занимать.
А так поставил трениться - и сидишь, либо работаешь, либо пикчи генеришь. Потом результат забираешь, и норм.
Аноним 26/04/23 Срд 13:18:49 #249 №260041 
>>259924
А теги как она ставит будет? Сама определит что это не аниме? Или подойдут бору теги для реал пикч?
Аноним 26/04/23 Срд 14:16:17 #250 №260153 
>>260003
Ну тогда ты ноешь на ровном месте
Аноним 26/04/23 Срд 14:17:59 #251 №260158 
>>260041
Там всё есть, ты хоть гуглил?
Аноним 26/04/23 Срд 14:44:47 #252 №260189 
>>260153
Где я ныл, алё?
Аноним 26/04/23 Срд 17:25:44 #253 №260576 
image.png
>>248075
фемка, спок
Аноним 26/04/23 Срд 19:33:26 #254 №260855 
быстрая треня лоры на фотках еот (~3 минуты, хорошее качество) в гуи от https://github.com/bmaltais/kohya_ss на 4070ti (приведены только параметры, отличные от стандартных):
model output name: ваша_дрочибельная_тян
train batch size: 4
learning rate: 0.001
unet learning rate: 0.001
network rank (dimension): 64
network alpha: 32
enable buckets: yes
full fp16 training: yes
обзываем папку 100_EOT woman, кидаем 15-20 пикч в хорошем качестве, (3-4 ебла крупным планом, остальные по пояс и во весь рост, желательно чтобы фон и одежда не повторялись, цепочки, татухи, пирсинг лучше замазать) обрезать до 512х512 пикчи не надо, разве что эти 3-4 ебла обрезать, если в полный кадр нет. жмём train model, через 3 минуты надрачиваем на свою пассию. обучал на моделях хача, порно и реалистик, плюс-минус одинаково, на стандартных не то, часто хуёвые пальцы и позы.
Аноним 26/04/23 Срд 19:44:39 #255 №260876 
>>260855
Скорость обучения высокая, надо на порядок меньше
Аноним 26/04/23 Срд 20:00:27 #256 №260914 
>>260876
выходит же норм результат в итоге. вот ещё learning rate scheduler: cosine, warmup steps: 10%, вроде дефолтные были. 12 картинок, 450 шагов, 2 минуты, готово. правда может иногда лишние детали добавлять, лечится весами промптов и cfg scale, также можно сменить модель на другую, на которой не тренилась лора.
Аноним 26/04/23 Срд 20:12:02 #257 №260929 
image.png
image.png
image.png
image.png
>>260876
Аноним 26/04/23 Срд 21:31:01 #258 №261149 
>>260929
ну и говно получилось же
Аноним 26/04/23 Срд 21:55:54 #259 №261193 
image.png
>>261149
иди мимо
Аноним 27/04/23 Чтв 05:18:58 #260 №262099 
>>261193
Он по факту сказалю
Аноним 27/04/23 Чтв 17:32:26 #261 №263567 
>>262099
без конкретики - пук в лужу
Аноним 27/04/23 Чтв 19:38:21 #262 №263946 
>>263567
Подтверждаю, конкретное говно.

мимо
Аноним 27/04/23 Чтв 23:11:42 #263 №264767 
tagcom.png
tagcom2.png
Анон, после обновления automatic1111 расширение tagcomplete cкурвилось (первый скрин), как вернуть чтоб красиво было? (второй скрин)

Алсо, раньше тыкал на сгенерированную картинку и она открывалась на весь экран, то ли это расширение было, то ли фича такая. Но сейчас она не работает.
Аноним 28/04/23 Птн 00:16:54 #264 №264932 
1638906783410.png
В колабе от анонов при запуске пропала возможность подтягивать модели с гуглодиска.
Аноним 28/04/23 Птн 01:02:16 #265 №265035 
>>264767
Обнови дополнение
Аноним 28/04/23 Птн 12:33:03 #266 №265801 
00205-1300068004.png
00194-1300067993.png
00192-1300067991.png
Аноны, подскажите что делать с руками (кистями рук)? Нужно что-то дополнительное в промпте (негатив-промпте) указать или лору использовать?

1girl, solo, masterpiece, patchouli knowledge, outdoors
Negative prompt: (worst quality, low quality:1.4), multiple views, blurry, jpeg artifacts, (nsfw, nude:1.2), gigantic breasts, huge breasts, large breasts
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 4129617840, Size: 512x768, Model hash: 7f96a1a9ca, Model: AnythingV5_v5PrtRE, Denoising strength: 0.6, Clip skip: 2, ENSD: 31337, Hires upscale: 2, Hires upscaler: 4x_Valar_v1
Аноним 28/04/23 Птн 14:46:13 #267 №266009 
>>265801
Промпты не помогут. Руки - это большая проблема нейронок, постоянно на них фейлятся.
Можешь на цивите поискать embeddings на это дело (по слову hands), они помогают, но совсем немного.
Контролнет с canny и depth моделями помогает больше, но его надо учиться использовать.
Ну и всегда можно ретушить вручную и потом прогонять картинку в имг-2-имг с очень низким денойзом для коррекции ретуши.
Аноним 28/04/23 Птн 15:25:49 #268 №266107 
Может знает кто, насколько критично отсутствие triton под второй торч на винде в кохьевском venv'е во время тренировки лоры? На что он вообще влияет?
Аноним 28/04/23 Птн 15:57:40 #269 №266160 
>>266107
> насколько критично отсутствие triton под второй торч на винде
Вообще похуй, тритон не используется там. Он будет работать только с автотюном, но автотюн говно для SD и везде выключен.
Аноним 28/04/23 Птн 16:25:02 #270 №266226 
>>266160
> Он будет работать только с автотюном, но автотюн говно для SD и везде выключен
А что такое автотюн?
Аноним 28/04/23 Птн 18:40:24 #271 №266619 
>>266107
Triton не используется вообще никак (пока)
Аноним 29/04/23 Суб 14:31:00 #272 №268405 
Кто то тренит на этой модели лоры? Действительно получается лучше или это хуйня? https://civitai.com/models/23900/anylora-checkpoint
Аноним 30/04/23 Вск 20:04:21 #273 №271644 
>>268405
Если тренить на ней, то хорошо будет получаться именно только на ней и на миксах с ней. Поэтому все тренят на NAI.
Аноним 01/05/23 Пнд 07:43:30 #274 №272933 
>Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)

Тут есть добрые дяди, которые это переведут? Прочитал по диагонали, относительно понял, но не на 100%.
Аноним 01/05/23 Пнд 07:55:46 #275 №272941 
xyzgrid-0346-1-style by einshelm, (realistic1.4), cyberpunk, detailed background, neon, neon light, miniskirt, cybernetical jacket, shirt with.jpg
>>272933
Я вот в душе не ебу, какой вариант лучше и как правильно это все тестить.
Аноним 01/05/23 Пнд 18:02:28 #276 №273834 
Сап, двач.
А есть ли тут те, кто продолжает тренить DreamBooth? Не лору - удобный, легковесный, но таки обрубок - а именно дримбудку? У меня кое-что получается, но больно уж странен результат...
Аноним 01/05/23 Пнд 18:06:36 #277 №273843 
>>273834
Тренируй locon
Аноним 01/05/23 Пнд 18:29:56 #278 №273889 
show.png
>>273834
>Не лору - удобный, легковесный, но таки обрубок - а именно дримбудку?
Нет разницы. Современная лора это просто выжимка того, что старый дримбут размазывал по модели. Вообще, мой совет долбоебам: тренируйте рожи своих мамок на дефолтную модель 1,5, а потом уже кидайте лору на что хотите.

мимо король раздела
Аноним 01/05/23 Пнд 21:37:27 #279 №274224 
Влад - гавно, ататата
Аутоматик вернулся - атататат

Срач на реддите

https://www.reddit.com/r/StableDiffusion/comments/134lri4/automatic1111_updated_to_110_version/

Какой же Влад все таки гавно
Аноним 01/05/23 Пнд 21:39:57 #280 №274229 
>>274224
>Какой же Влад все таки гавно
Переведи плиз перлы. Я не понимаю что там
Аноним 01/05/23 Пнд 21:46:16 #281 №274248 
>>274224
Лень читать уебанов. УМВР, переехал на второй торч и самосборные хформерс в феврале, никаких особых неудобств не испытал - ну, кроме сдохшего dreambooth, но он в целом больше и нахуй не нужон.
После сегодняшней обновы ничего страшного не случилось, все минутные отвалы пофиксились перезапуском сборки, че там эти долбоебы горят-то?
Аноним 01/05/23 Пнд 21:52:24 #282 №274256 
>>274224
Тоже лень рыться в их обсуждении, тлдр проблема не во владе а в кохаке https://github.com/vladmandic/automatic/issues/675
Аноним 01/05/23 Пнд 23:48:52 #283 №274550 
>>274256
> https://github.com/vladmandic/automatic/issues/675
Проорал с этого перла. Аддон для webui автоматика, при этом жалуются автору этого аддона что в какой-то кривом форке из-за него проблемы. Хотя в автоматике всё норм. Слепил кривое говно и ожидает что за него будут чинить, просто кринж.
Аноним 02/05/23 Втр 06:18:52 #284 №274918 
Уебанский каломатик обновился и сломал x/y/z/, теперь эта мразь отказывается переключаться между моделями и генерит только одну. Как эту хуйню чинить?
Аноним 02/05/23 Втр 06:27:27 #285 №274924 
image.png
image.png
image.png
image.png
>>274918
Вот что за хуйня, у него есть список, что генерить, а он цепляется к вообще рандомной модели и генерит с неё. Вот как это чинить?
Аноним 02/05/23 Втр 06:31:44 #286 №274928 
>>274924
Поменял путь, удалил модель, переподцепился к другой и генерит опять только с неё.
Аноним 02/05/23 Втр 06:40:42 #287 №274931 
image.png
xyzgrid-0437-3298786708-.png
>>274928
Вот как с этим говном работать? Первые две модели он нормально подцепил, потом с какого-то хуя вместо третьей подцепил хитокомору из другой папки, а последние 4 генерил на Orange_AOM3A3. Как эту пизду чинить?
Аноним 02/05/23 Втр 07:10:01 #288 №274940 
image.png
>>274931
Штож, обновил Extensions, и x/y/z решил сдохнуть окончательно.
Аноним 02/05/23 Втр 07:13:40 #289 №274943 
>>274940
Возможно я даун, но только щас заметил, что мне пишут о необходимости обновить торч и иксформерс. Штож.
Аноним 02/05/23 Втр 07:14:01 #290 №274944 
Аноны, подскажите, как откатиться на старую версию pytorch? Он обновился и теперь стабильно срет ошибкой CUDA out of memory при любых попытках диффундирования, даже на минимальных размерах картинки. На старой версии проблем вообще не возникало
Аноним 02/05/23 Втр 07:57:57 #291 №274961 
>>274944
--medvram
пропиши прст
Аноним 02/05/23 Втр 08:15:07 #292 №274974 
>>274943
Обновился и блядский X/Y/Z продолжает просто цепляться за одну модель и не менять её. Я хуй знает что делать.
Аноним 02/05/23 Втр 09:21:33 #293 №275032 
>>274918
Ебать ты охуевший чертила.
Ты либо ждешь, когда исправят баги в обновлениях и только потом перекатываешься, либо обновляешься и сам помогаешь чинить.
Аноним 02/05/23 Втр 09:46:50 #294 №275068 
image-172.png
>>274974
>Обновился и блядский
>>274944
>как откатиться
Resetting webui
If git pull shows an error, it is usually because you have accidentally changed some files. You can reset the webui folder with the following two commands.

cd %userprofile%\stable-diffusion-webui
git checkout -f master

And then run git pull again.

git pull

Note that all files will be reset. You will need to make changes to webui-user.bat again.

Reverting back to a previous version
Sometimes the latest version of webui is broken, and you don’t want to use it. You can revert back to a previous version by following the instructions below.

Step 1: Go to this page to view previous versions. Each row is a previous version.

Step 2: Pick a previous version you want to revert back to. You can look at the date and comment to make a judgment.

Step 3: Press the copy button to copy the hash code of the version.


Step 4: In the command prompt, run the following commands. The hash code (highlighted below) is just an example. You will paste the one you just copied.

cd %userprofile%\stable-diffusion-webui
git checkout 076d624a297532d6e4abebe5807fd7c7504d7a73

If you see errors, reset the webui (see the previous section) and retry.
Аноним 02/05/23 Втр 23:26:33 #295 №276339 
Потестил IF - даже базовая модель явно лучше чем SD 1.5. Убийца стейбла лол
Аноним 03/05/23 Срд 02:36:27 #296 №276709 
>>274961
>>275068
Спасибо! 👍
Аноним 03/05/23 Срд 04:51:45 #297 №276757 
ФОТОРЕАЛ.jpg
441 (17).png
441 (14).png
20npjvvv71ea1.png
>>258555
>>258643
>
Аноним 03/05/23 Срд 08:11:22 #298 №276816 
>>276757
Чот какая-то шляпенция...
Аноним 03/05/23 Срд 13:01:17 #299 №277217 
>>272933
https://rentry-org.translate.goog/BlockMergeExplained?_x_tr_sl=en&_x_tr_tl=ru&_x_tr_hl=ru&_x_tr_pto=sc
Аноним 03/05/23 Срд 13:25:32 #300 №277265 
Котоны, как организовать батч. Вот есть несколько десятков картинок. Они как бы перетекают друг в друга. Но они как ключевые кадры. Нет планости, если их свести в видос. А надо добавить промежуточных кадров.
Отсюда пару вопросов. Есть ли в автоматике способ из двух картинок сделать пачку с переходом изображения с одной ко второй? И второй вопрос, как мне это организовать для пачки картинок?
Аноним 03/05/23 Срд 14:41:58 #301 №277402 
>>277265
Ты имеешь ввиду сгенерировать переходные кадры от двкх картинок
Аноним 03/05/23 Срд 14:42:55 #302 №277404 
>>258643
Я нищий, соси маркетолог
Аноним 03/05/23 Срд 18:23:47 #303 №277808 
09000.jpg
>>276816
В чём шляпенция?
Аноним 03/05/23 Срд 19:18:40 #304 №277904 
>>277808
В свете.
Аноним 03/05/23 Срд 19:24:38 #305 №277912 
>>260855
Хуйня полня. Сосет у обычного дримбута с проглотом.

>full fp16 training: yes
Это вообще лучше не включать.

Проблема в том, что лору сильно корежит, в зависимости от того на какую модель натягиваешь. Прям рожи РАЗНЫЕ получаются. Тренировал на дефолте. Если взять срань типа уберпорн - вообще пиздец получится (не говоря о том, что из-за уберпорна суперзажатая анатомия и от любого лишнего тега в промте получаются многоножки человеческие). Мой вывод: нахуй. Лучше в дримбуте тренить двухгиговые, чем генерить тонны кала из лоры, надеясь что что-то похожее СЛУЧАЙНО выпадет.

Учил до сотки. 4 фотки, 10 фото, 20 фоток. На выходе результаты посредственные. Естественно датасеты чистые были.
Аноним 03/05/23 Срд 19:55:15 #306 №277954 
>>277808
Промт. automatic color correction photoshop.

Или в фотошопе автоматическая цветовая коррекция
Аноним 04/05/23 Чтв 10:36:00 #307 №278977 
Аноны подскажите, я нюфаг. Я вот натренировал хайпернетворк, я могу её дальше дотренировывать? И если да, то как?
Аноним 04/05/23 Чтв 12:01:56 #308 №279173 
>>277954
Блеванул, спасибо.
Аноним 04/05/23 Чтв 19:53:35 #309 №279915 
>>278977
Просто снова выбираешь её для тренировки и ставишь больше шагов
Аноним 04/05/23 Чтв 19:59:15 #310 №279922 
>>277265
Если бы можно было делать анимацию лишь по ключевым кадрам, большинство аниматоров были бы не нужны.
Попробуй интерполяцию кадров поделать через W2x, ну либо смотри какие расширения есть в автоматике для изначально генерации txt2video (их там несколько точно было), если речь про сгенерированные нейросетью изобржения
Аноним 04/05/23 Чтв 20:13:04 #311 №279947 
>>279915
А фото использовать те же или можно новые добавить?
Аноним 04/05/23 Чтв 20:43:27 #312 №280012 
изображение.png
>>264767
Для увеличения пикч ставь галку тут
Аноним 04/05/23 Чтв 21:24:32 #313 №280058 
>>277912
После всех проб и ошибок нашёл самый оптимальный метод создания лор для воссоздания лиц
1) Делаешь хороший дримбут
2) Экстрактишь из него лору
Аноним 05/05/23 Птн 00:22:52 #314 №280430 
Посоны, какое оптимальное количество total steps для обучение лоры?
Аноним 05/05/23 Птн 01:11:48 #315 №280497 
>>280058
И что без потерь извлекается?
Аноним 05/05/23 Птн 01:13:24 #316 №280501 
>>280430
Чем меньше фоток тем меньше, но не меньше 100. Потом тестишь добавляя скобки и смотришь примерно куда тебе дальше двигать.
Аноним 05/05/23 Птн 03:34:59 #317 №280608 
>>274974
Бамп вопросу, та же проблема.
>>275032
щитпост. Либо пиши по существу, либо не пиши ничего.
Аноним 05/05/23 Птн 04:09:38 #318 №280647 
222.png
Как бороться с тем, что нихуя не работает?
Аноним 05/05/23 Птн 05:03:49 #319 №280679 
image.png
>>202269
>>202304
Аноним 05/05/23 Птн 05:41:56 #320 №280695 
image.png
image.png
image.png
image.png
>>280679
Аноним 05/05/23 Птн 10:10:52 #321 №280841 
image.png
show.png
>>280647
Родится от другой матери.
Аноним 05/05/23 Птн 10:44:52 #322 №280864 
>>280501
>Чем меньше фоток тем меньше
Это да. Но Какое-то среднее есть? Видел гайд где чел брал 100 картинок и делал 20 000 общих степов
Аноним 05/05/23 Птн 11:31:05 #323 №280931 
>>279947
Всё с теми же настройками и входными данными. А если хочешь с другими данными, то наверное стоит заново сетку тренить
Аноним 05/05/23 Птн 11:32:18 #324 №280934 
>>280864
>Видел гайд где чел брал 100 картинок и делал 20 000 общих степов
Он ёбнутый. В дримбуте я обычно делал на пять фото 150-200 шагов + разово 150 текстового, потом дотренивал по 50+ без текстового, чтоб поймать максимальное сходство, причем если тебя КОНКРЕТНО лицо интересует - то лучше словить легкий оверфит, тестишь потом усиливая скобками и весом в промпте. И охуенный лайфхак, который я обнаружил на закате эры нейробомжей: не меняй все лицо. В инпейнте закрашивай только нос и глаза, можно еще брови, чтоб двойных не было - это дает самые реалистичные результаты, при этом при любой форме лица - ччеловек на форму меньше внимания обращает - основное внимание у нас на глаза и нос, потом рот идет. Не понимаю, почему все эти говносимсвапы так же маску не накладывают это бы бустнуло к качеству +178%.
Аноним 05/05/23 Птн 11:33:38 #325 №280936 
>>280931
Фото добавлять можно.
Аноним 05/05/23 Птн 13:44:02 #326 №281131 
>>280430
~2000-2500, но это верхний предел.
Если в модели концепт уже есть, и ты на него удачно попадаешь - может и за 300 натренироваться.
Поэтому разделяй по эпохам и сохраняй промежуточные результаты, потом отбирай самый нормальный.
Аноним 05/05/23 Птн 19:15:13 #327 №281532 
106447344p0.png
106708129p0.png
annieleonhart5byfantasyaidfsmnt4.png
image-8.jpg
Знают ли уважаемые эксперты что могло нагенерировать эти картинки? Под каждой из них написано, что их нагенерировал AI. Все 4 нагенерены разными людьми.
Я так понимаю, что Stable Diffusion это стандарт де-факто на текущий момент.
Вопрос в том какие модели это делали?

Последнее что я сам генерировал со Stable Diffusion это картиночки со слитыми модели NovelAI. Там качество даже близко не такое как на этих примерах.
Аноним 05/05/23 Птн 19:28:18 #328 №281544 
>>281532
Иди заново вкатывайся в наи тред
Аноним 05/05/23 Птн 19:43:27 #329 №281568 
>>281532
Типичные работы кумеров с civitai
Аноним 05/05/23 Птн 20:00:32 #330 №281593 
>>280497
Да, главное указать ту модель на которой тренил. Схожесть намного лучше, чем при трейне чистой лоры на таком же датасете.
Аноним 05/05/23 Птн 20:03:59 #331 №281597 
>>280934
В симсвапе вроде как идет трейн по одной фотке, что хуйня и ждать чуда смысла нет = > душный результат. Плюс овал лица сильно увеличивает схожесть. Можно конечно свапать в положих людей, но это ебать душнилово.
Аноним 05/05/23 Птн 21:00:07 #332 №281668 
>>281597
>Плюс овал лица сильно увеличивает схожесть.
Практически не влияет, только если совсем уж разный. Да ты сам в инпейнте проверь. Как бы и убедишься очень быстро. Пробема симсвапа и фейсденсера и т.п. в том, что они трогают ебучий рот. Вообще, если в стабле генерить кадры с контролнетом, как щас делают, то можно мутить нихуевый симсвап с помощью обученной лоры.
Аноним 05/05/23 Птн 22:27:54 #333 №281775 
ммм каломатик обновил поддержку питорча и иксформерса
настало время переустанавливать шиндошс каломатик
Аноним 05/05/23 Птн 22:30:54 #334 №281781 
>>281775
Копрофажек, спок.
Аноним 05/05/23 Птн 22:31:25 #335 №281782 
>>281781
ретрододик, ты? до сих пор на релизе от ноября сидишь?
Аноним 06/05/23 Суб 04:38:30 #336 №282072 
а че вы молчали что токенмерджер запилили? я ахуел с убыстрения скорости генерации
https://github.com/dbolya/tomesd
Аноним 06/05/23 Суб 10:10:44 #337 №282224 
>>280934
А как дотренировывать лору?
Аноним 06/05/23 Суб 11:20:55 #338 №282292 
>>282072
Слишком ломает картинку, оно того не стоит. Простое уменьшение шагов и то не так сильно пидорасит.
Аноним 06/05/23 Суб 11:42:10 #339 №282321 
>>282224
Так же.
Аноним 06/05/23 Суб 13:32:09 #340 №282484 
Пацаны научите кончу на ебале тянкам рисовать, прошу
Аноним 06/05/23 Суб 13:44:38 #341 №282501 
>>282484
Распечатываешь фотку, дрочишь на неё, затем фотаешь, сохраняешь файл на комп. Готово.
Аноним 06/05/23 Суб 14:17:23 #342 №282574 
Окей, я скачкал последнего автоматика и он просит скачать торч 2.0. Его заливать в местный венв самого автоматика? И почему он сам его не скачает?
Аноним 06/05/23 Суб 14:20:39 #343 №282586 
Посоны, поделитесь пожалуйста json файлом с оптимальными настройками для лоры
Аноним 06/05/23 Суб 14:34:16 #344 №282635 
>>282484
Тебе нужно обучить лору. вот тебе датасет. удачи
https://danbooru.donmai.us/posts?tags=facial+order%3Ascore
Аноним 06/05/23 Суб 14:36:34 #345 №282639 
>>282574
Ладно, оно поставилось. Пришлось клонировать репо заново
Аноним 06/05/23 Суб 14:53:39 #346 №282689 
Как в автоматике указать путь к моделям и всему остальному?
Аноним 06/05/23 Суб 14:57:04 #347 №282695 
>>282072
И что, намного ускоряет?
Аноним 06/05/23 Суб 15:11:23 #348 №282735 
>>282292
>Слишком ломает картинку
не ломает

>>282695
да
Аноним 06/05/23 Суб 15:17:38 #349 №282752 
https://github.com/VoltaML/voltaML-fast-stable-diffusion
Пробовали?
Аноним 06/05/23 Суб 15:19:57 #350 №282756 
>>282735
>да
Так, падажжи.
Патчи какие-то, командная строка...
С каломатиком чтоль не работает?
Ну и нахера оно тогда нужно?
Аноним 06/05/23 Суб 15:22:06 #351 №282760 
image.png
>>282756
чел
Аноним 06/05/23 Суб 15:30:58 #352 №282784 
>>282752
Чё это? Зачем:
>4. Edit the .env file
>bash
># Hugging Face Token (https://huggingface.co/settings/tokens)
>HUGGINGFACE_TOKEN=YOUR_TOKEN_HERE
Аноним 06/05/23 Суб 15:36:09 #353 №282794 
1614600890582.png
>>282735
> не ломает
Даже на 0.2 мыльца накидывает знатно. На 0.5 уже пизда вместо нормальной детализации.
Аноним 06/05/23 Суб 15:36:31 #354 №282795 
xyzgrid-0002-2528137569.jpg
Долбаные косички. Похоже надо нагенерировать нормальных картинок с контролнетом и влить в датасет.
Аноним 06/05/23 Суб 15:41:25 #355 №282807 
>>282794
А че ты от 512 хотел? Ставь повыше.
Аноним 06/05/23 Суб 15:42:49 #356 №282814 
>>282784
Зачем тебе докер? Ставь бубунту из микростора.
Аноним 06/05/23 Суб 16:00:40 #357 №282861 
image
>>282814
>Ставь бубунту
Да блять там в скрипте установки такое:
># /bin/bash

>echo Please paste your HuggingFace token here:
>read hftoken

Ну и хули это?
Аноним 06/05/23 Суб 16:01:55 #358 №282863 
>>282861
https://voltaml.github.io/voltaML-fast-stable-diffusion/installation/local#windows
Аноним 06/05/23 Суб 16:04:03 #359 №282867 
>>282863
Ты ёбаный дебил. Посмотри что в скрипте по твоей ссылке. curl -fsSLO https://raw.githubusercontent.com/VoltaML/voltaML-fast-stable-diffusion/experimental/scripts/wsl-install.sh

https://raw.githubusercontent.com/VoltaML/voltaML-fast-stable-diffusion/experimental/scripts/wsl-install.sh
Аноним 06/05/23 Суб 16:11:25 #360 №282883 
>>282867
а ну иди сделай акк на хаге и возьми оттуда токен в чем проблема
Аноним 06/05/23 Суб 16:15:58 #361 №282886 
>>282883
>токен
чтобы позже им все пользовались?
Аноним 06/05/23 Суб 16:17:06 #362 №282888 
>>282760
Что-то куда-то добавлять, файлы править, потом они обновляться с гит-пулла еще перестанут...
Эстеншн где? Нет?
Ну значит лесом, не стоит оно того.

Тем более вон выше про мыло писали. Тект2имг с низким разрешением я и так быстро генерю.
А выше уже апскейл работает.
И тут непонятно, как оно с апскейлерами законтачит.
Аноним 06/05/23 Суб 16:18:09 #363 №282890 
>>282888
>нинужна
Ну твое право.
Аноним 06/05/23 Суб 16:24:34 #364 №282895 
>>282886
Ну пропиши единичку, в лораскриптах тоже можно так пропускать токен
Аноним 06/05/23 Суб 16:46:23 #365 №282974 
image.png
Докачалось это говно наканецта
Аноним 06/05/23 Суб 17:19:19 #366 №283072 
>>282974
Што ета?
Аноним 06/05/23 Суб 17:26:28 #367 №283086 
А ето кто пробовал?
https://github.com/anapnoe/stable-diffusion-webui-ux
Аноним 06/05/23 Суб 17:34:02 #368 №283105 
>>283072
>>282752
Аноним 06/05/23 Суб 17:39:18 #369 №283120 
>>283086
Очередной говнофорк с нескучными скинами и шрифтами
Аноним 06/05/23 Суб 23:07:17 #370 №284019 
00167-996565719.png
Не знаю, постят ли тут еще лоры, но вот лора на Славяну:
https://civitai.com/models/59722
Аноним 07/05/23 Вск 00:11:13 #371 №284137 
>>282888
Нормально всё будет с обновлениями. Разве что эта хрень сами модели настраивает, и если отключить её просто так, то файлы моделей испортит.
Проблема в том, что ради процентов 20 ускорения эта дрянь качество картинки поганит. На некоторых просто детали убавляет, на других же всю картинку в говно превращает.
Аноним 07/05/23 Вск 00:51:10 #372 №284250 
не могу с генерацией лоры разобраться
Аноним 07/05/23 Вск 00:52:22 #373 №284255 
{
"pretrained_model_name_or_path": "D:/SD/stable-diffusion-webui/models/Stable-diffusion/--v1-5-pruned.safetensors",
"v2": false,
"v_parameterization": false,
"logging_dir": "D:/01/kohya_ss/train/log",
"train_data_dir": "D:/01/kohya_ss/train/image",
"reg_data_dir": "",
"output_dir": "D:/01/kohya_ss/train/model",
"max_resolution": "512,512",
"learning_rate": "0.0001",
"lr_scheduler": "constant",
"lr_warmup": "0",
"train_batch_size": 1,
"epoch": "1",
"save_every_n_epochs": "1",
"mixed_precision": "bf16",
"save_precision": "bf16",
"seed": "1234",
"num_cpu_threads_per_process": 2,
"cache_latents": true,
"caption_extension": ".txt",
"enable_bucket": false,
"gradient_checkpointing": true,
"full_fp16": false,
"no_token_padding": false,
"stop_text_encoder_training": 0,
"use_8bit_adam": true,
"xformers": true,
"save_model_as": "safetensors",
"shuffle_caption": false,
"save_state": false,
"resume": "",
"prior_loss_weight": 1.0,
"color_aug": false,
"flip_aug": false,
"clip_skip": 2,
"vae": "",
"output_name": "test",
"max_token_length": "75",
"max_train_epochs": "",
"max_data_loader_n_workers": "1",
"mem_eff_attn": true,
"gradient_accumulation_steps": 1.0,
"model_list": "runwayml/stable-diffusion-v1-5",
"keep_tokens": "0",
"persistent_data_loader_workers": false,
"bucket_no_upscale": true,
"random_crop": false,
"bucket_reso_steps": 64.0,
"caption_dropout_every_n_epochs": 0.0,
"caption_dropout_rate": 0
}
Скажите настройка нормальная?
Аноним 07/05/23 Вск 00:59:57 #374 №284274 
>>284255
> "lr_scheduler": "constant",
Такой себе планировщик
Аноним 07/05/23 Вск 01:22:55 #375 №284334 
>>284274
Пожалуйста дай конфиг получше. Спасибо
Аноним 07/05/23 Вск 06:47:33 #376 №284591 
>>283120
>говнофорк
так-то верно говоришь, но вот почему у них всегда есть мелкие плюшки, которых нет в оригинале? Вот кнопочки удобные:
https://user-images.githubusercontent.com/124302297/227973727-084da8e0-931a-4c62-ab73-39e988fd4523.png
Аноним 07/05/23 Вск 06:50:53 #377 №284596 
Перенесётся ли и заработает аутоматик1111 в образе wsl2 с 10 в 11 windows?
Аноним 07/05/23 Вск 10:19:52 #378 №284732 
image.png
>>284334
Итак, по поводу шедулеров:
1 и 4) Это если вы высчитали идеальный LR по графикам, а также при использовании DA. Точнее первый - DA, а с разогревом - высчитанный.
2 и 3) Это когда LR ставится "на глазок" - в процессе тренинга лр меняется по косинусойде, так что даже если выставили немного не так, то плавные снижения и повышения до определённой степени это компенсируют. Рестарты увеличивают количество раз когда лр пройдёт от максимума до минимума - пройдя цикл лр сбрасывается и вновь "разогревается". В ликорис колабе рекомендуется 3 рестарта, но видел и до 12.
5) Тупо начинается с максимума и линейно снижается до 0. Тренит слишком жостко.
6) Позволяет запердолить свою функцию, я так понял. Можно не обращать внимания.
Аноним 07/05/23 Вск 11:26:49 #379 №284819 
При тренировке лор (не аниме, человеческие ебала) самыми удачными получались те, в которых были regularization, сгенерированные про промптам с датасета.
Я дурак, или гринтекст действительно хорошо поверхностно объясняет, как это работает?
> Карикатурист берёт лицо Ницше и достаёт из него все те паттерны, которые использует наш мозг, чтобы узнать великого философа, и изображает их в преувеличенном виде. Или, иначе говоря, он берёт среднее арифметическое всех мужских лиц и вычитает его из лица Ницше, а затем усиливает разницу. Таким образом, он создаёт портрет, который поход на Ницше больше, чем сам Ницше.
Аноним 07/05/23 Вск 11:33:41 #380 №284834 
poly.png
.png
>>284732
Мимокрокодил
> 6) Позволяет запердолить свою функцию, я так понял. Можно не обращать внимания.
Нет, это вот такой график как на пик1. Там 0.75 силы дополнительно передано аргументом. В зависимости от него будет снижать лр до 1е-7, в стоке вроде похож на линеар.

Есть кто хорошо в математике разбирается? Подскажите какие аргументы писать, чтобы построить шедулер как на пик2 с убывающим трендом лр с помощью CyclicLR https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.CyclicLR.html
Аноним 07/05/23 Вск 11:43:02 #381 №284846 
>>284819
Вот кстати да. Интересное объяснение регуляризаций.
Аноним 07/05/23 Вск 13:32:10 #382 №285013 
>>284819
Зависит от того, что ты подразумеваешь под "удачным".
С регуляризацией ты мог просто не дойти до перетрена, если количество шагов осталось тем же (ведь датасет увеличился).
Модель изначально могла выдавать плохой результат для класса, а регуляризация его подправила.
Аноним 08/05/23 Пнд 21:31:05 #383 №287974 
Попытался первый раз с регуляризацией потренить - и что-то прям нифига не вышло. Тренил концепт + стиль.
Какие там подводные камни?
Скорость обучения?
Тэги для регуляризаций?
Число картинок, число повторов?
Аноним 08/05/23 Пнд 21:50:32 #384 №288053 
В чем различия тернировки на стиль и на концепт\перса? Только теги или настройки обучения тоже надо менять?
Аноним 09/05/23 Втр 00:37:31 #385 №288590 
1683581840588.png
Заметил, что видеокарта не единственное, что влияет на скорость генерации. Память и проц дали 50% улучшение, когда поменял 8700K+DDR4 3000 на 13900K+DDR5 6600. Тест Асуки, если кто его помнит, скинул время с 12 до 8 секунд. Видимо, вопрос в памяти, т.к. у проца грузится всего одно ядро.
Аноним 09/05/23 Втр 21:28:21 #386 №290506 
>>288590
С какой вк? С 4090 уже давно выяснили что ее тыквит все кроме 13900к да и он может быть тоже тыквит
Аноним 10/05/23 Срд 18:54:12 #387 №292007 
tmpy40h6zfc.png
tmpfby5nseg.png
tmpo2mcfs18.png
tmpqqt9yhrv.png
>>274974
> Обновился
проблема лежит где-то здесь

>>276339
что такое ИФ? inb4 зАмок

>>278977
> хайпернетворк
на форче недавно аноны бугуртили, что их надо из всех гайдов убрать. вопрос в технотеде /g/ был примернор один к одному твой.
Аноним 10/05/23 Срд 19:04:49 #388 №292036 
image.png
> hypernetwork
плюс оди жрут больше меставиноват, проверил, пиздёж. почему щас лоры почти все подошли к пределу 144 метра, а потом въебенили 288 метров??, чем лора, без костылей работают работали? только одна подряд, и -5% к скорости генерации на моей не-очень-карте a если две врубить, то потеря 10-20% будет, чтоли??
Аноним 10/05/23 Срд 21:21:40 #389 №292335 
>>290506
> С какой вк?
3080Ti.
Аноним 11/05/23 Чтв 02:06:12 #390 №292932 
>>292007

>tmpy.pic

Вкусные макароны?
Аноним 11/05/23 Чтв 10:15:24 #391 №293211 
>>292036
>почему щас лоры почти все подошли к пределу 144 метра, а потом въебенили 288 метров??
Потому что те, кто их тренируют - без мозгов.
Скоро будут лору на персонажа размером с цельную модель тренировать.
Аноним 11/05/23 Чтв 14:13:21 #392 №293534 
Вкатываюсь в лорирование.
В общем-то вопросы, наверное, платиновые.
Обучаю сейчас на даптейшоне с лр1, выглядит выхлоп хорошо, но с весом в единичку модель начисто забывает всё, что знала о чём-либо, кроме темы обучения. Это фиксится как-нибудь? Пробовал сбрасывать лр и обучать короче — просто получаю недообученный выхлоп. Всё или ничего, короче, получается.

Ещё вопрос. Можно ли как-то снизить степень с которой забирается стиль с датасета при обучении персонажу? Прописывать пробовал в промптах, но чот не сильно помогает.
А рег имги влияют на стиль? Я так понял, что их не используют при обучении стилю, ето так? Пробовал с ними и без них и как-то не особо пока понял как они влияют.
Аноним 11/05/23 Чтв 15:45:09 #393 №293725 
>>293534
> Это фиксится как-нибудь?
Построй грид из эпох и весов и посмотри какая вышла более удачной с весом 1, не всегда будет идеальной именно последняя эпоха.
> Можно ли как-то снизить степень с которой забирается стиль с датасета при обучении персонажу?
Проще всего разбавлять датасет другими стилями, если у тебя все картинки одного персонажа от одного художника, сетка с большей вероятностью начнёт рисовать в его стиле. Всё в этом плане просто, хочешь стиль - собирай разных персонажей в одинаковой рисовке, персонажа - одного в разных.
> А рег имги влияют на стиль? Я так понял, что их не используют при обучении стилю, ето так?
Я так и не видел чтобы кто то использовал успешно реги, да и с ними тренить дольше, ведь на них тоже нужны повторения.
Аноним 11/05/23 Чтв 16:38:17 #394 №293814 
>>293725
> Я так и не видел чтобы кто то использовал успешно реги
Опять гайды пиздят штоле...
> Построй грид из эпох и весов и посмотри какая вышла более удачной с весом 1
Да, так и начал делать уже, но уже с самых первых эпох выходит, что надо вес до 0.5-0.6 опускать, чтоб было хоть на что-то похоже. Что-то я делаю не так.
Аноним 11/05/23 Чтв 16:41:25 #395 №293817 
>>293814
Ты какой лр с дадаптом ставишь? 1.0?

мимо
Аноним 11/05/23 Чтв 16:42:55 #396 №293820 
>>293817
Да, 1. Пробовал 0.5, но хуже получилось.
Аноним 11/05/23 Чтв 16:48:14 #397 №293831 
>>293814
> Опять гайды пиздят штоле...
Я видел только один гайд где про реги более менее что то было написано, сам с ними не тренил, точно сказать не могу про них. Без них стиль и персонажи нормально получаются.
> Да, так и начал делать уже, но уже с самых первых эпох выходит, что надо вес до 0.5-0.6 опускать, чтоб было хоть на что-то похоже. Что-то я делаю не так.
Лучше просто покажи все настройки и грид, с дадаптом кстати не совсем понятно насчет разделения лров, во второй версии это уже не работает, в предыдущих же вроде принимает разные, но выставляет ли для те и юнета хз. Ещё он походу недетерменированный, как с адамом две одинаковые сетки не получатся.
Аноним 11/05/23 Чтв 17:01:16 #398 №293870 
>>293831
Запустил сейчас без регов прожариться, а то я в последние разы с ними тестил. Может, в них проблема.

>настройки
{
"base_model": "D:/StableDiffusion/Lora Easy Training Script/model/model.safetensors",
"img_folder": "D:/StableDiffusion/Lora Easy Training Script/images/",
"output_folder": "D:/StableDiffusion/Lora Easy Training Script/_Result",
"save_json_folder": "D:/StableDiffusion/Lora Easy Training Script/json",
"save_json_name": "Character3",
"load_json_path": null,
"multi_run_folder": null,
"reg_img_folder": null,
"sample_prompts": null,
"change_output_name": "CharacterTest",
"json_load_skip_list": null,
"training_comment": null,
"save_json_only": false,
"tag_occurrence_txt_file": true,
"sort_tag_occurrence_alphabetically": false,
"optimizer_type": "DAdaptation",
"optimizer_args": {
"weight_decay": "0.1",
"betas": "0.9,0.99",
"decouple": "True"
},
"scheduler": "constant",
"cosine_restarts": 1,
"scheduler_power": 1,
"lr_scheduler_type": null,
"lr_scheduler_args": null,
"learning_rate": 1.0,
"unet_lr": 1.0,
"text_encoder_lr": 1.0,
"warmup_lr_ratio": null,
"unet_only": false,
"net_dim": 128,
"alpha": 1.0,
"train_resolution": 576,
"height_resolution": null,
"batch_size": 1,
"clip_skip": 1,
"test_seed": 23,
"mixed_precision": "fp16",
"save_precision": "fp16",
"lyco": false,
"network_args": null,
"num_epochs": 60,
"save_every_n_epochs": 1,
"save_n_epoch_ratio": null,
"save_last_n_epochs": null,
"max_steps": null,
"sample_sampler": "ddim",
"sample_every_n_steps": null,
"sample_every_n_epochs": null,
"buckets": true,
"min_bucket_resolution": 320,
"max_bucket_resolution": 960,
"bucket_reso_steps": null,
"bucket_no_upscale": true,
"shuffle_captions": false,
"keep_tokens": null,
"token_warmup_step": null,
"token_warmup_min": null,
"weighted_captions": false,
"xformers": true,
"cache_latents": true,
"cache_latents_to_disk": false,
"random_crop": false,
"flip_aug": true,
"v2": false,
"v_parameterization": false,
"gradient_checkpointing": false,
"gradient_acc_steps": null,
"noise_offset": 0.06,
"multires_noise_iterations": null,
"multires_noise_discount": 0.3,
"mem_eff_attn": false,
"min_snr_gamma": 5.0,
"huggingface_repo_id": null,
"huggingface_repo_type": null,
"huggingface_path_in_repo": null,
"huggingface_token": null,
"huggingface_repo_visibility": null,
"save_state_to_huggingface": false,
"resume_from_huggingface": false,
"async_upload": false,
"lora_model_for_resume": null,
"save_state": false,
"resume": null,
"text_only": false,
"vae": "D:/StableDiffusion/Lora Easy Training Script/model/VAE.pt",
"log_dir": null,
"log_prefix": null,
"log_with": null,
"log_tracker_name": null,
"wandb_api_key": null,
"tokenizer_cache_dir": null,
"dataset_config": null,
"lowram": false,
"no_meta": false,
"color_aug": false,
"use_8bit_adam": false,
"use_lion": false,
"caption_dropout_rate": null,
"caption_dropout_every_n_epochs": null,
"caption_tag_dropout_rate": null,
"prior_loss_weight": 1,
"max_grad_norm": 1,
"save_as": "safetensors",
"caption_extension": ".txt",
"max_clip_token_length": 150,
"save_last_n_epochs_state": null,
"num_workers": 1,
"persistent_workers": true,
"face_crop_aug_range": null,
"network_module": "sd_scripts.networks.lora",
"locon_dim": null,
"locon_alpha": null,
"locon": false,
"sample_every_n_epoch": 1,
"list_of_json_to_run": null
}
Аноним 11/05/23 Чтв 17:21:42 #399 №293935 
>>293870
> Запустил сейчас без регов прожариться, а то я в последние разы с ними тестил. Может, в них проблема.
Вполне возможно.
Слишком много эпох, сколько у тебя пикч х повторов на эпоху без регов? Алсо не знаю насколько это хорошо тренить с дадаптом и низкой альфой, вроде у одного анона плохие результаты были. Если железо тянет, ставь лучше бф16, батч сколько влезет и альфу 1/4, 1/2 или вовсе равную диму, дадапт может завысить слишком сильно лр в таком огромном соотношении дим к альфе.
Аноним 11/05/23 Чтв 17:48:04 #400 №293985 
>>293935
>Слишком много эпох
Для теста поставил побольше же, там двести пикч без повторов.

>не знаю насколько это хорошо тренить с дадаптом и низкой альфой
Ну, я по этому гайду поставил единичку: https://rentry.org/59xed3#dadaptation
Можно будет её дальше подёргать значит.

>бф16
На 2070, я так понимаю, не взлетает.
>батч сколько влезет
Всё, что влезло...
Аноним 11/05/23 Чтв 18:24:00 #401 №294077 
>>293985
> Для теста поставил побольше же, там двести пикч без повторов.
Как по мне всё равно много, ну смотри сам.
> Ну, я по этому гайду поставил единичку: https://rentry.org/59xed3#dadaptation
Во, да это неплохой гайд, я в нём про реги и читал, там очень замудрённо, ты всё как там делал?
> Можно будет её дальше подёргать значит.
Если бф16 поставить не можешь, лучше не дёргай с единицы, чем больше поставишь тем больше будет мертвых тензоров. Однако чем она больше, тем лучше тренируется стиль, по крайней мере из того что я пробовал. Впринципе я видел дохуя лор с фп16 128/128 годных с точки зрения генераций а не циферок, несмотря на мертвые тензоры, так что опять же думай сам насчёт этого рычага.
> На 2070, я так понимаю, не взлетает.
Вроде только с 3000 серии.
Аноним 11/05/23 Чтв 20:38:28 #402 №294371 
image
image
>>294077
Ну, в общем, проблема воспроизводится, на весе 0.6 неплохая лора выходит ощемто, только эпок поискать удачный. Но вес выше - кровь-кишки. Причём на совсем разных сетах картина примерно одинаковая.
Ну вот, а я уверовал в современные технологии и хотел, чтобы дадапт всё за меня сделал, эх.

> там очень замудрённо, ты всё как там делал?
Да вряд ли, я в него как в справочник просто заглядываю.

Но без регов стало лучше, да.
Аноним 11/05/23 Чтв 21:00:50 #403 №294446 
>>294077
> про реги
А ну да, реги рандомные у меня, хардкорный вариант по этому гайду не делал.
Аноним 11/05/23 Чтв 21:16:42 #404 №294483 
>>294371
> эпок
Только не говори что ты ещё следуешь и этому гайду-изинегативу от хруста. Перестань, если да, и сделай лучше по гайду из шапки, который поновее, персонажа он тебе точно поможет сделать. Ну или по тому, который ты скидывал, хотя он действительно больше как справочник с информацией для тех кто уже смешарик и натренил хотя бы пару успешных лорок.
> Ну вот, а я уверовал в современные технологии и хотел, чтобы дадапт всё за меня сделал, эх.
У тебя сетка взрывается со второй эпохи, если вообще не с первой, и не тренируется плавно, ты смотрел какой лр выбрал дадапт? Вангую он слишком огромен, такого происходить не должно, повышай альфу или вручную ставь лр с адамом. И не трень 60 эпох, это бессмысленное жжение карты, 20 уже будет оверфитом, если вообще не 10, в случае с твоими параметрами.
Аноним 11/05/23 Чтв 21:29:50 #405 №294506 
>>294483
> гайду-изинегативу от хруста
Впервые слышу
> по гайду из шапки
Окей, буду сверяться.

> У тебя сетка взрывается со второй эпохи
Ага, так вот что тут происходит.

> ты смотрел какой лр выбрал дадапт?
Да чот изискрипт не пишет ничего кроме лоса в процессе, без понятия. Но он подозрительный, к слову, с первых шагов 0.9 и очень низкие вариации.

> повышай альфу или вручную ставь лр с адамом
Звучит как план, спасибо.
Аноним 11/05/23 Чтв 21:42:28 #406 №294540 
>>294506
> Но он подозрительный, к слову, с первых шагов 0.9 и очень низкие вариации.
Если ты такой лосс видишь, можешь сразу останавливать, там всё подохло моментально. Скорее всего виноват лр. Какой бы плохой датасет не был, не должна сетка на первых шагах взрываться.
Логи можешь смотреть введя в консоль в папке с сд скриптс venv\scripts\activate.bat и потом tensorboard --logdir "здесь путь к папке", папку надо указать и логирование включить в параметрах, чем бы ты там не тренил.
Аноним 11/05/23 Чтв 23:54:25 #407 №294835 
Как исправить ошибку:

NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
Аноним 12/05/23 Птн 02:07:42 #408 №295047 
>>293820
Я на твоем месте таки вернулся в диапазон 0.3-0.5 и скрутил бы резолюшн до 512 что бы бс 2 влезло для тестов.
Алсо, можешь залить датасет, попробую повторить когда/если будет не лень/не забуду.

>>294835
У тебя в самой ошибке написано решение. Ну и только по ошибке нихуя не понятно, предоставляй полную инфу когда, где, на чем и с чем это случается.
Аноним 12/05/23 Птн 06:00:51 #409 №295175 
>>293985
>Ну, я по этому гайду поставил единичку: https://rentry.org/59xed3#dadaptation

В чем преимущества этой штуки по сравнению с обычной тренировкой?
Что-то из того раздела непонятно, зачем оно вообще надо.
Только чтоб лр не крутить? Так базовые значения из скриптов обычно хорошо работают.
Аноним 12/05/23 Птн 14:50:11 #410 №295798 
Есть какая-нибудь штука для быстрого и массового удаления с изображений ватермарок, логотипов, ссылок, и прочей подобной фигни?
Чтоб оно при тренировке лоры внутрь не пролезало.

Понятно, что через негативы в промпте при генерации потом это можно убрать, но хотелось бы чтоб лора чистая была.
Аноним 12/05/23 Птн 16:01:55 #411 №295963 
>>295798
Я ничего нормально рабочего так и не нашел, поэтому в фотошопе вручную стираю инструментом "Заплатка" (Spot Healing Brush tool (J))
Аноним 12/05/23 Птн 16:20:56 #412 №296030 
>>295963
Вручную, блин, долго.
Я уже для своих лор сотен восемь картинок так обработал - запарился, если честно. Нужно автоматизировать процесс.

Самая жесть была, когда я решил на артах с пиксива художника потренить. Красиво рисует.
Так на пиксив без цензуры нельзя арты постить.
И чтоб эта мозаика в лору не пролезла - пришлось этак 80% датасета (200 с гаком картинок) через инпэинт прогонять, чтоб нейронка мне вместо цензуры хотя бы что-то мало-мальски похожее нарисовала.
Цельный день на это убил.
Аноним 12/05/23 Птн 16:49:42 #413 №296113 
>>200987
>гиперреальность
Это как?
Аноним 12/05/23 Птн 16:54:16 #414 №296127 
clit.png
Вопрос. Имеется коллекция состоящая из примерно 8000 closeup фотографий женских клиторов. Как натренировать лору так, чтобы я мог её использовать при генерации full body изображений? Сейчас такая лора либо генерирует всратые closeup фотографии, либо всрато работает с инпейнтом. Или может есть какие-то специальные настройки и теги, чтобы хотя бы нормально работал инпейнт?
Аноним 12/05/23 Птн 16:58:48 #415 №296137 
>>296127
Ты мерзкий
Аноним 12/05/23 Птн 18:07:00 #416 №296298 
>>295175
> Только чтоб лр не крутить? Так базовые значения из скриптов обычно хорошо работают.
Да, именно для этого. Он просто сделает хорошо, если датасет нормальный и остальные параметры выставлены правильно, иногда можно сделать лучше выставляя лр вручную через адам.

Тот гайд обновился автором и он подтвердил кстати что это не детерминированный оптимайзер.
Аноним 12/05/23 Птн 20:44:09 #417 №296665 
>>296127
Везде с обрубками пальцев. Выкинь нахуй это говно.
Аноним 12/05/23 Птн 21:05:55 #418 №296717 
>>296665
Пальцы можно обрезать или замазать. Интересует сам процесс тренировки. Есть же лоры на глаза и они норм работают. Хочу сделать такую же, только на пёзды/клиторы.
Аноним 12/05/23 Птн 21:51:08 #419 №296919 
Сижу с регами экспериментирую и у меня полное ощущение, что они тупо пополняют датасет.
Нагенерил в качестве регов нужного персонажа, добавив в промпт, чтобы глаза светились — обучаю заново с ними и наблюдаю, как у выхлопной лоры у чара начинают светиться глаза.
Это законно?
Аноним 12/05/23 Птн 22:04:14 #420 №296961 
>>296717
Хотел бы - сделал. Не понимаю смысла твоего пиздежа. Тред с готовыми лорами ниже.
sage[mailto:sage] Аноним 12/05/23 Птн 22:25:25 #421 №297038 
image.png
ЧТО СЛУЧИЛОСЬ СО СТАРЫМ СКРИПТОМ LOOPBACK? КУДА ОН ДЕЛСЯ??
Аноним 12/05/23 Птн 22:43:08 #422 №297094 
00453-15-((detailed face)), ((1girl)), (adult teacher as [midget gobbo] with [[[dark]]] skin), (milf), (tomboy), kancolle, tally, (extrem.jpg
00454-16-((detailed face)), ((1girl)), (adult teacher as [midget gobbo] with [[[dark]]] skin), (milf), (tomboy), kancolle, tally, (extrem.jpg
00455-17-((detailed face)), ((1girl)), (adult teacher as [midget gobbo] with [[[dark]]] skin), (milf), (tomboy), kancolle, tally, (extrem.jpg
00456-18-((detailed face)), ((1girl)), (adult teacher as [midget gobbo] with [[[dark]]] skin), (milf), (tomboy), kancolle, tally, (extrem.jpg
сорри, зря возбухнул.
но вышло угарно.
Аноним 13/05/23 Суб 09:03:34 #423 №297582 
>>295047
>Я на твоем месте таки вернулся в диапазон 0.3-0.5
Да, ты во всём прав. Что ж такого надо сделать, чтобы дадапт нормально на дефолтной единице учил, как-то неебически протегать сет штоле.
Аноним 13/05/23 Суб 10:18:05 #424 №297612 
Как лучше всего сделать бенчмарк чтобы протестить скорость генерации и сравнить с другими на каком-нибудь стандартном примере? У меня картинка 1000х1500 генерится примерно 30сек, но там большой промпт и хайрез фикс.
Аноним 13/05/23 Суб 11:13:54 #425 №297642 
>>297612
Простой промпт, невысокое разрешение (512, 640, 768), и батч из 50 картинок.
Аноним 13/05/23 Суб 11:45:02 #426 №297661 
>>297612
sd-extension-system-info
https://vladmandic.github.io/sd-extension-system-info/pages/benchmark.html
Аноним 13/05/23 Суб 16:12:11 #427 №297989 
У меня вопрос по VAE, почему их никто не делает? На цивитаи раздела даже такого нет.
Аноним 13/05/23 Суб 16:19:56 #428 №298002 
error: Your local changes to the following files would be overwritten by merge:
scripts/xyz_grid.py
Please commit your changes or stash them before you merge.
Aborting

Чем лечить, скажите пожалуйста.
Аноним 13/05/23 Суб 16:24:10 #429 №298011 
>>298002
Удали файлик, на который ругается. Ты вручную его правил, наверное.
Аноним 13/05/23 Суб 17:57:18 #430 №298156 
>>297989
Почему не делают, почему нет категории, прикладывают к своим моделям вае. Приличное количество разных.
Аноним 13/05/23 Суб 19:01:13 #431 №298279 
Котаны, никто не пробовал обучать модель по стикерам? А то у меня есть пак стикеров на 30, хочу сделать в том же стиле другие. А художник пропал.
Аноним 13/05/23 Суб 20:02:40 #432 №298381 
[A] anything v4.5.png
00634-4291114841.png
Как вернуть всё взад? Раньше был пикрил 1, стало пикрил 2.

VAE стоит, экстеншены выключал. Может что-то в настройках кликнул, но я не знаю.

Больше всего грешу на обновившийся 16 часов назад Автоматик, но на гитхабе, здесь и на форче через ctrl+f нет особо вони.

Что это может быть?
Аноним 13/05/23 Суб 20:29:28 #433 №298417 
>>298381
Интересно. Вае точно не менял?
Аноним 13/05/23 Суб 20:38:37 #434 №298436 
>>298417
Точно. Когда вырубаю, становится ещё хуже.

Ща откатил обнову (скачал старую и скопировал с заменой в директорию с стейблом).
Ещё, переустановил торч и иксформерс, но cuda не трогал. Мб оно? Но так впадлу его качать с впн
Аноним 13/05/23 Суб 20:39:37 #435 №298440 
>>298436
Имеется ввиду, что это не дало эффекта
Аноним 13/05/23 Суб 21:11:53 #436 №298521 
>>298436
Хочу сдохнуть. Переустановил SD и оно не пофиксилось
Аноним 13/05/23 Суб 21:26:46 #437 №298551 
1576211515694.jpg
1609220267687.png
1580979632711.png
>>296198 →
> Всмысле с козырей, я просто юбку нормальную хочу, а не девочку с сюрпризом не то чтобы я прямо против насчёт таких сюрпризов как на пик2, но всё же.
Да чет сложно это, я со своим микробрейном хз. Алсо, не понял сюрприза там вроде третья нога есть?
> А что кстати с очками не так и вуалью, те же проблемы? Так то многое уже очень прилично тренируется, единственное что сложно это вот такие штуки на втором плане, закрытые чем то.
С очками где-то видел что пару раз жаловались, сам чето с очками тоже тренил, но это было давно и неправда. С вуалью на циве какая-то лора лежала, с прозрачными вуалями резалт неочень был, да и автор сам жаловался емнип.
Хотя это мб skill issue, лол.
> Падажжи, а зачем оно нужно то? В репе только код ищется по cache.
Что бы сократить время ожидания, хз. Если модель, шаги инверсии, ретушь, промт и размер пикчи не менялись, то во второй раз кеш сработает. Ну т.е. денойз крутить можно например. Хороший вопрос вообще, я как-то не вижу особого профита пока, ну да быстрее значительно, но только денойз крутить не весело. Лучше бы он поддержку xyz плота запилил.
> https://github.com/kohya-ss/sd-scripts/pull/243
Не пробовал еще?
> тренить с огромным димом
Пик 1.

> то что я там собрал с цикликом это забей, можешь ради рофла построить на 1000 шагов в матплотлибе график, там полный обсёр, он только на 160 и работает, лол.
Да торчевский циклик вроде работает ас интендед, если параметры скорректировать, пик 2. А вот у торчевского косин аннеалин варм рестартс я чет не заметил варм рестартов.
> Однако с этим в тестовой среде твоей небольшие проблемы, лр начинается не с 0 а с начальных значений при вармапе
Пофиксил по твоему примеру так сказать. Однако в этой реализации глобальный вармап всратоват. Я еще вармапы для циклов кое-как наполовину присрал пик 3. И теперь думаю что наверное легче было разлепить лры в предыдущем варианте.
Алсо, там еще проблема была в том что в мейн, гет_ласт_лр вызывается до оптимайзера и шедулера, и из-за этого оно получало инит лр, ща перенес ниже, у кои емнип так же в тренинг залупе. Ну фактически это влиять не должно вроде.
Сейчас проблема в том что "линия" вармапа циклов "срезает" косинусы, надо с шагами внутри циклов что-то сделать. И так же из-за того что оффсет присран фактором, амплитуда уменьшается по шагам.
Хз как сделать нормально вобщем. https://mega.nz/file/KZkSAajZ#qy4KCohBUmJUMVLiSPn7S6AiaQD97nhhrAB7uJnEXsQ
> Эх, ну и нахуя я этого художника тренил если он уже на гейщите лежит, поздно увидел.
Пару минут думал при чем тут гейшит импакт, а потом как понял.

Алсо, есть подозрения что коя таки обосрался с дилорой https://github.com/kohya-ss/sd-scripts/issues/394#issuecomment-1533935548
Алсо, ты dadaptadan не пробовал?
Аноним 13/05/23 Суб 21:38:41 #438 №298584 
>>297582
Попробуй weight_decay увеличить до 0.02-0.04

>>298381
Залей обе пикчи на кэтбокс
Аноним 13/05/23 Суб 21:50:26 #439 №298611 
>>298584
Хорошая картинка: https://files.catbox.moe/414mli.png

Плохая картинка: https://files.catbox.moe/vjb2r3.png

У второй негатив промпт другой немного ввиду того, что я негативные эмбединги другие поставил.
Пикча существовала для превьюшки для чекпоинта.
Просто не должно быть такой разительной разницы.
Проблема со всеми генерациями, а не только с этими.
Аноним 13/05/23 Суб 21:56:38 #440 №298624 
>>298611
У тебя там разгые модели и разный cfg
Аноним 13/05/23 Суб 22:01:57 #441 №298641 
>>298624
Извиняюсь. Теперь одинаковые https://files.catbox.moe/0kymz3.png

Но всё равно параша
Аноним 13/05/23 Суб 22:04:26 #442 №298645 
>>298611
> У второй негатив промпт другой немного ввиду того, что я негативные эмбединги другие поставил.
>[N]_bad-hands-5,[N]_easynegative,
Почему там [N]_?
Аноним 13/05/23 Суб 22:07:26 #443 №298658 
>>298645
Я для сортировки их поотмечал. [N] = негативный
Аноним 13/05/23 Суб 22:09:01 #444 №298663 
>>298658
У меня раньше лучше бы получилось даже без негатив промпта, чем сейчас с ним
Аноним 13/05/23 Суб 22:10:04 #445 №298666 
.png
.png
>>298624
У тебя явно негативные эмбеддинги не подгружаются. Если удалить их из промта, то у меня такая же хуйня выходит.
Аноним 13/05/23 Суб 22:11:43 #446 №298673 
>>298658
Ты просто имена файлов переименовал? Так не будет работать, слово-триггер забито в сам эмбеддинг.
Аноним 13/05/23 Суб 22:13:11 #447 №298679 
>>298666
Спасибо, что потестил.
Да, наверное не подгружаются. Но мне кажется, что есть что-то ещё.

Вчера всё работало нормально. Среди файлов ничего не трогал до сегодняшнего момента, когда поставил пару экстеншенов
Аноним 13/05/23 Суб 22:14:27 #448 №298684 
>>298673
Окей, спасибо с этим. Потом протестирую.

Но сейчас основная проблема явно в другом. Слишком уж херово генертит оно
Аноним 13/05/23 Суб 22:15:38 #449 №298689 
>>298679
>>298684
У тебя после генерации под изображением написано "Used embeddings: bad-hands-5 [10ca], EasyNegative [119b]" ?
Аноним 13/05/23 Суб 22:21:06 #450 №298711 
>>298689
Не, не написано. Видимо, это я идиот. Сейчас скачаю нормальные и заново протестирую. Я думал, что я давно их переименовал и пользовался, а на позавчерашиних картинках такой параши нет
Аноним 13/05/23 Суб 22:24:58 #451 №298719 
>>298689
БЛЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯЯ

Какая же я домохозяйка конченная. Проблема была в этом! Мне так стыдно, так стыдно. Я сейчас заплачу.

Спасибо тебе большое, за указание на эту очевидную херню!

Пойду в биореактор
Аноним 13/05/23 Суб 22:29:37 #452 №298734 
>>298719
Нубывает, сделай вид что ты так и задумывал, но забыл.
Ты случайно не тот анон, который сяо генерил?
Аноним 13/05/23 Суб 22:32:22 #453 №298751 
>>298734
Не, не я. Я вообще первый раз в тредах по стейблу пишу. До этого писал только один раз в CAI треде
Аноним 14/05/23 Вск 00:22:44 #454 №298988 
.jpg
.jpg
.png
.png
>>298551
> Не пытайся пробовать латент 0.6
А если бы я реально не стал пытаться? Нормально же работает.
Вареники инпеинтит только в путь, я сразу подметил основной потенциал этой модельки.
> Твоя единственная звездочка, лол.
Не могу прямо не спросить тогда, танкисты хто, хто?


> Да чет сложно это, я со своим микробрейном хз. Алсо, не понял сюрприза там вроде третья нога есть?
Эта нога больше похожа на black white salami.
> Что бы сократить время ожидания, хз. Если модель, шаги инверсии, ретушь, промт и размер пикчи не менялись, то во второй раз кеш сработает. Ну т.е. денойз крутить можно например. Хороший вопрос вообще, я как-то не вижу особого профита пока, ну да быстрее значительно, но только денойз крутить не весело. Лучше бы он поддержку xyz плота запилил.
Я уже попробовал, не прогоняются шаги инверсии ещё раз, можно менять денойз, остальное не пробовал. Правда где 200 шагов я хз, в коде есть в интерфейс 100 осталось.
> Не пробовал еще?
Ну вот пара примеров, первый грид с моей хуйнёй, там 64/64-32/32, ресайз в 32 и 8, стиль сохраняется в целом, глаза теряются походу больше с понижением ранга. Локон ресайзится кстати хуже лоры походу, размеры ~120-55-27.
Второй велл трейнед лора 128/128 с гейщита. Размеры ~150-37-11, кстати они ещё такие, потому что в каждой из этих лор остается превью пикча, с лейзи она вообще вроде 6мб весит. Тензоры мертвые, не удивительно, удивительно что они выпрямляются, хотя для меня не новость что сейв ас бф16 не факапит тензоры, в отличии от фп16, причем именно сейв, и походу лора превращается в локон(?) 12 значений ТЕ пустых с клипом 2 я видел только у локонов, у лор 6.
> Пик 1.
Ты про рам ишшуе? Да не, ты не пони, не обязательно упарываться в два гига или подобные извращения, достаточно рабочих настроек на стиль, 128/128 там как пример, и потом на втором этапе уже срезать не нужное. На первом этапе вся суть в том чтобы туда запихнуть всё что только можно выжать из датасета, для этого и надо побольше места.

> Да торчевский циклик вроде работает ас интендед, если параметры скорректировать, пик 2. А вот у торчевского косин аннеалин варм рестартс я чет не заметил варм рестартов
Да сам то он по себе рабочий, просто те мои параметры что я скидывал дают вот такой пик4.
> Пофиксил по твоему примеру так сказать. Однако в этой реализации глобальный вармап всратоват.
Ну я вообще хуйню наманкипатчил, там жестко в коде теперь прописано [0, 0] лр на первом шаге, он работать будет только с вармапом нормально. Бля картинки не влезают в один пост, в некст глянь пик5.
> Я еще вармапы для циклов кое-как наполовину присрал пик 3. И теперь думаю что наверное легче было разлепить лры в предыдущем варианте.
Не пони, разделить лр в >>290340 → этом шедулере всмысле?
> Хз как сделать нормально вобщем. https://mega.nz/file/KZkSAajZ#qy4KCohBUmJUMVLiSPn7S6AiaQD97nhhrAB7uJnEXsQ
В этой версии фикс не нужен в тестовой среде, работает изначально нормально, а не как на пик6.
> Сейчас проблема в том что "линия" вармапа циклов "срезает" косинусы, надо с шагами внутри циклов что-то сделать. И так же из-за того что оффсет присран фактором, амплитуда уменьшается по шагам.
Ну я тоже хз, это не выглядит на пик7 как нормальный вармап в цикле с scheduler = custom_scheduler.CosineAnnealingWarmupRestarts(optimizer, T_0=424, gamma_min_lr=1, decay=0.8, down_factor=0.4, warmup_steps=50, cycle_warmup=50, init_lr_ground=True), один курс математики по рыбникову с суммированием и счетом древних шизов от меня тут явно не поможет. Пик8 вообще рофл какой то, там warmup_steps=0 только изменён.

> Алсо, есть подозрения что коя таки обосрался с дилорой
Есть в этом конечно что то ироничное что кохья пишет что он не шарит хорошо в матане и ведёт основное репо по тренингу лор. Там ещё один неравнодушный кстати с дадаптом не рабочим с дилорой.
> Алсо, ты dadaptadan не пробовал?
Ты про эти?
https://github.com/kohya-ss/sd-scripts/pull/455
https://github.com/kozistr/pytorch_optimizer
https://pytorch-optimizers.readthedocs.io/en/latest/optimizer_api.html#dadaptadan

Хуясе там тулзов. Почему думаешь что будет лучше чем Dadaptadam?
Аноним 14/05/23 Вск 00:23:46 #455 №298990 
.png
.png
.png
.png
>>298988
Аноним 14/05/23 Вск 01:52:24 #456 №299102 
Кто то пробовал Lion или Lion8bit? Лучше чем Adam?
Аноним 14/05/23 Вск 01:53:41 #457 №299105 
.jpg
>>298551
> > https://github.com/kohya-ss/sd-scripts/pull/243
Забыл кстати, там основная то суть этого пр была в динамическом ресайзе разными алгоритмами, что вроде как убирает старый подсчет веса лоры, где вес~=дим*1.3.
Вот например грид, обычный ресайз, sv_ratio=4 и sv_fro=0.9, не совсем понятно какие туда лучше значения ставить. Веса у файлов примерно такие ~38 обычная, sv_fro ~30, sv_ratio ~29.
Аноним 14/05/23 Вск 02:10:25 #458 №299141 
image
Аноны, в колабе WebUI выдает такую ошибку:

>RuntimeError: The size of tensor a (3072) must match the size of tensor b (6144) at non-singleton dimension 1

Шаги:
1) Генерю изображение 512х768
2) Отправляю изображение в Инпайнт, соответсвующей кнопкой
3) Настройки инпайнта пикрил
4) ???
5) Ошибка

Раньше с таким 512х768 разрешением всё инпаинтелось. Правда довольно давно, несколько месяцев назад. Как быть? В чем может быть проблема?
Аноним 14/05/23 Вск 02:15:40 #459 №299145 
>>299141
Сколько по времени генерация в общем занимает? У меня если больше 17 минут - вырубается колаб.
Аноним 14/05/23 Вск 02:33:33 #460 №299148 
>>299145
Хз быстро, зашел, сгенерил, получил ошибку - побежал в гугл - хуй, прибежал в тред - и вот я здесь.
Аноним 14/05/23 Вск 02:56:28 #461 №299163 
>>299141
Полный текст ошибки из консоли покажи
Аноним 14/05/23 Вск 03:02:03 #462 №299174 
>>299163
Traceback (most recent call last):
File "/home/pc/Desktop/stable-diffusion-webui/modules/call_queue.py", line 57, in f
res = list(func(args, kwargs))
File "/home/pc/Desktop/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(
args, kwargs)
File "/home/pc/Desktop/stable-diffusion-webui/modules/img2img.py", line 181, in img2img
processed = process_images(p)
File "/home/pc/Desktop/stable-diffusion-webui/modules/processing.py", line 515, in process_images
res = process_images_inner(p)
File "/home/pc/Desktop/stable-diffusion-webui/modules/processing.py", line 604, in process_images_inner
p.init(p.all_prompts, p.all_seeds, p.all_subseeds)
File "/home/pc/Desktop/stable-diffusion-webui/modules/processing.py", line 1106, in init
self.image_conditioning = self.img2img_image_conditioning(image, self.init_latent, image_mask)
File "/home/pc/Desktop/stable-diffusion-webui/modules/processing.py", line 260, in img2img_image_conditioning
return self.inpainting_image_conditioning(source_image, latent_image, image_mask=image_mask)
File "/home/pc/Desktop/stable-diffusion-webui/modules/processing.py", line 243, in inpainting_image_conditioning
image_conditioning = torch.cat([conditioning_mask, conditioning_image], dim=1)
RuntimeError: Sizes of tensors must match
Аноним 14/05/23 Вск 03:03:40 #463 №299176 
>>299174
Я уже всё закрыл и комп вырубил, не могу сейчас опять пойти и за ошибкой, а это выше - точно такая же ошибка у другого челика с форума. Там 0 ответов.
Аноним 14/05/23 Вск 15:41:21 #464 №299910 
>>298689
Поясни, EasyNegative это хорошо или плохо?
Аноним 14/05/23 Вск 15:57:02 #465 №299940 
>>299910
Ситуативно. В каких-то случаях хорошо работает, в каких-то всё портит.
Аноним 14/05/23 Вск 20:40:57 #466 №300423 
>>298988
> А если бы я реально не стал пытаться? Нормально же работает.
Ну видимо я версии попутал, с какого-то момента уже забил на названия, т.к. они получались слишком длинными. Там где-то дикий шок контент получался, лол
> Вареники инпеинтит только в путь, я сразу подметил основной потенциал этой модельки.
Емнип я на этого рисобаку как раз и обратил внимание из-за вареников.
> Не могу прямо не спросить тогда, танкисты хто, хто?
Пид... дегенераты?

> Правда где 200 шагов я хз, в коде есть в интерфейс 100 осталось.
Ui config удоли и кеш костыля мб еще. Я с этого уже несколько раз горел. Не так давно адетейлер апдейтнулся, там автор шебуршил со стейтами включения, и после череды апдейтов адетейлер оставался всегда включенным после запуска вебюи, хотя в коде прописано обратное.
> глаза теряются походу больше с понижением ранга
Это с white eyes в позитивах?
> Тензоры мертвые, не удивительно, удивительно что они выпрямляются, хотя для меня не новость что сейв ас бф16 не факапит тензоры, в отличии от фп16, причем именно сейв, и походу лора превращается в локон(?) 12 значений ТЕ пустых с клипом 2 я видел только у локонов, у лор 6.
Действительно удивительно, но полагаю что проебанная изначально инфа не появится из ниоткуда, скорее какой-то решейп(?). Число модулей в тензорчеке тоже меняется?
Вообще так-то заебись результат для дим 8. Лорка на ушияму одна из моих любимых кстати.
Алсо, вспомнил тут что кэтбоксанон делал скрипт для миграции ликорисов в новую папку, стало интересно как он их отличал, посмотрел, а там по нетворк модулю в метадате.

> Ты про рам ишшуе? Да не, ты не пони, не обязательно упарываться в два гига или подобные извращения, достаточно рабочих настроек на стиль, 128/128 там как пример
Про врам, да, Да я поне. Просто это реакт на "огромный дим", с таким видел как бмальтаис извращается только, и некоторые лоры на циве огромного размера и сомнительного качества.
> Да сам то он по себе рабочий, просто те мои параметры что я скидывал дают вот такой пик4.
Да там у циклика поведение не совсем ожидаемое если гамму крутить, то он триангуляр, то эксп ренж так сказать.
> Бля картинки не влезают в один пост, в некст глянь пик5.
Я это проверил еще когда ты код кинул.
> Не пони, разделить лр в >>290340 → → этом шедулере всмысле?
Да, в нем. Там просто все есть емнип, кроме раздельных лров. Хотя сложность наверное одинаковая будет. В нем базовый лр это мин лр считай, а в в последней версии наоборот, базовый это макс лр почти, но не прямо, там просто околотак рассчитывается. Т.е. у последнего лры логичнее сделаны имхо.
> В этой версии фикс не нужен в тестовой среде, работает изначально нормально, а не как на пик6.
Ну да, я ж пофиксил.
> Ну я тоже хз, это не выглядит на пик7 как нормальный вармап в цикле
Глобальный вармап с цикловым вместе не работают нормально, только по отдельности. Ну и глобальный всратый. Алсо, ты вместо декея лучше гамму крути, гамма изменяет базовые лры по шагам, а декей изменяет их каждый цикл, без вармапов все ок, а с вармапами и декеем распидорашивает.
> Пик8 вообще рофл какой то, там warmup_steps=0 только изменён.
ТАК ЗАДУМАНО ЭТО СТЕП ШЕДУЛЕР! В формуле есть деление на warmup_steps, поэтому так происходит

> Ты про эти?
Да.
> Хуясе там тулзов. Почему думаешь что будет лучше чем Dadaptadam?
Да я не думаю что будет лучше, вернее не предполагаю будет ли он лучше или хуже в наших задачах. Невольно наткнулся на парочку материалов по адану и стало интересно.
https://github.com/facebookresearch/dadaptation/issues/14
https://wandb.ai/capecape/adan_optimizer/reports/Adan-The-new-optimizer-that-challenges-Adam--VmlldzoyNTQ5NjQ5
И еще картинки от какого-то шиза
https://github.com/bmaltais/kohya_ss/issues/770

>>299105
Обожаю игры "найди 10 отличий", сукпздц.
Аноним 14/05/23 Вск 23:32:47 #467 №300749 
x3s.jpg
ls4.jpg
ja3h.jpg
ja4.jpg
Model merge чекпойнты
Meinamix + mistoon =A
Corestyle + seekyou =B
A+B =C
С моделью laolei каломатик крашится, OOM в рантайме
Аноним 14/05/23 Вск 23:33:20 #468 №300751 
xh3.jpg
Аноним 15/05/23 Пнд 07:46:50 #469 №301201 
.jpg
>>300423
> Ну видимо я версии попутал, с какого-то момента уже забил на названия, т.к. они получались слишком длинными. Там где-то дикий шок контент получался, лол
У тебя может она два раза применилась? Короче этот баг как то связан с переходами между и2и и т2и, может применятся два раза, может не применятся, может терять лорки из нескольких.
> и кеш костыля мб еще
А где он? Или ты про пук файлы?
> Я с этого уже несколько раз горел. Не так давно адетейлер апдейтнулся, там автор шебуршил со стейтами включения, и после череды апдейтов адетейлер оставался всегда включенным после запуска вебюи, хотя в коде прописано обратное.
Ладно, это сработало энивей, некст тайм попробую с этого начать если в уи что то пойдёт по пизде.
Ты кстати обновлялся до последней версии или там щитшторм?
> Это с white eyes в позитивах?
Да, они не самое сильное звено этой модели, если начать их веса крутить может страшное происходить. Хз короче, 32 кажется нормальной точкой для ресайза, 8 как то как будто начинает терять слишком много информации, выглядит как 10 эпоха примерно. А у этого локона разница в 10 мб между 32 и 8, диминишинг ретурнс. Возможно, так можно оверфиты фиксить?
> Действительно удивительно, но полагаю что проебанная изначально инфа не появится из ниоткуда, скорее какой-то решейп(?). Число модулей в тензорчеке тоже меняется?
Оригинал 528, кстати там последний слой ТЕ всё таки имеет 12 строк значений, хз почему так, то-есть никакого превращения в локон нету походу. Обычный ресайз 528, да и не обычный тоже. Жаль, но я не знаю точно как это работает, мне лишь очевидно что нулевые значения точно идут первыми под срез, так как их попросту нету. Так же заметил что многие слои в логах имеют нестандартные димы, например в одной и той же строке:
Оригинал 128 - (128-320)
Обычный ресайз 32 - (32-320)
sv_fro0.9 32 - (14-320)
Дим этого слоя в динамическом ресайзе стал 14.
> Вообще так-то заебись результат для дим 8. Лорка на ушияму одна из моих любимых кстати.
Ну да, неплохой, но лучше всё таки 32 думаю. Мне лорка ушиямы тоже нравится.
> Алсо, вспомнил тут что кэтбоксанон делал скрипт для миграции ликорисов в новую папку, стало интересно как он их отличал, посмотрел, а там по нетворк модулю в метадате.
https://gist.github.com/catboxanon/42ce1edae54748274b4616780bdbeb9d#file-migrate_lycoris-py-L48
Не понял прикола, типо дилора не локон? А вообще сегодня разгребал помойку с лорами и ликорисами, заодно делал превьюхи, до этого просто имел симлинк папки с лико на лоры, хуёво что они впринципе разделены. Единственные полезные вещи это вообщем то лора и локон как по мне на данный момент, лоха не хочет работать через адднет и вообще получаются какими то более всратыми чем локоны, дилора ну ты знаешь.

> Про врам, да, Да я поне. Просто это реакт на "огромный дим", с таким видел как бмальтаис извращается только, и некоторые лоры на циве огромного размера и сомнительного качества.
Я не вижу особо смысла бежать за мифическими настройками на хай димах, там же лр надо другой полюбому, судя по тому гайду там лёрн дамп произойдёт с 128 до даже 256, можно конечно попробовать по приколу как нибудь, только смысла в этом ну совсем нихуя, что не влезет 128(а что собственно туда не влезет?) можно в локон запихнуть.
> Да, в нем. Там просто все есть емнип, кроме раздельных лров. Хотя сложность наверное одинаковая будет. В нем базовый лр это мин лр считай, а в в последней версии наоборот, базовый это макс лр почти, но не прямо, там просто околотак рассчитывается. Т.е. у последнего лры логичнее сделаны имхо.
Ну если получится ещё и для циклов сделать отдельный вармап будет вообще заебись конечно.
> Глобальный вармап с цикловым вместе не работают нормально, только по отдельности. Ну и глобальный всратый.
Всмысле всратый, обычный же. Он нужен вначале, там же бешеная хуйня с сеткой творится может сразу на огромном лр, вон как у анончика выше например, хотя у него не в вармапе явно проблема. Даже дадапт про это в курсе, и начинает с очень лайтового лр.
> Алсо, ты вместо декея лучше гамму крути, гамма изменяет базовые лры по шагам, а декей изменяет их каждый цикл, без вармапов все ок, а с вармапами и декеем распидорашивает.
Ладно, вроде scheduler = scheduler_v2.CosineAnnealingWarmupRestarts(optimizer, T_0=424, gamma_min_lr=0.99945, decay=1, down_factor=0.5, warmup_steps=50, cycle_warmup=0, init_lr_ground=True) даёт такой же результат.
> ТАК ЗАДУМАНО ЭТО СТЕП ШЕДУЛЕР! В формуле есть деление на warmup_steps, поэтому так происходит
О, так я что на ноль поделил и вышел сухим из воды получается? А как питухон то не выплюнул эксепшен, он же должен когда на ноль делится, нигде вроде перехватов нету.

> Adan is currently a SOTA optimizer.
Что то выпал прямо со второго предложения. Ладно, не выпал.
Ну ценой врам и чуть меньшей производительностью можно получить более лучшую точность я так понял. Надо будет запомнить этот инструмент.
У меня на самом деле проблема абсолютно противоположная(проблема ли? всё же получается). Лосс со второй же эпохи после вармапа на моих датасетах был что то типо 0.04-0.07, я думал эта хуйня оверфитнется сразу, но вроде нормас. Я даже по фану срать в датасет специально начал, лол, всё равно больше 0.1 не поднялось. Вспоминаются что то старые 0.3, 0.4 коммиты кохьи, там же вообще в порядке вещей было что то типо 0.15-0.2 даже на вылизанных датасетах. Это кохья так постарался интересно или min_snr_gamma так решает? Хотя походу и то и другое, я помню как пердолило тогда левый верхний график тензорборда, сейчас даже без гаммы нормально.
Вообщем хз, он типо даст большую точность, врам там почти одинаково отъедает, а вот по времени прямо как то сильно дольше.
Аноним 15/05/23 Пнд 20:10:12 #470 №302358 
Аноны что значит такой синтаксис.
<lora:LORANAME:0,9>

0,9 между цифрами не точка, а запятая. Случайно опечатался и результат получился очень хороший. А что конкретно это значит не понимаю.
Аноним 15/05/23 Пнд 20:20:37 #471 №302396 
>>302358
Отбой разобрался. Этот синтаксис просто вызывает ошибку из за которой все остальные лоры не грузятся. Понасрал я лорами больше чем промптов.
Аноним 15/05/23 Пнд 21:00:09 #472 №302482 
Windows vs Linux(native not WSL) для SD? Удобство, скорость, стабильность?
Аноним 15/05/23 Пнд 21:33:56 #473 №302553 
>>297038
>СКРИПТОМ LOOPBACK?
А для чего он нужен?
Аноним 15/05/23 Пнд 23:18:16 #474 №302837 
Ку ребзя! Следующий вопрос. Возможно ли модель к которой примержены лоры сделать half safetensors чтоб и мало весила и лоры не слетели и как такое сделать?
Аноним 16/05/23 Втр 00:36:30 #475 №302939 
1596359940851.png
>>301201
> У тебя может она два раза применилась?
Хм, возможно.
> Или ты про пук файлы?
Да, про них. Про РУС файлы.
> Ты кстати обновлялся до последней версии или там щитшторм?
Обновился вчера, но практически не щупал. Сразу же перелез на дев бранч что бы пощупать https://github.com/ashen-sensored/sd_webui_SAG но тоже не пощупал. Что бы этот костыль работал, нужен фикс, который сейчас в дев замержили https://github.com/ashen-sensored/sd_webui_SAG/issues/13#issuecomment-1546788070
Костыль вроде работает, но в итоге так нихуя и не пощупал нормально. Вообще надо было пр чекаут сделать.
Бтв там еще и пр с томе наконец-то замержили в дев со значением по умолчанию 0.6, минут 5 искал что насрало в детерминированность
Ну собсна на деве у меня при запуске юи, вае отваливается, надо перевыбирать. Метадата в имеж браузере имеет бесконечную загрузку, импорт при этом частично работает, значения хрфикса не импортируются. С инфинайт имеж браузером импортируются, но блок хрфикса не сворачивается при его выключении.

> Хз короче, 32 кажется нормальной точкой для ресайза, 8 как то как будто начинает терять слишком много информации, выглядит как 10 эпоха примерно. А у этого локона разница в 10 мб между 32 и 8, диминишинг ретурнс.
Было бы заебись сдуть размер всех лор так-то. Папка с лорами онли 90 гигов уже у меня.
> Возможно, так можно оверфиты фиксить?
Надо попробовать.
> Дим этого слоя в динамическом ресайзе стал 14.
Кажется мне надо пойти почитать где-нибудь детейлед экспланейшон что такое дим, не просто ведь размерность.

> Не понял прикола, типо дилора не локон?
Он скорее не стал разбираться с этим, хех.
> Всмысле всратый, обычный же.
Он там нелинейный емнип и тоже срезает косинусы, т.е. фактический макс лр первого цикла не является базовым лром.
> Даже дадапт про это в курсе, и начинает с очень лайтового лр.
Я кста предполагал что это период расчета лра.
> О, так я что на ноль поделил и вышел сухим из воды получается? А как питухон то не выплюнул эксепшен, он же должен когда на ноль делится, нигде вроде перехватов нету.
А я хуй знает. Должен быть эксепшен т.к. там операция 0/0 получается в таком случае, а его нет, и код из условия с основной формулой просто не выполняется.

Алсо, поменяй там условие под коммом про присер вармапов на

if self.T_cur < self.cycle_warmup and self.last_epoch > self.warmup_steps:

Это подружит глобал вармап с цикловым. Пиздец осознавать какой-же я тупой местами.
Пик 1: CosineAnnealingWarmupRestarts(optimizer, T_0=250, gamma_min_lr=0.99945, decay=1., down_factor=0.5, warmup_steps=50, cycle_warmup=20, init_lr_ground=True)

> Надо будет запомнить этот инструмент.
Ты про Hyperparameter Sweep? Я от него охуел как удобно с бетами получилось там и наверное как долго будет в кейсе тренировки лор.
> Вспоминаются что то старые 0.3, 0.4 коммиты кохьи, там же вообще в порядке вещей было что то типо 0.15-0.2 даже на вылизанных датасетах.
Хм, если мне не изменяет память, а память у меня плохая, на моих датасетах на 0.3 и 0.4.5 лосс где-то 0.7-0.8 болтался, а с датасетами я особо не заебывался.
Алсо, вообще по лоссу хуй пойми что там у тебя получилось, кое как только по динамике его изменения. Есть такая штука как валид лосс, для его вычисления нужен набор семплов из датасета что-то типа регов? и с его добавлением график легче читать.
https://www.baeldung.com/cs/training-validation-loss-deep-learning
Есть ли у нас такое вообще, хз.
Аноним 16/05/23 Втр 00:46:58 #476 №302946 
>>300749
А коэфы? Алсо, ты не пробовал https://github.com/s1dlx/sd-webui-bayesian-merger ?

>>302553
Он несколько раз прогоняет пикчу в и2и.

>>302837
> Возможно ли модель к которой примержены лоры сделать half safetensors чтоб и мало весила
Да https://github.com/arenasys/stable-diffusion-webui-model-toolkit
> и лоры не слетели и как такое сделать?
Почему ты решил что смерженные лоры слетят?
Аноним 16/05/23 Втр 09:31:30 #477 №303266 
Никто не в курсе, придумали ли уже какой-то способ конверсии лор из типа в тип, пусть и с потерей данных?
Хочу замерджить парочку между собой, но они в разных типах, заразы.
Аноним 16/05/23 Втр 12:07:00 #478 №303404 
xyzgrid-0000-98a1428d4c-2140976348.png
loss.jpg
>>302939
> Сразу же перелез на дев бранч что бы пощупать https://github.com/ashen-sensored/sd_webui_SAG но тоже не пощупал.
Интересно, а что это вообще такое? Начитался что это может улучшить качество картинки применяя выборочный блюр на области нуждающиеся в детализации. Попробовал, правда в владомантике с недетерминированным выхлопом, ну хз что сказать, как потестить лучше? Рожу так и не пофиксило, лол, хотя вроде как должно было, понятное дело что тут адетейлер или просто инпеинт нужен, но остальное вроде неплохо причесал.
> Бтв там еще и пр с томе наконец-то замержили в дев со значением по умолчанию 0.6, минут 5 искал что насрало в детерминированность
Эта хуйня вообще по дефолту для хайреза была у владомантика включена кстати.
Ты случайно не знаешь как владомантик настроить чтобы он выдавал детерминированные результаты? Неужели с ним иксформерс вот так работает, почему у автоматика тогда можно повторять один в один картинки?
Кстати дропдауны в плоте поадекватнее у владомантика будут.
> Ну собсна на деве у меня при запуске юи, вае отваливается, надо перевыбирать. Метадата в имеж браузере имеет бесконечную загрузку, импорт при этом частично работает, значения хрфикса не импортируются. С инфинайт имеж браузером импортируются, но блок хрфикса не сворачивается при его выключении.
Эх, Балодька. Ну поправит же до релиза да? Хуй там поправит, серьёзные баги с каждым релизом с середины марта только растут.

> Было бы заебись сдуть размер всех лор так-то. Папка с лорами онли 90 гигов уже у меня.
Угу, я тоже хочу так сделать, потом скрипт напишу.
> Кажется мне надо пойти почитать где-нибудь детейлед экспланейшон что такое дим, не просто ведь размерность.
Я вот такое видел обсуждение https://github.com/cloneofsimo/lora/discussions/37 но оно ещё было до того как разделили дим и ранг ликорисами, так что хз как понимать ранк и дим в них. В обычной лоре это, если я правильно понял, просто дим=ранк и количество параметров, в локоне вроде тоже, а вот в лохе, локре и дилоре хз. Таблица оттуда кстати прямо намекает на лр ТЕ в 0.3-0.35, ведь параметров в ТЕ как раз в 3 раза меньше, я тоже такой ставить стал, как раз охуенно получается.

> Он скорее не стал разбираться с этим, хех.
А я пока разгребал видел какие то локоны с networks.lora, но в параметрах algo=locon например, или вообще просто конв леер только указан без алго, у него нету на это проверки вроде.
> Я кста предполагал что это период расчета лра.
Вот кстати да, наверно это так, а потом уже вармап.
> Алсо, поменяй там условие под коммом про присер вармапов на
Годно, теперь и в циклах вармапы есть.
> Пиздец осознавать какой-же я тупой местами.
Знаешь, это наоборот хорошо осознавать, это не кибербуллинг если что.


> Ты про Hyperparameter Sweep? Я от него охуел как удобно с бетами получилось там и наверное как долго будет в кейсе тренировки лор.
А, не, я честно вообще хз точно для чего нужны беты. Видел только одно видео где вскользь про это было затронуто не на математическом языке https://youtu.be/cVxQmbf3q7Q кстати отличное объяснение про тот самый оффсет нойс.
На Hyperparameter Sweep не обратил сразу внимания, а стоило бы походу, wandb выглядит примерно как матплотлиб, который ты сделал, только с обширным функционалом, понять бы как там ещё эмулировать правильно эти сд тренировки, можно ли это вообще делать.
Я вообще имел ввиду что адан может быть лучше с некоторыми сложными датасетами, из-за своих импрувнутых показателей на графиках, ценой трейн тайма.
> Хм, если мне не изменяет память, а память у меня плохая, на моих датасетах на 0.3 и 0.4.5 лосс где-то 0.7-0.8 болтался, а с датасетами я особо не заебывался.
Ты не потерял нолик? Это же очень много.
> Алсо, вообще по лоссу хуй пойми что там у тебя получилось, кое как только по динамике его изменения
Пикрил, что же ещё. Всё меньше смысла смотреть на эту метрику, я хз. Наблюдал как то восходящий тренд, что то типо 0.07-0.1, но сетка в итоге получилась норм, так же и с 0.06-0.04 нормальная получалась, хотя низкое значение должно указывать на оверфит.
> Есть такая штука как валид лосс, для его вычисления нужен набор семплов из датасета что-то типа регов? и с его добавлением график легче читать.
> Есть ли у нас такое вообще, хз.
Интересная штука, нету такого походу. Реги же из дженерика делаются или берутся без генерации из одинакового "класса" тренируемого объекта, а тут часть датасета берётся для проверки тренировки, ну и это больше пародия на мл у нас так то, зато гпу монструозные не нужны и есть претрейнед чекпоинты.
Аноним 16/05/23 Втр 13:32:55 #479 №303526 
>>303266
Попробуй смерджить лору с моделью и заэксрактить как локон, у меня так получилось
Аноним 16/05/23 Втр 14:35:02 #480 №303635 
>>303526
Я когда так делаю - у меня "извлеченная" лора получается сильно ослабленной.
Т.е. вместо силы 1 надо на 2-3 ставить.
В мердже с другой лорой фигня наверное получится.

Но вообще обходной путь интересный.
Аноним 16/05/23 Втр 18:03:44 #481 №303945 
>>302946
Хз, когда я мержил две модели к которым уже были примержены лоры в обычном MWB и сохранял как half safetensors, то на выходе получалась модель как будто без лор
Аноним 16/05/23 Втр 18:16:24 #482 №303974 
>>303635
В супермерджере попробуй вес извлечёного локона поставить 2 или 3 при мердже
Аноним 16/05/23 Втр 19:21:07 #483 №304186 
>>303974
Попробую, но что-то такое ощущение, что из-за этого веса в другой лоре могут убиться. Там ж по сути один концепт у меня будет, просто разными стилями.
Аноним 16/05/23 Втр 19:38:21 #484 №304239 
Locon можно только через kohya примержить к модели?
Аноним 18/05/23 Чтв 17:23:08 #485 №307739 
Хотел попробовать в ControlNet функцию Reference only. Обновил ControlNet, обновил webui, но падает с ошибкой:
The size of tensor a (64) must match the size of tensor b (104) at non-singleton dimension 3
В целом Controlnet работает, например OpenPose, но не Reference only. Пикчи тоже разные пробовал.
Обязательно то торч 2.0 катить? У меня rtx2060, прибавки производительности не будет.
Аноним 19/05/23 Птн 08:31:38 #486 №308864 
>>299102
Попробовал лион8бит, он какой то бешеный пиздец, оверфитится просто чуть ли не сразу, с пониженным лр в 15! раз и тем же распадом и бетами что у адама, адам кажется недотрененным на 800x15, этот уже с 800x5 начинает ломаться на латенте, но стиль улавливает хуже, есть идеи какие параметры лучше попробовать?
Аноним 19/05/23 Птн 09:39:22 #487 №308889 
Опять тренировка лор по второй ссылке не работает...
Почему они какую-то стабильную версию не могут сделать?
Аноним 19/05/23 Птн 10:41:19 #488 №308934 
Починилось с выходом обновления
>>307739
Аноним 19/05/23 Птн 12:01:35 #489 №308996 
image.png
Подскажите, в чем трабла? Закидываю модели в нужную папку, в списке они появляются, но при попытке генерации выдают эту хуйню
Аноним 19/05/23 Птн 12:09:44 #490 №309007 
>>308996
Там буквально написано в чем проблема.
Аноним 19/05/23 Птн 12:14:26 #491 №309014 
>>309007
>Файл модели не содержит контрольной точки модели. Вместо этого, похоже, это файл LORA.

Очень понятно, пиздец прям, особенно для чела который первый раз юзает нейросетку. Как сделать чтобы заработало?
Аноним 19/05/23 Птн 12:19:44 #492 №309020 
>>309014
Все, как я понял ЛОРА это просто дополнения к моделям
Аноним 19/05/23 Птн 12:22:14 #493 №309025 
>>309020
Именно. Модели весят минимум по 2 гига, генерировать с ними, лоры кладутся в другое место и дополняют генерации.
Аноним 19/05/23 Птн 18:24:54 #494 №309620 
image.png
Хочу сделать свою Лору и у меня вопрос по установке.

Ставлю Kohya_ss по инструкции с гитхаба и во время установки появляется пикрил 1. В гайде анонов написано выбирать bf16, типа он покруче. Но у меня в установке есть и третий вариант - fp8! В интернете пишут, что сам по себе fp8 круче, но про связь с Kohya_ss я нашёл только в каком-то японском блоге, где сказали выбирать bf16, ибо для fp8 нужны какие-то либы.

Хотелось бы узнать ваше мнение на этот счёт. Видеокарта RTX 4070ti.
Аноним 19/05/23 Птн 19:11:47 #495 №309689 
>>309620
fp16 ставь
Аноним 19/05/23 Птн 19:16:40 #496 №309697 
>>309689
А почему, если даже в тутошнем гайде говорится про bf16?
Аноним 19/05/23 Птн 19:24:39 #497 №309708 
>>309697
Потому что гайды пишут довены
Аноним 19/05/23 Птн 20:14:24 #498 №309781 
01616-3341332446.png
01617-3341332447.png
01618-3341332448.png
Кстати, про лоры, мне лень записывать кейворды и прочую хуйню, вызываю лоры просто через <lora:zalupa_v20:0.5>
Всё, вроде, работает. Насколько я неправ и могут ли лоры так не работать?
Аноним 19/05/23 Птн 20:25:30 #499 №309806 
>>309781
Если лора на какого-то конкретного персонажа, то без триггер-слова может не сработать.
Аноним 19/05/23 Птн 20:31:19 #500 №309824 
Хочу генерацию. где я трахаю Эмму Вотсон или еще кого.

Я ввел по гайду описания типа
VASYAPUPKIN a man with a beard and a pair of ear buds
, сгенерил лору.

<lora:VASYAPUPKIN :1> a man eats burger генерится отлично, все как надо, жру бургер, лицо четкое

<lora:VASYAPUPKIN:1> a man having sex with Emma Watson - обнимаются два мужика с моим лицом, качество шакалье

<lora:VASYAPUPKIN:0.5> a man having sex with Emma Watson - Эммочка на месте, но мужик на меня похож лишь отдаленно


КАК ТРАХНУТЬ ГЕРМИОНУ???
Аноним 19/05/23 Птн 20:49:54 #501 №309870 
show.png
>>309824
Попробуй такой вариант:
a man having sex with each himself while Emma Watson is watching
Аноним 19/05/23 Птн 21:07:36 #502 №309912 
У меня вопрос по моей очередной странной лоре. У меня есть фото автомобиля, почти все одной конкретной машины.

И главная моя проблема - несмотря на добавление в датасет тега на цвет машины, сетьб никак не реагирует при его изменении при генерации.

Собственно вопрос - поможет ли мне добавление ещ нескольких (5-10) фото других цветов авто?
Аноним 19/05/23 Птн 21:45:16 #503 №309953 
Аноны как раздеть тян с помощью этой штуки? подскажите додику пожалуйста!
Какая то ссылка на коллабы умеет раздевать?
Аноним 19/05/23 Птн 22:02:21 #504 №309998 
>>309953
Если видяха не древняя, попробуй локально, я по этому гайду делал - https://teletype.in/@slivmens/4qndxgLC4HN
Аноним 19/05/23 Птн 22:11:58 #505 №310014 
>>309870
Не, хуйня выходит.
Инпейнтом кое-как получилось, но так можно было и изначально фотошопом, неинтересно.
Аноним 20/05/23 Суб 00:42:08 #506 №310272 
>>309912
C цветами у нейронки вообще обычно плохо всё.
Можешь попробовать дополнительно регуляризации включить с соответствующими тегами (типа, у тебя красная машина в сете - в регуляризациях другая машина, но синяя, зеленая, и т.д.).
А можно не париться и после генерации в ФШ быстро цветокоррекцией пройтись и обратно в нейронку закинуть в имг2имг, с низким денойзом. Цвет останется.
Аноним 20/05/23 Суб 02:49:01 #507 №310443 
>>310272
Кстати надо поробовать регуляризационные изображения про для просто генерик промта, чтобы геометрию машины меньше ломало.

Фотошоп и имг2имг работает, но лениво, хочется автоматики%)
Аноним 20/05/23 Суб 03:33:52 #508 №310519 
Кто знает как бакеты работают при трене лоры, если у меня пикча 2048x1024 и я выставлю разрешение 1024 то пикча задаунскейлится или тупо вырежет то что по середине? Или вообще как то по другому будет?
Аноним 20/05/23 Суб 04:24:52 #509 №310577 
>>310519
Могу врать, но должен резать на куски по 1024x1024, хз как именно, чисто на 2 куска режет или делает еще промежуточные вырезы
Аноним 20/05/23 Суб 05:10:35 #510 №310602 
>>309620
Хуясе фп8, лора ещё в два раза меньше будет весить чтоли, интересно что там будет по качеству с такой низкой точностью. А так лучше тренить в бф16, у тебя же 4070.
>>310519
Собрал просто 10 картинок 1920х1080 на 10 повторов, min/max bucket reso 256/1024 вот такой лог в консольке выдаёт : bucket 0: resolution (1024, 576), count: 100, ничего не обрежется а задаунскейлится под разрешение с сохранением сторон.
Аноним 20/05/23 Суб 09:14:04 #511 №310722 
Я все же хочу трахнуть Гермиону текстовым запросом.
Если через лору это невозможно, то тогда я добавлю свое ебло в большую модель sd 1.5, и все получится! Вопрос только, как это сделать, и сколько времени займет?
Аноним 20/05/23 Суб 14:32:50 #512 №310991 
Как переместить каталог автоматика1111 на линуксе. Перенес и он ругется(если вернуть обратно, то всё норм):
Python 3.10.6 (main, Mar 10 2023, 10:55:28) [GCC 11.3.0]
Version: v1.2.1
Commit hash: 89f9faa63388756314e8a1d96cf86bf5e0663045
Installing torch and torchvision
/usr/bin/python3: No module named pip
Traceback (most recent call last):
File "/home/alex/Programs/AUTOMATIC1111/stable-diffusion-webui2/launch.py", line 369, in <module>
prepare_environment()
File "/home/alex/Programs/AUTOMATIC1111/stable-diffusion-webui2/launch.py", line 271, in prepare_environment
run(f'"{python}" -m {torch_command}', "Installing torch and torchvision", "Couldn't install torch", live=True)
File "/home/alex/Programs/AUTOMATIC1111/stable-diffusion-webui2/launch.py", line 95, in run
raise RuntimeError(f"""{errdesc or 'Error running command'}.
RuntimeError: Couldn't install torch.
Command: "/usr/bin/python3" -m pip install torch==2.0.1 torchvision==0.15.2 --extra-index-url https://download.pytorch.org/whl/cu118
Error code: 1
Аноним 20/05/23 Суб 16:39:00 #513 №311118 
>>310991
Попробуй симлинком связать новый и старый пути.
Аноним 20/05/23 Суб 20:07:02 #514 №311531 
Подскажите пожалуйста, при 6 гигах какое максимальное разрешение может быть у картинки в датасете?
Аноним 20/05/23 Суб 20:13:07 #515 №311545 
Аноны, есть проблема SD automatic1111 на любых моделях стала делать всратые ебала. Раньше такого не было и вдруг началось. В чем может быть проблема? Hypernetwork никаких нет
Аноним 20/05/23 Суб 20:15:02 #516 №311549 
>>311545
Перебери для начала сэмплеры, некоторые на разных моделях могут себя так вести.
Аноним 20/05/23 Суб 20:15:57 #517 №311551 
>>311549
Забыл добавить что на разных семлперах эта проблема
Аноним 20/05/23 Суб 20:23:10 #518 №311564 
>>311545 можно конечно переустановить все, но там качать долго, хочется разобраться в чем дело. Может кэши какие то протухли, хер его знает. по промту Woman до этого бага были нормальные лица, а теперь очень страшные уебища. Если написать Beautiful woman то лицо становится лучше но всеравно хуёво.
Аноним 20/05/23 Суб 21:34:10 #519 №311660 
>>295798
палю тебе простую годноту, берешь фото с вотермаркой и кидаешь в инпеинт, ничего не пишешь в промт и выделяешь свою хуету.????профет, теперь у тебя карманный фотошоп. Причем заменяет он хорошо я так например очки у людей удаляю с лица
Аноним 20/05/23 Суб 21:48:48 #520 №311687 
>>311660
>карманный фотошоп
Очень карманный, ага.
Запускается полгода, отжирает видеопамять, с батчами и в автоматическом режиме не работает...
Короче, так себе совет.
Аноним 20/05/23 Суб 22:57:00 #521 №311835 
>>310014
Докладываю прогресс: узнал о плагинах webui-two-shot и composable-lora, теперь с двумя вертиклаьными прямоугольниками и запросом

two people AND (two naked people emma watson )
AND (two men <lora:PUPKIN:1> )

могу постоять рядом с голой эммой, уже вин, но если упоминаю секс - начинаются глюки, опять два моих ебла и почему-то друг над другом.

Продолжаю работать над результатом
Аноним 20/05/23 Суб 23:19:33 #522 №311866 
Давно тут не был. Появилось что-то новое для тренировки лор?

И еще вопрос - какое минимальное количество картинок для лоры на стиль?
Аноним 21/05/23 Вск 00:28:12 #523 №311939 
>>311866
> какое минимальное количество картинок для лоры на стиль?
Ну, мне вот 40 штук не хватило на последней попытке. Так что посоветую больше сорока.
Аноним OP 21/05/23 Вск 01:54:16 #524 №312065 
В шапку имеет смысл что-то добавить перед катом? Давно последний раз катились...
Аноним 21/05/23 Вск 02:36:23 #525 №312107 
>>311835
Апдейт: узнать про control net, освоил. Отсос фигурки делают, но рожи страшные как моя жизнь.
Аноним 21/05/23 Вск 06:13:34 #526 №312208 
>>312065
Вроде ничего определенно годного нету, имхо там не хватает гайдов на контролнет и актуализации гайдов по лорам. Есть вот такой гайд в помойке ссылок шапки https://rentry.org/59xed3 он обновляется и содержит прямо дохуя инфы для уже разбирающихся, но не покрывает тренировку ликорисов. Не знаю, стоит ли акцентировать внимание на нём или оставить дальше в помойке ссылок, ведь он на английском.
Аноним 21/05/23 Вск 11:18:45 #527 №312402 
>>311866
От 85-ти у меня уже начинало получаться.
Лучше больше, понятное дело.
И еще очень сильно важна постоянность. Причем именно общая, а не каких-то конкретных деталей. Когда у тебя самого все картинки прям с первого взгляда ассоциируются с определенным стилем - получится лучше всего. А если приглядываться приходится - это уже признак того, что ты лишнего в сет добавил.
Аноним 21/05/23 Вск 14:32:59 #528 №312652 
>>311939
>>312402
Печально. Получается еще много картинок надо сделать:(
Аноним 21/05/23 Вск 14:37:29 #529 №312659 
>>311545
Клип скип и нойз дельту проверь
Аноним 21/05/23 Вск 15:16:56 #530 №312725 
>>312208
> не хватает гайдов на контролнет
https://stable-diffusion-art.com/controlnet/
Знаю такой англоязычный гайд по контролнету (он же в шапке nai сейчас), можно его добавить, если нет ничего другого на примете.

> Есть вот такой гайд в помойке ссылок шапки https://rentry.org/59xed3 он обновляется и содержит прямо дохуя инфы для уже разбирающихся, но не покрывает тренировку ликорисов. Не знаю, стоит ли акцентировать внимание на нём или оставить дальше в помойке ссылок, ведь он на английском.
Тоже по этому гайду всякие нюансы выяснял. Может, последним его тогда поставить с ремаркой, что это продвинутый гайд? По типу такого:

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
Аноним 21/05/23 Вск 15:57:35 #531 №312765 
>>312725
> Знаю такой англоязычный гайд по контролнету (он же в шапке nai сейчас), можно его добавить, если нет ничего другого на примете.
Ничего лучше тоже не встречал.
> Тоже по этому гайду всякие нюансы выяснял. Может, последним его тогда поставить с ремаркой, что это продвинутый гайд? По типу такого:
Норм. Про ликорисы бы пару слов написать, анон выше расписывал небольшие пояснения >>256869 . Вот тут примерная визуализация локона например https://github.com/KohakuBlueleaf/LyCORIS/tree/locon-archive#difference-from-training-lora-on-stable-diffusion .
Аноним OP 22/05/23 Пнд 00:16:55 #532 №313993 
>>312765
https://rentry.org/catb8
Обновил шаблон шапки - свежие правки выделены отдельно. Добавил гайд по контролнету, углубленный гайд по лорам на инглише и секцию про LyCORIS. По LyCORIS, кроме комментария от анона >>256869 добавил инфу в целом о проекте LyCORIS и про LoKr.

Схему https://github.com/KohakuBlueleaf/LyCORIS/tree/locon-archive#difference-from-training-lora-on-stable-diffusion не придумал куда добавить; шапка и так выглядит перегруженной и не уверен, есть ли в этом особый смысл. Полагаю, достаточно ссылки на сам проект LyCORIS.

Если больше нет предложений по шаблону, то предлагаю этим вариантом катнуть завтра.
Аноним 22/05/23 Пнд 06:55:44 #533 №314526 
>>313993
> Схему https://github.com/KohakuBlueleaf/LyCORIS/tree/locon-archive#difference-from-training-lora-on-stable-diffusion не придумал куда добавить; шапка и так выглядит перегруженной и не уверен, есть ли в этом особый смысл. Полагаю, достаточно ссылки на сам проект LyCORIS.
Схема лишней будет, она локально просто к локону относится.
> Если больше нет предложений по шаблону, то предлагаю этим вариантом катнуть завтра.
Насчет дилоры кстати, там имплементация кохьи вроде неправильная и получаются сломанные модели с его же рекомендуемыми параметрами, это если что тестил не только я, но и еще один анон. Вроде по логу коммитов он это так и не исправил, стоит хотя бы как предупреждение оставить? Если других предложений нету, то кати так, а то уже утонул тред совсем.
Аноним 22/05/23 Пнд 09:52:40 #534 №314600 
>>313993
Вторая ссылка на тренировку лор не работает, кстати.
Опять чего-то в установке торча и прочий фигни сломалось.
Кто за этим колабом следит, в какое спортлото писать вообще?
Аноним 22/05/23 Пнд 13:32:13 #535 №314847 
Хорошо бы выделить рекомендованные аноном мокрописьки для тренировок.
Никто на голом скрипте не тренит, насколько я вижу. Неужели анонгуй самый топ?
мимо вкатун
Аноним OP 22/05/23 Пнд 14:43:07 #536 №314958 
>>314956 (OP)
>>314956 (OP)
>>314956 (OP)
Аноним 22/05/23 Пнд 14:44:56 #537 №314961 
>>314526
> Насчет дилоры кстати, там имплементация кохьи вроде неправильная и получаются сломанные модели с его же рекомендуемыми параметрами, это если что тестил не только я, но и еще один анон. Вроде по логу коммитов он это так и не исправил, стоит хотя бы как предупреждение оставить? Если других предложений нету, то кати так, а то уже утонул тред совсем.
Добавил предупреждение в конец описания DyLoRA.
Аноним 05/06/23 Пнд 15:59:20 #538 №342714 
>>309020
> Все, как я понял ЛОРА это просто дополнения к моделям
Вот тут один из основателей OpenAI поясняет всем за щёку, что есть что, и как модели обучаются.
https://www.youtube.com/watch?v=bZQun8Y4L2A
Аноним 08/06/23 Чтв 21:03:28 #539 №348142 
Как собирать и хранить большие датасеты? Я не понимаю структуру. Вот у меня тонна картинок, а как хранить теги для них?
comments powered by Disqus

Отзывы и предложения