Сохранен 541
https://2ch.hk/ai/res/82417.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

ТЕХНОТРЕД №3 ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем внутр /tech/

 Аноним 27/01/23 Птн 13:51:37 #1 №82417 
.png
.png
.png
ТЕХНОТРЕД №3

ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion/ (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)

➤ Гугл колабы
﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное
Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по кручению весов слоев моделей: https://rentry.org/mp2dt
Гайд по апскейлу: https://rentry.org/SD_upscale
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Сервер анона с моделями: https://static.nas1.gl.arkprojects.space/stable-diff/

Шапка: https://rentry.org/ex947
Прошлые треды:
№1 https://arhivach.ng/thread/859827/
№2 https://arhivach.ng/thread/860317/
Аноним 27/01/23 Птн 14:01:00 #2 №82440 
.png
Для тех кто не увидел из-за бамплимита в прошлом треде, рекламирую еще раз. Теперь у лоры есть гуй:

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.2

Из основных возможностей это вкладки, которые будут обучаться последовательно и импорт/экспорт настроек
Аноним 27/01/23 Птн 14:04:28 #3 №82456 
>>82440
> Теперь у лоры есть хуй
Аноним 27/01/23 Птн 14:07:03 #4 №82463 
>>82417 (OP)
Пушисто закатился
Аноним 27/01/23 Птн 14:07:53 #5 №82464 
>>82463
Пурр :3
Аноним 27/01/23 Птн 14:08:37 #6 №82467 
>>82440
Ты же осознаешь, что ты мог просто сделать экстеншон для сд?
Аноним 27/01/23 Птн 14:10:34 #7 №82472 
>>82467
Делал в первую очередь для себя. У меня 6 гб врам и браузер её жрет нещадно и режет скорость достаточно сильно. +я не знаю что такое градио
Аноним 27/01/23 Птн 14:12:58 #8 №82475 
>>82472
>браузер её жрет нещадно
Отключить аппаратное ускорение, не?
>я не знаю что такое градио
А мог бы узнать, точно так же как узнал про dearpygui
Аноним 27/01/23 Птн 14:17:24 #9 №82490 
>>82475
Я могу в теории попробовать сделать расширение для сд. Но это будет куда сложнее чем сделать простую обертку для скрипта, как минимум мне нужно понять как выгрузить модель из памяти, потому что у меня лично автоматик 2 гб врам отжирает просто ничего не делая
Аноним 27/01/23 Птн 14:18:50 #10 №82495 
>>82490
Каво бля? Разве лора не на модели тренируется? Нахуя ее выгружать?
Аноним 27/01/23 Птн 14:20:47 #11 №82500 
>>82495
А, я тебя понял, скрипты с автоматиком никак не связаны. Ну хуй знает тогда.
Аноним 27/01/23 Птн 14:23:42 #12 №82513 
>>82495
Ну я тупанул. Все равно проще особо не становится, это получается надо форкать репо китайца и шерудить там под капотом, чтобы запускать тренировку не посылая аргументы левому скрипту, а как бы нативно из автоматика. Это очень интересная задача и я не против ей заняться, но я не уверен что моих текущих знаний достаточно чтобы это реализовать

советом лучше помоги
Аноним 27/01/23 Птн 14:27:39 #13 №82524 
Уже две личные лоры есть, хороший тред. Третья лора будет по shion yorigami
Аноним 27/01/23 Птн 14:32:38 #14 №82537 
.png
Не знаю чего там все плачут по поводу китайцоскрипта версии 0.4.0, еще в прошлом треде писал что всё нормально работает и у меня лично результаты даже лучше чем раньше. Впервые я на таком малом количестве шагов оттренил Феликса с полноценным запоминанием концепта, до этого постоянно вылезали косяки типа не та одежда, не тот цвет того или иного элемента и т.д. А сейчас стренил 800 шагов и всё как было в датасете, так оно есть и в генерации

Всё что нужно на новой версии поменять, это поставить (при network_dim = 128, network_alpha = 1) learning_rate в 10 раз выше рекомендуемого (т.е. 1e-4 -> 1e-3) и всё будет работать ИЗКАРОПКИ. Дайте шанс китайцу

инби4: кохъя-лахта

>>82524
Не стесняйся делиться. В шапке есть ссылка на репозиторий, если мне не лень я туда добавляю то что скидывают, но в последнее время суперлень ебаться с разметкой и заливать туды-сюды папки с датасетами и сетками, но ты можешь сам добавить туда своё пароль для редактирования 2ch
Аноним 27/01/23 Птн 14:41:34 #15 №82553 
>>82537
>800 шагов
У меня 3200 шагов уходит на концепт перса.
>делиться
Если бы, ты ведь меня недолюбливаешь. Уже понял кто я, да?
>1e-3
Не работает у меня.
Аноним 27/01/23 Птн 14:44:42 #16 №82568 
>>82553
> У меня 3200 шагов уходит на концепт перса.
Охуеть
> Уже понял кто я, да?
Нет, няш, я не помню чтоб кого-то недолюбливал. Если ты тот анон с эмбедингами и спич баблами, то я извиняюсь за тот инцидент, мне не стоило помогать когда я сам не до конца разбираюсь. Если ты не он, то возможно с кем-то меня путаешь?
> Не работает у меня.
Да как так-то блджад, что именно-то не работает, могу попробовать помочь
Аноним 27/01/23 Птн 14:49:32 #17 №82584 
.png
Тааааак, чекнем репо китайца, что он там мутит...

...

ОХУЕТЬ!
Аноним 27/01/23 Птн 14:49:46 #18 №82586 
>>82568
>анон с эмбедингами и спич баблами
Я анон с кокоро.
Аноним 27/01/23 Птн 14:50:23 #19 №82591 
>>82584
>textual inversion
Зачем это хуево работающее, медленное и кривое говно поддерживать? Для чего?
Аноним 27/01/23 Птн 14:53:01 #20 №82599 
image.png
>>82537
Нижний пост - твой? У тебя же ничего не работало на этой скорости, почему заработало?
Аноним 27/01/23 Птн 14:57:25 #21 №82612 
>>82586
Кек, да мне похуй в целом уже. Но все равно неприятно когда просят совета, ты его даешь, человек советом не пользуется и потом говорит всем что совет говно. Уж пойми
Как у тебя дела с сетками? Заебатые теперь получаются?

>>82591
Если у китайца хорошая имплементация TI, то почему бы и нет? Это инструмент для своих задач. Даёт другие результаты. Я хоть и считаю что лора это киллерхуйня, но лора + эмбед > лора

>>82599
Да, это мой пост. Как оказалось вся проблема была в ебучем автоматике, я не смотрел в консоль, а там писало что сетка не грузится, даже учитывая что я пользовался расширением китайца. Обновил автоматика и все сетки заработали. 1е-3 дал отличные результаты на малом количестве шагов, мне понравились больше чем старые до альфы на 1е-4
Аноним 27/01/23 Птн 14:59:16 #22 №82616 
00179-962695155-ibaraki kasen,.png
yuuma1.png
>>82612
>Как у тебя дела с сетками? Заебатые теперь получаются?
Вот такие получаются.
1 пик - Kasen Ibaraki.
2 пик - Yuuma Toutestu.
Аноним 27/01/23 Птн 15:00:19 #23 №82618 
>>82616
Заебатые. Тохофаг? Я тоже немного
Аноним 27/01/23 Птн 15:01:46 #24 №82623 
image.png
>>82618
>Тохофаг
Ага, сегодня ночью соберу датасет на Shion Yorigami и оттреню её
Аноним 27/01/23 Птн 15:02:49 #25 №82625 
>>82612
>Обновил автоматика
А вот я боюсь обновляться.. Из-за производительности и криворукости автоматика
Аноним 27/01/23 Птн 15:05:08 #26 №82629 
>>82625
Я не боюсь. Сохраняешь в блокнотик хэш текущего коммита, пуллишь, не нравится - возвращаешься
Кстати китаец для своего расширения повыкатывал фиксы, есть смысл начать с него
Аноним 27/01/23 Птн 15:06:40 #27 №82631 
>>82629
Да, я знаю про git checkout, но все равно тряска. Мб позже и обновлюсь. Сейчас все работает и я доволен.
Аноним 27/01/23 Птн 17:26:10 #28 №83060 
>>82440
как этим пользоваться?
Аноним 27/01/23 Птн 17:58:30 #29 №83140 
>>82440
Вот что выдает "train_network.py: error: unrecognized arguments:"
Аноним 27/01/23 Птн 18:02:21 #30 №83147 
>>82417 (OP)
Как обучить лору на собственно перса? Есть идеи у треда? Это важная проблема SD - невозможность создания авторских персонажей. В соседнем треде анон продвинулся в проблеме решения генерации кривых рук, надеюсь, что он своё изобретение все же опубликует, а не зажмотит.
Аноним 27/01/23 Птн 18:02:49 #31 №83148 
>>83060
Этим не надо пользоваться, пользуйся скриптом. В гуи нет защиты от дурака, да и не удобный оне.
Аноним 27/01/23 Птн 18:05:41 #32 №83160 
>>83147
>собственного перса
фикс
Аноним 27/01/23 Птн 18:22:00 #33 №83188 
>>83147
1) Собрать датасет с персом
2) Обучить лору
3) Пользоваться
Аноним 27/01/23 Птн 18:23:21 #34 №83191 
>>83188
>1) Собрать датасет с персом
Вот это главная проблема, спавнит в рандомной одежде. Хер знает как это решать
Аноним 27/01/23 Птн 18:42:33 #35 №83234 
>>83140
Я даун, пофиксил, можешь перекачать

>>83060
Скачать, открыть, заполнить поля, нажать "Запустить"
Аноним 27/01/23 Птн 18:58:59 #36 №83253 
1674835136976.jpg
1674835136988.jpg
1674835136999.jpg
1674835137004.jpg
>>82537
Сколько пикч в дата-сете? Зеркалил? Сколько повторений?
Игрался с скоростями. Над этим персонажем 5e-5 дала результат неплохой. Слабый-мягкий, но легко редактируемый.
В нем было 94 пикчи уникальных, cosine_with_restarts, 12 повторений, 8 эпох.
1 пик - 5e-5
2 пик - 1e-3
3 пик - на старой версии с 1e-4
4 пик - на старой версии с 1e-4 и 24 пикчи

А вот с совсем другим персонажем и дата-сетом на 26 уникальных пикчи с теми же настройками нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется.
Видимо для 5e-5 надо иметь большой дата сет. Минимум 100 пикч без учета отзеркаливания.
Аноним 27/01/23 Птн 19:05:26 #37 №83270 
>>83253
14 пикч х 9 повторений и 13 пикч х 3 повторения. Ничего не зеркалил, все пикчи уникальные. 1е-3 linear
> нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется.
5e-5 это крайне мало, тем более для новой версии. Если на 1е-3 сеть перетренировалась, попробуй 5е-4
> Видимо для 5e-5 надо иметь большой дата сет
Запоминание концепта вряд ли зависит от количества пикч в датасете, оно зависит скорее от разнообразия этих пикч и скорости обучения
Аноним 27/01/23 Птн 19:30:45 #38 №83325 
>>83270
> вряд ли
Вот на 3 не выйдет ничего обучить, тут минимум от 15-20 начинается.
Аноним 27/01/23 Птн 19:48:38 #39 №83372 
>>83325
Ну как сказать...
https://github.com/cloneofsimo/lora/discussions/69
Аноним 27/01/23 Птн 20:29:22 #40 №83462 
>>83372
>300 эпох
Ебать
Аноним 27/01/23 Птн 20:29:55 #41 №83464 
>>83462
Так 5 пикч же. 1.5к шагов всего
Аноним 27/01/23 Птн 20:33:49 #42 №83486 
>>83464
А повторений 1?
Аноним 27/01/23 Птн 20:35:55 #43 №83493 
>>83486
300 повторений
Аноним 27/01/23 Птн 20:38:08 #44 №83504 
.png
.png
.png
.png
Блядь, а вот другая сетка на 1е-3 однозначно перетренировалась
Аноним 27/01/23 Птн 20:40:09 #45 №83511 
>>83504
Тю блять, забыл негативы подрубить. Но не суть, все равно что-то не то
Аноним 27/01/23 Птн 20:42:38 #46 №83517 
>>82417 (OP)
Существует подробное объяснение принципа тренировки самого СД? Что такое "нейрон", что конкретно пишется в файл модели и т.п.
Аноним 27/01/23 Птн 21:17:58 #47 №83611 
Кароче начинаю ебаторию с лёрнинг рейтом. Оттренил 3 сетки на 1е-3, все перетренированные. Начну с 5е-4 unet, 1e-4 text encoder. На том же сиде
Аноним 27/01/23 Птн 21:35:11 #48 №83674 
>>82440
>>81795 →
Помацал. На пре 0.4.0 работает, найс.

По сохранению настроек - не сохраняется путь к папке sd-scripts, не сохраняется нетворк альфа с пустым значением (с обычным сохраняется) и батч сайз.

Алсо, сделай что бы по умолчанию при запуске гуи открывалась вкладка. А то без открытой вкладки настройки не импортируются, сейвит один клик, лол.

Глянул в код и мне кажется ты забыл прописать присвоение переменной батч сайза к соответствующему аргументу, т.к. оно игнорирует выставленный в гуи батч сайз.

И сделай значение "сохранять только последние n эпох" наверное 999 как раньше, а то я уже успел обосраться с этим))0))).
Аноним 27/01/23 Птн 22:02:02 #49 №83804 
.jpg
Анон, который сделал лору на Лейн, ты крут! Прямо потрясно работает. Спасибо.
Аноним 27/01/23 Птн 22:05:49 #50 №83821 
>>83804
почему она потеет?
Аноним 27/01/23 Птн 22:07:45 #51 №83827 
>>83821
Жарко, влажно, Азия-с
Аноним 27/01/23 Птн 22:11:31 #52 №83837 
Почему лоры уже который день не пополняюца?
Аноним 27/01/23 Птн 22:14:29 #53 №83854 
>>83837
> Кто, я?
Аноним 27/01/23 Птн 22:15:26 #54 №83858 
>>83854
Аянами Рей
Аноним 27/01/23 Птн 22:35:34 #55 №83923 
>>83837
У меня мои лоры постоянно пополняются, если тебе надо - ты и тренируй.
Аноним 27/01/23 Птн 22:37:39 #56 №83930 
>>83611
А мог бы просто перейти на старую версию
Аноним 27/01/23 Птн 22:43:28 #57 №83955 
image.png
>>83923
двачую. делайте сами.
Аноним 27/01/23 Птн 22:45:08 #58 №83966 
>>83955
>8300
Чел...
Аноним 27/01/23 Птн 22:46:19 #59 №83972 
>>83966
чо
Аноним 27/01/23 Птн 22:56:10 #60 №84003 
>>83923
>>83955
Делитесь.
Аноним 27/01/23 Птн 22:58:33 #61 №84014 
>>83674
Ага, учел, спасибо за фидбек, буду править
На счёт сохранения папки sd-scripts я пока не знаю. Не умею работать с реестром. Поэтому остается два варианта: либо файлик текстовый генерировать в папке с гуем, из которого подхватываются начальные настройки, либо сделать так, что если гуй находится в папке со скриптом, автоматически заносить путь в необходимый инпут

>>83804
Спасибо. Как разберусь с правильными настройками на 0.4.0, перетреню, вдруг еще лучше будет

>>83837
Потому что мне лень, другие дела. Пароль 2ch, если хочешь добавить что-то своё

>>83930
Я еще раз повторяю: МНЕ НЕ НУЖНЫ НУЛЕВЫЕ ТЕНЗОРЫ
Аноним 27/01/23 Птн 23:28:53 #62 №84046 
>>84014
>тензоры
Не похуй ли? Результат же норм
Аноним 27/01/23 Птн 23:33:46 #63 №84051 
Глянул код GUI. Лучше бы не глядел.
Аноним 27/01/23 Птн 23:34:44 #64 №84053 
>>84046
Хотеть лучше!
>>84051
3 дня в питоне
Аноним 27/01/23 Птн 23:38:54 #65 №84065 
Зачем хранить параметры в ini файле и потом заниматься онанизмом в виде str2bool и line_split = line.split(": ", 1)?
Сделай словарь, в котором будут храниться все параметры и сохраняй его в JSON или yaml.
Аноним 27/01/23 Птн 23:41:10 #66 №84073 
>>84065
Я не умею. Ты тоже с первого дня пользовался json или yaml? Сделал в соответствии со своими знаниями. В следующий раз будет лучше. Извините.
Аноним 27/01/23 Птн 23:42:17 #67 №84076 
>>84065
Ты мне лучше скажи как реализовать вкладки правильно, чтобы не нужна была функция append_instance_number()
Аноним 28/01/23 Суб 02:19:10 #68 №84350 
.png
>>83674
Всё, сделал. Оказалось с реестром всё не так страшно, теперь после нажатия кнопки "запустить" путь к папке sd-scripts отправляется туда и после этого подхватывается при запуске. И еще если в папке с гуем есть файл "ltg_default.ini", каждая вкладка будет подхватывать значения оттуда
Только маленький нюанс: пришлось переименовать кучу переменных для удобства, чтобы их названия соответствовали таковым из китайцоскрипта, поэтому старые конфиги не подойдут. За это извиняюсь, надо было изначально нормально всё проименовать
Новую версию на тестовой сетке протестил, в этот раз не должно быть как обычно

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.21
Аноним 28/01/23 Суб 02:30:58 #69 №84369 
>>84350
Хранить настройки в реестре очень хуёвая идея
Аноним 28/01/23 Суб 02:36:16 #70 №84384 
Такой вопрос есть >>84370 →
Аноним 28/01/23 Суб 02:39:05 #71 №84390 
>>84350
Зачем реестр? Положил бы рядом cfg и свободен.
Аноним 28/01/23 Суб 02:53:51 #72 №84415 
>>84384
Масштаб страницы измени (ctrl+колёсико мыши)
Аноним 28/01/23 Суб 02:56:12 #73 №84417 
>>84415
Это понятно. Я на ноутбуке, остальные элементы интерфейса тогда становятся комически крошечными. Явно же есть где-то в файлах настройки их скейлинга. Подскажите хотя бы, где искать, я совсем не шарю.
Аноним 28/01/23 Суб 03:03:34 #74 №84430 
>>84417
А нету их там лол. Эта хуйня зархардкожена в gradio.
Аноним 28/01/23 Суб 03:28:08 #75 №84471 
1587132049379.png
1591113252651.png
>>84350
Ну вообще сохранение пути сдскриптс в ини было бы норм, впрочем и так норм наверное

Теперь вылезает нюанс при импорте настроек в виде пик 1. При этом из такого же файла дефолтных настроек все подгружает без ошибок. Настройки свежие офк

Батч сайз все еще игнорируется Где?

>поэтому старые конфиги не подойдут
Это норма

>>84369
> Хранить настройки в реестре очень хуёвая идея
Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре

>>84384
> Такой вопрос есть
Можешь через стили это попробовать решить, ватоматик объявлял поддержку
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#usercss

Тыкаешь f12, выбираешь элемент, смотришь как он называется, теребишь длину-ширину, если работает, то создаешь свой файл css с описанием характеристик т.е. длины и ширины и кидаешь куда надо. Описал примерно, я глянуть не могу, т.к. не хочу гитпулить
Аноним 28/01/23 Суб 04:28:16 #76 №84532 
.png
Решил всё же свой старый грид до ума немного довести. Добавил в него поддержку конфига, чтобы картинки не были гвоздями прибиты. Так же левой кнопкой мыши осуществляется скролл по гриду. Грузятся только картинки, находящиеся близко к зоне видимости, так что хоть гриды довольно увесистные, они не должны долго грузиться, если у вас быстрый интернет.

Для создания своего грида у вас есть два варианта использования:
1. Вы либо делаете форк/копию и засовываете свой config.json в корень проекта
2. Либо вы ссылаетесь на мою репу (ну или на свой форк) и передаёте путь до конфига в queryParams, как в примерах ниже. Хотя не думаю, что вам имеет смысл использовать такой вариант, я его скорее для себя делал, чтобы если обновы делать буду, то сразу ко всем гридам правки применялись.

Если всё же будете использовать второй вариант, то нужно убедиться, что ваш стор не блочит cross-origin запросы. В идеале, для этого грида надо ещё добавить поддержку зума по типу того, как другой анон тут делал - https://diffai.xyz/grid/ewZc47dGmRQ

Проблема в том, что для реализации зума надо создавать несколько тайлов для разного масштаба. Я исследовал этот вопрос пару месяцев назад, и, в целом, можно провернуть трюк с тем, что тайлы можно создать полностью на фронте в момент, когда вы грид оформляете (у меня с головой всё относительно в порядке, так что я не планирую какую-то инфраструктуру для нужд двачеров поднимать) и потом выплёвывать юзеру zip архив со всеми тайлами, но для этого надо UI пилить, а мне пока лень, поскольку это никому не нужно, так что пока так.

Ридми потом оформлю, я уже задолбался на сегодня. По пику я думаю формат конфига должен быть понятен.

Грид по гиперу Сенко в стиле Римукоро для Abyss Orange Mix:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/orange-senko-by-rimukoro/config.json

Грид по гиперу Сенко в стиле Римукоро для Anything V3.0:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/any3-senko-by-rimukoro/config.json

Старый грид для Шинобу:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/nai-shinobu-example/config.json

---

Публикую свои гиперы для Сенко в стиле Римукоро. Уже вкидывал их раньше в тред, но добавил описание, наконец.

Abyss Orange Mix:
https://huggingface.co/NeuroSenko/abyss_orange_mix_senko_by_rimukoro_hyper

Anything V3.0:
https://huggingface.co/NeuroSenko/any3_senko_by_rimukoro_hyper

any222trinart:
https://huggingface.co/NeuroSenko/cab_senko_by_rimukoro_hyper

По фреймам из аниме я тоже пытался тренировать модели, но мне они не особо понравились, так что, наверное, не буду их публиковать пока.

---

Так же публикую свои датасеты на Сенко.

Все арты Римукоро:
https://huggingface.co/datasets/NeuroSenko/senko_by_rimukoro

Все фреймы из аниме (773 изображения):
https://huggingface.co/datasets/NeuroSenko/senko_anime_full

Все фреймы из аниме с фильтрацией неудачных кадров (629 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_no_bad_frames

Фреймы из аниме с фокусом на лицо (404 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_face_only

Фреймы из аниме где видно одеяние мико (213 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_miko_visible
Аноним 28/01/23 Суб 05:17:34 #77 №84565 
Почему анатомию от лоры пидорасит? Есть идеи?
Аноним 28/01/23 Суб 05:57:15 #78 №84599 
Надо ли вписывать --opt-split-attention или на 3060 оно автоматом включено?
Аноним 28/01/23 Суб 06:18:55 #79 №84629 
Там это, ультимейт апскейлер ахуенный у нас теперь есть https://github.com/Coyote-A/ultimate-upscale-for-automatic1111
SD скейлер больше не нужен
Аноним 28/01/23 Суб 06:32:12 #80 №84639 
>>84629
Его ещё в 20 наитреде обсуждали, его отличие от сдапскейла примерно нихуя
Аноним 28/01/23 Суб 06:41:59 #81 №84643 
>>84639
Даже объяснять лень где ты не прав и почему, иди обратно в анимушный загон.
Аноним 28/01/23 Суб 06:45:07 #82 №84646 
>>84639
>обсуждали
че могли обсуждать брейнлес пчелы со скопипасченными (((()))) и жереми липкингом?
Аноним 28/01/23 Суб 06:47:29 #83 №84649 
>>84599
Если модель норм грузится в память по дефолту и рендерит без отвалов то никакие оптимизаторы врама не нужны.
Аноним 28/01/23 Суб 07:00:24 #84 №84660 
>>84643
Потому что ты не прав, довен бля, его тестили прямо в треде. Результат - примерно нихуя, на уровне погрешности.
>>84646
Показывай как пользоваться, умник бля.
Аноним 28/01/23 Суб 09:44:13 #85 №84794 
Почему скрипт отказывается запускаться, если я прописываю путь с регуляризационными изображениями?
Аноним 28/01/23 Суб 09:57:49 #86 №84808 DELETED
>>84660
Анимешный черт съеби, ты своими врети там заебал, а теперь ещё и тут, я с такимт ультимейт даунами разговор не веду и не поясняю ничего, хуй саси.
Аноним 28/01/23 Суб 10:04:21 #87 №84824 
>>83674
>>84350
>>84014
>>84051
>>84053
>>84065
>>84073
>>84076
https://github.com/anon-1337/LoRA-train-GUI/issues
https://github.com/anon-1337/LoRA-train-GUI/issues
https://github.com/anon-1337/LoRA-train-GUI/issues
Аноним 28/01/23 Суб 10:11:23 #88 №84840 
>>84808
Я тестил, вопросы?
Если есть 12гб и больше, то ультимейт не нужен. В то время как цель хорошего апскейла сделать как можно меньше тайлов, то ультимейт наоборот делает их много + ещё и проходится потом вторым проходом, уничтожая детали. Он нужен только, если ты не можешь штатным сделать нормально, т.е. ограничен врам.
Аноним 28/01/23 Суб 10:14:00 #89 №84842 DELETED
>>84840
Ебало завали, хуйня анимешная, еще раз те грю.
Аноним 28/01/23 Суб 10:19:54 #90 №84850 
>>84842
Какой же смешной подрыв тралёнка, обнаружившего, что его любимая новая игрушка нравится только ему. Апскейлил дольше чем ты знаешь про сд, запустил лдср и принес валар в /б. Что ещё расскажешь?

>грю
гри дальше, деревня.
Аноним 28/01/23 Суб 10:21:42 #91 №84854 DELETED
>>84850
>запустил лдср
Ебать достижение, скопировать парочку файлов
мимо
Аноним 28/01/23 Суб 10:24:08 #92 №84857 DELETED
>>84850
Какой же ты сруня чсвшный анимехуесос пидорас, неиронично надо тебе в дурку.
Аноним 28/01/23 Суб 10:25:38 #93 №84859 DELETED
>>84850
>да я да у меня да ты уиии
ну разревись еще, анимедевка
Аноним 28/01/23 Суб 10:27:18 #94 №84861 DELETED
>>84854
>>84857
>>84859

Не слабый семенинг с утра и подрыв срак итт и в соседнем треде. В школу по субботам не надо, хорошо
Аноним 28/01/23 Суб 10:28:09 #95 №84863 DELETED
Что забыл сруня >>84861 итт?
Аноним 28/01/23 Суб 10:29:31 #96 №84867 DELETED
Пиздец нахуй, надо сруню в спам-лист заносить, этим словом реально тупо давят всех несогласных
Аноним 28/01/23 Суб 10:31:26 #97 №84872 DELETED
>>84867
надо давануть чсв ёбика анимешного просто
Аноним 28/01/23 Суб 10:32:06 #98 №84875 DELETED
>>84867
На любые аргументы отвечают скрином протыка >>84863 а когда аргументов не имеется, пуки про "отсутствие аргументов"
Аноним 28/01/23 Суб 10:33:31 #99 №84878 DELETED
Это от sd у вас так крыша потекла? Я такого даже в пораше не видел, пиздец...
Аноним 28/01/23 Суб 10:33:35 #100 №84879 
>>84854
> Ебать достижение
Что-то не скопировал раньше никто. Про валар вообще не слышали.

>>84857
> чсвшный
Я же не пишу это в каждом посте итт, глурый, а чтобы ты понимал, что я не первый раз апскейл вижу. Конкретно к обсуждение новой мокрописьки, которую ты только увидел и решил притащить сюда. А её давно протестили и выбросили как мусор ничем не выдающуюся
Аноним 28/01/23 Суб 10:33:38 #101 №84880 DELETED
>>84875
по опыту на других досках когда ебанашка начинает писать "протык", то в 99% он этим "протыком" и является, так что срунька съеби ка на хуй
Аноним 28/01/23 Суб 10:34:38 #102 №84882 
>>84879
>чсвшный мудень продолжает строить из себя что-то хотя ему настойчиво рекомендовали завалить ебало
прикольно, говно отыгрывает маняэксперта
Аноним 28/01/23 Суб 10:36:05 #103 №84886 DELETED
>>84880
По опыту на других досках и на этой доске ты являешься червём-пидором.
Аноним 28/01/23 Суб 10:37:01 #104 №84889 DELETED
>>84886
но я не анимешный чсв гной петух эксперт по всем вопросам aka срунич
Аноним 28/01/23 Суб 10:37:55 #105 №84890 DELETED
>>84889
Так ты как раз анимешный чсв гной петух эксперт по всем вопросам aka срунич, орео нах.
Аноним 28/01/23 Суб 10:55:40 #106 №84945 
>>84471
Ладно, тут анон(-ы) жалуется что оффтоп и в принципе я согласен, буду обновлять теперь молча, если есть какие-то проблемы можно создать ишью, или на крайняк если не хочется палить гитхаб можно написать тут кратко. Следи за релизами
>>84369
Меня переполняет любопытство почему?
Аноним 28/01/23 Суб 11:13:30 #107 №84977 
>>84973
А ты посмотри на себя со стороны, вы друг друга стоите по уровню щитпостинга и малоинформативности.
Аноним 28/01/23 Суб 11:24:14 #108 №84999 
LDSR хоть и годно апскейлит, но бля, если ты стартанул, то ты уже не сможешь прервать операцию, кроме как закрыть батник и перезапустить автоматик.
Аноним 28/01/23 Суб 11:45:32 #109 №85044 
.png
.png
.png
Бахнул 6 сеток ночью, 0.4.0 с разными lr: unet 5e-4, 3e-4, 1e-4
Каждое значение unet lr имеет две вариации: text encoder lr = unet lr и text encoder lr = unet lr / 2
Все остальные настройки абсолютно одинаковые, в т.ч. сид
Беглым взглядом по графикам что-то сказать сложно, да, есть закономерность что чем больше lr, тем меньше loss, но это ни о чем не говорит, тем более значения отличаются минимально
Гриды в процессе
Аноним 28/01/23 Суб 11:51:14 #110 №85058 
Йей, ватоматик сделал дпм++ карась дефолтным семплером. Наконец-то мы, мученики колаба и прочих пейперспейсов, сможем вздохнуть спокойно (еще бы починил нам линк с градио, а то достало его после каждого пакета перегружать)

>>85038
Такими задницами, как справа
Аноним 28/01/23 Суб 12:03:25 #111 №85073 
>>84999
LDSR еще вымораживает тем, что он пол часа грузится, а потом при генерации выдает ошибку, мол вае твое говно, ставь ноу халф вае.
>>85058
Какой командой обновлять автоматик? А то чет он по дкфолту сам не обновляется.
Аноним 28/01/23 Суб 12:10:30 #112 №85087 
>>85073
>Какой командой обновлять автоматик? А то чет он по дкфолту сам не обновляется.
Я-то на колабе, я всегда делаю клон
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

А тебе, наверное, надо делать git pull
Аноним 28/01/23 Суб 13:00:52 #113 №85159 
Реально ли натренить DreamBooth-модель на позу? Хочу таки сажать тянок на шпагат :3
Или хоть на вертикальный стабильно ставить.

Кто-нибудь что-нибудь подобное пробовал?
Аноним 28/01/23 Суб 13:10:02 #114 №85183 
00755-2626663686-realistic photo of alkemanubis, 10s, 1girl, asui tsuyu, areola slip, pasties, solo, split, standing, standing on one leg, standi.png
00750-2626663681-realistic photo of alkemanubis, 10s, 1girl, asui tsuyu, areola slip, pasties, solo, split, standing, standing on one leg, standi.png
01170-448784409-realistic photo of mashinka, by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5), sabudenego, masterpiece.png
01171-448784410-realistic photo of mashinka, by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5), sabudenego, masterpiece.png
>>85159
хоба
Аноним 28/01/23 Суб 13:42:27 #115 №85244 
AttributeError: module 'modules.paths' has no attribute 'data_path'
Что это? Как это исправить?
Аноним 28/01/23 Суб 13:57:38 #116 №85259 
.jpg
.jpg
.jpg
.jpg
>>85044
Так, ну сделались гриды

1 пик, UNet LR = 1е-4: нормальные результаты, отличная редактируемость. Очень медленная скорость: у сети проблемы с отображением концепта, персонаж не похож на ГТ. Касаемо разных скоростей ТЕ: трудно сказать чем они отличаются. У меньшей скорости ТЕ проблемы с запоминанием концепта заколки на волосах персонажа (она присутствует на каждом изображении датасета) - не в том месте и не той формы. У большей скорости с этим получше, но все равно далеко. По внешности +- одинаково, трудно выбрать победителя.
Вывод. 1е-4 - не очень хороший выбор для обучения на 0.4.0, обучить сеть концепту(-ам) вероятно можно, но потребуется большое количество шагов, что немного нивелирует плюс Лоры как быстрого способа обучения. Возможно попробую еще раз на большом количестве шагов. Какую скорость ТЕ брать: трудно сказать, нужно еще тестировать. На такой маленькой дистанции (1.5к шагов) однозначно сказать трудно.

2 пик, UNet LR = 3e-4: хорошие результаты, но уже появляются следы отхода рисовки от модели в последних эпохах. Концепт намного больше похож на ГТ (оно и логично, скорость обучения UNet возросла в 3 раза). Разные скорости ТЕ: цвет волос концепта на меньшей скорости более консинстентный (субъективно). У обеих скоростей ТЕ проблемы с концептом заколки примерно одинаковые. Меньшая скорость ТЕ даёт чуть большую редактируемость + генерации меньше отходят от стиля рисовки модели (субъективно + малая выборка).
Вывод. 3е-4 хорошая скорость для обучения, но всё же не очень быстрая для Лоры, поэтому вероятно потребуется большее количество шагов. Но это будет гораздо быстрее, чем тренировать на 1е-4. Какую скорость ТЕ брать: я бы брал 1.5е-4 (субъективно).


3 пик, UNet LR = 5e-4: хорошие результаты, заметно более низкая редактируемость и bias в сторону стиля датасета, а не модели. Персонаж также достаточно сильно похож на ГТ, но не сказать что сильно обошел 3е-4, на уровне погрешности. Меньшая скорость ТЕ заметно лучше справляется с генерацией в стиле модели, меньший bias в сторону датасета (субъективно). У обеих скоростей ТЕ проблемы с редактируемостью, но у более низкой скорости она лучше (опять же, субъективно).
Вывод. Для быстрой тренировки 5е-4 подойдет. Быстро понимает основной концепт и также быстро уменьшает редактируемость и вариативность и вносит изменения в стиль рисовки модели. Какую скорость ТЕ брать: однозначно уменьшенную (имхо).

4 пик, сравнение всех финальных эпох со вчерашней тестовой сеткой (LR 1e-3): 1е-3 просто уничтожает картинку. Сеть страшно перетренирована на крупных деталях: полное отсутствие какой либо мелкой детализации, уничтоженные контуры, околонулевая редактируемость, гигантский bias в сторону рисовки датасета. Тем не менее лучше всех справилась с заколкой, хоть она и по-прежнему далека от ГТ.
Вывод. Я не нашел применения такой большой скорости. Возможно я что-то делаю не так. Возможно стоило добавить приличный warmup для планировщика, потому что сеть без него стартует с гигантской скорости. Возможно ситуацию мог спасти другой планировщик, какой-нибудь рабочий polynomial (но ни в коем случае не constant). Возможно нужно было тренировать на меньшем количестве шагов. Нужно экспериментировать а у меня слабое железо и это займет вечность
в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear

Что дальше? Пока думаю. Нужные значения имхо лежат где-то в районе первых двух результатов. Несмотря на не очень большую схожесть с ГТ, мне понравились результаты 1е-4 с уполовиненной скоростью ТЕ: отличная редактируемость, отсутствие bias в сторону датасета. Если я правильно понимаю, большее количество шагов должно спасти ситуацию. У сети будет больше времени обучиться концепту и она не "задавит" своими весами веса модели из-за маленькой скорости. Минус этого варианта очевидный: увеличенное время тренировки. Раньше я мог на своём корыте натренировать персонажа за 20-40 минут и получить нормальные результаты, но с обновлением 0.4.0 это больше не так. Видимо либо качество, либо скорость. Я всё же придержусь мнения что тренировать нужно только на 0.4.0, потому что в этой версии ввели то, что должно быть изначально, альфа - это переменная которая всегда была в оригинальном репо cloneofsimo, даже изменение переменной ранка (network_dim) появилось не сразу.

Вот бы нам анона с 4090, которому не лень было этим заняться. Уже бы давно всё порешали и тренили отличные сетки без нулевых тензоров на 0.4.0.
Аноним 28/01/23 Суб 14:04:44 #117 №85266 
>>85259
Макаба сломала мне разметку, имелось в виду
> рабочий polynomial(звездочка)
> (звездочка)в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear
Аноним 28/01/23 Суб 14:35:52 #118 №85310 
>>85259
Что значит "перетренирована", мне может кто-нибудь объяснить? Как сеть может быть перетренирована, как это понимать из картинки нахуй?
Аноним 28/01/23 Суб 15:06:26 #119 №85358 
>>85259
>Вот бы нам анона с 4090, которому не лень было этим заняться.
Чем конкретно надо заняться?
анон с 4090
Аноним 28/01/23 Суб 15:12:05 #120 №85362 
>>85358
сделай бочку
Аноним 28/01/23 Суб 15:18:28 #121 №85372 
>>84945
Да какой оффтоп, хз, как по мне это релейтед, уж точно надохуя чем срунесрачи на 50 постов

>анон(-ы) жалуется
Вахтер

Тут удобнее чем на гитхабе
Аноним 28/01/23 Суб 15:51:50 #122 №85418 
>>84471
> > Хранить настройки в реестре очень хуёвая идея
> Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре
Потому что
1) В linux ВНЕЗАПНО нет реестра, а твоей программой в теории могут пользоваться его пользователи.
2) Эта программа подразумевает некоторую портативность. При использовании файлов с настройками ты можешь создавать сколько угодно копий программы разных версий не боясь конфликтов между ними. Так же ты можешь переносить свои конфиги с одного компьютера на другой или делиться ими с другими пользователями. В случае с реестром это будет боль.
Аноним 28/01/23 Суб 16:05:35 #123 №85441 
>>85418
Линукс-кун а треде все в айклоунд
Два чаю. Привязывать к реестру - не лучший выход. JSON в пихоне должен писаться и читаться одной строчкой (т.е. одной - читаться и ещё одной - писаться). И можно иметь разные версии конфигов и переключаться между ними переименованием файлов.

Дай линк на сорцы, мож чё умное присоветую.
Аноним 28/01/23 Суб 16:08:32 #124 №85448 
>>85183
У третьей перелом лодыжки. Опасное дело - спорт.

Можно промт и модель? Не на перелом лодыжки, а на первые две
Аноним 28/01/23 Суб 16:10:51 #125 №85453 
>>84794
!sudo systemctl telepathy start

Пробелы в путях? Кириллица? Прописать абсолютный путь?
Аноним 28/01/23 Суб 16:31:24 #126 №85484 
>>85310
Я понимаю это так, что сеть "слишком сильно обучается" тому, чему ты её учишь и ничего кроме тренируемого концепта воспроизвести не может
>>85358
Ну вот этой хренью что я занимаюсь. Берется один датасет, одни настройки, один сид и хуярится пять тыщ сеток с чутка разными настройками, потом гриды где всё это дело сравнивается. Мы находим нормальный диапазон значений для тренировки и всё счастливы. Все тренят на 0.4.0, кохъялахта остается без работы, мир погружается в утопию
>>85372
Ок, остаемся здесь
Бля пиздец чувствую себя как собака, мне говорят одно я делаю, мне говорят другое я делаю
>>85441
Держи, анон. Если не лень и есть время, разъеби по фактам и насоветуй всего что в голову приходит, как сделать этот код нормальным. Из основного что меня тревожит, это то как реализованы вкладки и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз
https://github.com/anon-1337/LoRA-train-GUI
Аноним 28/01/23 Суб 19:18:07 #127 №85827 
>>85484
>>84076
У тебя подход изначально неправильный. Не питонический и не ООПшный.
Создай словарь, в котором будут описаны все поля и параметры вкладки по умолчанию.
Создай список, в котором будут храниться все экземпляры вкладок.
Создай класс, конструктор которого будет загружать поля из этого словаря или другого указанного:
tab_settings_dict={"input_ckpt_path": "./", "checkbox_is_sd_768v_ckpt": False, "checkbox_is_sd_2x_ckpt": False, ... и т.д.}
tabs = list()
class lora_tab():
....def __init__(self, input_dict, *kwargs):
........for dictionary in input_dict:
............for key in dictionary:
................setattr(self, key, dictionary[key])
........for key in kwargs:
............setattr(self, key, kwargs[key])

При создании новой вкладки (в начале функции add_lora_tab) просто создавай новый экземпляр:
tabs.append(lora_tab(tab_settings_dict))
Теперь ты сможешь обращаться к параметрам любой созданной вкладки через её номер(индекс в списке) и поле:
tabs[0].checkbox_is_sd_768v_ckpt
Индекс созданной новой вкладки будет последним:
tab_num = len(tabs)-1

Так же ты можешь выгрузить все параметры любой вкладки в словарь и таким образом сохранить их в файл json:
with open('tabsettings.json', 'w') as json_file:
....jsonDict = json.dumps(tabs[0].__dict__)
....json_file.write(jsonDict)

И соответственно можешь сделать наоборот — загрузить параметры из файла
with open('tabsettings.json') as json_file:
....jsonDict = json.load(json_file)
....tabs[0].__dict__ = jsonDict.copy()

Так же можешь копировать значения из одной вкладки в другую:
tabs[2].__dict___ = tabs[0].__dict___.copy()

Единственное что нужно будет написать два колбека.
Один должен будет вызываться в каждом элементе gui и при изменении его состояния должен будет изменять соответствующее поле в своем экземпляре.
Например
dpg.add_checkbox(tag = f"checkbox_is_sd_2x_ckpt{tab_num}", label = "Stable Diffusion 2.x", before = f"checkbox_is_sd_768v_ckpt{tab_num}", default_value=tabs[tab_num].checkbox_is_sd_2x_ckpt, callback=elements_callback, user_data=(tab_num, "checkbox_is_sd_2x_ckpt"))
А колбек должен будет выглядеть примерно так.
def elements_callback(sender, app_data, user_data):
....tab_num=int(user_data[0])
....tab_setting=user_data[1]
....setattr(tabs[tab_num], tab_setting, app_data)
Теперь если тыкать на этот чекбокс значение tabs[tab_num].checkbox_is_sd_2x_ckpt будет принимать значение True или False

Второй колбек должен делать всё наоборот. При загрузке параметров из файла он должен изменять состояние каждого соответствующего элемента gui при помощи dpg.configure_item

Либо при загрузке параметров из файла создавать новую вкладку с параметрами из указанного словаря.
Можно, например, у функции add_lora_tab добавить параметр input_file_dict, который по умолчанию имеет значение None
def add_lora_tab(sender, app_data, input_file_dict= None)
Параметры sender и app_data обязательны, потому что это колбек-функция.
После чтения файла создавать новую вкладку:
with open('tabsettings.json') as json_file:
....jsonDict = json.load(json_file)
....add_lora_tab(input_file_dict = jsonDict)

И дальше проверять — если параметруказан, то брать значения из него при создании экземпляра вкладки:
if tab_dict != None:
....tabs.append(lora_tab(input_file_dict))

> и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз
Это из-за хинтов _help

Вообще советовать DPG была плохая идея, лол. Слишком он уж всрат. Лучше было бы использовать tkinter или PyQt. У них порог входа выше, но они гораздо лучше.
Аноним 28/01/23 Суб 19:32:34 #128 №85857 
>>85827
Спасибо тебе огромное что не поленился и расписал! Буду курить твои советы, читать документацию и потиху править код. Не знаю только что такое __dict__ и *kwargs.
>>85827
> Слишком он уж всрат
Но кстати дизайн интерфейса у него приятный.
Аноним 28/01/23 Суб 19:33:11 #129 №85859 
Еще замечание. Есть элементы gui у которых в качестве входных параметров указываются списки или кортежи:
Как сделано у тебя:
gui.add_combo(["linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup"], tag = append_instance_number("combo_scheduler"),default_value = "linear", width = -1, callback = scheduler)
Так делать не надо. Создай кортеж с котором прописаны все эти элементы
schedulers = ("linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup")
При создании элемента указывай этот кортеж
gui.add_combo(items = schedulers,
В default_value указывай индекс.
default_value = schedulers[0]
В колбеке так же работай со значениями app_data по индексу
def schedulers_callback(sender, app_data):
....schedulers.index(app_data)

Теперь если тебе нужно будет добавить или убрать количество планировщиков, то достаточно будет изменить только кортеж schedulers.
Аноним 28/01/23 Суб 19:59:07 #130 №85916 
.png
Потренил 3 сетки на unet 2e-4, te 1e-4 с разными network_dim: 128, 64, 32. Очень интересно что получится, делаю гриды сейчас

>>85859
Хорошо, спасибо еще раз
Аноним 28/01/23 Суб 20:22:02 #131 №85966 
>>85259
Сколько пикч было в дата-сете? Какого разрешения?
Можно в крадце. Если ты говоришь про 2 способ, т.е. брать UNet LR 3e-4, а TE 1.5е-4, то какую основную LR ставить? А планировщик?
Аноним 28/01/23 Суб 20:29:13 #132 №85981 
>>85966
Планировщик я брал linear. В датасете 11 пикч 12 повторений + 15 пикч 3 повторения, итого 26 уникальных пикч, одна эпоха равна 177 шагам. Основной LR можно никакой не ставить. Значения UNet LR и TE LR переопределяют основной LR. Ты либо тренишь на одинаковой скорости и UNet и LR, выставляя только основной LR (UNet LR = LR, TE LR = LR), либо ставишь свои значения в отдельные скорости и основной LR как параметр не используется.
Аноним 28/01/23 Суб 21:53:12 #133 №86136 
1610243754202.png
>>84384
Оформил гит пул и тоже сгорел. Ватоматика надо пиздить палками.

Кароч, открываешь style.css в корневой папке. Ищешь там .extra-network-cards .card , после него меняешь width: 16em; height: 24em; ставишь 6em и 12em соответственно например. Это ширина и высота панели в размерах текущего шрифта.

Потом идешь .extra-network-cards .card .actions .name , под ним меняешь font-size: 1.7em; на 1.2em например, это размер шрифта названия.

Сохраняешь, рестартишь градио, получаешь такое.

Обновляться потом через гит ресет или подкидываешь забекапленный файл
Аноним 28/01/23 Суб 22:15:31 #134 №86175 
>>86136
Спасибо.
>Обновляться потом через гит ресет или подкидываешь забекапленный файл
Можно подробнее? Писать не git pull а git reset и потом делать то же самое в .css?
Аноним 29/01/23 Вск 00:42:55 #135 №86495 
Ебать. Почему я не тестил нетворк Диму меньше 128? У меня на нетворк дим 1 (!!!) получились нормальные результаты, учитывая размер в 1.23 Мб (!!!)
Аноним 29/01/23 Вск 00:43:47 #136 №86500 
>>86495
Я давно писал, что на 8 норм
Аноним 29/01/23 Вск 00:44:44 #137 №86501 
>>86500
В натуре. 128 это оверкилл какой-то. Буду тренить теперь на 8-32. Повелся на дурачков с форча
Аноним 29/01/23 Вск 01:10:56 #138 №86552 
.png
Чувствую себя наебанным
Аноним 29/01/23 Вск 01:32:15 #139 №86594 
>>86495
>>86552
пока мальчик трясётся за свои мегабайтики, мужчина зарабатывает на очередной трбайтный ссд.
Аноним 29/01/23 Вск 02:49:56 #140 №86776 
>>86175
> Можно подробнее?
Бля, сорян. Кароч если через гит пул не сможет, то пишешь git reset --hard HEAD все откатится до до последнего коммита, дальше git pull. Ну или просто возвращаешь обратно исходный файл что бы перестало ругаться и гитпулишь как обычно.

>и потом делать то же самое в .css?
Ага
Аноним 29/01/23 Вск 03:27:07 #141 №86849 
Этот компьютер2023-01-29032701.jpg
>>86594
С терабайтными ссд проблем нет, вопрос скорее "нахуя?"
Аноним 29/01/23 Вск 03:52:03 #142 №86863 
image.png
Ну вот и что, и чего?

Делал все по гайду тренинга лоры, дошел до запуска скрипта пикрил. А как его запустить-то? Это же блокнот! На .\train_network.ps1 что в павершеле, что в командной строке выдает
>не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте правильность написания имени, а также наличие и правильность пути, после чего повторите попытку
>не является внутренней или внешней командой, исполняемой программой или пакетным файлом.
Аноним 29/01/23 Вск 03:54:22 #143 №86869 
>>86863
Ты в папку с файлом-то зашел? В powershell.
ls напиши и проверь что файл есть в списке
Аноним 29/01/23 Вск 03:57:46 #144 №86875 
image.png
>>86869
Вот он у меня закинут в папку сд скриптс. В списке есть. Павершел с момента выборов не закрывал.
Аноним 29/01/23 Вск 04:01:20 #145 №86878 
1653250906292.png
>>86875
Выйди из венв перезапусти

>>86863
Че так сложно? Просто через пкм или открываешь павершелл через пуск и тупа кидаешь в него файл
Аноним 29/01/23 Вск 04:01:42 #146 №86879 
>>86875
Попробуй сделать
Set-ExecutionPolicy -ExecutionPolicy Unrestricted -Scope CurrentUser
Аноним 29/01/23 Вск 04:09:14 #147 №86885 
image.png
>>86879
Делал в самом начале, нагуглил когда начало выдавать ошибку.

>>86878
>Выйди из венв перезапусти
Сделал.
>открываешь павершелл через пуск и тупа кидаешь в него файл
Без админа - просто открывает блокнот. С админом - пикрил.
Аноним 29/01/23 Вск 04:14:52 #148 №86888 
>>86875
.txt убери из имени файла
Аноним 29/01/23 Вск 04:18:07 #149 №86893 
image.png
>>86888
Его там нет. Здесь просто показывает формат.
Аноним 29/01/23 Вск 04:24:20 #150 №86900 
>>86893
Пкм - свойства - подробно - имя
показ расширений надо включать
Аноним 29/01/23 Вск 04:28:20 #151 №86902 
image.png
>>86900
Запустил вроде.
Решение как всегда нашлось на каком-то форуме за 2011 год.
Аноним 29/01/23 Вск 05:49:12 #152 №86970 
>>86902
я тоже долго мучался, понять не мог, что это не расширение ps1 стоит, а просто часть имени.
Аноним 29/01/23 Вск 05:56:27 #153 №86979 
Хуита вышла, на 0.3.1 персы тренируются, а стили художников - нет. Как решать - я хуй знает.
Аноним 29/01/23 Вск 06:03:55 #154 №86994 
103095198p0.jpg
00066-2028929830-kamepasuta, 1girl, one-hour drawing challenge,.png
>>86979
Аноним 29/01/23 Вск 06:20:29 #155 №87008 
>>86994
Бля, как же надоели стандартные стили моделей, а поменять не могу...
Аноним 29/01/23 Вск 06:27:21 #156 №87022 
>>87008
Пиши by Jeremy Limpkins и жизнь наладится.
Аноним 29/01/23 Вск 06:31:42 #157 №87028 
00047-2028929830.0-kamepasuta, 1girl, one-hour drawing challenge, flat colors, lineart.png
>>86994
Хуита, на стиль влияние минимальное.
Аноним 29/01/23 Вск 06:37:14 #158 №87042 
>>87022
Я знаю что granblue fantasy работает на аниме-моделях, но больше я ничего не знаю.
Аноним 29/01/23 Вск 07:14:44 #159 №87090 
>>86552
Спасибо за сравнение

Мимо тот, у кого 32мерные лоры получились лучше, чем 128, а первая, на дримбутовском дополнении, еще до всего этого хайпа, то есть размерности 4, еще и более редактируемая
Аноним 29/01/23 Вск 08:19:54 #160 №87154 
>>85916
Вот кстати, у этих лосей есть нисходящий тренд. Помню в обсуждениях на гитхабе все пытались добиться нисходящего тренда от имбеддингов и гиперсеток ( и ведь добились https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7011 ). Интересно, что будет, если продолжить тупо тренировать дальше.
Аноним 29/01/23 Вск 10:25:59 #161 №87346 
>>87090
Кстати да, все эти лоры меньшей размерности лучше редактируются и меньше влияют на стиль модели. Мое предположение что это из-за того что тренируется меньше параметров unet и текстового энкодера, соответственно меньше влияние на модель
>>87008
Выкладывай датасет и настройки. И показывай что есть и какой результат необходим. Тут нет телепатов
>>87154
Я вообще этого не понимаю, лоры эти ебаные. Даже если есть нисходящий тренд, то он просто минимальный, на уровне погрешности. А всё потому что китаец - ебаный лентяй, написал код который работает на 6 гб врам и теперь думает что он ебать какой охуенный и ничего больше имплементировать не надо. А ведь там еще немало фич вроде как в офф. репо cloneofsimo. И он добавляет новые. У китайца блядь не работает polynomial (!), потому что он принимает важный параметр, отвечающий за скорость спада кривой (или за её кривизну, хуй знает как сказать), у китайца соответственно нет и график полиномиал выглядит как линеар. А ведь правильно настроенный полиномиал - это поле для экспериментов, потому что он позволяет выставлять экстремальные значения скорости обучения без ущерба для результата (в теории). И китаец игнорирует уже который ишью с этой просьбой, лучше замерджить очередной бесполезный пул реквест с парой новых строчек в метадате сети
Ух, как печет у меня сука с него
Было бы 12 гб врам, тренил бы на оффициальном репозитории, похуй на оптимизации. Надеюсь cloneofsimo оптимизирует свое детище, он про что-то такое недавно писал
пригорел
Аноним 29/01/23 Вск 10:45:11 #162 №87384 
image.png
Больше не куда писать. Анон в соседнем треде открыл мне генерацию голоса, я попытался локально установить по гайду китайца - вот он
https://www.bilibili.com/video/BV1T84y1e7p5/?vd_source=6d5c00c796eff1cbbe25f1ae722c2f9f#reply607277701
Вот демка на тест
https://huggingface.co/spaces/Plachta/VITS-Umamusume-voice-synthesizer
А проблема на пике, не знаю что и делать. Может тут сидят знающие?
Аноним 29/01/23 Вск 10:48:09 #163 №87390 
.png
.png
.png
Пик 1. Вот блять потратил еще 8 гпу часов на тестовые сетки, на этот раз с разным количеством эпох при абсолютно одинаковых настройках. И не дай бог конечные эпохи визуально отличаться не будут.

Пик 2. И почему график так колдоёбит на старте эпох? Такого раньше не было, появилось с нетворк альфой 1 (окей, тут я не разбираюсь, может это особенности алгоритмов обучения).

Пик 3. Окей, выкручивая смузинг на 1 нисходящий тренд очевидно есть, но он... маленький? Или я многого прошу? Сеть как будто мало чему обучается, как будто меня опять ждёт ебатория с лёрнинг рейтами

>>87384
Хоть и немного анрелейтед, но выглядит как проблема с кодировкой
Попробуй накатить LocaleEmu и запустить с китайским языком
https://github.com/xupefei/Locale-Emulator
Аноним 29/01/23 Вск 10:49:50 #164 №87396 
image.png
>>87390
Пытался, выдает пикрил. Видно проблема с noise scale, но не ясно что именно.
Аноним 29/01/23 Вск 10:53:38 #165 №87405 
>>87396
>>87384
Вот тут, кстати, больше vits-аниме моделек -
https://huggingface.co/spaces/skytnt/moe-tts
Аноним 29/01/23 Вск 10:55:13 #166 №87411 
>>87396
Может это параметр и он как-то неправильно передается или не передается вообще?
Аноним 29/01/23 Вск 10:57:31 #167 №87415 
image.png
image.png
>>87411
Это вот это вот хрень, не ясно где оно вообще хранится в .json его нет.
Аноним 29/01/23 Вск 10:58:43 #168 №87420 
image.png
>>87415
Открывается окошко по этой кнопке, если что. Эти числа сами выставлены изначально, я их не ставил.
Аноним 29/01/23 Вск 11:00:05 #169 №87422 
>>87420
Сори анон, я тут не помогу. Напиши в наи тред, там гораздо больше людей сидит
Аноним 29/01/23 Вск 11:03:55 #170 №87430 
>>87415
Попробуй точку как разделитель в порядке бреда.
Аноним 29/01/23 Вск 11:06:04 #171 №87433 
image.png
>>87430
Я пытался это, печатать не дает, а если скопировать 0.667 с точкой то результат пикрил.
Аноним 29/01/23 Вск 11:09:02 #172 №87442 
>>87433
А, не, просто меняет точку на запятую.
Аноним 29/01/23 Вск 11:12:57 #173 №87449 
image.png
Нашел другую мокрописю, только китайщины пиздец.
Аноним 29/01/23 Вск 11:13:47 #174 №87451 
>>87449
И то ли я вообще нашел, хз.
Аноним 29/01/23 Вск 11:25:52 #175 №87486 
Да, в пизду Диму 128. Оттренил 7 сеток на 16, результаты поражают. Даже на "высоком" лр, где на 128 уже датасет выдавливал рисовку модели своей рисовкой, на 16 никаких следов от этого нет. Куда лучшая переносимость. Интересно потом будет потренить стиль на таком Диме.
Аноним 29/01/23 Вск 11:29:31 #176 №87491 
>>87486
не понял, стили лучше тренятся на низком диме? у тебя 0.4.0?
Аноним 29/01/23 Вск 11:32:38 #177 №87497 
>>87491
У меня 0.4.0
Я не тренировал на низком диме
> Интересно потом будет потренить стиль на таком Диме
Но я буду не против если потренишь и покажешь что получилось. Уже подзаебался если честно
Аноним 29/01/23 Вск 11:51:47 #178 №87560 
.jpg
.jpg
.jpg
.jpg
Скорость обучения UNet 5е-4, ТЕ 2.5е-4, network_dim 16, alpha 1
Маленький дим позволил наконец-то сети понять что такое заколка, где она, какого она цвета и формы! (для тех кто читал вчерашний пост). Сетки весят по 18 мегабайт, волшебно.
Да, длительность обучения однозначно влияет на результаты. Чтобы получить похожие результаты, нужно тюнить скорость обучения или еще чего. Тренировать на одном LR разное количество эпох – нет, это так не работает.
Лучший результат для меня – 10 эпох (1770 шагов / 177 пикч с повторениями). На 20 эпохах сетка перетренировалась, на 30 перетренировалась жутко. Есть смысл понижать LR для большего количества эпох, но в пизду, меня мои 10 эпох устраивают.
Итого что я имею на данный момент, это network_dim 16, network_alpha 1, UNet LR 5e-4, TE LR 2.5e-4, 17.7 повторений на 1 пикчу датасета (учитывая повторения) пока хуй знает насчет этого. Осталось выяснить планировщик. Буду пробовать cosine и cosine_with_restarts. Первый в китайцоскрипте внезапно рабочий, второй полурабочий, но все же не такая ситуация как с polynomial, можно еще найти применение.
Потом попробую найти примерный оптимал для стилей, не удивлюсь что все настройки в итоге окажутся такими же.
Аноним 29/01/23 Вск 14:19:24 #179 №88012 
Аноны, вдруг кто в курсе: есть 2060 super на 8 гигов, ее хватает на тренировку 1.5 модели файлами 512 пикселей и без текст энкодера, но хотелось бы тренировать модель 2.1 файлами 768 пикселей ну или хотя бы 1.5, но с текст энкодером. Если я поставлю вторую такую же карту, можно ли будет как-нибудь использовать суммарный VRAM этих карт для тренинга? Или лучше все же сразу мутить одну карту на 16+ гигов?
Аноним 29/01/23 Вск 14:33:46 #180 №88048 
>>88012
> суммарный VRAM этих карт
Нет.
Аноним 29/01/23 Вск 15:22:30 #181 №88201 
Почему я на 4090 на пикче 512х512 получаю 10 it/sec? WTF автоматик?
Аноним 29/01/23 Вск 15:32:53 #182 №88224 
>>88201
с какими параметрами запущен webui?
Аноним 29/01/23 Вск 15:36:40 #183 №88229 
>>88201
Добро пожаловать в пердолинг. Потом получишь около 35 (на батче со 150шагами, иначе слишком быстро).
Аноним 29/01/23 Вск 16:00:51 #184 №88266 
>>88224
set COMMANDLINE_ARGS= --xformers --deepdanbooru --no-half

Причем есть две папки с разными xformers, скорость ~одинаковая
Аноним 29/01/23 Вск 16:06:35 #185 №88286 
Вы тут только аниме трените? Кто-нибудь реальных людей тренил? 20 фоток достаточно? Я делал по 12 повторений на 10 эпох и как понимаю перетренировывал. Получалось 2400 шагов. То есть закидывал портреты и стабл 99% портретов выдавал, пусть и очень похожих. Вопрос соответственно, лучше больше фоток и меньше повторений тренить?
Аноним 29/01/23 Вск 16:08:37 #186 №88289 
>>88201
cudnn либы обновил на актуальные? Если нет, то качаешь https://developer.download.nvidia.com/compute/redist/cudnn/v8.7.0/local_installers/11.8/cudnn-windows-x86_64-8.7.0.84_cuda11-archive.zip
Потом из архива из /bin/ кидаешь dll-ки с заменой в \venv\Lib\site-packages\torch\lib\
Аноним 29/01/23 Вск 16:12:17 #187 №88294 
>>88286
Если перетренировал попробуй уменьшить вес
Аноним 29/01/23 Вск 16:16:04 #188 №88302 
>>88289
Закинул. На старом торче 14,5 , на новом 15,5. Уже лучше, спасибо. Хотя мне казалось что на новом торче уже должны быть новые либы
Аноним 29/01/23 Вск 16:30:52 #189 №88347 
>>88302
можешь ещё конкретно вот эту версию xformers накатить https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/torch13/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl
челу из трэда https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7135 вроде как помогло

если не поможет, можешь в корне webu, в файле webui.py после
def initialize():
check_versions()
написать
torch.backends.cudnn.enabled = False
Аноним 29/01/23 Вск 16:47:39 #190 №88385 
Новый годный экстеншон https://github.com/mcmonkeyprojects/sd-dynamic-thresholding , позволяет полноценно крутить всякое на высоких CFG
Аноним 29/01/23 Вск 16:49:25 #191 №88388 
>>88385
Зачем?
Аноним 29/01/23 Вск 16:56:10 #192 №88400 
>>88385
Спасибо
>>88388
Чтобы рисовал, что просят, а не что научили?
Аноним 29/01/23 Вск 16:59:11 #193 №88409 
>>88347
Типо откатиться на старые? Хм, попробую
Аноним 29/01/23 Вск 17:00:54 #194 №88414 DELETED
>>88400
> Чтобы рисовал, что просят, а не что научили?
Что ты несешь? Даже на пиках в репозитории "пофикшенный" цфг 20 выглядит убого.
Аноним 29/01/23 Вск 17:05:00 #195 №88419 DELETED
>>88414
>приебался к тесту
Так промт надо написать нормальный качественный, а не пиздить (((masterpiece:100500))) с айбуру, далбаеб срунявый. Понятно тебе, хуйня на CFG 3 ебаная в жопу?
Аноним 29/01/23 Вск 17:08:38 #196 №88427 DELETED
>>88419
Господи, сектант ебучий, съеби обратно в свой загон.
> далбаеб срунявый
> хуйня на CFG 3 ебаная в жопу
Жопа не порвалась, твёрдо и чётко.
Аноним 29/01/23 Вск 17:10:12 #197 №88435 DELETED
>>88414
Там изображение кота в анфас. Конечно, зачем ебаться с котами, когда модель из коробки рисует котов в любых позах в любом цфг.

Если ты не сталкивался с ситуацией, когда лора возвращает вменяемость промпту на высоких цфг, но качество заруинено полностью, а хочется его хоть чуточку вернуть - просто проходи мимо и не ставь его.

Может, оно и не сработает, но хоть за попытку разрабу спасибо
Аноним 29/01/23 Вск 17:11:29 #198 №88440 DELETED
>>88427
Сруня, ты че такая выебистая мразь? Кто тебя так проткнул что ты на все что не вписывается в твой уточный манямирок мастерпись агришься? Пиздов бы тебе выписать хороших.
Аноним 29/01/23 Вск 17:14:26 #199 №88447 
Ребзя, подскажите почему часто при включении или при смене модели перестает работать? последнее что пишет Loading weights название модели. Может озу не хватает?
Аноним 29/01/23 Вск 17:17:22 #200 №88455 
>>88447
Не было такого, 32 гб рамы.
Аноним 29/01/23 Вск 17:18:50 #201 №88458 
>>88455
Ну у меня 16 озу и 16 подкачки
Аноним 29/01/23 Вск 17:20:30 #202 №88462 
>>88458
может в самом ватоматике дело, у меня последний релиз всего
Аноним 29/01/23 Вск 17:29:11 #203 №88479 
>>88462
надо попробовать обновить, я оч давно не обноалял
Аноним 29/01/23 Вск 17:33:02 #204 №88484 
Вопрос, как гиперневорк включать через промпт?
Аноним 29/01/23 Вск 17:51:35 #205 №88511 
>>88484
Никак. Через промт включается лишь эмбеддинг и с недавних пор лора. Гиперсеть через настройки выбирается, как vae.
Аноним 29/01/23 Вск 17:54:19 #206 №88518 
.png
>>88511
Да что ты говоришь
Аноним 29/01/23 Вск 17:55:14 #207 №88521 
1531352124256.png
1519409413045.png
1556683564933.png
>>88484
Если у тебя одна из новых версий, этот - >>88511 - пиздит. Теперь можно кнопочками или набрать по памяти.
Аноним 29/01/23 Вск 17:56:31 #208 №88524 
>>88518
>>88521
Не обновлялся неделю. Извиняюсь.
Аноним 29/01/23 Вск 17:58:40 #209 №88529 
>>88524
Ничего страшного, анон
Аноним 29/01/23 Вск 18:03:57 #210 №88538 
Кстати, раз уж такая тем, то как туда превью заделать?
Аноним 29/01/23 Вск 18:11:14 #211 №88550 
1639277286557.png
>>88538
Генеришь с выбранными эмбедом/гипером/лорой картинку, нажимаешь иконку на болванке по наведению мышкой, превью запекается.
Аноним 29/01/23 Вск 18:22:58 #212 №88567 
>>88550
Вауу, вот это круто, спасибо
Аноним 29/01/23 Вск 18:40:47 #213 №88611 
Блять арендовал гпу, стоит по дефолту 3.7 питон, не знаю как сука 3.10 накатить, без него обучалка не работает
Аноним 29/01/23 Вск 18:53:04 #214 №88648 
>>88611
Гпу же с блокнотами юпитера работает? Попробуй блок из колаба линакруфа, там есть апгрейд питона, может, и у тебя сработает
https://colab.research.google.com/drive/1cEk2yxPiipjl1D9jITGQEOlVYyUsLQHo?usp=sharing#scrollTo=9gQv3aDDfytc
Аноним 29/01/23 Вск 18:54:22 #215 №88651 
>>88648
А, это не линакруфовский, а тохуебский колаб. Ну, сорта...
Аноним 29/01/23 Вск 18:54:36 #216 №88652 
>>88648
Оп, пасиба, попробую
Аноним 29/01/23 Вск 18:54:50 #217 №88654 
>>88611
wget https://github.com/korakot/kora/releases/download/v0.10/py310.sh
bash ./py310.sh -b -f -p /usr/local
python -m ipykernel install --name "py310" --user
Аноним 29/01/23 Вск 18:55:36 #218 №88659 
>>88654
Нихуя, спасибо
Аноним 29/01/23 Вск 19:08:33 #219 №88708 
>>88400
это не рисунок, а интерполяция, нейросетка не рисует а только пиздит
Аноним 29/01/23 Вск 19:25:28 #220 №88759 
>>88524
всё теперь точно обновляюсь
Аноним 29/01/23 Вск 19:26:16 #221 №88765 
.png
Господи, блять, неужели. 2 часа проебался чтобы запустить это говно. Иксформерс не пашут, 8бит адам не пашет, я ебал этот линупс.

>>88648
>>88654
Еще раз сепсис
Аноним 29/01/23 Вск 19:27:33 #222 №88769 
>>88765
> 4.02 s/it
И стоило оно того?
Аноним 29/01/23 Вск 19:27:58 #223 №88772 
>>88769
train_batch_size 10, здравствуйте
Аноним 29/01/23 Вск 19:39:58 #224 №88810 
Граждане, а что по поводу ускорителей на TensorRT — https://www.reddit.com/r/StableDiffusion/comments/10ntqa4/4x_speedup_stable_diffusion_accelerated/

Пробовал кто-нибудь? И можно ли как-то лёгким движением руки прикрутить к Автоматику?
Аноним 29/01/23 Вск 19:43:37 #225 №88825 
1559436379203.jpg
>>88810
Чтение комментариев по ссылке - для лохов?
Аноним 29/01/23 Вск 19:45:06 #226 №88832 
>>88388
Устраивать жирные набросы, сначала в наи треде потом здесь.
Аноним 29/01/23 Вск 19:46:37 #227 №88838 
>>88832
Я уже понял что это один и тот же человек. Именно один. Болезненный какой-то. Игнорируем.
Аноним 29/01/23 Вск 21:41:21 #228 №89124 
>>82417 (OP)
Ебашу лорку на 6400 шагов на стиль худа
Аноним 29/01/23 Вск 21:43:49 #229 №89131 
>>89124
Кто такой худ
Аноним 29/01/23 Вск 21:56:44 #230 №89177 
>>85183
Или промпт и модель, или не было это нарисовано мясным мешком / img2img
Аноним 29/01/23 Вск 22:12:48 #231 №89239 
>>89131
HUD
Аноним 29/01/23 Вск 22:20:30 #232 №89266 
>>89239
Типо бля наэкранный интерфейс чи шо?
Аноним 29/01/23 Вск 22:34:09 #233 №89307 
>>88810
Упоролся и протестировал все методы на Top P 100 у плагина, для CFG 30.

По итогу могу сказать, что лучше всех работает в таких экстремальных условиях только
cosine up + linear down. Возможно другие варианты смогут лучше себя раскрыть если понижать Top P, но мне пока лень этим заниматься.

-- - значительный баг или непопадание, возможности фиксирования не проверялись
+- - выдает неплохой результат, но имеет значительный баг, который можно пофиксить через mimic и top p
++ - хороший результат

Общий результат:

-- cosine up + constant (distortion face)
++cosine up + linear down
-- cosine up + cosine down
+- cosine up + linear up
--cosine up + cosine up


--constant + constant
+-constant + linear down
-- constant + cosine down
+-constant + linear up
+-constant + cosine up

--linear down + constant
+-linear down + linear down
+-linear down + cosine down (black n white bug)
+-linear down + linear up (distortion face)
--linear down + cosine up

--cosine down + constant
-+cosine down + linear down
+-cosine down + cosine down (black n white bug)
-- cosine down + linear up (perfect prompt with distortions)
--cosine down + cosine up

--linear up + constant
+-linear up + linear down
+-linear up + cosine down (black n white bug)
+-linear up + linear up (perfect prompt with distortions)
--linear up + cosine up
Аноним 29/01/23 Вск 23:27:05 #234 №89423 
Куда лучше залить свои лоры? На civitai или huggingface? Или по старинке на мегу?
Ничего особенного у меня нет, кроме как стилей авторов рисунков и персонажей из аниме. Хотелось бы знать за ту местную мочу. Можно ли указывать, что стиль определенного автора? И можно ли на civitai несколько версий залить на одну страницу?
Аноним 29/01/23 Вск 23:36:04 #235 №89439 
>>89423
местному анону который не обновляет репозиторий уже неделю
Аноним 29/01/23 Вск 23:42:08 #236 №89449 
>>89439
У меня нет желания. Пароль 2ch
Аноним 29/01/23 Вск 23:46:14 #237 №89454 
00745-1033235840-realistic photo of alkemanubis, 10s, 1girl, asui tsuyu, ass focus, cameltoe, cleft of venus, fat mons, looking at viewer, lookin.png
>>89177
это мясной нарисовал, успокойся
Аноним 30/01/23 Пнд 00:02:30 #238 №89483 
>>89449
Почему? Хорошая же идея была.
Аноним 30/01/23 Пнд 00:38:05 #239 №89542 
Обновил automatic, теперь включено превью пикч пока генерятся. Вопрос на сколько сильно это замедляет и надо ли выключать?
Аноним 30/01/23 Пнд 00:44:32 #240 №89560 
>>89542
Зависит от жирности превью и частоты вывода, на фул - сильно. Потести сам, я вообще включаю только когда нужно.
Аноним 30/01/23 Пнд 01:16:55 #241 №89620 
Эх, а тут ведь еще реквесты брали, но так кроме парочки и не доставили. Я еще чуть-чуть жду.
Аноним 30/01/23 Пнд 01:26:36 #242 №89647 
>>89620
Какие реквесты?
Аноним 30/01/23 Пнд 01:38:22 #243 №89665 
А есть какой-нибудь гайд для тренировки ЛОР в облаке, на том же коллабе? Какие-то ссылки я видел, но пользоваться как - хз вообще.
Только гайд чтоб для совсем хлебушков, которые с этой фигней никогда раньше не работали.
А то моя 2070 и полноценно тренировку не тянет, долго сильно, да и, чую, помрет скоро такими темпами.
Аноним 30/01/23 Пнд 01:59:11 #244 №89675 
>>89665
Что за настройки ты накрутил, чтобы тренировка не тянулась? С 512 пикчами ест где-то 6гб. И что означает "полноценно"?
Аноним 30/01/23 Пнд 02:04:06 #245 №89684 
Сколько надо памяти чтоб мержить?
Аноним 30/01/23 Пнд 02:30:22 #246 №89724 
>>89675
Долго сильно. Так то по памяти оно тянет, впритык к моим 8гб. 512px, 2 batch.
Но я в основном стили и концепты тренировать пытаюсь, а это очень долго выходит, исходя из необходимого количества материала и повторений. И не шибко стабильно.
Поэтому и думаю, куда это можно перетащить, чтоб не так медленно было.
Аноним 30/01/23 Пнд 02:31:23 #247 №89726 
>>89665
> А то моя 2070 и полноценно тренировку не тянет
тут у людей 1060 тянет
Аноним 30/01/23 Пнд 02:32:27 #248 №89729 
>>89724
Колабоская Т4 гораздо слабее твоей 2070
Аноним 30/01/23 Пнд 02:38:20 #249 №89742 
>>89684
минимум 16гб ram
Аноним 30/01/23 Пнд 02:41:01 #250 №89747 
>>89620
А какой у тебя реквест и готов ли датасет?
Аноним 30/01/23 Пнд 02:45:22 #251 №89757 
>>89620
Да, у меня до сих пор пару датасетов валяется неоттрененных. Меня заебала вонючая лора. Не могу найти хорошие настройки. Сейчас чувствую брошу нахуй всё. Немного спасает что теперь могу в облаке тренировать
Аноним 30/01/23 Пнд 02:46:53 #252 №89758 
>>89726 >>89729
Гугл включил - и другими делами занимаешься.
Пусть и дольше будет, зато комп свободен.

Вместо того, чтоб комментировать, плохо ли, хорошо ли, а зачем тебе - написали бы, где нормальное руководство искать. Можно и на английском, у меня с ним норм. Но чтоб подробно.
Аноним 30/01/23 Пнд 02:49:31 #253 №89763 
>>89757
Это ты написал мокропиську-гуй для скрипта?
Аноним 30/01/23 Пнд 02:52:45 #254 №89769 
>>89483
Некоторые аноны не делятся нихуя. Другим проще повниманиеблядствовать на цивите или хагинфейсе. Я ебусь с настройками как долбаеб. Ничего не треню, ебу один и тот же датасет. Меня от её ебала уже тошнит. Блядский питухон изучаю и мне сложна, у меня задница с этого горит. В гайд есть что добавить, но мне лень и я боюсь вкинуть дезинформацию потому что сам до конца не понимаю как всё работает. Таблетки не помогают. С треда 80% людей съебало, интересные темы и вопросы не поднимаются. Настали темные времена...
Аноним 30/01/23 Пнд 02:53:22 #255 №89771 
>>89763
да
Аноним 30/01/23 Пнд 02:56:04 #256 №89779 
>>89758
Я в этом блокноте запускал, работает нормально
https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z#scrollTo=Y11KimwzGQrp
Аноним 30/01/23 Пнд 02:56:33 #257 №89781 
>>89771
Это тоже твои ресерчи? >>87560
Такое чувство что ты тут один остался кто за идею хуярит. Скинь какой-нибудь датасет, скажи настройки, я попробую какое-то сравнение из нескольких лор, сделанных на разных настройках сделать чтобы помочь, заодно получше научусь
Аноним 30/01/23 Пнд 03:00:18 #258 №89786 
>>89742
У меня 16 и выдает ошибку. Что делать?
Аноним 30/01/23 Пнд 03:01:07 #259 №89789 
>>89786
Что пишет?
Аноним 30/01/23 Пнд 03:03:30 #260 №89792 
>>89781
Да, хуйней тут страдаю. Ценю помощь, спасибо. Но сейчас ничего не скину, с телефона капчую проснулся и не могу заснуть :(
Это вполне нормально что всем похуй, я не обижаюсь. Часть анонов съебала, многие судя по всему остались на версии 0.3.2 где все относительно стабильно, но мне сука хочеца выжать максимум из этой сучки
Аноним 30/01/23 Пнд 03:04:43 #261 №89798 
>>89779
Ага, в основном доступно.
Настройки кучкой, минимум всяких окон, которые непонятно чего делают.
Третий шаг, как я понимаю, можно пропустить, если свою модель в гугл загрузить в соответствующую папку?
Аноним 30/01/23 Пнд 03:07:18 #262 №89801 
Большинство перегорели уже. В частности меня и пару моих знакомых, которые тоже варятся в этом котле, уже заебало одно и тоже.
Аноним 30/01/23 Пнд 03:08:43 #263 №89803 
>>89798
Да, только все пути и имена файлов нужно будет правильно указать в полежнем шаге
Аноним 30/01/23 Пнд 03:09:34 #264 №89808 
>>89801
А что именно
Аноним 30/01/23 Пнд 03:09:41 #265 №89809 
И добавить строчку с параметром альфы
Аноним 30/01/23 Пнд 03:14:12 #266 №89815 
>>89769
То, что сейчас я залил, сделал еще дней 10 назад. Но ебался с настройками, думал вот сейчас точно лучше будет, а в итоге только первые две попытки и оказались успешнее всего. Примерно с гиперсетями у меня похожая история была. Искал 100% годные рецепты, находил не раз, а каждый раз все хуже и хуже. Остановился на том, что дефолтные лучше всего.
Рано или поздно кто-то да поделится.
Отток людей это нормально. Набегут еще. Скорее хаус упорядочился.
Аноним 30/01/23 Пнд 03:17:11 #267 №89819 
>>89803
Понять бы еще, какая там папка корневая.
Вот, допустим, у меня лежит в корне гугл-диска папка "AI", и там уже всё остальное - сеты для тренировки, папка с моделью, папка для вывода, всё такое.
Как будет путь выглядеть?
Аноним 30/01/23 Пнд 03:20:21 #268 №89823 
>>89808
Генерация контента уровня "аниме-тян на фоне какой-нибудь хуйни" или "реалистик-тян (с эффектом зловещей долины) на фоне какой-нибудь хуйни". Иногда не тян, а кун, неважно. И все имидж борды и дискорд серваки (российские, американские, японские, корейские) завалены на 99.9% именно таким контентом.
Аноним 30/01/23 Пнд 03:21:16 #269 №89826 
>>89815
О, вижу залил, красава! До слёз. Прикольный стиль, надо с утра попробовать
> думал вот сейчас лучше будет
Классика :( Хочется как лучше, а в итоге как обычно. К гиперсетям я вообще боюсь притрагиваться, у кого-то на 2000 шагах вырвиглаз, у других на 50к всё нормально. А для технотреда еще настанут золотые времена! Все еще только зарождается
Аноним 30/01/23 Пнд 03:21:52 #270 №89828 
>>89819
/content/drive/MyDrive/AI/
Аноним 30/01/23 Пнд 03:24:41 #271 №89832 
>>89823
Да, понимаю. Грустно, кумеры победили. Поэтому люблю иногда включать сд 2.1 и генерировать всякую хуету, всякие подземные заброшенные лаборатории, ебанутые концепты всякой дичи, инопланетное говно, сооружения на марсе, весело, отвечаю
Аноним 30/01/23 Пнд 03:29:59 #272 №89839 
>>89826
Я все еще работаю над meme-chan, coconut из некопары. В идеале хочу все же сделать всех кукл розен майден и нек из некопары одним файлом для каждых. Еще месяц-два назад видел, как кто-то с форчана запилил лору с несколькими тянками из Love Live, когда у нас про эту самую лору никто не знал.
Если я чем-то загорелся, значит все, минимум на год, а скорее на года два. Так что я здесь еще на очень долго. В процессе еще что-то придумаю.
Аноним 30/01/23 Пнд 03:33:32 #273 №89848 
>>89792
Ну я попробовал 0.3.2, там точно работало, опыта у меня мало, сейчас вот уже перекатился тоже на 0.4.0 и хочу что-то потренить, видимо придётся самому собирать что-нибудь для датасета, раз уж и ты там в полудрёме, ничего плохого в 0.3.2 тоже ведь нету, лоры оттуда работают, да и твои на 0.4.0 уже выдают отличные результаты, так что тут можно только похвалить кохью и автоматика, что обратная совместимость есть
Аноним 30/01/23 Пнд 03:33:36 #274 №89849 
>>89828
Ага, оно живое.
Каких-то варнингов накидало, но тренировку запустило. И вроде как побыстрее локали, видимо за счет batch 3 вместо моих 2. Число шагов все-таки пониже получается.
Спасибо.
Аноним 30/01/23 Пнд 03:36:22 #275 №89854 
>>89839
Так ты пости результаты, будем обсуждать, корректировать что надо. Хочу коконат увидеть
Бтв съебываю из репо китайца походу, сейчас листаю гитхаб оффициальной лоры, так там пиздец, столько крутых фич чтобы улучшить результаты! Еще и вчера новая версия вышла. Там конечно 6 гб памяти не вытянут скорее всего, буду в облаке тренить, что остается
Жду ваниллу бтв
Аноним 30/01/23 Пнд 03:40:35 #276 №89861 
>>89848
В 0.3.2 есть большая проблема, это нулевые тензоры. Впустую потраченное время гпу, неполноценные недотренированные модели, которые в теории могли быть лучше
> твои на 0.4.0 уже выдают отличные результаты
Спасибо, но я так не считаю. Есть бесячие моменты которые пока не удается исправить
Аноним 30/01/23 Пнд 03:50:58 #277 №89881 
1675039856016.jpg
>>89854
Вот по этому совету сделал сегодня >>87560
И в правду редактируемость фона улучшилась.
Тестировал тег squatting. Колготки в сетку само собой глючат.
Аноним 30/01/23 Пнд 03:57:20 #278 №89893 
>>89881
Слушай, а ведь хорошо получилось! Но на большем весе видно как рисовка датасета "выдавливает" рисовку модели. Я вот пытаюсь с этим бороться. Помогает уменьшение обоих lr до 3е-4/1.5е-4, но не панацея
Аноним 30/01/23 Пнд 04:05:40 #279 №89910 
>>89861
Не в пустую, прямо сейчас генерил Лейн лорой созданной еще на бородатой версии каким-то здешним аноном, за что ему кстати спасибо, объединённой с лорой на йошитоши абе.
Впустую, ты наверное имеешь ввиду, когда только эту проблему решать взялись и у всех начались проблемы.
Вообще если так рассуждать, всё это время эни3 могла бы быть с пофикшенными тензорами, и пару других чисел многие генерации изменили бы до неузнаваемости, в теории лучше, но кто его знает, может быть и наоборот, однако это не отменяет того, что до выхода апельсина многие ей пользовались как основой для очень многих миксов и делали вполне неплохие арты.
Хорошо кстати, что ты эти знания выкладываешь по новой версии тренировки лор, я ими обязательно воспользуюсь в ближайшее время.
Аноним 30/01/23 Пнд 10:38:04 #280 №90295 
>>89910
А откуда лору брал? Я просто тоже Лейн делал лору
Не впустую конечно, я просто шиз, помешанный на перфекционизме и неприятно что все что я делал до 0.4.0 как бы могло быть лучше
Ух, сегодня великий день, попробую другой репозиторий. Ожидания высокие
Аноним 30/01/23 Пнд 10:45:14 #281 №90308 
Нейро-ребята, подскажите нейросеть которая генерит теги по изображению
Аноним 30/01/23 Пнд 11:45:55 #282 №90372 
.png
Наныл-таки!
Аноним 30/01/23 Пнд 11:46:23 #283 №90373 
00787-135b840d55-217100853.png
00837-135b840d55-1684230197.png
>>90295
Ну я из треда скачивал, это она вроде лежит сейчас в коллекции лор? Твоя? Отлично сочетается со стилем художника из коллекци форчана.
Будешь тестить какую-то репу с более обширным функционалом?
Аноним 30/01/23 Пнд 11:48:05 #284 №90375 
>>90373
> Твоя?
Да :3
> Будешь тестить какую-то репу с более обширным функционалом?
Да: https://github.com/cloneofsimo/lora
Оч интересно что выйдет
Аноним 30/01/23 Пнд 13:36:42 #285 №90564 
>>90308
DeepDanbooru
Аноним 30/01/23 Пнд 13:57:58 #286 №90600 
>>90375
Расскажешь потом что получится?
Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте? Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос. Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются.
Аноним 30/01/23 Пнд 13:58:12 #287 №90601 
>>89832
Ну так делись с народом.
Аноним 30/01/23 Пнд 14:10:34 #288 №90625 
Приветик гайсовсня! Как добавить триггер слово в Лору?
Аноним 30/01/23 Пнд 14:49:40 #289 №90682 
А как пофиксить остаточный ген после прошлой версии промта? Ну то есть допустим был рендер 1, меняем его на 11 и первый новый рендер будет рендерить прошлый промт, а второй уже новый.
Аноним 30/01/23 Пнд 15:10:52 #290 №90718 
>>90600
> Расскажешь потом что получится?
Конечно, если получится
> Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте?
Да, но при этом в датасете должны быть изображения где этой заколки нет, чтобы сеть поняла, как рисовать персонажа когда она есть в промте и как рисовать когда её нет
> Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос.
Немного не понял, что ты имеешь в виду
> Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются.
Маленький и не разнообразный датасет + возможно выключенная настройка "--shuffle_caption" при обучении
Я с таким сталкивался, брал промт из датасета и сетка старательно пыталась повторить пикчу с этим промтом
Если в датасете все пикчи как персонаж стоит и только одна как он сидит, неудивительно что на тег "sitting" будет мало разнообразия
>>90601
Чем? Генерациями?
>>90625
В гайде по лоре написано, поиск по странице "keep_tokens"
>>90682
Не понял
Аноним 30/01/23 Пнд 15:11:24 #291 №90719 
grid-0035.png
102990927p0.jpg
>>82417 (OP)
6400 шагов(8 повторений, 16 эпох, 50 картинок) на стиль худа
рейт
Аноним 30/01/23 Пнд 15:12:37 #292 №90724 
>>90719
ну хоть так словил стиль, даун ебаный, как будто гиперссеть треню, а не лору
терь хз будет ли что-то кроме поз с датасета выдавать
Аноним 30/01/23 Пнд 15:13:50 #293 №90728 
>>90719
Нихуя, красиво. Я так и не понял кто такой худ, не могу нагуглить даже. 6400 звучит как дохуя
Аноним 30/01/23 Пнд 15:34:01 #294 №90771 
>>90728
>худ
Это сокращение от слова художник.
Второй пик его, первый - мой
Аноним 30/01/23 Пнд 15:39:19 #295 №90781 
>>90771
Пиздец, ну и сокращения :)
Дай угадаю, это かめぱすた? (простите мне мой японский)
https://twitter.com/kamepan44231
Аноним 30/01/23 Пнд 15:44:10 #296 №90786 
>>90781
да
Аноним 30/01/23 Пнд 17:40:11 #297 №91001 
>>90718
>понял
че никода такого не было?

еще раз:
1. генерим на промте zhopa
2. добавляем zhopa anus
3. после нажатия генерации будет генерить все еще промт zhopa
4. вторая генерация после будет zhopa anus
Аноним 30/01/23 Пнд 17:41:44 #298 №91003 
>>91001
Не, не было
Аноним 30/01/23 Пнд 17:54:04 #299 №91009 
Всё-таки завел иксформерсы в облаке. Блять, как же они ебашут.
Аноним 30/01/23 Пнд 18:00:00 #300 №91018 
функция .blend() работает в pos/neg?
Аноним 30/01/23 Пнд 18:23:28 #301 №91058 
>>91009
К этой хуйне можно иксформерсы подсосать? А локально?
Аноним 30/01/23 Пнд 18:25:11 #302 №91062 
>>91018
интересненько, генерация с блендом на 3-4 секунды (рандом) быстрее, чем без - 41.81 vs 44.92
Аноним 30/01/23 Пнд 18:26:18 #303 №91068 
>>91058
К какой именно? Я про аренду гпу в облаке, сначала не ставились, накатил 1.13.1 торч и последние иксформерсы и всё встало. Прирост почти 2 раза в скорости обучения
Аноним 30/01/23 Пнд 18:31:04 #304 №91080 
>>91068
>аренду гпу в облаке
Сколько стоит?
Аноним 30/01/23 Пнд 18:31:44 #305 №91082 
.png
Но блять не могу подобрать лр для батч сайза 10, либо не тренит нихуя, либо какая-то говнина с артефактами выходит
>>91080
Аноним 30/01/23 Пнд 18:33:33 #306 №91087 
>>91082
Оно включается/отключается в любую минуту, как колаб? Скинь ссыль на сайт
Аноним 30/01/23 Пнд 18:37:07 #307 №91092 
>>91087
https://console.vast.ai/
Нет, ты платишь за пользование гпу определенную цену в час + еще немного за хранилище. Чем больше выделил себе ссд, тем больше платишь, очевидно. 50 гб у меня 1 цент в час. Ты можешь вырубить в любой момент и тогда будешь платить только за хранилище. Если не хочешь платить вообще, то можно удалить инстанс, но придется потом заново всё настраивать
Аноним 30/01/23 Пнд 18:45:44 #308 №91106 
.png
Но мне судя по всему иксформерсы насрали в штаны, видимо 0.0.16 не работает с китайцоскриптом. Сейчас убрал и нету нанов
Аноним 30/01/23 Пнд 18:47:06 #309 №91111 
вручную обработал 500кб текста, ебать я ебнутый
Аноним 30/01/23 Пнд 18:50:55 #310 №91116 
>>90373
А сылочку можно на АБе-лору?
Аноним 30/01/23 Пнд 19:42:55 #311 №91202 
.png
.png
Если на васт.аи поставить эту галочку, появятся неверифицированные машины в списке с очень вкусными ценами
Аноним 30/01/23 Пнд 19:47:31 #312 №91212 
>>91202
Лол, что за домашний-тир машины? Они радмином заразили чей-то парк?
Аноним 30/01/23 Пнд 19:51:10 #313 №91217 
>>91212
Любой может предоставлять аренду своей видеокарты на этом сайте
Аноним 30/01/23 Пнд 19:54:42 #314 №91226 
>>91217
Сейчас бы за 14р/час свою 3090 предоставлять. Лицо согласившихся представили? Я свою точно не дал бы
Аноним 30/01/23 Пнд 19:56:58 #315 №91232 
.png
>>91226
Лицо няши :3
Аноним 30/01/23 Пнд 20:03:15 #316 №91240 
>>91232
Не, за тебя-то понятно я рад.
Аноним 30/01/23 Пнд 20:04:32 #317 №91243 
>>91226
Поставил на ночь, пусть работает. Хули нет? Майнинг то уже сдох, переходим в нейромайнинг.
Аноним 30/01/23 Пнд 20:06:19 #318 №91245 
>>91202
А после аренды, как каломатика накатывать? На колабе то все за тебя колабщик сделал, а тут...
Аноним 30/01/23 Пнд 20:08:13 #319 №91250 
>>91245
Ноутбуки тут тоже поддерживаются. Берешь любой и копипастишь. Ячейки прожал и работаешь
Аноним 30/01/23 Пнд 20:10:11 #320 №91251 
3060 - 0.08$/час. Мнение?
Аноним 30/01/23 Пнд 20:11:01 #321 №91253 
>>91251
Да 3070 дохера с такой или ниже ценой. Интересный сервис...
Аноним 30/01/23 Пнд 20:12:17 #322 №91254 
Господа, что прописать что бы грид выдавал 10 штук рандомных сидов? Рандомный сид это -1, а дальше?
Аноним 30/01/23 Пнд 20:15:24 #323 №91258 
>>91092
>за хнанилище
Сколько?
Аноним 30/01/23 Пнд 20:16:52 #324 №91260 
>>91258
Я же написал
Аноним 30/01/23 Пнд 20:19:56 #325 №91266 
>>91260
Ой, не заметил...
Аноним 30/01/23 Пнд 20:20:36 #326 №91268 
.png
.png
.png
.png
Есть некоторый кек в том чтобы тренировать без текст энкодера
Аноним 30/01/23 Пнд 20:21:55 #327 №91274 
>>91217
Где сдать свою 1060?
Аноним 30/01/23 Пнд 20:22:41 #328 №91278 
>>91274
На металоприемке
Аноним 30/01/23 Пнд 20:22:42 #329 №91279 
>>91274
В дом престарелых
Аноним 30/01/23 Пнд 20:23:24 #330 №91283 
>>91268
> кек
ст энкодер
Аноним 30/01/23 Пнд 20:24:42 #331 №91288 
>>91283
Я вас не понимаю
Аноним 30/01/23 Пнд 20:26:24 #332 №91293 
>>91288
Я вас понял :)
Аноним 30/01/23 Пнд 20:28:32 #333 №91300 
чичас вкину сравнение только унет, только кекст энкодер и оба
Аноним 30/01/23 Пнд 20:32:45 #334 №91307 
>>91254
Сам нашел -1--1[10] как-то всрато
Аноним 30/01/23 Пнд 20:33:46 #335 №91308 
>>91250
>Ноутбуки
Что?
Аноним 30/01/23 Пнд 20:33:57 #336 №91309 
>>91307
Ну пропиши 10 штук через запятую.
Аноним 30/01/23 Пнд 20:38:09 #337 №91323 
.png
>>91308
Ноутбуки
Аноним 30/01/23 Пнд 20:40:40 #338 №91328 
>>91309
Дольше и костыльнее
Аноним 30/01/23 Пнд 20:48:43 #339 №91341 
.jpg
.jpg
.jpg
.png
Аноним 30/01/23 Пнд 20:50:02 #340 №91345 
>>91328
Всмысле костыльнее? Это та же логика что при записи всех других штук в x\y график.
Аноним 30/01/23 Пнд 20:53:00 #341 №91354 
.png
Мнение?
Аноним 30/01/23 Пнд 21:00:16 #342 №91365 
>>91345
> Всмысле костыльнее?
Меня однажды отпиздили за гаражами за то что задал массив как [1,2,3,4,5] а не [1..5]

>та же логика
Мейби, но писать 0.1-1(+0.1) удобнее чем перечислять все значения например
Аноним 30/01/23 Пнд 21:20:15 #343 №91395 
>>91354
Окупаемость за 1000 часов. В принципе неплохо.
Аноним 30/01/23 Пнд 22:30:08 #344 №91541 
.png
Шизы на месте? Продолжаем тестирование.
Аноним 30/01/23 Пнд 22:31:44 #345 №91544 
>>91541
левая верхняя лучше всего получилась
Аноним 30/01/23 Пнд 22:33:25 #346 №91547 
>>91544
Вы наци, да?
Аноним 30/01/23 Пнд 22:35:00 #347 №91552 
Meryl701.png
Meryl701.png2105noflipcropped.png
Meryl701.png32715noflipcropped.png
Meryl701.png4197flipcropped.png
Правильно ли я понимаю, что если у меня есть пик1 (560x536px), то из него имеет смысл по-разному вырезать куски 512x512px (пик 2-4)? Я понимаю, что это не заменит датасет. Речь идёт скорее об обработке каждой фотки в датасете подобным образом.

Есть ли готовый скрипт для этого?
Аноним 30/01/23 Пнд 22:38:53 #348 №91554 
>>91552
> из него имеет смысл
Не имеет
Аноним 30/01/23 Пнд 22:48:02 #349 №91574 
>>91547
пипец долго думал почему лол
нет просто имо поза и выражение лица самые милые
Аноним 30/01/23 Пнд 23:07:36 #350 №91611 
Есть ли различие между batch_size и batch_count при генерации на CPU?
Аноним 31/01/23 Втр 00:22:18 #351 №91761 
Latte-no-tags.jpg
any222trin-no-tags.jpg
screenshot.png
>>90718
Короче хз, какое тут слово из спам листа, прочитай на скрине, вот ссылка на датасет: https://anonfiles.com/YaB9b7V6y6/dataset_7z
Аноним 31/01/23 Втр 00:24:50 #352 №91771 
Latte-tags.jpg
any222trin-tags.jpg
>>90718
>>91761
Вот следующие два
Аноним 31/01/23 Втр 00:35:45 #353 №91798 
>>91771
Ой бля даже хуй знает что сказать. Датасет вроде нормальный. Хуй поймешь эту лору. 10ая эпоха вообще пиздец странная, как будто из другой вселенной, втф? Возможно слишком долго обучал. Я сегодня сравнивал 10, 20, 30 эпох на одинаковых настройках, так вот чем дольше, тем нейронка "сильнее" запоминает датасет и теряется вариативность. Когда переобучаешь спасает только уменьшение веса лоры, но есть риск сделать персонажа менее узнаваемым
Щас я грид сделаю, у меня +197 лора файлов, вроде как что-то нащупал, и выглядит опрятно, и стиль от модельки к модельке меняется. И заколка в паре сеток уверенно так рисуется, прямо как в датасете, перамога кек
Аноним 31/01/23 Втр 00:50:03 #354 №91839 
10th-epoch-tags.jpg
10th-epoch-no-tags.jpg
>>91798
С десятой эпохой обосрамс с лишним нулём в гриде, она всё таки рабочая, но всё равно какая-то не оч, мне больше всего не нравится, что сид хоть и меняется с уточняющими тегами, смены положения персонажа в кадре нету, всегда слева направо смотрит, иногда в середине мелькает, наверное зеркалить всё таки нужно, но тогда беда с заколкой будет ещё больше по идее. Ну и восьмая эпоха похожа на самую стабильную.
Аноним 31/01/23 Втр 01:11:07 #355 №91864 
я нихуя не понял как, но маняфункция
,,,,,blend(промт)
миксит прям перфект без дропов, экспрессия на картинах прям дышит, можно поменьше запятых, допустим одну, с точкой вначале результаты дает хуже
токен , = 267, токен . = 269
Аноним 31/01/23 Втр 01:11:47 #356 №91865 
>>91554
Поздно, я уже написал скрипт, который это делает.
https://pastebin.com/9anRu74x
Так что теперь датасет должен быть не из картинок 512х512, а из таких картинок, что любой прямоугольник 512х512 содержит заданный концепт.

Любители загнаться - велкам!
Аноним 31/01/23 Втр 01:14:08 #357 №91870 
.jpg
.jpg
.jpg
.png
>>91839
Кароче вот мои наблюдения за сегодня

1 пик AOM2-sfw, 2 пик ACertainty, 3 пик udonNoodleMix, 4 пик ГТ (референс)

Что общего у всех: основа ACertainty, датасет 59 пикч суммарно вместе с повторениями (11х4+15х1), network_dim 16, network_alpha 1, train_batch_size 10 (<- это очень важно), clip_skip 2 очевидно, keep_tokens 1, shuffle_caption (триггер токен tk первым тегом везде), lr_scheduler constant_with_warmup, 20 эпох, разгон планировщика ровно половину всех шагов (но с этим в теории можно поиграться)

Разные скорости обучения:
unet:
0.5e-3, 1.0e-3, 2.0e-3, 3.0e-3
text encoder:
0.1e-3, 0.2e-3, 0.4e-3, 0.6e-3 (т.е. в 5 раз меньше unet lr)

Что я получил:
1. Ебучую заколку на некоторых сетках, причем довольно уверенную
2. Переносимость между моделями: охуенскую переносимость между моделями. Как-то так вышло. Причем без особых тегов и кручения весов, всё в стоке, обычный промт и сразу выдает разную картинку на разных моделях. Далеко не всегда такое было, но тут прям зачёт
3. Отсутствие мыла или перешарпленности. Джизес крайст, и такое бывало
Но мне чёт МАЛА. Нужно еще что-то придумать.

Насчёт train_batch_size. Если бы у меня был батч сайз 1 то скорость была б в 10 раз меньше, но она такая гигантская потому что у меня стояло 10! Нужно всегда пересчитывать скорость под свой батч сайз. Потому что умные дяди сказали что линейная зависимость: во сколько раз относительно единицы увеличил батч сайз, во столько же раз увеличиваешь скорость обучения (обе)! А я долго ебался и не мог понять почему у меня не получается воспроизводить старые сетки, они то недо-, то перетренированные

Насчёт разгона планировщика lr_warmup_steps: на всех пиках разгон первые 50% шагов. После 50% шагов скорость обучения выходит на ровную прямую до конца обучения. Как рассчитать? Хуй знает. Я возможно проебался в нескольких моментах в скрипте и в гуе, для батч сайз стопудово он точно считает сколько ставишь, но для батч сайза больше одного не уверен. Легко проверить: настроить запустить скрипт, посмотреть сколько шагов тебе насчитала обучалка, закрыть, поставить половину от этого в lr_warmup_steps и запустить снова

Как-то так
Аноним 31/01/23 Втр 01:29:55 #358 №91886 
.png
.png
.png
>>91870
> для батч сайз стопудово
для батч сайз 1 бля*

И еще важное про эпохи не упомянул. Их тут ровно 20 на каждом пике. Будет меньше или больше эпох, будут другие результаты. Но на 20 эпохах именно такие

ШУЕ ППШ
Аноним 31/01/23 Втр 01:30:40 #359 №91888 
>>91864
>>91018
Да, бленд рабоатет в негативах и позитивах, проверяется через
"blend(prompt)", где " токен 1 и получается бесконечное смешивание в одноцветный градиент. То есть от токена зависит смешивание.
Аноним 31/01/23 Втр 01:39:42 #360 №91908 
Мне пришла гениальная идея! Попробовать обучить своё говно в стиле дримбуз: инстанс токен + класс токен. Без тегов
Аноним 31/01/23 Втр 01:46:00 #361 №91918 
У лоры на первых-серединных эпохах результаты могут быть лучше, чем на последней? А я удалял все, кроме последней. В гайде про это ни слова, а тут смотрю эпохи сравнивают в треде.
Аноним 31/01/23 Втр 01:50:23 #362 №91934 
>>91870
> После 50% шагов
Это локализовано как "Разогрев планировщика?"

> поставить половину от этого в lr_warmup_steps
Такой опции же даже нету в гуе, или ты имеешь ввиду 25% сделать?
Аноним 31/01/23 Втр 01:53:34 #363 №91942 
>>91918
Могут. На вкус и цвет. Если грамотно подобрать настройки то последняя эпоха выйдет самой лучшей. Мы этим в треде и занимаемся

>>91934
> Это локализовано как "Разогрев планировщика?"
Да. Перевод фаргус
> Такой опции же даже нету в гуе, или ты имеешь ввиду 25% сделать?
Нет, 50% и ставишь, но я опять же говорю что за правильность расчета при батч сайзе больше одного не ручаюсь. Но это в любом случае не суперкритично, просто я оттренил на всех значениях от 0-100% и мне серединка показалась самой лучшей
Аноним 31/01/23 Втр 01:54:15 #364 №91945 
1675119252552.jpg
1675119252567.png
1675119252590.png
1675119252604.jpg
Запихнул Кокос в двух одеждах и Ваниль в network_dim 32
Не знаю нафига, но тренил 10.5 часов на 10 эпох в 21k шагов. Хотя уже 3-я эпоха норм.
Изменчивость фона хорошая, позы тоже.
Его настройки >>87560 Только я ставил 12 повторений.
>>91918
Ну да. Поэтому мы и прогоняем x\y тесты постоянно, беря шаги\эпохи с запасом. Я вот вечно наваливаю слишком много и из 8-10 эпох наиболее лучшими выходят где-то 4-6.
Аноним 31/01/23 Втр 01:58:53 #365 №91951 
>>91945
21к - ебануться! Ебать я в голосину громко проиграл, без обид. Таких циферь на лоре еще не видел, даже от анонов с 4090. Выглядит няшно достойно имхо. А на какой модели пики делал? Интересна переносимость
Аноним 31/01/23 Втр 02:01:32 #366 №91953 
Можешь кстати лорки скинуть, хочу повертеть
Аноним 31/01/23 Втр 02:05:12 #367 №91955 
00052-382657822-realistic-1-ultrarealistic-1-child-1-in-glasses-lingerie-1-stockings-1-submissive-sl.png
Поясните, в чем смысл параноидальной педоборьбы в разработке SD и вокруг t2i в целом?
Я по своему опыту знаю, лольки 7-14 лвл это те еще маленькие чертовки. Бывает что еще не появились там волосы, а уже пускается во все тяжкие! Раньше в 13 лет выходили замуж, а у муслей в Судане выдают замуж в 9 лет.
Аноним 31/01/23 Втр 02:05:21 #368 №91956 
15 более-менее схожих картинок с вполне чистым фоном хватит для обучения?
Аноним 31/01/23 Втр 02:06:46 #369 №91957 
1675120003998.png
>>91951
Да и еще 768 разрешении одним потоком.
Обучал на ACertainty, а генерировал на anything-v4.5
>>91953
https://mega.nz/folder/GkZWzYYQ#aBhvBn1omJJozyL5s4gnLg
В пикчах промты примерные найдешь
Аноним 31/01/23 Втр 02:09:17 #370 №91959 
>>91956
Вполне. Результат зависит от контента датасета. Датасет разноообразный - чаще результаты хорошие

>>91955
Потому что педо это плоха! И это действительно плохо, но я не понимаю почему цифру, почему пиксели называют педофилией. Я думал что педофилия - это когда страдают дети. Я не знал что пиксели тоже должны быть под защитой. Педоистеричек трудно понять на самом деле

>>91957
Спасянс
Аноним 31/01/23 Втр 02:12:27 #371 №91964 
>>91956
Для персонажа или стиля?
Для персонажа желательно чтобы с разных сторон он был, хотя бы одна пикча с full body, желательно еще со спины. То есть максимально кайфовый дата-сет - это концепт арты. Я вообще использую то модели из MMD, то фотографии аниме фигурок, если ничего другого нет, чтобы показать персонажа со всех сторон.
Аноним 31/01/23 Втр 02:13:09 #372 №91965 
image.jpg
>>91942
Я не пони, елаборейт плиз. Вот на скрине зарядил батч сайз 10 на 20 эпох + 50%, в проге пишет 408 шагов, сама консоль тренирует 4080 шагов.
Аноним 31/01/23 Втр 02:15:11 #373 №91968 
>>91965
На пике написано батч сайз 1! Ты через мокрописю? Когда обновлял? Я пофиксил баг с батч сайзом
Аноним 31/01/23 Втр 02:17:10 #374 №91972 
И кстати у тебя батч сайз потянет-то хоть, там нужно 24 гб, я в облаке делал. И еще. Постарайся избавиться от повторений в датасете если несколько папок. Т.е. если у тебя там папки 20_кек и 5_кек, то так не надо делать, приведи к НОД: сделай 4_кек и 1_кек
Аноним 31/01/23 Втр 02:20:11 #375 №91974 
.png
.png
.png
.png
>>91957
Ты бля на фигурках ваниллу обучал? :)))
Бтв жаль датасет не сильно разнообразный был, пририсовывает мейд сьют везде где только можно
Аноним 31/01/23 Втр 02:27:28 #376 №91982 
>>91974
Ну а что поделать. По хентаю арты как правила почти не рисуют. К счастью хоть аниме вышло, от туда взял скринов.
Не думал, что кто-то будет использовать эту лору с реализмом, поэтому не тестировал на таких моделях.
Аноним 31/01/23 Втр 02:31:53 #377 №91987 
>>91972
>>91968
Хз когда, видимо батч сайз 2 тоже до этого не работал, ладно ща попробую, а зачем НОД то, повторений же очень мало станет, не?
Аноним 31/01/23 Втр 02:34:32 #378 №91991 
>>91982
Забавно. Интересно, помогли бы регуляризационные изображения

>>91987
Ну можешь оставить как есть. Только все эпохи сохрани
Аноним 31/01/23 Втр 02:36:36 #379 №91995 
>>91964
Чисто персонаж.
Большая часть артов - фуллбоди. Специфическая одежда. На все буры 200 артов, где половина сразу отпадает, т.к. левая одежда, неотковыриваемые левые персонажи. Потом отваливаются просто кривые арты, всратый хентай, чибики, обнаженка. Вот и осталось 15 картинок.
Аноним 31/01/23 Втр 02:37:16 #380 №91997 
>>91991
> Ну можешь оставить как есть. Только все эпохи сохрани
Так это ты предлагаешь сделать просто чтобы последняя эпоха нормальной сохранилась?
Аноним 31/01/23 Втр 02:39:10 #381 №91999 
>>91991
Не раз пробовал. Персонаж совсем теряется, будто силу лоры ставлю не 0.6-0.8, а 0.2-0.3, лишь пару мелких деталек остается.
Аноним 31/01/23 Втр 02:40:40 #382 №92004 
>>91997
Он предлагает это сделать что бы ты потом с помощью грида выбрал из всех эпох наиболее подходящую
Аноним 31/01/23 Втр 02:42:21 #383 №92007 
>>91995
Нормально. Думаю все выйдет.
Аноним 31/01/23 Втр 02:42:23 #384 №92008 
>>91997
>>92004 <- вот это
С большим кол-вом потворений будет куча шагов, план может пойти по пизде

>>91999
Да, с регами пизда какая-то. У меня всегда всё кончалось тем что персонаж не выглядит как датасет, а выглядит как реги
Аноним 31/01/23 Втр 03:05:46 #385 №92023 
.png
.png
.png
.png
Оттренил датасет в стиле дримбуза только без рег. изображений, заняло три минуты, ноль тегов, папка подписана как "4_tk 1girl", результаты:
Аноним 31/01/23 Втр 03:07:41 #386 №92025 
нихуя не понимаю есчесно как это работает, но я и одежку и фон и всё могу поменять
Аноним 31/01/23 Втр 03:12:42 #387 №92030 
>>92008
>>92004
Бля, батч сайз 5 видяха тянет, а вот системная память нет, падает после 4 эпохи стабильно, с батчем 4 на 16, придётся откатится до 3 с соответствующим ЛР, повторения для такого нужно изменять у пикч? Не совсем понял почему нужно так мало ставить, типо каждая эпоха будет совсем по чуть чуть тренироваться и можно будет выбрать из более обширного количества лор во время тренировки, так это уловил.
Аноним 31/01/23 Втр 03:15:55 #388 №92032 
>>92030
Да просто дохуя повторений это дохуя степсов, я не знаю что произойдет если много степсов навалить. Если хочешь пробуй. У меня эпохи были на батч сайзе 10 по 9 шагов
Аноним 31/01/23 Втр 03:38:01 #389 №92038 
ВТФ?! После ответов на вопросы по гайду для скрипта файл train_network.ps1 тупо не появляется. Ошибок никаких при этом после ответов на вопросы не вылетает.
Аноним 31/01/23 Втр 03:39:37 #390 №92040 
>>92038
Не понял. Каких вопросов. Скрипт качается отдельно
Аноним 31/01/23 Втр 03:45:56 #391 №92044 
>>92040
>Скачать скрипт (ПКМ -> "Сохранить как...") (иногда обновляется)
А.. Я слепой. Думал там выложен архив что на гитхабе, а не сам сприпт.
Аноним 31/01/23 Втр 04:38:47 #392 №92053 
Latte-no-tags.jpg
Latte-tags.jpg
>>92032
>>91972
Ну по всей видимости это не дотренилось? С тегами конечно получше, но всё равно херня получилась, без них почти ноль эффекта.
Всё таки осилил в 5 батч запустить, я же верные параметры выставил с таким батчем?
unet_lr: 5e-4
text_encoder_lr: 1e-4
lr_scheduler: constant_with_warmup
lr_warmup_ratio: 50.0

У тебя вроде пикч в два раза больше? Из-за этого может?
Аноним 31/01/23 Втр 06:57:57 #393 №92084 
>>89786
Не знаю, здесь ли ты ещё, но попробуй https://github.com/bbc-mc/sdweb-merge-block-weighted-gui , там такой хуйни нет

Олсо, у меня все спокойно без расширений мерджится на пейперспейсе, где 8гб, и не мерджится на колабе, где 16. Там не только vram участвует, походу.
Аноним 31/01/23 Втр 07:35:47 #394 №92099 
>>91999
Возможно, это особенность конкретных регов? Если делаешь реги в наи только по классу 1girl + теги качества, херачится сеймфейс/невнятная одежда, которые и запоминаются?

У меня наоборот проблема с регами. Я заморочился, наделал вагон совершенно разных высококачественных необрезанных мужиков с разными лицами, в разных позах, в разной броне, на разных фонах с разным светом. Все это в надежде, что Лора выучит именно разницу, а все хорошее (качество) возьмёт от регов.

Ага, хуй там плавал. Лора как обычно выучила основной датасет, 350 самых разных регов псу под хвост. Но я делал и реги и теги. Может, теги помешали, и надо делать мини-дримбут только с классом.
Аноним 31/01/23 Втр 07:48:35 #395 №92103 
>>92084
При мердже vram не используется вообще.
Аноним 31/01/23 Втр 10:13:01 #396 №92152 
>>92103
Ага. Оно тупо все в оперативу заливается. Чтобы заниматься слиянием моделей 4+ гигов имея на борту 16 оперативы - приходится все по максимум вырубать, чтобы хватило памяти. Надо 32, а лучше 64, чтобы наверняка.
Аноним 31/01/23 Втр 11:09:34 #397 №92186 
>>91268
>>91341
На реалистике с точки зрения именно черт лица унет и текстовый енкодер дают разные результаты.

Кстати, если тренировать их вместе, кохия добавил наконец их разделение в своих additional networks, их теперь можно взвешивать раздельно.

https://github.com/kohya-ss/sd-webui-additional-networks
>Add separated U-Net/Text Encoder weight sliders. Thanks to Naegles and space-nuko!
Аноним 31/01/23 Втр 12:00:30 #398 №92250 
>>92053
Эхх, херню значит посоветовал. Но мне мой резалт понравился, странно.
Если недотренировано у тебя еще есть варианты потренить unet 1е-3 и 1.5е-3. Есть также вариант тренить без текст энкодера, кек. А сколько шагов в сумме получилось?
Аноним 31/01/23 Втр 12:04:03 #399 №92257 
>>92186
>Кстати, если тренировать их вместе, кохия добавил наконец их разделение в своих additional networks, их теперь можно взвешивать раздельно.
Лоол, спасибо за инфу
Аноним 31/01/23 Втр 12:18:03 #400 №92268 
>>92053
Еще я кстати пробовал опускать все теги, описывающие внешность персонажа, такие как цвет глаз, волос, длина волос, всякие дополнительные вещи типа заколок и т.п. т.е. то, что присутствует на каждом изображении датасета. Тогда вся эта информация у сетки ассоциируется с твоим триггер токеном (в моем случае tk). Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl" -- результаты меня поразили, я думал это невозможно. Я так понял если сетка обучается только через единственный инстанс токен, то ей ничего не остается кроме как найти общее на всех пиках, а на всех пиках общее это только лицо
Аноним 31/01/23 Втр 12:48:49 #401 №92310 
>>92250
С батчем в 5 надо общее количество на 5 умножать? В проге при 1_fan_art 2_sprite всего навсего 192 пишет. Увеличивал постепенно 2 и 4, 3 и 6, 4 и 8. В итоге только 4 и 8 и 3 и 6 более менее норм оказались, примерно на уровне предыдущей тренировки, где почти весь персонаж без тегов выдавался, и тоже 7-9 эпохи лучше всего получились у 4 и 8 и 18-20 у 3 и 6.

>>92268
> Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl"
То есть папку назвать нужно так: "12_elie 1girl"? Зачем 1гёрл, типо как тег? А ничего что она через пробел?

Скинь свой датасет, хочу для сравнения глянуть. Как ты кстати графики такие >>85044 выводишь?

С большой скоростью тоже попробовал, по типу 1e-3, вообще не пошло, просто картинка в кашу на второй же эпохе, правда я там поставил cosine и без разогрева с батчем в 1. Просто решил попробовать так сделать.
Аноним 31/01/23 Втр 12:55:40 #402 №92325 
>>92310
Нет, я написал скорости уже посчитанные для батча 5
1girl может и необязательно, просто в дримбузе указывается инстанс токен + класс токен
Датасет есть в лора репо в шапке
Аноним 31/01/23 Втр 13:21:35 #403 №92402 
>>92325
> Нет, я написал скорости уже посчитанные для батча 5
Я не про скорость, а про количество шагов отображаемое в проге говорю, при 1 и 2 повторений на папках получилось 192 при батче в 5, если поставить батч 1, то число умножается на 5, дальше просто по +192 на каждый вариант повторений который я тестил.
Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же, но с батчем в 10, мне же надо как минимум в два раза ниже ставить для батча в 5, как ты и писал раньше? Что я собственно и делал. На 4 и 8 повторений с батчем 5 с 12-13 эпохи жуткий перетренинг пошёл, мутации, экстрашарп.
Аноним 31/01/23 Втр 14:24:20 #404 №92503 
>>92402
Поясните, почему решили ставить батч 10? Я не критикую, может, это волшебная таблетка, но аноны с форчка с претензией на знание мл говорили, что слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч. То есть это аналог gradient accumulation
Аноним 31/01/23 Втр 14:25:04 #405 №92505 
На что вообще влияет описание тегами в датасете лоры? Я натренил стиль сетом без тегов (только с тегом вызова) и он вышел весьма неплохо, но слабо следует промту. Есть ли здесь взаимосвязь?

Сколько нужно уникальных пикч для датасета? Чем больше, тем лучше, или больше ~50 например не особо имеет смысл?
Аноним 31/01/23 Втр 14:58:59 #406 №92536 
>>92505
Вроде как теги в файле заменяют собой концепт. То есть ты учишь не концепту, по которому назвал папку, а тегам, которые лежат в txt-файлах.
Аноним 31/01/23 Втр 15:10:53 #407 №92548 
>>92503
Я лично ничего не решил, просто ньюби, перебираю разные способы тренировки, чтобы посмотреть результаты и найти наиболее лучший. А вот у анона выше точно шило в заднице, он стремится к перфекционизму.
Аноним 31/01/23 Втр 15:26:11 #408 №92568 
>>92536
А если я учу стилю? Пики в датасете совершенно разные, общий только стиль. Есть тогда вообще смысл в тегах, кроме общего?
Аноним 31/01/23 Втр 15:26:54 #409 №92569 
>>92568
Думаю нет, хватит названия в папке
Аноним 31/01/23 Втр 16:27:39 #410 №92635 
804275708892395.png
Тензорчекер шагает по коммунити, теперь он встроен в тулкит https://github.com/arenatemp/stable-diffusion-webui-model-toolkit
Аноним 31/01/23 Втр 17:00:39 #411 №92671 
Что я не так делаю? Пользуюсь этим коллабом https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
И на выходе получаю 5 гиговый файл, который не работает как лора, а работает как обычная модель. И вроде бы и перса рисует, и всё остальное без потерь как та модель, на которой обучалось, но это же нихрена не так должно работать, верно?
Аноним 31/01/23 Втр 18:14:23 #412 №92797 
powershell : The string is missing the terminator: ".
D:\sd-scripts\train_network.ps1:369 знак:4
+ powershell accelerate launch --num_cpu_threads_per_proces ...
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+ CategoryInfo : NotSpecified: (The string is missing the terminator: ".:String) [], RemoteException
+ FullyQualifiedErrorId : NativeCommandError

+ CategoryInfo : ParserError: (:) [], ParentContainsErrorRecordException
+ FullyQualifiedErrorId : TerminatorExpectedAtEndOfString

Скрипт криво сохранился или я что сломал? Запускаю из среды редактирования скрипта. В принципе если просто "выполнить в павершелле", то тоже самое, но нормальной консоли вывода ошибки не посмотреть.
Аноним 31/01/23 Втр 18:25:36 #413 №92822 
>>92671
Ты пользуешься скриптом конверсии, или так?
Аноним 31/01/23 Втр 18:35:55 #414 №92854 
4442.PNG
>>92822
То есть нужно на пике выбрать диффузер, а потом сконвертить в сейфтензор в шаге 7.1? А я сразу там выбирал сейфтензор.
Аноним 31/01/23 Втр 18:44:42 #415 №92876 
>>92797
Попробуй убрать из путей в конце слэши
>>92671
Предположу что ты тренировал не сетку, а дримбуз
Аноним 31/01/23 Втр 22:29:59 #416 №93445 
>>92797
Тебе русским английским языком чёрным по белому белым по чёрному написано: струна скучает по Терминатору?

Что тут непонятного?
Аноним 31/01/23 Втр 23:12:15 #417 №93547 
image.png
Я взял работавший у меня рецепт дримбуз-модели (датасет, параметры) и решил поэкспериментировать. Я отключил prior preservation и получил на выходе вот такое вот. Закономерно ли это? prior preservation и впрямь настолько важен или это я где-то прокосорезил?

Я взял заряженный калаш, из которого только что стрелял, навёл его себе на ногу и нажал курок. Теперь в ноге дырка и оттуда что-то течёт. Так и должно быть или я неправильно понимаю принцип действия калаша?

Как вообще определять количество регуляризационных изображений? Экспериментально или есть примерная формула?
Аноним 01/02/23 Срд 00:54:18 #418 №93709 
На недавно прошедшей сходке аи-энтузиастов порешали Кароче, оказывается подмена CLIPа от SD таки влияет на графинум и интерпретацию чанков, невероятные просторы кастомайзинга моделей открылись, клип и юнет что очевидно файлы оказывается не одинаковые божечки мои. То есть если вам надо фиксануть только ids не меняя трейнинг дату клипа на дефолтную/от другой модели, то делайте просто фикс клип идов без импорта фулового .pt файла клипа.

Верно и обратное, если вы хотите скормить своей модели мутировавший клип от скажем оранжа или протогена - вот тогда можете импортировать. То же самое касается и UNET.

Обновил гуид если че https://rentry.org/clipfix
Аноним 01/02/23 Срд 01:07:05 #419 №93718 
>>93709
Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать. Он ведь натренирован на данбуру тегах, мне кажется ставить сд клип в аниме модель не лучшая затея. Он чистый, я проверил. Ну там только какая-то трабла была с ключами, я с помощью тулкита пофиксил это, сдул до 2 гигов и выдрал клип. Протестил на капустомиксе, отличия минимальные, но есть.
И естесна унет будет отличаться у каждой модели, это ведь её основа, именно она даёт пикчи. Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом
Аноним 01/02/23 Срд 01:17:28 #420 №93733 
>>93709
Была бы сказка если бы ты свою калфу перестал рекламировать.
Аноним 01/02/23 Срд 01:19:37 #421 №93738 
>>93718
>Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать.
Там прикол в том, что микширвоание моделей дает уникальные мутации в дате клипа, да и в целом текстовый енкодер можно отдельно смешивать между моделями.
>мне кажется ставить сд клип в аниме модель не лучшая затея
Yes
>Протестил на капустомиксе, отличия минимальные, но есть.
>то стоит из NAI клип и выдирать
Так вот, если ты меняешь из условного капустомикса обратно на дефолтный NAI, то энкодер как бы "забывает" ассоциации, полученные при возможных предыдущих обучениях и мердже. Вот поэтому отличия и есть тип.
>Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом
Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон. Так что пробовать менять можно.
Аноним 01/02/23 Срд 01:19:54 #422 №93739 
>>93733
Это не калфа.
Аноним 01/02/23 Срд 01:22:01 #423 №93743 
>>92402
> Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же
Я тестил на диапазоне скоростей от 5e-4 до 3e-3. И все в принципе нормальные, на вкус и цвет
> жуткий перетренинг пошёл, мутации, экстрашарп
Значит нужно меньше повторений/меньше эпох. Если не помогает - меньше скорость обучения. Немаловажную роль играет датасет, что изображено на пикчах и их количество. И тут я тебе не подскажу, тут какбе рулетка. Лишь могу подсказать относительно моего датасета сколько нужно и чего чтоб нормально получилось

>>92503
Ну типа быстрее так.
> слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч
Вообще этого не понял если честно
Аноним 01/02/23 Срд 01:22:29 #424 №93745 
>>93739
Ещё скажи что не реклама.
Аноним 01/02/23 Срд 01:26:21 #425 №93751 
>>93745
Ой прекрати, это файлопомойка файлов для сетки и сборник хуйни чтоб не забыть.
Аноним 01/02/23 Срд 01:27:48 #426 №93753 
>>93738
> Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон.
Интересно, это где он обитает?
В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А. Либо я чего-то не понимаю
Аноним 01/02/23 Срд 01:29:16 #427 №93755 
>>93751
Храни хуйню на рентри, додик.
Файлы тоже знаешь где хранить можно.
Аноним 01/02/23 Срд 01:31:02 #428 №93757 
>>93755
>Файлы тоже знаешь где хранить можно.
В телеге, самый удобный бездонный файлообменник.
Аноним 01/02/23 Срд 01:32:54 #429 №93760 
>>93753
>Интересно, это где он обитает?
В конфе унстейбл дифужена.
>В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А.
Ну получается что нет, но я сам лично юнет и клип с одной модели на другую не переносил, вот хочу попробовать.
Аноним 01/02/23 Срд 01:33:58 #430 №93761 
>>93760
Сейчас протестирую
Аноним 01/02/23 Срд 01:34:52 #431 №93764 
>>93757
>самый удобный бездонный файлообменник
Как ты свою калфу не называй, калфой она быть не перестанет.
Аноним 01/02/23 Срд 01:35:49 #432 №93767 
>>93764
Атыбись.
Аноним 01/02/23 Срд 01:45:56 #433 №93792 
.png
>>93760
> Ну получается что нет
Всё таки да. Можешь не тестировать. Выдрал все компоненты из АОМ2_сфв и вставил в стоковую сд 1.5
Аноним 01/02/23 Срд 01:49:31 #434 №93798 
image.png
>>93792
В ленточке есть незначительные отличия.
А вообще он в другие модели сует от протогена. Какой смысол сувать в 1.5, которая по дефолту в ядре любой модели сидит?
Аноним 01/02/23 Срд 01:51:20 #435 №93801 
.png
>>93798
Охуенные отличия. У меня иксформерс, он даёт недетерминированность. Окей, если тебе мало, могу компоненты любой модели в любую другую пихнуть, выбирай.
Аноним 01/02/23 Срд 01:52:20 #436 №93803 
>>93801
Да я сам хочу попробовать, как будто подарок на новый год ощущение будет, а внутри подарка кал на блюде.
Аноним 01/02/23 Срд 01:52:43 #437 №93806 
>>93803
Ну смотри сам
Аноним 01/02/23 Срд 01:54:12 #438 №93808 
>>93806
А, я вспомнил. У копрогена похоже юнет свой особенный вроде как, поэтому его и сует.
Аноним 01/02/23 Срд 01:56:41 #439 №93814 
>>93808
Где-то видел список особенных юнетов бля, щас найду.
Аноним 01/02/23 Срд 01:59:05 #440 №93818 
>>92053>>91945
Поясните как сделать грид с лорой?
Аноним 01/02/23 Срд 01:59:12 #441 №93821 
>>93814
Недопираю. Унет же у каждой модели свой, уникальный. Это фактически и есть 90% любой модели, это нейросеть, которая убирает шум с каждым шагом. Каким образом могут быть особенные и не особенные унеты не понимаю, ищи список, оч интересно что там мамкины технари напридумывали
Аноним 01/02/23 Срд 02:00:28 #442 №93822 
.png
>>93818
Через xyz plot, если установлено расширение китайца для лор есть такие пункты как на пике. Названия моделек через запятую либо построчно
Аноним 01/02/23 Срд 02:03:28 #443 №93824 
>>93792
как грид из трех моделей сделать?
Аноним 01/02/23 Срд 02:04:33 #444 №93825 
.png
>>93824
Аноним 01/02/23 Срд 02:06:14 #445 №93826 
>>93825
спс
Аноним 01/02/23 Срд 02:28:12 #446 №93856 
>>93822
В списке моделей None стоит. Если положить модели в папку "\sd\extensions\sd-webui-additional-networks\models\lora", то их нельзя будет юзать через гуй от автоматика. Можно сделать чтобы оба варианта работали?
Аноним 01/02/23 Срд 02:31:17 #447 №93860 
image.png
Угадайте нахуй промт. Пиздец протоген с обосранными тензорами в хлам я ебу.
Аноним 01/02/23 Срд 02:31:44 #448 №93861 
>>93856
Во-первых в автоматике есть параметр --lora-dir, во-вторых в расширении китайца можно прописывать дополнительные пути для поиска лор в настройках

>>93860
1girl
Аноним 01/02/23 Срд 02:32:15 #449 №93862 
Стикер
>>93861
>1girl
Почти. loli
Аноним 01/02/23 Срд 03:01:13 #450 №93888 
.png
.png
Анончик, это опять я. Ну потренируй лору на Сяо, будь другом... Не пашет у меня ни скрипт, ни будка.
Надеюсь, я правильно датасет собрал.


https://files.catbox.moe/2bigee.7z
Аноним 01/02/23 Срд 03:03:34 #451 №93892 
>>93888
Что там не пашет
Аноним 01/02/23 Срд 03:05:19 #452 №93895 
>>93888
зачем тебе дефолтная анимебаба
Аноним 01/02/23 Срд 03:21:47 #453 №93905 
>>93888
Ну датасет имхо так се

>Не пашет у меня ни скрипт, ни будка.
Не помню что б ты жаловался хотя тред по диагонали читаю
Аноним 01/02/23 Срд 03:32:22 #454 №93923 
>>93709
Это было довольно очевидно.
В плане моделей тред толчет воду в ступе, обмазались своими оранджами хотя это могли быть и протогены, не суть, которые сами по себе лютые солянки из чего попало. Можно сколько угодно выдирать из них части и подменять одно на другое, никакого осмысления процесса не придет. Чтобы стабильно улучшать модели, нужны доноры из будки с определенным и внятным контентом.
А у нас тут сплошной confirmation bias царит. Чего-то выдрал, намешал, сгенерилось вроде не очень криво, ну и доволен собой.
Аноним 01/02/23 Срд 03:32:29 #455 №93924 
>>93905
>>93892

Да вот я тут уже сренькать в штаны начал. >>78566 → >>78580 →
На шаге с bites and bytes всё перестало работать, я скопировал гитовскую папку в виртальную папку, но он не делает accelerate config, выдает еррор.
А будка или не тянет из-за 6ГБ врам, или когда я заменяю ее новую версию на старую как в гайде перестает реагировать на кнопки в принципе. И выдает .py ошибки в консоли.
Аноним 01/02/23 Срд 03:38:24 #456 №93926 
Ну ладно, если у меня и датасет хуйня, то и хуй с ним...
Аноним 01/02/23 Срд 03:38:47 #457 №93927 
>>93924
У меня с траблшутингом такого неоче, могу оттренить по твоему датасету. Модель? повторений на концепт?
Аноним 01/02/23 Срд 03:42:44 #458 №93928 
>>93927

Я ещё ни разу не тренил сам, не выяснил какое нужно количество повторений на концепт, прости, анончик. Если есть какое-то базовое, которое приемлемое для персонажей, пусть будет оно.
Модель AbyssOrange2, если можешь и на ней вообще тренят. Если не тренят, то эни3.
Аноним 01/02/23 Срд 03:43:54 #459 №93929 
>>93928
Окей, ща попробуем
Аноним 01/02/23 Срд 03:48:01 #460 №93932 
>>93929

Буду ждать!
Коли совсем говно выйдет, то и не судьба.
Аноним 01/02/23 Срд 04:50:07 #461 №93939 
тут все по лоре или кто нибудь через дефолтный автоматик хайпернетворки тренит? если да поделитесь наблюдениями.
так же вопросец Prompt template влияет на результат если да как его правильно составить?
Аноним 01/02/23 Срд 04:55:07 #462 №93940 
>>93888
А разве до тебя его не запилили?
Аноним 01/02/23 Срд 04:57:36 #463 №93943 
>>93940

Нет, я всё что мог прочекал.
Аноним 01/02/23 Срд 05:00:28 #464 №93944 
1674517810723.jpg
>>93932
Например. Я особо не задумывался, сделал 3 повтора на оба. Пикч и так мало, уши все равно без вызова почти не рисует. Датасет бедноват на ковбой шоты с дефолтной одеждой, впрочем я хз что ты сам хотел получить. Клип скип 2 AbyssOrangeMix2_nsfw
Аноним 01/02/23 Срд 05:00:34 #465 №93945 
1675216833479.png
Пиздец. 6 часов сижу и только пикчи режу в фотошопе.
>>93939
> хайпернетворки
Заебались, давно все чай уже выгорели с ним.
Давно не пользовался, давно не обновлялся. Но где-то в версии, которая была в гайде, я ставил вот так и все было норм.
Аноним 01/02/23 Срд 05:06:29 #466 №93946 
>>93944

Я и сам хз что я хотел получить, представление нейросетки о персонаже какое-то, чтоб потом его можно было переодевать из каноничных шмоток в современные и обратно, типа того.

Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились.
На самом деле все круто выглядит, анончик.
Аноним 01/02/23 Срд 05:18:20 #467 №93949 
>>93945
можно как-то понять на каких пикчах он спотыкается и удалить их из датасета, потому что я вижу где-то лосс 0.0001 в где-то 0.3?

как понять на каком шаге понижать скорость?
Аноним 01/02/23 Срд 05:20:44 #468 №93950 
>>93946
> Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились.
Все что выше 9 уже перетрен так сказать, т.к клоз апы рисует из которых в основном и состоит датасет. Но на меньших эпохах одежду очень плохо уловило и детали неправильные. Ща еще пощупаю че тут получилось

> На самом деле все круто выглядит, анончик.
Ну мейби, но по мне резалт неудовлетворительный. Хз у меня лоры обычно с 3+ попытки получаются, после ебли с датасетом.
Аноним 01/02/23 Срд 05:27:06 #469 №93952 
>>93950

Ну сам видишь, какой у меня датасет. Что-то получилось, лицо/прическу улавливает и то замечательно.
Я видимо совсем бака, если не вижу как "перетрен" выражается...
Аноним 01/02/23 Срд 05:27:27 #470 №93953 
>>93949
Я на такое забиваю. Ближе к концу стабилизируется.
Я скорость там не трогал. Как стояло все по умолчанию, так все и оставлял.
Аноним 01/02/23 Срд 05:35:53 #471 №93954 
1560931122945.png
1624836907493.png
1640630156949.png
1613337036387.png
>>93952
Впрочем хз, не сказать что он не хочет переодеваться, это 11 эпоха. Неплохие резалты и на 15 проскакивают.

>как "перетрен" выражается
Не слушается тегов, что на гриде выше частично, или лезут артефакты, но тут такого нет.

Щас залью сам помацаешь
Аноним 01/02/23 Срд 05:38:02 #472 №93955 
.png
>>93954
Аноним 01/02/23 Срд 05:40:46 #473 №93959 
>>93955

https://mega.nz/folder/SB9WiAxb#Sr6mioS0wY5I4iFHR-UzPQ

Забыл нетворк дим поменять, впрочем 8 тоже сойдет наверное
Аноним 01/02/23 Срд 05:43:08 #474 №93962 
>>93959
Спасибо, спасибо, спасибо!!! Сейчас буду трогать и выставлю лучший результат!!!
Нетворк дим...что это вообще такое, мне надо что-то где-то жать?
Аноним 01/02/23 Срд 05:46:25 #475 №93964 
>>93959

>.safetensors

Это всё еще лора или хипернетворк? А то лора .pt в папке лежит у меня, смотрю, или они разных вариантов бывают?
я нуб, да, извините...
Аноним 01/02/23 Срд 05:47:03 #476 №93966 
Имари так и не запилили? Скидывал сет в прошлом треде...
Аноним 01/02/23 Срд 05:52:39 #477 №93968 
.png
.png
вздыхает
что ему опять не по душе?
Аноним 01/02/23 Срд 05:58:38 #478 №93972 
>>93968

Попробую обновиться, вроде тут у кого-то было такое...
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/7122
Аноним 01/02/23 Срд 05:59:51 #479 №93974 
1540934913718.png
1572430832507.png
1527907737871.png
1534782363552.png
>>93962
Да нзч так сказать

> Нетворк дим...что это вообще такое, мне надо что-то где-то жать?
Это размерность модели, тебе ничего с ней делать не надо, указывается при тренировке. Но как 1060 анон выяснил, она чутка влияет на результаты на 0.4.0., а до этого выяснили что и дим 8 норм на старой версии.

Ну я вообще бы пересобрал датасет или добавил туда больше разных пикч, с дефолтной одеждой full body, cowboy shot, еще ракурсов где он standing.
И протегал бы внимательнее, у тебя клоз апы не протеганы, facial mark видел в одном файле повторяется и cat ears где-то помню было пропущено.

Алсо, в начало каждого описания добавил токен xiao свободен кстати, но ориг тег не убрал, так что можешь вызывать по нему.
Алсо, слеши перед скобками в описании типа \(asdasd\) не нужны, оно и так понимает

>>93964
> Это всё еще лора
Это лора, .pt не видел, все сейфтензорами кидаются

>>93968
Странно, там нет альфы, т.к. тренилось на старой версии, но и без этого все должно работать.
Аноним 01/02/23 Срд 06:03:18 #480 №93978 
>>93966
Могу оттренить, за результат не ручаюсь, лучше если ты сам нужные параметры скажешь
Аноним 01/02/23 Срд 06:04:19 #481 №93979 
.png
>>93974

Анончик!!! Как круто у тебя выглядит всё!!! У меня первый пик наконец-то пошел после фикса лоры, ура! Спасибо спасибо спасибо!

Я сейчас слишком рад, чтобы всё запомнить из твоих советов, но я обязательно перечитаю и запомню, как немного перестанет аштрясти.
Аноним 01/02/23 Срд 06:11:44 #482 №93985 
>>93974

Подскажешь, как у тебя базовый промпт с ним выглядит?
Аноним 01/02/23 Срд 06:17:29 #483 №93987 
.png
.png
.png
>>93954
>или лезут артефакты, но тут такого нет

Понял, кстати, о чем речь, у Кли так, некоторые вещи просто "пристают" к ней и всё.
Аноним 01/02/23 Срд 06:22:04 #484 №93990 
1635808110220.jpg
>>93985
В бизнес сьюте такой

1boy, xiao_\(genshin_impact\), yellow_eyes, bead_necklace, multicolored_hair, green hair, ahoge, facial_mark, facial_mark, facial_tattoo, forehead_mark, green_hair, jewelry, looking_at_viewer, mountain, standing, business suit,
Negative prompt: lowres, text, (low quality, normal quality:1.2), 1girl, multiple views,

Промт можешь взять из своего файла описания, в частности цвет волос, украшения, описание татух эти теги помогают вызывать то что надо.
Аноним 01/02/23 Срд 06:39:02 #485 №93997 
>>93987
Не сказать что тут артефакты есть, мб просто сильно захватило датасет, при таком еще стиль основной модели идет по пизде, а мб что-то не протегали при тренировке, украшение в волосах например, хз
Аноним 01/02/23 Срд 06:43:34 #486 №93998 
1658701186398.png
1615820210036.png
>>93987
Вот например явный перетрен с артефактами, увеличение разрешения тут не спасает. но это хуйдожник виноват что ебла одинаковые рисует
Аноним 01/02/23 Срд 06:52:41 #487 №94002 
.png
.gif
.png
>>93990

Оно работает, анон! Работает! Спасибо!!
Аноним 01/02/23 Срд 06:57:05 #488 №94003 
>>93974
Мимо, а с какими параметрами тренил? Тоже попробовать хочу
Аноним 01/02/23 Срд 07:07:09 #489 №94008 
1622341162697.png
>>94002
Ты прям сильно рад, удивительно, впрочем я тоде был рад, когда увидел как первая натрененная лора у меня работает лучше эмбеддингов.
Дополнительные гриды то не забываешь строить?
Аноним 01/02/23 Срд 07:07:27 #490 №94009 
Untitled (1).jpg
https://drive.google.com/file/u/3/d/1RxLWk99C_UHjlgk_KFDOtS8KlphbeZm4/view?usp=sharing
Запилите няшу плз,

39 пикч с booru-тегами, фон расчищен по мере возможности...
Аноним 01/02/23 Срд 07:14:58 #491 №94014 
>>94003
15 эпох, батч сайз 2, вышло 517 шагов на его датасете. Lr общий 1е-4, планировщик констант с вармапом, вармап 20%, клип скип 2, перемешивание токенов включено, защита от перемешивания первого токена, нетворк дим 8.

Однако у меня старая версия скрипта так что альфы нет, что бы на новой сейм резалт получить надо альфу равную нетворк дим ставить емнип, могу ошибаться,но у анонов от этого наны идут и тензоры в киосках заряжаются. Для 0.4.0 надо читать исследования приключения вот этого господина >>85259
Аноним 01/02/23 Срд 07:16:19 #492 №94015 
>>94009
Тебе стиль или персонажа? Могу затраить
Аноним 01/02/23 Срд 07:17:40 #493 №94016 
.png
.png
>>94008

Я сейчас обо всем на свете забываю!!!
Пока просто приноравливаюсь к использованию лоры, до этого особенно не пытался даже. Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать. Но дело хорошее, надо поставить перед сном будет хоть одну на любимый аутфит и посмотреть которая лора вывозит лучше. У тебя видюха хорошая, наверное? Сколько такой грид по времени занимает?

Местами кекно, конечно, когда какие-то детали волос/лица меняются произвольно, похоже на китайский бутлег на китайскую же игру, лол.
Аноним 01/02/23 Срд 07:17:57 #494 №94017 
>>94015
Персонажа.

Попробуй, хотя б с дефолтными значениями из гайдов. Сделал бы и сам, но lora почему-то не ставится на UI скрипт в облаке (а своей видяхи нет кроме встроенной)
Аноним 01/02/23 Срд 07:23:52 #495 №94018 
>>94014
Я тренил по его советам, получилось неплохо вроде на 0.4.0 >>91761
Первая лора которую тренил, это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз?
Так и не понял, хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа. Тегов то всех вроде слушается, да и на аниме моделях всех метовых работает.
Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать?
Аноним 01/02/23 Срд 07:30:19 #496 №94019 
>>94009
Забыл добавить, делал теги с deep danbooru, поэтому отсутствует важный тег "side ponytail" ("sidetail") и "asymmetrical hair", возможно они нужны для хороших результатов.
Аноним 01/02/23 Срд 07:34:36 #497 №94020 
Кто пробовал трейнить лору на подборке своих же сгенерированных пикч, чтобы срезать токены для следующих генераций с этим стилем?
Аноним 01/02/23 Срд 07:38:03 #498 №94022 
Будущее за редактированием (допиливанием) пикч по текстовому GPT вводу (не промпту, а именно инструкции что делать с пикчей).

Скриньте.
Аноним 01/02/23 Срд 08:06:23 #499 №94035 
>>94016
> Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать
Понимаю

> У тебя видюха хорошая, наверное?
У меня 3070, в которую дядя хуанг забыл доложить памяти, впрочем с медврам и фп16 моделями без ема двухгиговые могу генерить квадраты со стороной 1792.

> Сколько такой грид по времени занимает?
Этот >>94008 две минуты, этот >>93944 минут 12 где-то, ddim 32 шага везде

> похоже на китайский бутлег на китайскую же игру
Тренил кста под red sun in the sky

>>94017
Такой вопрос, почему у тебя много пикч с белыми полями? По опыту хуевой обрезки страниц мангача, могу сказать что белые поля могут сролять в конечном резалте не в лучшую сторону.
Плюс еще надо проверять че там дипданбуру натегал, а то в описании к 4 пикче large breasts и medium breasts например ???, к 11 отсутствуют теги к позе, к 15 есть striped, vertical stripes хотя там этого нет например.

>>94019
> возможно они нужны для хороших результатов
Нужны.

Ну могу прям так бахнуть. Или исправишь? Тег imari я могу сам скриптом добавить во все файлы.

>>94018
Я не сказать что опытный лораеб

> это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз?
Скорее да чем нет, больше да, хотя может говорить о недотрене. Помогающие теги нужны, без них наверное главное что бы лора правильно уловила основные детали, типа формы глаз, лица, некоторых предметов присущих персонажу, конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился.

> хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа
Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем.

> Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать?
Попозже гляну

Я медленно отвечаю если что.
Аноним 01/02/23 Срд 08:20:15 #500 №94047 
>>94018
А, еще забыл добавить, что иногда есть смысл тренить до перетрена, что бы понять как он выглядит на этой лоре и примерно понять когда начинается. Строить гриды по другой позе, одежде, бекграунду например.
Аноним 01/02/23 Срд 08:21:57 #501 №94048 
>>94035
Поковыряю и перезалью.
Надо б конечно грузить сразу с тегами с Danbooru, но это технически сложнее + некоторые пикчи это сканы с e-hentai.

От белых полос можно избавиться растягиванием для квадрата, или инпейнтом (не пробовал).
Аноним 01/02/23 Срд 08:29:13 #502 №94052 
>>93949
Если это у кохии, то у меня такое полностью прошло при переходе на 0.4.0
Аноним 01/02/23 Срд 08:33:15 #503 №94053 
>>94048
А ты их прогонял через что-то? Все 512х512 как будто автообрезка + заполнение отработало, хз

> От белых полос можно избавиться растягиванием для квадрата
Если их убрать то будет лучше, скрипт сам подгоняет под подходящие разрешения из набора и ресайзит, правда не уверен какая часть изображения при этом проебывается, но видимо небольшая.

> или инпейнтом
Сомнительно
Аноним 01/02/23 Срд 08:37:30 #504 №94055 
>>93547
>Как вообще определять количество регуляризационных изображений?
По одному на каждый шаг в эпохе. Но можно и с 2-4 повторениями. То есть если в эпохе 600 шагов, то 150-300 регов вполне катят.
Аноним 01/02/23 Срд 08:40:56 #505 №94056 
no-tags.jpg
tags.jpg
>>94035
> Я не сказать что опытный лораеб
Я просто сейчас любого, кто имеет хоть какой-то опыт спрашиваю насчёт этого, хочу научится и понять что где крутить, если встретится определённое поведение связанное с тренингом.

> конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился.
На самом деле реально ЯННП, типо в промпте(тегах) при тренировке можно как-то подробнее описать какую то часть?
Ну без уточняющих тегов вот пик1, говно выходит. С уточняющими другое дело на пик2.

> Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем.
Ну я уже даже сделал один красивый арт с результатом этой тренировки. Результатом то я доволен, просто хочу научиться больше.

> Попозже гляну
Впринципе насчёт длительности тренировки я уже более менее начинаю догонять, как и насчёт проверки всего этого дела, единственное что пока мало понимаю это структуру датасета и его правильный теггинг.

Алсо как ты Addnet Weight в плоте юзаешь?
Аноним 01/02/23 Срд 08:41:08 #506 №94058 
>>93743
>Вообще этого не понял если честно
Вот вроде у нас же всегда 'вроде' https://towardsdatascience.com/what-is-gradient-accumulation-in-deep-learning-ec034122cfa
Аноним 01/02/23 Срд 08:58:51 #507 №94075 
>>94056
>правильный теггинг.
Я не он%и%%, если что, но не уверен, что существует 'правильный' теггинг.

По моему опыту обучение размазывает 'новизну' по указанным тегам с некоторым уровнем случайности. Теги получаются опорными точками модели.

Мало опорных точек - результаты нередактируемы, потому что все в одном комке.

Слишком много - нередактируемы, потому что слишком много кнопок и рычажков, за все не потянешь. Часть оказалась слишком далеко при перетасовке в самом начале, и вообще ассоциации не возникло. Часть оказалась слишком близко, и туда модель намазала слишком много новизны. В дримбутах этому вроде как должен помогать вармап, но Лора на очень высоких скоростях тренируется.

Влияние случайности очень велико. Соответствие тега концепту - это только шанс Лоре этой ассоциацией воспользоваться. Не факт, что она наткнется на этот шанс при тренировке. Но если не наткнется - набьет искомую новизну в другой тег, и в результатах она все равно в какой-то форме присутствовать будет.
Аноним 01/02/23 Срд 09:10:14 #508 №94088 
>>94009
>>94035

https://drive.google.com/file/u/3/d/1c-ZUVxmLjILNAdiJakF7KhWgj6TRVBUx/view?usp=sharing Как мог, допилил пикчи и теги
Аноним 01/02/23 Срд 09:49:46 #509 №94111 
>>82417 (OP)
>заливать лоры можно сюда https://technothread.space/ пароль 2ch)

https://technothread.space/f.php?h=0UoOnQx4
Аноним 01/02/23 Срд 09:52:59 #510 №94113 
>>94075
Я вообще про более приземистый теггинг спрашивал, по типу надо ли добавлять фулл бади к картинке в полный рост, клоуз ап к фокусу на лице и тд, придерживаться ли вообщем того же подхода, как и с обычным позитивными промптами с разными стилями, данбору или обычным сдшным.

> Соответствие тега концепту - это только шанс Лоре этой ассоциацией воспользоваться.
То-есть если в тегах есть какой нибудь black hair во время тренировки туда может напихаться не та "новизна" от каких нибудь green eyes, если во время тренировки это не правильно распознается или потеряется в конце тегов? Лора пока лучше всего справляется со своими шансами, пробовал давно дримбут, полюбому накосячил конечно где-то, но он выдавал где-то 1 из 10 пикч нормальную, судя по всему недотренил, а может и еще что, даже хз, на лоре тот же датасет минимум половину выдаёт нормальных на дефолтных настройках. Кстати всё что ты расписал это же тот самый лосс при тренировках, да?
Аноним 01/02/23 Срд 10:54:12 #511 №94225 
а почему никто не тренит ретайред порноактрис??? хоспаде, как же хочеца лорочку на жинкс мейз и шерон ли
Аноним 01/02/23 Срд 11:00:44 #512 №94231 
>>93923
>Чтобы стабильно улучшать модели, нужны доноры из будки с определенным и внятным контентом.
Ну и в чем проблема? Берешь Не обычные мерджи, а натренированные чекпоинты, они обычно указываются отдельно и смешиваешь калы между собой получа уникальный кал.
Аноним 01/02/23 Срд 11:10:28 #513 №94239 
>>94225
Потому что тут тренят только анимеблядей с заколками и без, за реалистичными тренями иди на форчок.
Аноним 01/02/23 Срд 11:11:04 #514 №94241 
Я трейнил Shunka Ayami
Аноним 01/02/23 Срд 11:13:33 #515 №94245 
>>94239
>за реалистичными тренями иди на форчок
а там тренят чтоли то что мне надо? есть какойто репо?
Аноним 01/02/23 Срд 11:13:56 #516 №94247 
>>94241
покажи
Аноним 01/02/23 Срд 11:22:34 #517 №94251 
>>94245
Присоединяюсь к вопросу. В /h , в котором я обретался и где в какой-то момент был просто главный фронт лоропрогресса на свете, тоже тренят анимублядей. В /aco тогда было тихо, а /g был пристанищем ноускилльных туристов с теми же анимублядями, чуть более одетыми и без лор, а только с мемными говномиксами и политотой. /Ако подтянулся? /Г переобулся?
Аноним 01/02/23 Срд 11:25:39 #518 №94259 
>>94245
> мне надо
Ну так сам и тренируй, ты охуел?
Аноним 01/02/23 Срд 11:27:25 #519 №94261 
>>94259
я бы тренировал, если бы была карта норм...
Аноним 01/02/23 Срд 11:30:46 #520 №94263 
>>94261
Тренируй на колабе (только не на линакруфе, а на том другом, на линакруф сплошные жалобы)
Аноним 01/02/23 Срд 11:44:06 #521 №94284 
>>94055
А как понять, сколько шагов в эпохе? Количество шагов в эпохе равно количеству картинок в датасете?
Аноним 01/02/23 Срд 11:49:37 #522 №94294 
>>94263
>Тренируй на колабе
это сложнее как мне кажется чем ковыряться на своей тачке
можешь кратко описать что мне нужно сделать чтобы колаб с лорой заработал? ну то есть какие действия требуются, ни разу с колабом дела не имел
Аноним 01/02/23 Срд 11:56:33 #523 №94305 
ПЕРЕКАТ

>>94300 (OP)
>>94300 (OP)
>>94300 (OP)
>>94300 (OP)
>>94300 (OP)
Аноним 01/02/23 Срд 12:08:54 #524 №94325 
1669306567744.jpg
1630255534170.jpg
1650227269739.png
1640485032403.jpg
>>94056
>хочу научится и понять что где крутить, если встретится определённое поведение связанное с тренингом.
Тренируй больше разных лор, если сталкиваешься с проблемой, то ищи варианты решения да, я капитан

> На самом деле реально ЯННП
Я про то, что сетка уже имеет представление о некоторых элементах, когда ты окромя основного тега лоры или тега перса используешь еще тег на какой-то элемент, например hair ornament, без hairclip (а hairclip емнип всегда идет с hair ornament), то с высокой вероятностью оно подсосет то что было натренено в лоре или не подсосет, это уже вариации.

>типо в промпте(тегах) при тренировке можно как-то подробнее описать какую то часть?
Да, но не вылезая за теги данбуры, а то получится новый тег, который ты будешь обучать с нуля скорее всего. Просто тут сейм херня что и при промтинге, есть созависимые теги, или же теги, которые используются от контекста, типо разницы между тем же pussy и cleft of venus. Такие группы тегов типа hair ornament + flower hair ornament частенько встречаются, там еще и hairclip может с ними быть, или например crying + crying with eyes open. Кароч это уже непосредственно тема теггинга данбуру артов, лол.

> Ну без уточняющих тегов вот пик1, говно выходит. С уточняющими другое дело на пик2.
А как вызывал? Если по xiao то это уже считай новый тег, который с нуля обучался, а вот про xiao \(genshin impact\) оно уже что-то подозревает и вызывается легче. Оба в этой лоре есть.
Пик 1 - 1boy, xiao, пик 2 - 1boy, xiao \(genshin impact\), пик 3 - последнее, но без лоры

С этим >>94075 аноном отчасти согласен в том что "опорные точки" оно рандомит, бывает такое что на гридах видно как вес при повышении эпохи меняется можно сказать "линейно", но на какойто эпохе выдает выбивающийся из общего плана результат, и дальше идет опять предсказуемо. Другого объяснения кроме обсера округления какого-нибудь у меня нет.

И не согласен в том что
>Слишком много - нередактируемы
Мы же не превышаем 225 токенов, правда? Это уже другая тема.
Однако в моем понимании все просто - надо убрать все лишнее из пикч для тренировки, а все остальное что там осталось - плотно затегать не создавая новые сущности. Хуй знает как высрать это из моего мозга, наверное можно сказать что подробное тегирование сродни дифференциации. Я уже хочу спать и хз как вменяемо объяснить. щас выйдет что я шизу какую-то высрал

> Алсо как ты Addnet Weight в плоте юзаешь?
Я в основном пользуюсь костылем от кои, а не нативной херней от ватоматика, когда ставишь, то в хуплоте появляется пик 4, это намного удобнее имхо.

А датасет у тебя нормальный, да и протеган вроде тоже нормально, пикчи разнообразные относительно, больше пикч было бы хорошо

>>94088
Принято

Сорян, меня отвлекали
Аноним 01/02/23 Срд 12:10:02 #525 №94327 
>>94305
Всего 503 пост, рановато, сидели до тысячного почти и норм. Суета какая-то.
Аноним 01/02/23 Срд 12:14:44 #526 №94335 
>>94327
sowwy
Аноним 01/02/23 Срд 13:10:39 #527 №94407 
>>94113
>Я вообще про более приземистый теггинг спрашивал, по типу надо ли добавлять фулл бади к картинке в полный рост, клоуз ап к фокусу на лице и тд
Чем больше, тем лучше.
Аноним 01/02/23 Срд 18:33:10 #528 №95003 
Аноны, такая пижня
Error merging checkpoints:
Time taken: 20.07sTorch active/reserved: 2236/2252 MiB, Sys VRAM: 3659/6144 MiB (59.55%)
Что делать?
Аноним 01/02/23 Срд 21:10:05 #529 №95227 
>>93923
>А у нас тут сплошной confirmation bias царит. Чего-то выдрал, намешал, сгенерилось вроде не очень криво, ну и доволен собой.
Современная алхимия как она есть.
Аноним 01/02/23 Срд 21:12:01 #530 №95235 
Такой вопрос - почему авто1111 веб-уи с колаба не запускаются?
Ошибка 504 на стадии загрузки веб-интерфейса (градио, как я полагаю), и хоть ты тресни.
При этом оно сначала немного поработало, полчаса буквально, а сейчас ни в какую.
Аноним 01/02/23 Срд 21:41:03 #531 №95297 
>>95003
Походу тупа не хватало памяти. Увеличил файл подкачки до 32 и заработало.
Аноним 01/02/23 Срд 23:34:34 #532 №95442 
cedric-peyravernay-noai02.jpg
вы все паразиты в этои итт треде
Аноним 01/02/23 Срд 23:49:37 #533 №95475 
22854-832256832-(hatsune miku1.0), 1girl, long hair, solo, striped, twintails, underwear, shirt, panties, very long hair, cowboy shot, black sh.png
Можно ли заставить Tagger указывать в промте стилистику изображения, помимо одежды и самого перса?
Аноним 04/02/23 Суб 00:08:08 #534 №99445 
image.png
бамп
Аноним 04/02/23 Суб 06:03:21 #535 №99738 
Кто тренировал стили - какие настройки порекомендуете на сет из 50 картинок?

На 300 картинок вполне сработали базовые настройки с большим числом повторений (300 картинок х 4 повтора, батч 2, 8 эпох, 1e-4), а вот с небольшим сетом что сделать - непонятно.

Накрутить на 1200 шагов повторениями и использовать те же настройки как-то не слишком правильно ощущается.
Аноним 04/02/23 Суб 10:28:48 #536 №99860 
image
Это плохо? Что делать?
Аноним 04/02/23 Суб 10:52:03 #537 №99878 
https://2ch.hk/ai/res/94300.html
>>99738

>>99860
Нет, это не плохо, просто автоматик рекомендует тебе обновиться на новые версии торча и иксформерсов
Аноним 04/02/23 Суб 13:12:42 #538 №100104 
Можно обучать на оранжмиксе?
Аноним 09/02/23 Чтв 12:18:17 #539 №107738 
>>100104
Можно но зачем на мердже обучать, когда можно на базовой модели это делать лучше?
Аноним 06/03/23 Пнд 08:31:44 #540 №141930 
00015.png
Рейтаните тян и то как я научился пользоваться этим вашим стабл дифужоном.
Аноним 13/03/23 Пнд 15:32:20 #541 №153837 
image.png
Насру ещё и сюда. Помогите разобраться с этим говном! Я не хочу новый тормозной аноноколаб, я ходу реанимировать старый! Можно ли это исправить, и если можно, то как?!
comments powered by Disqus

Отзывы и предложения