Сохранен 920
https://2ch.hk/ai/res/72987.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Технотред №2 ГАЙДЫ ПО ОБУЧЕНИЮ Существующую модель можно обучить симулировать определенный стиль и /tech/

 Аноним 23/01/23 Пнд 00:34:34 #1 №72987 
.png
.png
.png
Технотред №2

ГАЙДЫ ПО ОБУЧЕНИЮ

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion/ (англ.)
Бонус. Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)

- Гугл колабы -
Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb

- Полезное -
Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Гайд по кручению весов слоев моделей: https://rentry.org/mp2dt
Гайд по апскейлу: https://rentry.org/SD_upscale
Расширение для WebUI для проверки "сломаных" тензеров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Огромное количество ссылок на гайды с форча: https://rentry.org/sdg-link (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Аноним 23/01/23 Пнд 00:36:42 #2 №72995 
>>72974 →
https://rentry.org/2chAI_LoRA
Я про эту. Разве аноны итт тренируют только лору?
Аноним 23/01/23 Пнд 00:37:21 #3 №72997 
15444358103330.jpg
Яростно вкатился
Аноним 23/01/23 Пнд 00:37:38 #4 №72999 
Стикер
>>72987 (OP)
чет через жопу катнул

Шапка: https://rentry.org/ex947
Прошлые треды:
https://arhivach.ng/thread/859827/
Аноним 23/01/23 Пнд 00:37:49 #5 №73001 
>>72987 (OP)
А прошлый тред где? Ссылка на шапку?
Аноним 23/01/23 Пнд 00:38:28 #6 №73002 
>>72999
Поспешишь - людей насмешишь.
Аноним 23/01/23 Пнд 00:38:35 #7 №73003 
>>73001
>>72999
ДА ДОЛБАЁБ Я блядь

https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
https://static.nas1.gl.arkprojects.space/stable-diff/
Аноним 23/01/23 Пнд 00:38:40 #8 №73004 
20064-589587069-(AkiceDv1.0), High detail, detailed eyes face, masterpiece, absurdres, best quality, HDR, high quality, 1girl, solo, beach, (t.png
Я все ближе к выпуску.
Хехехе
Аноним 23/01/23 Пнд 00:39:47 #9 №73010 
>>73004
Это очень хорошо. Ждёмс.
Аноним 23/01/23 Пнд 00:40:08 #10 №73011 
>>72995
Да, надо переквалифицировать рентри
Я просто не видел или не замечаю чтоб аноны делились
Если покидаешь ссылки я добавлю
Аноним 23/01/23 Пнд 00:42:30 #11 №73014 
>>73011
Я когда-нибудь смогу победить лору и дам фурревую. Но пока там какашка.
Аноним 23/01/23 Пнд 00:45:11 #12 №73017 
>>73011
https://files.catbox.moe/jdzcbi.7z
>>72185 →
Аноним 23/01/23 Пнд 00:46:06 #13 №73020 
>>73017
Там модели, датасет и все настройки есть
Аноним 23/01/23 Пнд 00:47:48 #14 №73022 
Время нубовопросов. Я хочу сделать несколько разных лор для обкатки и потом этих же датасетах сделать модель через дримбут. Это сработает?
Аноним 23/01/23 Пнд 00:49:50 #15 №73027 
>>73014
Фур-анон, ты? Читал? -> https://arhivach.ng/thread/859827/#72404
>>73022
Как для обкатки датасета да, вполне
>>73017
Этот наш анон натренил? Прикольно. На форчке видел кто-то выкладывал
Аноним 23/01/23 Пнд 00:55:01 #16 №73035 
>>73027
>Фур-анон, ты? Читал? -> https://arhivach.ng/thread/859827/#72404
Да, я уже тестирую другую репу.
У меня там следующие вводные:
Add --network_alpha option to specify alpha value to prevent underflows for stable training. Thanks to CCRcmcpe!
Details of the issue are described in kohya-ss/sd-webui-additional-networks#49 .
The default value is 1, scale 1 / rank (or dimension). Set same value as network_dim for same behavior to old version.
LoRA with a large dimension (rank) seems to require a higher learning rate with alpha=1 (e.g. 1e-3 for 128-dim, still investigating).
Аноним 23/01/23 Пнд 00:56:52 #17 №73040 
>>73035
Это информация кстати из репы kohya-ss, который в нашем гайде. Перешел на сторону добра?
Аноним 23/01/23 Пнд 00:57:20 #18 №73042 
>>73040
Nope
https://github.com/bmaltais/kohya_ss
Аноним 23/01/23 Пнд 01:04:19 #19 №73055 
1651735129741.png
1535169004329.png
1544514171081.png
1659695145452.png
Вкатился и укатился спать

Пытаюсь тренить нихуя tsutomu nihei, рейт результаты

анон, который тренил шоху два дня и заебался, не достигнув нужного результата
Аноним 23/01/23 Пнд 01:07:47 #20 №73064 
>>73055
Неплохое начало. Но для Нихеевских гуманоидов надо отключать фикс лиц;)
Надеюсь Сибо круто получится
Аноним 23/01/23 Пнд 01:12:27 #21 №73075 
>>73055
Круто
Аноним 23/01/23 Пнд 01:15:20 #22 №73079 
12463-491751856-1girl, ass, breasts, clothes lift, from below, lips, long hair, looking at viewer, looking back, medium breasts, panties, parted.png
15793554637360.mp4
Че-то всхрюкнул с dim 128.
Ну его нахуй короче...
Аноним 23/01/23 Пнд 01:17:55 #23 №73084 
>>73079
>15793554637360.mp4
Визуализация обучения лоры
Аноним 23/01/23 Пнд 01:18:23 #24 №73085 
image.png
>>73079
Аноним 23/01/23 Пнд 01:19:42 #25 №73088 
12468-491751856-1girl, ass, breasts, clothes lift, from below, lips, long hair, looking at viewer, looking back, medium breasts, panties, parted.png
>>73084
>>73079
А, нет, стоп. Это автоматик походу в лужу пернул...
На стоковой модели тоже самое, только не так заметно.

Как же меня этот жопорукий мудак доебал, вы бы знали...
Аноним 23/01/23 Пнд 01:23:38 #26 №73095 
>>73088
Никогда не поздно сделать форк
Аноним 23/01/23 Пнд 01:24:40 #27 №73096 
>>73095
Месяц назад надо было делать, пока он еще не начал пердолить апскейлеры.
Но я разобрался. Он просто сломал latent nearest-exact.
Аноним 23/01/23 Пнд 01:25:45 #28 №73098 
>>73079
Да, слышал у лоры проблемы с латент апскейлами. По-моему там веса применяются дважды, во время первичной генерации и в начале апскейла, что-то такое, я не разбираюсь. Можешь попробовать нативно подключить

Кстати было бы круто если в лорапомойке был список залитых файлов со ссылками. Так было бы проще заполнять репо
Аноним 23/01/23 Пнд 01:27:47 #29 №73103 
>>73098
>Кстати было бы круто если в лорапомойке был список залитых файлов со ссылками. Так было бы проще заполнять репо
Он есть, но только у меня, кек.
Там достаточно тупой интерфейс, я специально выбирал, чтобы просто быстро работало и не пердело.
Аноним 23/01/23 Пнд 01:28:56 #30 №73105 
>>73027
Ну да, это я натренил, сейчас допилю датасет, поставлю тренироваться и спать.
Аноним 23/01/23 Пнд 01:30:44 #31 №73108 
Начал перетренивать старую "поломанную" сетку с новым фиксом на абсолютно тех же настройках с тем же сидом. Посмотрим, так ли велика была потеря, и была ли вообще

>>73096
>latent nearest-exact
Когда успел уже? Его ж только добавили
Вроде гены на нем нормальные, но я ниже 0.6 денойза не ставлю
Аноним 23/01/23 Пнд 01:31:00 #32 №73109 
>>73105
Алсо было бы круто если бы можно было тренировать последовательно несколько версий с разными настройками, как с x/y grid только для тренировок
Аноним 23/01/23 Пнд 01:31:58 #33 №73110 
>>73109
Ты сейчас про какой вид обучения говоришь?
Аноним 23/01/23 Пнд 01:33:32 #34 №73112 
>>73110
Про любой быстрый, который может успеть полностью натренироваться за час условно
Аноним 23/01/23 Пнд 01:34:30 #35 №73113 
>>73112
Точнее, про ВСЕ быстрые
Аноним 23/01/23 Пнд 01:36:00 #36 №73114 
>>73112
> Про любой быстрый
Лора, либо вроде как эмбед но я их никогда не тренировал
>>73109
> если бы можно было тренировать последовательно несколько версий с разными настройками, как с x/y grid только для тренировок
Есть вариант запуска сколь угодного количества обучений лор последовательно, если используешь вариант через павершелл. Я так на ночь и ставлю, у меня 7 сеток вчера стренилось
Аноним 23/01/23 Пнд 01:36:02 #37 №73115 
Screenshot2023-01-23-00-33-10-1.png
Есть тут спецы по lora?

Запилите плиз эмбеддинг Харуки Такамори по этим пикчам (обработаны вручную)

https://ibb.co/album/cX5fnt
Аноним 23/01/23 Пнд 01:36:58 #38 №73119 
Или Имари

https://ibb.co/album/ngjh2W

Любую из двух няшечек
Аноним 23/01/23 Пнд 01:38:06 #39 №73120 
>>73114
Да с консолькой-то все понятно, хотелось бы мокропиську в интерфейс, для эмбеда в частности
Аноним 23/01/23 Пнд 01:39:07 #40 №73124 
>>73115
А как без стороннего софта выкачать все изображения?
Алсо, плохо что без тегов, пройдусь автотеггером, но ты сам понимаешь
Беру заказ
>>73119
И этот

>>73120
Я удивляюсь как настолько очевидную фичу не завезли везде куда вообще можно
Аноним 23/01/23 Пнд 01:39:46 #41 №73125 
>>73124
Ща перезалью на драйв
Аноним 23/01/23 Пнд 01:43:22 #42 №73131 
https://drive.google.com/file/d/1cJCmThuNw0A1VuLtkKyUZuXaiYgMjzK6/view?usp=sharing

https://drive.google.com/file/d/1374wdeS1t9gEJe-g59gNsH6cl6zRm3O9/view?usp=sharing
Аноним 23/01/23 Пнд 01:44:55 #43 №73132 
12475-2964006681-masterpiece, best quality, ultra-detailed, illustration, (solo), nsfw, wide hips, looking to the side, (white hair), shiny hair, copy.jpg
12500-3274459624-Masterpiece, best quality, highly detailed, (highly detailed face), (highly detailed eyes), (detailed arms and hands), (detailed copy.jpg
12483-244795378-masterpiece, best quality, fine details, (very detailed face), beautiful, cute, sexy, high resolution, cute catgirl, detailed ey copy.jpg
12494-3781401615-huge moon in window, visible huge moon in sky, space, fullmoon, moon, bloodborne, hunter(bloodborne), victorian, Fox girl, g copy.jpg
Ну как-то так короче...
Аноним 23/01/23 Пнд 01:45:32 #44 №73133 
1598155643361.png
1572016577286.png
1534159177972.png
1643506127350.png
>>73064
> надо отключать фикс лиц;)
А он отключен, буквально с первого дня, после пары экспериментов с ним на аниме моделях

>Надеюсь Сибо круто получится
А вот хз, в планах вообще было надергать разворотов из блейма и абары/биомеги, там они местами очень кайфовые, не уверен вообще как выйдет, стили таки несколько разные. А с персов только общий стиль, никого конкретного. Но у меня иногда килли с сиськами выходит, лол
Сибо натренить легче наверное, чем повторить общий стиль без мешанины.

>>73075
> Круто
Надеюсь эту лору не постигнет судьба шохи
Аноним 23/01/23 Пнд 01:46:52 #45 №73136 
>>73132
Сказать-то что хотел?
Аноним 23/01/23 Пнд 01:47:15 #46 №73137 
>>73136
Сравнить лору и dreambooth на одинаковом датасете.
Аноним 23/01/23 Пнд 01:49:15 #47 №73143 
2023-01-23014831.png
2023-01-23014821.png
>>73003
Пиздец вы слепые конеш, все на месте там.
Аноним 23/01/23 Пнд 01:49:29 #48 №73144 
>>73133
> Надеюсь эту лору не постигнет судьба шохи
Ты бля делиться будешь, шоха

>>73132
> Ну как-то так короче...
Я так понял ты хотел сказать "хуйня"

>>73137
> ряяяя вообщето это нечестно у них разные настройки
Аноним 23/01/23 Пнд 01:51:06 #49 №73146 
>>73144
>Я так понял ты хотел сказать "хуйня"
Ну типа того. Не вижу особого смысла тратить на лору время, если есть нормальный датасет и vram. Не знаю, в каком месте она там "может превосходить" dreambooth, но точно не в моем.
>ряяяя вообщето это нечестно у них разные настройки
Не без этого.
Аноним 23/01/23 Пнд 01:51:55 #50 №73148 
image.png
image.png
image.png
image.png
Рофлолора на Эмиля:
Аноним 23/01/23 Пнд 01:52:15 #51 №73149 
>>73133
>А он отключен
Я к тому, что у Нихея своя стилистика лиц, особенно для Кремниевых ребят.

> надергать разворотов
Еще бы найти чистые сканы..

>Сибо натренить легче наверное,
И еще скелет Сибо%) Как бонус
Аноним 23/01/23 Пнд 01:52:23 #52 №73150 
>>73146
> Не вижу особого смысла тратить на лору время
Ну нам, бомжам, выбирать не приходится... Кушаем что дают, радуемся мелочам
Аноним 23/01/23 Пнд 01:54:25 #53 №73153 
>>73150
Может у вас скрипт просто кошернее, но я уже обмяк.
Аноним 23/01/23 Пнд 01:59:20 #54 №73158 
>>73153
Может быть. Я бы и сам гуем пользовался, если бы браузер не жрал враму. Соберись с силами и попробуй как-нибудь еще раз, но на этот раз уже с нетворк димом 512/1024 :)
Аноним 23/01/23 Пнд 02:00:18 #55 №73160 
>>73158
Там уже по размеру полновесная модель получится, лол.
Аноним 23/01/23 Пнд 02:02:54 #56 №73166 
1523884155744.png
1517556999780.png
1535711548970.png
1532621247236.png
>>73144
> Ты бля делиться будешь, шоха
Завтра уже, я так и не смог подружить шоху с людьми нормально, как и подружить ее со стилем оранжмикса
инб4:ты получаешь то на чем тренишь
Перегнать шоху в аниме не особо получилось


>>73149
>Кремниевых ребят
С ними пока не пробовал, надо отдельный тег добавить наверное

>Еще бы найти чистые сканы..
В фш можно обрезать или клонировать, по пизде пойти не должно.
Да еще думаю можно на чанки порезать некоторые и так скормить, или все вместе, пока хз.
Аноним 23/01/23 Пнд 02:04:53 #57 №73167 
>>73160
По-моему за пределы гига не вылезет. Не 5 же
>>73166
> Завтра уже
И не только ей! Выкладывай всё что есть, будем критиковать
> Перегнать шоху в аниме не особо получилось
Да она и так прекрасна
Аноним 23/01/23 Пнд 02:07:55 #58 №73172 
>Перегнать шоху в аниме не особо получилось
Кстати! Крутая идея пришла. Перегнать весь датасет через какой-нибудь анимечный stylegan. Я когда-то видел один, городские пейзажи жувал на отлично
Аноним 23/01/23 Пнд 02:08:57 #59 №73173 
dim8.png
dim128.png
>>73167
Ну по факту от смены dim поменялся только стиль, с одного художника из датасета на другого. А это 10 мегабайт против 200.
Так что думаю, что пользы от гиговой модели не будет.
Аноним 23/01/23 Пнд 02:09:54 #60 №73174 
>>73172
ing2img лучше подойдет, сделай высокий вес инита.
Аноним 23/01/23 Пнд 02:16:38 #61 №73179 
>>73173
Странно конечно это всё. Зачарованный датасет видимо
Можешь почитать если интересно будет что эти нетворк Димы вообще делают:
https://github.com/cloneofsimo/lora/discussions/37
Там и сравнение с дримбузом, и всё-всё-всё
Аноним 23/01/23 Пнд 02:18:38 #62 №73183 
И можешь залить датасет куда-нибудь с референс моделью, я конечно не фуриёб, но на что только не пойдешь ради науки!
Аноним 23/01/23 Пнд 02:21:39 #63 №73186 
>>73183
Латентный...
Аноним 23/01/23 Пнд 02:31:32 #64 №73195 
>>73183
Держи: https://technothread.space/f.php?h=01qswOE4
Модель: https://huggingface.co/WarriorMama777/OrangeMixs/blob/main/Models/AbyssOrangeMix/AbyssOrangeMix_base.ckpt

Я тебе еще папку pnginfo сделал, куда закинул пикчи из своих сравнений >>73132, чтобы тебе над промптом не соображать.
Аноним 23/01/23 Пнд 02:45:23 #65 №73213 
>>73183
Мужик......
Аноним 23/01/23 Пнд 02:45:37 #66 №73214 
.png
.png
Кароч сделал я сравнение с фиксом и без
И могу сказать что с фиксом моя модель нихуяшеньки ничему не научилась!
Действительно как и советуют нужно править learning_rate. Даже сам автор скрипта теперь не знает какие у него рекомендумые настройки! Это пиздец.
Веса у слоев разные, все без исключения (логично, учитывая что "поломаная" версия работает, а фиксанутая ничего не меняет). Глазами быстро пробежался – значения не сильно, но отличаются, хотя по идее должны быть совершенно разные, возможно я недоглядел. Некоторые нулевые тензоры стали ненулевыми. Это хорошо. Хотя интуиция мне подсказывала что ненулевых тензоров вообще не должно быть по определению, но я не погромист, раз умные дядьки сказали так должно работать, чтож, значит так должно работать.
И пиздец. И что делать теперь. А как тренить. Делать сетки с шагом в 0.1е-4 lr пока не получится хотя бы на уровне "поломанных" нетворков? Пиздец.
Сейчас в гайде наворотил хуйни, "ууу блядь, используйте новые настройки, если будете делать по-старому всё сломается", а в скрипте оставил 1е-4. Пиздец.

>>73195
Благодарствую. Переложу тяжелую ношу экспериментирования с твоей вёрджин 4090 на мою чед 1060
Аноним 23/01/23 Пнд 02:47:13 #67 №73218 
>>73195
А, минуту. А где дримбуз? Тот же фурслат в2? Уже снёс её
Аноним 23/01/23 Пнд 02:51:34 #68 №73228 
.png
Пикрил различие между фиксом и отсутствием нетворка. Для хлебушков поясню что чёрный цвет это отсутствие всякого различия
Кохъя! Я твою мать ебал! Занёс тебя в список сразу после автоматика.
Аноним 23/01/23 Пнд 03:21:24 #69 №73279 
Screenshot20230123-031956Chrome.jpg
Охуенно. Теперь количество эпох влияет на результат. У меня провалы каждые 115 шагов.
Аноним 23/01/23 Пнд 03:33:10 #70 №73302 
image.png
image.png
image.png
Я нашел прикольного автора, но у него хватит картинок, что бы лору натренировать или нет?
yoni666, якудза со свитера

>>73132
У меня встал. Извинись.
Аноним 23/01/23 Пнд 08:33:34 #71 №73472 
Кто-нибудь уже сделал блокнот в коллабе для тренировки лоры? Или придется самому пилить?
Аноним 23/01/23 Пнд 08:52:17 #72 №73477 
>>73472
Если запилишь я у тебя отсосу.
Аноним 23/01/23 Пнд 09:16:30 #73 №73490 
image.png
>>71079 →
сколько пальцев?
Аноним 23/01/23 Пнд 10:04:17 #74 №73520 
image.png
В чем проблема?
Аноним 23/01/23 Пнд 10:08:39 #75 №73521 
image.png
image.png
>>73520
Разобрался, у меня этого не было, а ниже именно оно и требовалось.
Аноним 23/01/23 Пнд 10:10:24 #76 №73523 
$num_epochs оставлять десятку?
Аноним 23/01/23 Пнд 10:16:07 #77 №73527 
>>73523
Подбирай экспериментально
Аноним 23/01/23 Пнд 10:29:32 #78 №73537 
.png
>>73527
Ага, подобрал себе за щеку, как говорится.

Че эта хуета от меня хочет?
Аноним 23/01/23 Пнд 10:36:28 #79 №73544 
>>73537
Хз, тут надо автора гайда ждать
Аноним 23/01/23 Пнд 10:47:45 #80 №73553 
>>73544
Починил, там лишний слеш был в пути после конечной папки
Аноним 23/01/23 Пнд 10:53:32 #81 №73561 
.png
.png
ААААААААААААААА
Скоко ему файл подкачки нужен?
Аноним 23/01/23 Пнд 11:00:26 #82 №73564 
>>73561
Ну, у меня 60гб файл затребовал.
Аноним 23/01/23 Пнд 11:00:48 #83 №73565 
>>73561
Поставь чтобы система сама подбирала себе файл подкачки.
Аноним 23/01/23 Пнд 11:01:42 #84 №73567 
>>73472
Этот пробовал?
https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z#scrollTo=Y11KimwzGQrp
Аноним 23/01/23 Пнд 11:04:13 #85 №73570 
>>73564
А че так много то?

>>73565
Это надо будет системный диск от говна чистить...
Хотя, le blya, мнеж теперь его всё равно чистить.
Аноним 23/01/23 Пнд 11:06:59 #86 №73572 
>>73561
У меня 32 гб рам, своп автоматически выставился в 28 гб

>>73472
Если разберусь как делать блокноты, запилю со всеми необходимыми настройками. Там чисто питон надо использовать?
Аноним 23/01/23 Пнд 11:07:19 #87 №73573 
image.png
image.png
Обновил скрипт, теперь вообще результата 0 на настройках анона. ЧЯДНТ?
Аноним 23/01/23 Пнд 11:08:15 #88 №73575 
>>73573
Читай посты выше, маня
Аноним 23/01/23 Пнд 11:08:46 #89 №73576 
>>73572
Их как собак нерезаных, форкай этот и чисти:>>73567
Не форкнется - еще принесу
Аноним 23/01/23 Пнд 11:09:36 #90 №73578 
>>73576
Хорошо. Пойду учить питон
Аноним 23/01/23 Пнд 11:09:46 #91 №73579 
>>73573
>ЧЯДНТ
Просто кохия все сломал, блять
Аноним 23/01/23 Пнд 11:10:27 #92 №73580 
>>73575
И что мне делать? Если сделаю git checkout на старый коммит, то все заработает?
Аноним 23/01/23 Пнд 11:11:00 #93 №73582 
>>73578
>Пойду учить питон
Не стоит, он сам в процессе учится. Лучше потрать время на курс ML какой-нибудь, чистое имхо.
Аноним 23/01/23 Пнд 11:14:07 #94 №73585 
>>73218
А оно тебе надо? Залью вечером.
Аноним 23/01/23 Пнд 11:14:40 #95 №73588 
>>73579
> кохия все сломал,
Так блядь, а нахуй я только вот ебался с установкой всего говна если нихуя не работает сука?!
Аноним 23/01/23 Пнд 11:14:44 #96 №73589 
>>73579
Ясно, забудем про лору на месяц.
Аноним 23/01/23 Пнд 11:15:23 #97 №73590 
>>73580
Обновил павершелл скрипт? Чтобы сымитировать старое поведение, берешь значение network_dim и ставишь его в network_alpha, чтобы были одинаковые. Все будет как раньше, если кохъя не пидорас. А он пидорас.
>>73582
Ну я так, с большего. Чтоб блокнот запилить. А курс по ML таки да, хотеть, отличный совет, анон
Аноним 23/01/23 Пнд 11:16:04 #98 №73591 
>>73580
Если сделаешь на правильный, то да.
Если тебе не нужен clip skip 2, то второй способ по гайду из шапки (на тухлой версии дополнения автоматика) должен работать.
Аноним 23/01/23 Пнд 11:16:47 #99 №73592 
>>73591
Какой правильный?
Аноним 23/01/23 Пнд 11:16:49 #100 №73593 
>>73590
>Чтобы сымитировать старое поведение, берешь значение network_dim и ставишь его в network_alpha, чтобы были одинаковые. Все будет как раньше, если кохъя не пидорас. А он пидорас.
У меня почти сразу в nan вчера ушло обучение с такими настройками. На новой версии.
Аноним 23/01/23 Пнд 11:17:01 #101 №73594 
Мужчины, не паникуем, ставим network_alpha другой и все работает как раньше. Создал ишью на гитхабе, будем разбираться. Это так оставлять нельзя.
Аноним 23/01/23 Пнд 11:18:15 #102 №73596 
>>73593
Пиздец, это андерфлоу. Тогда чекаут на версию 0.3.2
Аноним 23/01/23 Пнд 11:18:33 #103 №73599 
>>73594
Нам в шапку нужен золотой фонд тухлых, но работающих софтин.
На пидораса автоматика и узкоглазого кохью надежды больше нет.
Аноним 23/01/23 Пнд 11:18:49 #104 №73600 
image.png
Перешел на этот коммит.
>>73594
>ставим network_alpha другой и все работает как раньше
Т.е. работает, но работает плохо. Нахер такое надо?
Как вот тут - >>71868 →
Аноним 23/01/23 Пнд 11:19:16 #105 №73601 
.png
>>73594
Какой другой ставить?
Я че зря вот прямо сейчас ебался с диском и файлом подкачки чтобы пойти нахуй из за нетворк альфы? Альфы даже в нейросетях хикканов унижать чтоли будут?
Аноним 23/01/23 Пнд 11:20:23 #106 №73605 
>>73601
> Альфы даже в нейросетях хикканов унижать чтоли будут?
А ты че там, хотел в безопасном манямирке среди тензоров схорониться, воробушек?
Аноним 23/01/23 Пнд 11:21:42 #107 №73610 
>>73605
Ну вообще как бы да. Ладно надо посмотреть че оно там залорило
Аноним 23/01/23 Пнд 11:22:27 #108 №73611 
>>73599
Так а что ты предлагаешь конкретно
>>73600
Работает не плохо, а работает также как раньше. Обратная совместимость есть
>>73601
Такой же как network_dim
>3 минуты обучения
Ничего, еще 3 минуты потерпишь
>Альфы
проиграл)
Аноним 23/01/23 Пнд 11:22:35 #109 №73612 
Бля, у меня уже 5 файлов скрипта разных версий и с разными настройками.
Аноним 23/01/23 Пнд 11:23:36 #110 №73614 
>>73611
>Так а что ты предлагаешь конкретно
Найти рабочую версию скрипта и залить архив к анону
Аноним 23/01/23 Пнд 11:24:02 #111 №73615 
>>73611
>а работает также как раньше
Его ставить равным network_dim?
Аноним 23/01/23 Пнд 11:25:11 #112 №73617 
>>73599
>золотой фонд тухлых, но работающих софтин.
Фотошоп

>>73594
>Создал ишью на гитхабе
Я как раз заглянул в твой ишью, тебе кто-то ответил, что у него все 'норм' при скорости х100. 1е-2 что ли?
Аноним 23/01/23 Пнд 11:25:21 #113 №73618 
>>73615
Попробуй, но если loss станет nan, то добро пожаловать в клуб обезлоренных.
Аноним 23/01/23 Пнд 11:26:12 #114 №73620 
>>73618
Можно попробовать поставить 64 или 32
Аноним 23/01/23 Пнд 11:26:22 #115 №73621 
Бля, вы в шары долбитесь, мужики?
Я же несколько раз уже написал
И даже в скрипте коммент напротив новой переменной, с описанием того что делать на случай, если хотите вернуть всё как было
Аноним 23/01/23 Пнд 11:26:56 #116 №73623 
>>73620
nan просто раньше начинается, а генерируется мусор в жанре абстракционизма вместо картинок с первой же эпохи. То есть проблема где-то глубже.
Аноним 23/01/23 Пнд 11:27:18 #117 №73624 
>>73620
nan просто раньше начинается, а генерируется мусор в жанре абстракционизма вместо картинок с первой же эпохи. То есть проблема где-то глубже.
Аноним 23/01/23 Пнд 11:27:41 #118 №73626 
>>73624
>>73623
>nan просто раньше начинается
Позже.
Аноним 23/01/23 Пнд 11:29:53 #119 №73627 
>>73621
Мы не хотим вернуть, как все было. Мы хотим починеного.
Аноним 23/01/23 Пнд 11:30:54 #120 №73629 
image.png
image.png
image.png
>>73600
На этот будет правильней.
Аноним 23/01/23 Пнд 11:31:16 #121 №73630 
Ну короче
Я чето обучил на хуй знает работает ли оно, вроде работает а вроде нихуя, вроде че то есть, а вроде и ничего нету. Пиздец.
Аноним 23/01/23 Пнд 11:31:57 #122 №73631 
>>73627
Почему? Раньше ведь работало все нормально, зачем что то обновлять, если все работает хорошо?
Аноним 23/01/23 Пнд 11:33:12 #123 №73633 
>>73627
Откат на версию репозитория 0.3.2
и
Удаление строчки --network_alpha=$network_alpha в павершелл скрипте, чтобы старый скрипт кохъи не ругался на несуществующие аргументы
Аноним 23/01/23 Пнд 11:34:01 #124 №73635 
>>73633
>чтобы старый скрипт кохъи не ругался на несуществующие аргументы
Казалось бы, почему их просто не игнорировать?
Аноним 23/01/23 Пнд 11:35:38 #125 №73640 
Почему они выпускают в релиз версию с критическими багами?
Аноним 23/01/23 Пнд 11:36:15 #126 №73642 
>>73635
Защита для дурака. А представь что ты опечатался в какой-то важной переменной и скрипт тебе об этом сказал
Аноним 23/01/23 Пнд 11:38:32 #127 №73644 
>>73640
Новая версия починила критический баг, а не добавила. И не они а он. Энтузиаст. Сейчас мы разберемся с лёрнинг рейтом и всё станет ещё лучше чем было.
Аноним 23/01/23 Пнд 11:39:17 #128 №73645 
добро пожаловать в попенсорс
Аноним 23/01/23 Пнд 11:39:40 #129 №73646 
>>73633
Эх, я когда писал "хотим починеного" как раз и имел в виду, что починеного Кохией в последнем коммите.
Аноним 23/01/23 Пнд 11:40:30 #130 №73649 
>>73640
> Почему экспериментальный софт не работает идеально?
Аноним 23/01/23 Пнд 11:40:55 #131 №73650 
>>73644
Твердо и четко?
>Новая версия починила критический баг, а не добавила.
Почему тогда раньше все работало без пердолингов с альфой и другим лернинг рейтом?
Что-то не вяжется.
Аноним 23/01/23 Пнд 11:42:48 #132 №73651 
>>73650
> раньше все работало
Раньше было казино, в котором иногда работало, а иногда нет.
Аноним 23/01/23 Пнд 11:42:52 #133 №73652 
>>73644
Так че делать то?
Менять альфу или не менять?
Аноним 23/01/23 Пнд 11:43:11 #134 №73653 
>>73651
А сейчас типо постоянно работает?
Аноним 23/01/23 Пнд 11:44:01 #135 №73655 
>>73653
Автор говорит, что да.
Аноним 23/01/23 Пнд 11:45:08 #136 №73656 
>>73655
А рейт какой нужен?
Аноним 23/01/23 Пнд 11:47:21 #137 №73658 
>>73655
>работает
>>73573
Аноним 23/01/23 Пнд 11:47:53 #138 №73659 
>>73655
>>73651
>>73644
это кохьялахта?
Аноним 23/01/23 Пнд 11:48:11 #139 №73660 
>>73617
> Я как раз заглянул в твой ишью, тебе кто-то ответил, что у него все 'норм' при скорости х100. 1е-2 что ли?
Спасибо что заметил и сказал
Да, я примерно понял математику. Если так как он говорит то да, получается lr'ы нужно поднять в 128 раз. Сейчас поставлю тренится
>>73646
>>73656
Занимаюсь, ждите обновлений
Аноним 23/01/23 Пнд 11:58:52 #140 №73666 
Screenshot20230123-115805Chrome.jpg
Смерть.
Аноним 23/01/23 Пнд 11:59:50 #141 №73668 
>>73660
>да, получается lr'ы нужно поднять в 128 раз
На самом времени обучении это не отразится?
Аноним 23/01/23 Пнд 12:00:00 #142 №73669 
>>73666
Че это?
Аноним 23/01/23 Пнд 12:03:30 #143 №73672 
>>73668
Я бы не времени обучения боялся, а того, что в шапке называется "перенасыщением"
Аноним 23/01/23 Пнд 12:07:08 #144 №73673 
>>73669
Это график лосса
инбифо лосс жпг
Аноним 23/01/23 Пнд 12:10:22 #145 №73676 
>>73673
Это я понял, а такой лосс что означает?
>>73666
Это на 1e-2?
Аноним 23/01/23 Пнд 12:23:48 #146 №73685 
>>73673
Это на лору чтоли? Или че ты лоссируешь то?
Аноним 23/01/23 Пнд 12:29:46 #147 №73691 
.png
.png
>>73676
Это на 0.0003 128 unet_lr + 0.00005 128 text_encoder_lr
Расширение даже отказывается подгружать сетку из-за НаНов, лол.
Аноним 23/01/23 Пнд 12:30:02 #148 №73692 
Можно ли как-то раскрашивать чб картинки нейросетью? У меня с датасетом пизда, совсем мало картинок, хочу надергать с додзей
Аноним 23/01/23 Пнд 12:31:04 #149 №73696 
>>73691
Знаки умножения между числами макаба потёрла
Аноним 23/01/23 Пнд 12:46:53 #150 №73711 
>>73691
А ты подключал внешний vae при обучении?
Аноним 23/01/23 Пнд 13:01:21 #151 №73733 
Хммм, только что потренировал тестовую лору с --network_alpha=1 LR 1е-3 , scheduler constant, в промпте 6-7 тегов из подписей. Все вышло для одной эпохи вполне терпимо, но с редактируемостью уже проблемы. Лоси не чертил, но поглядывал в консоль, они стабильно держались в диапазоне 1.3-1.5 Еще особенность - тренировал без текстового энкодера.
Аноним 23/01/23 Пнд 13:15:21 #152 №73744 
>>73711
Подключал
Аноним 23/01/23 Пнд 13:15:46 #153 №73745 
.png
.png
.png
Заебись, с 3го прогона удалось че то получить похожее на хоть какой то жалкий но результат.
Аноним 23/01/23 Пнд 13:21:02 #154 №73750 
>>73733
Лосс 1.3-1.5? У меня когда вылезает за 0.2 я паниковать начинаю.
> constant
Не ставь его с лорой, лора от этого планировщика страдает в выхлопе. Лора быстро обучается, а констант планировщик не даёт ей снизить скорость обучения со временем и всё время ебашит на максимальном значении. Попробуй перетренить на линеар например, и скажи лосс и мне про
> редактируемость
мне очень интересно
Ты пока первый у кого что-то вышло на 0.4.0
> тренировал без текстового энкодера
Хм, почему пришел к такому решению? Ты --train_unet_only пасснул?
Аноним 23/01/23 Пнд 13:25:59 #155 №73755 
>>73750
Как посмотреть лосс когда используешь лораскрипт?
Аноним 23/01/23 Пнд 13:28:42 #156 №73756 
>>73755
В папке sd-scripts:
.\venv\Scripts\activate
tensorboard --logdir "путь к папке с логами"
Предварительно сетка должна быть обучена с указанным logging_dir
Если хочешь чтобы можно было посмотреть с любого устройства в локальной сети добавляешь еще --bind_all
Аноним 23/01/23 Пнд 13:35:28 #157 №73758 
>>73756
Нипанятна
В activate нет никаких tensorboard что делоть то надо?
Аноним 23/01/23 Пнд 13:37:38 #158 №73759 
>>73758
Активировать venv командой .\venv\Scripts\activate
И выполнить команду tensorboard --logdir "путь к папке с логами"
Аноним 23/01/23 Пнд 13:40:51 #159 №73761 
>>73759
Аа, терь понятно. Спасибо
Аноним 23/01/23 Пнд 13:42:00 #160 №73762 
В консоли появится ссылка
В самом тензорбоард сверху справа есть шестеренка, можно поставить автообновление, но не чаще чем раз в 30 секунд
Аноним 23/01/23 Пнд 13:43:48 #161 №73763 
Я все проспал. Киньте скриншот, как там LoRA выглядит в webui. Не хочу обнов, для меня и так все нормально работает через дополнение-скрипт.
>>72758 →
> keep_tokens N
Можно ли просчитать свое токенное слово с помощью webui и получить, например, "3" и туда его вписать, доверяя этому подсчету? Или же он считает на уровне одного слова, который разделен запятой?
Как тогда он токены перемешивает, если, например, есть теги состоящие из 3-5 токенов? Какой нибудь looking at viewer.
Аноним 23/01/23 Пнд 13:43:56 #162 №73764 
Screenshot20230123-134243Chrome.jpg
Короче ебал я в рот этого кохъю. У меня теперь ничего не работает, ни на старых, ни на новых, ни на средних
Аноним 23/01/23 Пнд 13:49:54 #163 №73771 
>>73764
>ебал я в рот этого кохъю
База
Аноним 23/01/23 Пнд 13:51:36 #164 №73773 
>>73763ли прямо в промте, смотря на счетчик.
shuffle_caption не перемешивает токены, он перемешивает слова или целые словосочетания с сохраненинм последовательности отдельных слов, разделенных запятой. И
С помощью расширения Tokenize ив дальнейшем отправляется модифицированный файл описания, который токенизируется. "looking at viewer" будет в той же последовательности, что и до перемешивания, просто в цепочке токенов его токены будут в другом месте. Это позволит нивелировать так называемый "bias"
Аноним 23/01/23 Пнд 13:52:03 #165 №73774 
>>73771
Там уже целый пантеон разработчиков с хорошими продуктами и адовыми коммитами
Аноним 23/01/23 Пнд 13:52:24 #166 №73776 
>>73771
Что база? Удаляю гайд через 5 минут.
Аноним 23/01/23 Пнд 13:53:39 #167 №73777 
>>73773
тю блять с телефона капчую пока тренится. В начале было про расширение tokenize, либо смотреть на счетчик в промте
Аноним 23/01/23 Пнд 13:53:59 #168 №73778 
1458237495178088052.jpg
>>73776
Аноним 23/01/23 Пнд 13:54:46 #169 №73780 
>>73567
Спасибо анон, даже чистить ничего не надо. Люблю такие минималистичные блокноты.
Аноним 23/01/23 Пнд 13:59:16 #170 №73781 
>>73776
wtf, why?
Аноним 23/01/23 Пнд 14:01:11 #171 №73784 
>>73781
Да шучу я. Тренить нехуй, посоветуйте лучше годный курс по ML где параллельно можно изучить пайтон, как анон тут сказал >>73582
Только я хлебушек. Не прям совсем-совсем, но хлебушек
Аноним 23/01/23 Пнд 14:06:10 #172 №73789 
Для справки: 1.41 it/s на колабовской виртуальной T4.
Аноним 23/01/23 Пнд 14:06:27 #173 №73790 
>>73773
И за чем тогда использовать shuffle_tokens, как здесь многие рекомендуют, если он все перемешает на уровне "look 1girl viewer at ing", когда можно использовать только shuffle_caption, который рандомит лишь последовательность, а не структуру, которую ты создал через запятую?
Аноним 23/01/23 Пнд 14:07:23 #174 №73792 
>>73784
>нехуй
Всмысле? Не тренируется же нихуя, если делать нечего, можешь брутфорсить лернинг спид
Аноним 23/01/23 Пнд 14:07:48 #175 №73793 
>>73790
Нет такого аргумента shuffle_tokens, если я где-то такое писал, значит перепутал. Есть только shuffle_caption
Аноним 23/01/23 Пнд 14:09:04 #176 №73797 
>>73792
1e-4 - НОЛЬ отличий
1e-3 - NaN
1e-2 - NaN
Добрутфорсился.
Жду пока ответят на гитхабе, без понятия как теперь обучать
Аноним 23/01/23 Пнд 14:10:47 #177 №73798 
1e-3 - НОЛЬ отличий хотел написать
и еще
3.84e-2 unet + 6.4e-4 text_encoder логично предположить что тоже нан
Аноним 23/01/23 Пнд 14:10:57 #178 №73799 
>>73797
А alpha-то? Alpha на 1?
Аноним 23/01/23 Пнд 14:11:51 #179 №73801 
>>73750
Да нет конечно, лоси 0.13-0.15. Сглючил я, когда пост верстал.

>Не ставь его с лорой, лора от этого планировщика страдает в выхлопе
Поставил constant в тестовом режиме, чтобы исключить влияние колебаний скедьюлера на результат. Если уж ищем неизвестный ЛР, то начинать логично с постоянного рейта.

>Хм, почему пришел к такому решению? Ты --train_unet_only пасснул?
Да. Этот эксперимент вообще не связан с кохийными новведениями, просто упомянул для точности.
Я надеялся поредактировать лору в merge blocks, приварив ее к модели и избирательно возвращая обратно материнские блоки, а текстовый энкодер этому мешает.

Попробую еще потестировать вечером.
Аноним 23/01/23 Пнд 14:11:55 #180 №73802 
1674472313634.png
>>73793
Ну, короче, я активирую shuffle_caption=1, а в keep_tokens пишут сколько токенов у меня занимает мое токенное слое (первое слово в .txt) и все заебись?
Аноним 23/01/23 Пнд 14:13:11 #181 №73804 
>>73799
Конечно. Я не буду тренить без скалирования. Без него андерфлоу. Всё, принципиально. Починят - заебись, не починят - не буду тренить никогда лору.

МНЕ НЕ НУЖНЫ НУЛЕВЫЕ ТЕНЗОРЫ ЭТО ТРИГГЕРИТ МОЁ ОКР
Аноним 23/01/23 Пнд 14:14:39 #182 №73806 
>>73802
Да, заебумба
>>73801
> начинать логично с постоянного рейта
Действительно, я dumb
> Я надеялся поредактировать лору в merge blocks
Программист.
> Попробую еще потестировать вечером.
Ждём. Сейчас это лучшее что можно сделать
Аноним 23/01/23 Пнд 14:14:43 #183 №73807 
>>73804
>не починят - не буду тренить никогда лору.
Базированно.
На 4090 копишь?
Аноним 23/01/23 Пнд 14:17:19 #184 №73809 
>>73807
У меня пока нет работы, так что нет. Но когда появится...
Меня никогда ничего так не мотивировало в плане покупки видеокарты как ебаный стейбол дифьюжен. Если б у меня было дохуя денег, я бы наверное себе 4 А100 купил.
Аноним 23/01/23 Пнд 14:17:23 #185 №73810 
>>73797
>1e-2
Спасибо, а то я хотел на этой скорости тестить.
Аноним 23/01/23 Пнд 14:18:11 #186 №73811 
>>73809
Отдельно живешь или с родителями?
sage[mailto:sage] Аноним 23/01/23 Пнд 14:19:38 #187 №73812 
1545649069712.png
>>73143

Кто там у нас заведующий?
У вас протухло.
Аноним 23/01/23 Пнд 14:20:47 #188 №73813 
>>73810
Смотри, видимо кохъя чего-то не дофиксил, еще может зависеть от точности вычислений (или сохранения), вчера-позавчера на гитхабе был ишью по поводу опять же андерфлоу, и именно на fp16. Возможно, надо поиграться с save_precision и mixed_precision
У людей пропали проблемы с нулевыми тензорами когда они сохраняли во float
>>73811
С родителями :3
Аноним 23/01/23 Пнд 14:22:43 #189 №73817 
А я датасет собрал, но кохья-пидор сломал мокрописю
Аноним 23/01/23 Пнд 14:23:15 #190 №73820 
>>73813
Лучше с писей поиграться, пока узкоглазый фиксит
Аноним 23/01/23 Пнд 14:25:09 #191 №73822 
.png
Вы еще посмотрите на график lr. Если он показывает действительные значения, то так быть не должно. Это cosine скедулер, откуда там появилось ебаное плато?
Переместил кохъю в списке на уровень выше.

>>73820
И то верно
Аноним 23/01/23 Пнд 14:26:47 #192 №73825 
>>73820
Ничего фиксить не собираются, у них все работает, на остальных чхать
Аноним 23/01/23 Пнд 14:29:09 #193 №73829 
>>73825
Ну значит возвращаемся на дополнение месячной давности, там все работает.
Его, кстати, обновили недавно, угрожали все исправить. Руки еще не дошли потестить.
Аноним 23/01/23 Пнд 14:31:49 #194 №73832 
>>73829
Проще тогда подождать пока автоматик допиит поддержку лор до нормального уровня. Исключить из списка одного рукожопа
Аноним 23/01/23 Пнд 14:32:10 #195 №73833 
>>73825
Ты хоть репортил проблемы свои? Или ты просто в тред ноешь?
Аноним 23/01/23 Пнд 14:33:16 #196 №73837 
>>73832
Так у него не обучение же, а использование.
Аноним 23/01/23 Пнд 14:35:04 #197 №73841 
Господа, у кого-нибудь остался sd-scripts предыдущей рабочей версии? Киньте архивчиком, если не сложно.
Аноним 23/01/23 Пнд 14:36:10 #198 №73844 
Я блядь вообще математики не выкупаю, объясните тупому. Вот я сравниваю веса старой сети и веса новой, "пофикшенной". И у их тензоров очень похожие значения. Они не отличаются в тысячи, сотни раз, ну так, на пару тройку цифр. Где-то в 1.2 меньше тензор, где-то в 1.3 больше тензор, никаких непонятных экстремальных значений нигде нет. Но "поломаная" сетка выдаёт достойный результат, полностью меняя изображение подстать датасету, а "пофикшенная" меняет буквально пару пикселей. Как блядь?

>>73841
Так окрой репо, там в релизах 0.3.2/0.3.1
Аноним 23/01/23 Пнд 14:36:56 #199 №73846 
>>73829
пчел, все работает на коммите от 19 января
Аноним 23/01/23 Пнд 14:38:24 #200 №73848 
У меня всё(почти) работает на коммите cae42728aba035a7ac305a40c75954530c3c3444
Аноним 23/01/23 Пнд 14:38:53 #201 №73850 
4hzOzTD.png
4hzOx6o.png
>>73846
Может быть. Неделю назад нихуя не работало: https://github.com/d8ahazard/sd_dreambooth_extension/issues/763
Просто абстрактные картинки выдавало.
Аноним 23/01/23 Пнд 14:39:03 #202 №73851 
image.png
Аноним 23/01/23 Пнд 14:39:06 #203 №73852 
>>73844
Ах ты ж блять, не ту ссылку нажимал, проглазоебствовал-с, прошу прощения. Спасибо. Показалось, там всё удалено кроме последнего высера.
Аноним 23/01/23 Пнд 14:40:03 #204 №73854 
image.png
>>73850
Ты на какой версии пикрил тренил?
Аноним 23/01/23 Пнд 14:40:38 #205 №73856 
>>73848
>почти
а с чем проблемы?
Аноним 23/01/23 Пнд 14:40:53 #206 №73857 
>>73850
Это выглядит как крайне высокий lr. Я с таким же сталкивался когда экспериментировал
>>73854
Это я тренил. Коммит не скажу, но пре0.4.0 версия до альфы
Аноним 23/01/23 Пнд 14:41:10 #207 №73858 
>>73854
Ну примерно двухнедельной давности. Но это была не lora, а dreambooth.
И настройки те же, что на версии за декабрь. Но на январской абстракционизм, на на декабрьской все норм.

>>73857
>Это выглядит как крайне высокий lr. Я с таким же сталкивался когда экспериментировал
Стоковый.
Аноним 23/01/23 Пнд 14:41:39 #208 №73861 
>>73858
>Ну примерно двухнедельной давности. Но это была не lora, а dreambooth.
>И настройки те же, что на версии за декабрь. Но на январской абстракционизм, на на декабрьской все норм.
А, я тебя >>73854 не так понял.
Аноним 23/01/23 Пнд 14:42:33 #209 №73863 
Время нубо вопросов. Идеальный вариант лоры должен изменять картинку только по ключевому слову или лора меняет еще и теги бывшие в промте датасета?
Аноним 23/01/23 Пнд 14:44:18 #210 №73864 
>>73863
>лора меняет еще и теги бывшие в промте датасета?
yes sir
Одно слово - это ембед
Аноним 23/01/23 Пнд 14:45:24 #211 №73866 
>>73863
Лора добавляет веса только в те теги (токены), которые есть в датасете. Если ты назовешь тег blue eyes как-нибудь типа x_blue_eyes (о таком теге модель ничего не знает), то ты будешь тренировать этот тег/концепт с нуля. Я бы так не делал
Аноним 23/01/23 Пнд 14:47:57 #212 №73867 
>>73864
Тоесть если у меня было имя перса и twintails в промте, то twintails тоже изменятся?

>>73866
Да, я понимаю, что новые теги через датасет из 30 пикч это стремнопросто хочу понять, правильно ли составил промт.
Аноним 23/01/23 Пнд 14:49:17 #213 №73870 
>>73867
> правильно ли составил промт
Так ты покажи
> Тоесть если у меня было имя перса и twintails в промте, то twintails тоже изменятся?
Конечно
Аноним 23/01/23 Пнд 14:52:49 #214 №73873 
>>73870
>Конечно
Тогда все ок;)
Аноним 23/01/23 Пнд 14:56:11 #215 №73876 
Кстати, стоит ли vae для лоры использовать? Есть база по данному вопросу?
Я прописал, но не активировал ни разу. Привык, что раньше при обучении лучше было его выгружать.
Аноним 23/01/23 Пнд 14:59:48 #216 №73885 
1674475183465.png
И можно ли понять лишь по loss из консоли, все ли идет так или не так?
Аноним 23/01/23 Пнд 15:10:37 #217 №73897 
>>73885
Вроде все нормально.
Аноним 23/01/23 Пнд 15:10:53 #218 №73898 
Ну, поихали.
https://www.youtube.com/watch?v=rfscVS0vtbw

>>73876

tl;dr: Какой VAE планируешь использовать при генерациях с этой сетью, с таким VAE и обучаешь

Полное объяснение кому интересно:

При обучении на каждом шагу сравниваются два изображения:
1. Тренировочный образец с искусственно добавленным малым количеством шума
2. Тренировочный образец с искусственно добавленным большим количеством шума, пропущенный через диффузионную модель
Перед тем, как изображение из пункта два сравнивается с изображением из пункта один, оно энкодируется в скрытое простанство, там UNet делает свои махинации по убиранию шума, шума становится меньше и VAE декодирует тензоры из скрытого пространства обратно в изображение.
Вышеперечисленной кодировкой/декодировкой занимается VAE. Диффузионная модель включает в себя встроенный VAE всегда.
VAE - это как бы тоже нейронная сеть (поправьте). Разные VAE делают это по-разному. MSE VAE от SD 1.5 лучше умеет декодировать буквы, на изображении они не такие кривые как без него. VAE от NovelAI умеет делать тонкие контуры, делать достаточно понятными глаза, волосы, но пукает в лужу когда дело доходит до повторяющихся паттернов (очень часто проебывается листва деревьев).
Как-то так. Я подключаю VAE всегда.

>>73885
Нормальный лосс, не парься
Аноним 23/01/23 Пнд 15:17:15 #219 №73908 
>>73898
> VAE - это как бы тоже нейронная сеть (поправьте).
Не как бы, а прямо-таки нейросеть. Точнее две нейросети — энкодер и декодер.
Аноним 23/01/23 Пнд 15:18:46 #220 №73910 
>>73908
Спасибо
Аноним 23/01/23 Пнд 15:22:54 #221 №73912 
>>73908
Тогда, сколько нейросетей в себя включает sd?
Аноним 23/01/23 Пнд 15:27:28 #222 №73915 
Треню на 0.3.1 tokiame.
Аноним 23/01/23 Пнд 15:28:57 #223 №73916 
>>73912
Ну тогда получается четыре, если ничего не забыл:
UNet, CLIP Text Encoder, VAE энкодер/декодер
Аноним 23/01/23 Пнд 15:34:58 #224 №73921 
Когда у нас будут виртуальные вайфу? С текстовой моделью уровня GPT-3, ChAI, с 2д/3д анимацией и взаимодействием в 2д/3д/vr пространстве? Сколько мне еще ждать? 10 лет? 20?
Аноним 23/01/23 Пнд 15:45:32 #225 №73932 
>>73921
Такая тебе всё равно не даст.
Аноним 23/01/23 Пнд 15:49:33 #226 №73938 
>>73916
На самом деле непосредственно самих нейросетей гораздо больше, потому что модель SD состоит из моделей, которые состоят из разных нейросетей и алгоритмов.
Аноним 23/01/23 Пнд 15:51:22 #227 №73940 
>>73938
Ссылью поделишься почитать?
Кем ты работаешь?
Аноним 23/01/23 Пнд 15:55:40 #228 №73945 
00981-2518628993-realistic photo of mike inel, 1girl, , adventure time, alternate breast size, bacon, bare shoulders, blush, breakfast princess.png
00982-2518628994-realistic photo of mike inel, 1girl, , adventure time, alternate breast size, bacon, bare shoulders, blush, breakfast princess.png
Аноним 23/01/23 Пнд 15:57:10 #229 №73946 
>>73945
ля какая
Аноним 23/01/23 Пнд 16:00:58 #230 №73949 
>>73932
Зависит от моделей и смотря как тренировать..
Аноним 23/01/23 Пнд 16:03:43 #231 №73955 
00965-3137244348-realistic photo of mike inel, cirno, huge breasts, large areolae, nipples, solo, nude,.png
00961-2546147629-realistic photo of mike inel, cirno, huge breasts, large areolae, nipples, solo, nude,.png
00987-3911409318-realistic photo of mike inel, 1girl, adventure time, breasts, colored skin, completely nude, feet, female focus, full body, glas.png
00960-2546147629-realistic photo of mike inel, cirno, huge breasts, large areolae, nipples, solo, nude,.png
>>73946
есть ещё срырна. но чёто рисовка автора отваливается и ещё сильнее ломает анатомию и что-бы получить более-менее похожую картинку - нужно выдрачивать сфг, степы и вес лоры только для одного сида.
+хз что происходит на последних двух пиках.
Аноним 23/01/23 Пнд 16:05:03 #232 №73956 
>>73955
Как обучал? Какие настройки? Сколько пиктч в датасете? Как тегал?
Аноним 23/01/23 Пнд 16:06:31 #233 №73957 
>>73955
> +хз что происходит на последних двух пиках.
У лоры есть проблемы с апскейлом
Аноним 23/01/23 Пнд 16:06:56 #234 №73958 
>>73921
К 2028 потенциал кремния упрется в тех процесс. Если не придумают что-то новое, то ВСЕ. Будем топтаться на месте и оптимизировать старое. Да и для обучения нужно слишком много энергии. 5 миллионов долларов было потрачено на электричество для обучения GPT-3, а для GPT-4 планируют 15.
В любую секунду выйдет Гретта Тунберг 2.0, скажет а хуй вам, ведь коровки дохнут, барашкам плохо на лугах пастить, о детях подумаете, за слезки тивтер_шек ответите суки вы ебанные и зарегулируют законодательно все нахуй.
Мне кажется к тому времени будет целый зоопарк из оборудования уровня 1998 года, когда всякие 3DFX живы были. Или как в 2013 с мобильными ARM чипами, только они между собой будут не совместимы совершенно. И совершенно не понятно, как простому анону все это дело обучать, ведь пока пилишь одно, уже выходит новое физическое устройство, не говоря уже о ПО, с которым мы уже сейчас сталкиваемся каждую неделю. Ничего устоятся нормально не может.
Аноним 23/01/23 Пнд 16:14:52 #235 №73971 
>>73932
>даст
Чел, вайфу нужно не только ебать, но и любить.
>>73949
+
>>73958
По сути уже уперлись, прогресс ВСЁ. А текущие модели лоботомируют и дадут полнвй доступ только по подписке за 59.99$
Аноним 23/01/23 Пнд 16:16:58 #236 №73977 
Когда список лорок для скачки пополнится?
Аноним 23/01/23 Пнд 16:19:01 #237 №73979 
>>73977
Тренили тут один стиль, но видно хозяевам треда он не приглянулся и они забили.
Аноним 23/01/23 Пнд 16:19:19 #238 №73980 
>>73958
Почему это выглядит как текст, сгенерированный нейросетью? Всё, пизда, донейрогенерировался нахуй, пойду погуляю.
Аноним 23/01/23 Пнд 16:20:13 #239 №73982 
00964-3137244347-realistic photo of mike inel, cirno, huge breasts, large areolae, nipples, solo, nude,.png
>>73956
180пикч большинство с прозрачным фоном, лол дефолт настройки с десятью повторениями. теги из граббера.
>>73957
с хайрезфиксом ты имел ввиду?
Аноним 23/01/23 Пнд 16:21:11 #240 №73985 
>>73980
Потому что у всех "Прогресс остановится и все будет плохо" интеллект уровня генератора текстов
Аноним 23/01/23 Пнд 16:22:53 #241 №73988 
>>73982
А на это >>73945 или це не твоё? Или то же самое и всё дело в больших буферах?
Аноним 23/01/23 Пнд 16:23:58 #242 №73989 
>>73982
> с хайрезфиксом ты имел ввиду?
Да
Аноним 23/01/23 Пнд 16:24:31 #243 №73991 
>>73985
В чем мы не правы? По пунктам.
Аноним 23/01/23 Пнд 16:26:57 #244 №73996 
>>73985
Ничего не могу сказать про прогресс, но открытый релиз сд был ошибкой stable ai. Больше они ее не допустят. Гой должен сидеть на подписке и жрать, что дают, а не учить свои модели и обходить цензуру.
По той же причине никогда не будет локального чата опенаи.
Аноним 23/01/23 Пнд 16:31:19 #245 №73999 
01913-2276406054-tokiase, 1boy, astolfo (fate), astolfo (sailor paladin) (fate), white and pink serafuku, purple eyes, pink hair, otoko no.png
01912-2276406054-tokiase, 1boy, astolfo (fate), astolfo (sailor paladin) (fate), white and pink serafuku, purple eyes, pink hair, otoko no.png
01915-2276406054-tok, 1boy, astolfo (fate), astolfo (sailor paladin) (fate), white and pink serafuku, purple eyes, pink hair, otoko no ko,.png
1 пик - мои 7 эпох
2 пик - мои 9 эпох
3 пик - модель анона-1060
версия мокрописи 0.3.1
Аноним 23/01/23 Пнд 16:32:25 #246 №74000 
>>73999
настройки одни и те же
Аноним 23/01/23 Пнд 16:35:06 #247 №74004 
>>73999
По версии опять же не попал. Какая версия рабочая?
Аноним 23/01/23 Пнд 16:36:01 #248 №74006 
>>73991
>В чем мы не правы?
>упрется в тех процесс
Во всем, начиная отсюда. Им еще далеко до предела по размеру транзисторов. Даже на одном техпроцессе можно увеличить мощность меняя компоновку и применяя новые типы транзисторов.

>>73996
Не удивлюсь, если увижу проекты по обучению нейросетей через распределенные вычисления.
Достаточно сказать, что вы обучаете генератор речи для вайфу и вычислительные мощности ваши.
Аноним 23/01/23 Пнд 16:36:28 #249 №74007 
image.png
image.png
>>73988
это моё. тренировал не персонажей, а художника, всё в одном.
>>73989
последняя, но без хайреза. и это клип скип 2, хотя тренировал на 1, походу вообще эта крутилка не работает
Аноним 23/01/23 Пнд 16:37:27 #250 №74010 
>>74007
Сейчас бессмысленно тренировать пидор ускоглазый все поломал. Пруфы выше - >>73999
Аноним 23/01/23 Пнд 16:38:23 #251 №74014 
>>74007
> не персонажей, а художника
Так а разве граббер не будет так же захватывать и теггировать персонажей?
Аноним 23/01/23 Пнд 16:39:10 #252 №74016 
>>74010
В чём проблема откатиться на версию, на которой всё работает?
Аноним 23/01/23 Пнд 16:39:44 #253 №74018 
>>74016
Я не знаю, какая версия рабочая.
Аноним 23/01/23 Пнд 16:44:01 #254 №74023 
image.png
00714-95811468-realistic photo of alkemanubis, 10s, 1girl, asui tsuyu, spread legs, squatting, black eyes, black hair, bodysuit, boku no hero a.png
00991-3911409322-realistic photo of mike inel, 1girl, adventure time, breasts, colored skin, completely nude, feet, female focus, full body, glas.png
>>74010
у меня версия 0.1, вроде не поломаная
>>74014
будет, но если я треню одного перса на датасете в 200пикч лягушка, то результат будет лучше, чем датасет хуйдожника с NN числом персонажей на те-же 200 пикч.розовая хабалка
Аноним 23/01/23 Пнд 16:48:37 #255 №74032 
>>74016
Скажи, какая рабочая?
Аноним 23/01/23 Пнд 16:57:55 #256 №74048 
01930-2276406054-(tokiase1.4), 1girl.png
пикрил - моя лора, уже лучше, чем ничего, немного подрочился с настройками я
Аноним 23/01/23 Пнд 17:00:48 #257 №74056 
01931-2276406054-(tokiame1.4), 1girl.png
>>74048
но все равно дерьмо собачье по сравнению с моделью анонов, пикрил - модель фурфага
Аноним 23/01/23 Пнд 17:01:08 #258 №74057 
>>74056
>>74048
Значит ли это, что лора умерла и теперь остался только дримбут?
Аноним 23/01/23 Пнд 17:02:08 #259 №74059 
>>73996
Видимо, именно поэтому после выпуска 1.3 была запилена еще 1.4, затем был релиз 1.5 с инпейнт-моделью, после чего была выпущена 2.0 с разрешением 768, а спустя некоторое время уже и 2.1.
Аноним 23/01/23 Пнд 17:02:57 #260 №74062 
>>74059
>после чего была выпущена 2.0 с разрешением 768, а спустя некоторое время уже и 2.1.
Нечего больше добавить про вторую версию? Ничего не забыл?
А в третьей уже знаешь, какие интересные фичи завезут?
Аноним 23/01/23 Пнд 17:03:35 #261 №74064 
01932-2276406054-(tok1.4), 1girl.png
>>74056
вот 1060-анон, лора натурально подохла и тренит на уровне эмбеддингов, спасибо кохью
Аноним 23/01/23 Пнд 17:06:53 #262 №74070 
>>74006
>Не удивлюсь, если увижу проекты по обучению нейросетей через распределенные вычисления.
https://github.com/chavinlo/distributed-diffusion/
Аноним 23/01/23 Пнд 17:08:09 #263 №74072 
>>74064
Скинь мне pnginfo
Аноним 23/01/23 Пнд 17:09:10 #264 №74074 
>>74072
Ок, минуту.
Аноним 23/01/23 Пнд 17:09:37 #265 №74075 
00091-3073114768-flat colors, anime, 1girl, laughing, smirking face, purple hair, ((green eyes)), hair ornament, school uniform, closed mouth, on.png
Рабочий вариант натренировать сеть под определенный стиль с сохранением работоспособности апскейлеров и без необходимости отвалить ведро бабла на картонку с 48гб врам? Эмбеддинги? Или есть какой-то рабочая связка лоры+вебгуя? Картон на 8гб.
Аноним 23/01/23 Пнд 17:10:05 #266 №74076 
Интересно, если обучить дримбут по фото объекта на реалистичной модели и замержить с аниме моделями, то перейдет ли стиль на объект?

>>74070
Вот. Только нужно еще сделать цивильное приложение для нормисов.
Аноним 23/01/23 Пнд 17:10:56 #267 №74077 
>>74075
Лора не работает сейчас, либо выдает говно, либо не выдает ничего, либо NaN. Единственный рабочий вариант - дримбут, гугли.
Аноним 23/01/23 Пнд 17:11:25 #268 №74078 
>>74076
>то перейдет ли стиль на объект?
Вместо объекта будет каша.
Аноним 23/01/23 Пнд 17:12:10 #269 №74080 
>>74072
(tok:1.4), 1girl
Negative prompt: bad face, nose, bad anatomy, bad proportions, bad perspective, multiple views, concept art, reference sheet, mutated hands and fingers, interlocked fingers, twisted fingers, excessively bent fingers, more than five fingers, lowres, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, low quality lowres multiple breasts, low quality lowres mutated hands and fingers, more than two arms, more than two hands, more than two legs, more than two feet, low quality lowres long body, low quality lowres mutation poorly drawn, low quality lowres black-white, low quality lowres bad anatomy, low quality lowres liquid body, low quality lowres liquid tongue, low quality lowres disfigured, low quality lowres malformed, low quality lowres mutated, low quality lowres anatomical nonsense, low quality lowres text font ui, low quality lowres error, low quality lowres malformed hands, low quality lowres long neck, low quality lowres blurred, low quality lowres lowers, low quality lowres low res, low quality lowres bad proportions, low quality lowres bad shadow, low quality lowres uncoordinated body, low quality lowres unnatural body, low quality lowres fused breasts, low quality lowres bad breasts, low quality lowres huge breasts, low quality lowres poorly drawn breasts, low quality lowres extra breasts, low quality lowres liquid breasts, low quality lowres heavy breasts, low quality lowres missing breasts, low quality lowres huge haunch, low quality lowres huge thighs, low quality lowres huge calf, low quality lowres bad hands, low quality lowres fused hand, low quality lowres missing hand, low quality lowres disappearing arms, low quality lowres disappearing thigh, low quality lowres disappearing calf, low quality lowres disappearing legs, low quality lowres fused ears, low quality lowres bad ears, low quality lowres poorly drawn ears, low quality lowres extra ears, low quality lowres liquid ears, low quality lowres heavy ears, low quality lowres missing ears, low quality lowres fused animal ears, low quality lowres bad animal ears, low quality lowres poorly drawn animal ears, low quality lowres extra animal ears, low quality lowres liquid animal ears, low quality lowres heavy animal ears, low quality lowres missing animal ears, low quality lowres text, low quality lowres ui, low quality lowres missing fingers, low quality lowres missing limb, low quality lowres fused fingers, low quality lowres one hand with more than 5 fingers, low quality lowres one hand with less than 5 fingers, low quality lowres one hand with more than 5 digit, low quality lowres one hand with less than 5 digit, low quality lowres extra digit, low quality lowres fewer digits, low quality lowres fused digit, low quality lowres missing digit, low quality lowres bad digit, low quality lowres liquid digit, low quality lowres colorful tongue, low quality lowres black tongue, low quality lowres cropped, low quality lowres watermark, low quality lowres username, low quality lowres blurry, low quality lowres JPEG artifacts, low quality lowres signature, low quality lowres 3D, low quality lowres 3D game, low quality lowres 3D game scene, low quality lowres 3D character, low quality lowres malformed feet, low quality lowres extra feet, low quality lowres bad feet, low quality lowres poorly drawn feet, low quality lowres fused feet, low quality lowres missing feet, low quality lowres extra shoes, low quality lowres bad shoes, low quality lowres fused shoes, low quality lowres more than two shoes, low quality lowres poorly drawn shoes, low quality lowres bad gloves, low quality lowres poorly drawn gloves, low quality lowres fused gloves, low quality lowres bad cum, low quality lowres poorly drawn cum, low quality lowres fused cum, low quality lowres bad hairs, low quality lowres poorly drawn hairs, low quality lowres fused hairs, low quality lowres big muscles, low quality lowres ugly, low quality lowres bad face, low quality lowres fused face, low quality lowres poorly drawn face, low quality lowres cloned face, low quality lowres big face, low quality lowres long face, low quality lowres bad eyes, low quality lowres fused eyes poorly drawn eyes, low quality lowres extra eyes, low quality lowres malformed limbs, low quality lowres more than 2 nipples, low quality lowres missing nipples, low quality lowres different nipples, low quality lowres fused nipples, low quality lowres bad nipples, low quality lowres poorly drawn nipples, low quality lowres black nipples, low quality lowres colorful nipples, low quality lowres gross proportions, short arm, low quality lowres missing arms, low quality lowres missing thighs, low quality lowres missing calf, low quality lowres missing legs, low quality lowres mutation, low quality lowres duplicate, low quality lowres morbid, low quality lowres mutilated, low quality lowres poorly drawn hands, low quality lowres more than 1 left hand, low quality lowres more than 1 right hand, low quality lowres deformed, low quality lowres extra arms, low quality lowres extra thighs, low quality lowres more than 2 thighs, low quality lowres extra calf, low quality lowres fused calf, low quality lowres extra legs, low quality lowres bad knee, low quality lowres extra knee, low quality lowres more than 2 legs, low quality lowres bad tails, low quality lowres bad mouth, low quality lowres fused mouth, low quality lowres poorly drawn mouth, low quality lowres bad tongue, low quality lowres tongue within mouth, low quality lowres too long tongue, low quality lowres big mouth, low quality lowres cracked mouth, low quality lowres dirty face, low quality lowres dirty teeth, low quality lowres dirty pantie, low quality lowres fused pantie, low quality lowres poorly drawn pantie, low quality lowres fused cloth, low quality lowres poorly drawn cloth, low quality lowres bad pantie, low quality lowres yellow teeth, low quality lowres thick lips, low quality lowres bad asshole, low quality lowres poorly drawn asshole, low quality lowres fused asshole, low quality lowres missing asshole, low quality lowres bad anus, low quality lowres bad pussy, low quality lowres bad crotch, low quality lowres bad crotch seam, low quality lowres fused anus, low quality lowres fused pussy, low quality lowres fused crotch, low quality lowres poorly drawn crotch, low quality lowres fused seam, low quality lowres poorly drawn anus, low quality lowres poorly drawn pussy, low quality lowres poorly drawn crotch seam, low quality lowres bad thigh gap, low quality lowres missing thigh gap, low quality lowres fused thigh gap, low quality lowres liquid thigh gap, low quality lowres poorly drawn thigh gap, low quality lowres bad collarbone, low quality lowres fused collarbone, low quality lowres missing collarbone, low quality lowres liquid collarbone, low quality lowres strong girl, low quality lowres obesity, low quality lowres worst quality, low quality lowres low quality, low quality lowres normal quality, low quality lowres liquid tentacles, low quality lowres bad tentacles, low quality lowres poorly drawn tentacles, low quality lowres split tentacles, low quality lowres fused tentacles, low quality lowres missing clit, low quality lowres bad clit, low quality lowres fused clit, low quality lowres colorful clit, low quality lowres black clit, low quality lowres liquid clit, low quality lowres QR code, low quality lowres bar code, low quality lowres censored, low quality lowres safety panties, low quality lowres safety knickers, low quality lowres beard, low quality lowres furry, pony, low quality lowres pubic hair, low quality lowres mosaic, low quality lowres excrement, low quality lowres shit, low quality lowres futa, low quality lowres testis, low quality lowres lowres, low quality lowres terrible, low quality lowres dirty, low quality lowres feces, low quality lowres organs, low quality lowres fat, low quality lowres thick thighs, low quality lowres low resolution rough, low quality lowres pedophile, low quality lowres bestiality, low quality lowres parody, low quality lowres traditional media, low quality lowres koma, low quality lowres comic, low quality lowres scary, low quality lowres severe, low quality lowres insects, low quality lowres gross scars, low quality lowres twisted human body, low quality lowres irrational human body, low quality lowres sharp fingers, low quality lowres parts of the body out of common sense, low quality lowres murder, low quality lowres beheading, low quality lowres zombie, low quality lowres mummy, low quality lowres graffiti, low quality lowres unfinished picture, low quality lowres terrible quality, low quality lowres Coprophilia, low quality lowres muscular, low quality lowres bald, low quality lowres monk, low quality lowres wrinkly, low quality lowres simple background, low quality lowres realistic, low quality lowres old, low quality lowres scan, low quality lowres touhou, low quality lowres yaoi, low quality lowres gay, low quality lowres femboy, low quality lowres trap, low quality lowres pee, low quality lowres doujinshi, low quality lowres monochrome, low quality lowres meme, low quality lowres demon, low quality lowres monstrous creature, low quality lowres tentacle, low quality lowres self harm, low quality lowres vomit, low quality lowres suicide, low quality lowres death, low quality lowres corpse, low quality lowres bone, low quality lowres skeleton, low quality lowres fingers over 6, low quality lowres framed, low quality lowres historical picture, low quality lowres futanari, low quality lowres shemale, low quality lowres transgender, low quality lowres dick girl, low quality lowres flat breasts, low quality lowres degenerate ass, low quality lowres retro artstyle, low quality lowres anime screencap, low quality lowres stitched, low quality lowres pokemon, low quality lowres ryona, low quality lowres animal, low quality lowres male focus, low quality lowres nipple penetration, low quality lowres sonic (series), low quality lowres bondage, low quality lowres bdsm, low quality lowres 2D, low quality lowres 2D game, low quality lowres 2D game scene, low quality lowres 2D character, low quality lowres game cg, low quality lowres watercolor (medium), low quality lowres 2koma, low quality lowres interlocked fingers, low quality lowres gloves, low quality lowres nitroplus, low quality lowres grayscale, low quality lowres sketch, low quality lowres line drawing, low quality lowres gorilla, low quality lowres meat, low quality lowres gundam, low quality lowres multiple views, low quality lowres cut, low quality lowres concept art, low quality lowres reference sheet, low quality lowres turnaround, low quality lowres chart, low quality lowres comparison, low quality lowres artist progress, low quality lowres lineup, low quality lowres before and after, low quality lowres orc, low quality lowres tusks, low quality lowres goblin, low quality lowres kobold, low quality lowres pony, low quality lowres nsfw, low quality lowres Humpbacked, low quality lowres text error, low quality lowres extra digits, low quality lowres standard quality, low quality lowres large breasts, low quality lowres shadow, low quality lowres nude, low quality lowres artist name, low quality lowres skeleton girl, low quality lowres bad legs, low quality lowres missing fingers, low quality lowres extra digit, low quality lowres artifacts, low quality lowres bad body, low quality lowres optical illusion, low quality lowres Glasses, low quality lowres girl, low quality lowres women, low quality lowres more than 1 moon, low quality lowres Multi foot, low quality lowres Multifold, low quality lowres Multi fingering, low quality lowres colored sclera, low quality lowres monster girl, low quality lowres Black hands, low quality lowres The background is incoherent, low quality lowres abnormal eye proportion, low quality lowres Abnormal hands, low quality lowres abnormal legs, low quality lowres abnormal feet abnormal fingers, low quality lowres sharp face, low quality lowres tranny, low quality lowres mutated hands, low quality lowres extra limbs, low quality lowres too many fingers, low quality lowres unclear eyes, low quality lowres bad, low quality lowres mutated hand and finger, low quality lowres malformed mutated, low quality lowres broken limb, low quality lowres incorrect limb, low quality lowres fusion finger, low quality lowres lose finger, low quality lowres multiple finger, low quality lowres multiple digit, low quality lowres fusion hand, low quality lowres lose leg, low quality lowres fused leg, low quality lowres multiple leg, low quality lowres bad cameltoe, low quality lowres colorful cameltoe, low quality lowres low polygon 3D game, (over three finger(fingers excluding thumb):2), (fused anatomy), (bad anatomy(body)), (bad anatomy(hand)), (bad anatomy(finger)), (over four fingers(finger):2), (bad anatomy(arms)), (over two arms(body)), (bad anatomy(leg)), (over two legs(body)), (interrupted(body, arm, leg, finger, toe)), (bad anatomy(arm)), (bad detail(finger):1.2), (bad anatomy(fingers):1.2), (multiple(fingers):1.2), (bad anatomy(finger):1.2), (bad anatomy(fingers):1.2), (fused(fingers):1.2), (over four fingers(finger):2), (multiple(hands)), (multiple(arms)), (multiple(legs)), (over three toes(toes excluding big toe):2), (bad anatomy(foot)), (bad anatomy(toe)), (over four toes(toe):2), (bad detail(toe):1.2), (bad anatomy(toes):1.2), (multiple(toes):1.2), (bad anatomy(toe):1.2), (bad anatomy(toes):1.2), (fused(toes):1.2), (over four toes(toe):2), (multiple(feet))
Steps: 20, Sampler: DDIM, CFG scale: 5, Seed: 2276406054, Size: 512x768, Model hash: 925997e9, Clip skip: 2, AddNet Enabled: True, AddNet Module 1: LoRA, AddNet Model 1: Tokiame style v1 (lr 1e-4)(209f83a1), AddNet Weight 1: 1
Аноним 23/01/23 Пнд 17:13:25 #270 №74084 
>>74077
>Dreambooth – выбор 24 Гб VRAM-бояр
>How much vram do you need for dreambooth
>>I think minimum is 10GB right now, but there might be repos down to 8GB already.
>might be
oh well...
Аноним 23/01/23 Пнд 17:14:18 #271 №74087 
>>74077
>дримбут
Для него 8гб не хватит.
Аноним 23/01/23 Пнд 17:14:56 #272 №74090 
>>74084
Ну тогда ему остается лишь терпетьлибо надеяться на рабочий колаб.
Аноним 23/01/23 Пнд 17:15:01 #273 №74091 
8888888.png
>>74077
>Лора не работает сейчас
Аноним 23/01/23 Пнд 17:15:07 #274 №74092 
>>74077
гиперсети и эмбединги?
Аноним 23/01/23 Пнд 17:15:37 #275 №74095 
Ебашу 3200 шагов(16 эпох 4 повторений) на Касен, чую что выйдет кал.
Аноним 23/01/23 Пнд 17:15:58 #276 №74097 
>>74087
https://www.reddit.com/r/StableDiffusion/comments/xzbc2h/guide_for_dreambooth_with_8gb_vram_under_windows/ да не, чет валяется как обычно, наукоботы вместо того чтобы делать что-то стабильно работающее и везде бегут за мечтой на костылях
Аноним 23/01/23 Пнд 17:16:19 #277 №74098 
>>74092
Устаревший кал
>>74091
В чем я не прав? Ни у кого в треде не работает, плевать какая скорость
Аноним 23/01/23 Пнд 17:17:21 #278 №74099 
>>74091
Бтв не вижу лоры на масюню в списке лор. А надо.
Аноним 23/01/23 Пнд 17:17:21 #279 №74100 
>>74062
Антош, ты если хочешь сказать чего, то ты не стесняйся, говори.
Аноним 23/01/23 Пнд 17:18:14 #280 №74102 
>>74100
Говорю: дальше будет хуже
Аноним 23/01/23 Пнд 17:19:41 #281 №74107 
>>74100
Когда починят лору?
Аноним 23/01/23 Пнд 17:21:19 #282 №74112 
А ведь ещё совсем недавно будка прекрасно работала без шума и пыли и обучала локально на 12 гигах, ровно до того момента, как автоматик начал натягивать туда лору.
Аноним 23/01/23 Пнд 17:21:31 #283 №74113 
Когда когда?
Аноним 23/01/23 Пнд 17:22:08 #284 №74116 
>>74062
А в чем проблема? Нейронка в открытом доступе, делай форк, отключай ненужное, бэкпорть нужное, обучай на датасете с гелбуры. Много шума непонятно из-за чего.
Аноним 23/01/23 Пнд 17:23:38 #285 №74121 
>>74077
У нас буря в стакане. У кого проблемы - наступает на свой аутизм и откатывается на предыдущий коммит.
Аноним 23/01/23 Пнд 17:25:10 #286 №74125 
>>74121
Говори, какой коммит рабочий.
Аноним 23/01/23 Пнд 17:25:21 #287 №74126 
>>74116
Тут лору-то починить не могут, а ты про перепердоливание всей сетки
Аноним 23/01/23 Пнд 17:27:35 #288 №74135 
>>74121
Покажи хоть одну рабочую лору на 0.4.0.
Аноним 23/01/23 Пнд 17:28:20 #289 №74139 
>>74116
>А в чем проблема
На самом-то деле проблема скорее всего в новой версии КЛИПа. На форчонге ее понятно превратили в политическую, но клип обучен только на лайоне, и модели на нем похоже очень плохо дообучаются. По крайней мере, по отзывам мастодонтов. Иначе туда бы уже насовали этого нсвфа по самые помидоры. Ждем финальной WD1.4, там понятнее будет.
Аноним 23/01/23 Пнд 17:29:51 #290 №74144 
>>74125
bedea62ff0ba3d3bf4bc9bb04c04ecbde880bc43
Аноним 23/01/23 Пнд 17:30:02 #291 №74145 
>>74139
>ждем
Девиз раздела, после каждого обновления все ломается.
Аноним 23/01/23 Пнд 17:30:49 #292 №74148 
>>74139
>Ждем финальной WD1.4
В чем смысл этого ожидания? Они же не меняют архитектуру, только датасет. Или я ошибаюсь?
Аноним 23/01/23 Пнд 17:31:46 #293 №74151 
>>74145
Ну так не обновляйся
Аноним 23/01/23 Пнд 17:32:43 #294 №74152 
>>74148
У них самый масштабный проект дообучения второй версии. Они могут поделиться, есть ли смысл вообще долбиться, или проще просто забить.
Аноним 23/01/23 Пнд 17:33:33 #295 №74153 
00933-1186686486-realistic photo of a masunya, cat ears, (purple skin color1.2), alkemanubis, (crying1.1), by Jeremy Lipking, by William Bougu.png
00131-3217775763-realistic photo of a (masunya1.2), by Jeremy Lipking, by William Bouguereau, (by Alphonse Mucha0.5), sabudenego, jeremy lipki.png
00869-2649291266-realistic full body photo of a masunya, (large breasts1.2), (purple skin color1.1), cat ears, arms up, bikini, d-art, muscul.png
00923-3540211810-realistic photo of a masunya, (purple skin color1.4), alkemanubis, (grin1.3), by Jeremy Lipking, by William Bouguereau, (by Al.png
>>74099
ненадо. смотри так.
Аноним 23/01/23 Пнд 17:35:53 #296 №74157 
>>74144
>18 декабря
Тестил? В любом случае я чекинг устрою завтра.
Аноним 23/01/23 Пнд 17:37:32 #297 №74159 
>>74102
А, ну насчет предсказаний я не эксперт, на кофейной гуще не гадаю. Я могу лишь то, что уже произошло, проанализировать.

Когда релизнулись первые публичные веса, это жмыхнуло довольно громко. В частности, очень громко вопили художники (отдельные крики слышно до сих пор) и моралфаги, потому что внезапно оно может генерить, хотя и хуевое, но NSFW, а также не очень одетых детей. Чтобы не как-то заглушить крики вокруг своей модели, чуваки которые это пилили попытались прикрыть жопу, убрав из датасета вопящих громче всего художников и добавив фильтр на NSFW.

Я бы сказал, главной ошибкой было то, что релиз первых весов был внезапным и резко поменял статус кво, поэтому появилась куча чуваков, которые обосрались и начали тянуть одеяло обратно.

Параллельно этому, другими чуваками тренились Waifu Diffusion и NAI. Несмотря на то, что эти модели куда более NSFW, всем в целом на них похуй, потому что они так не жмыхали, а наоборот оказались в тени той дискотеки, которая происходила с официальными весами.

Тут мы подходим к вопросу о том, насколько вообще важны релизы официальных весов. ИТТ все используют аниме-модели. Да и тренировать модель может не только лишь одна-единственная компания. Для этого нужны определенные ресурсы, конечно, но тут ситуация далеко не такая, как с DALL-E.
Аноним 23/01/23 Пнд 17:37:57 #298 №74160 
>>74151
Я так и делаю, сижу на автоматике от 31 декабря, слыхал в новых версиях сломали хайрезфикссделали превью, которое замедляет скорость.
>>74152
Сколько всего эпох будет?
Аноним 23/01/23 Пнд 17:39:59 #299 №74165 
>>74159
Единственная рабочая аниме модель - nai от ЧАСТНОЙ компании, на наи все миксы современные основаны. Энтузиасты же сосут хрен с вайфукалом
Аноним 23/01/23 Пнд 17:45:07 #300 №74168 
>>74160
> слыхал в новых версиях сломали хайрезфикс
Пиздят, вот пруф >>71056 →
Проблемы по началу были, но только у тех, кто пытался генерить по старым промптам, у которых соотношение сторон изображения first pass и highres fix не совпадало. Потом это пофиксили.
> сделали превью, которое замедляет скорость.
На пару секунд максимум, к тому его же можно отключить
Аноним 23/01/23 Пнд 17:45:31 #301 №74170 
>>74159
>убрав из датасета вопящих громче всего художников
Никаких художников они, по факту, не убирали. Они сменили клип и перетренировали его с нуля на лайоне. В Лайоне то ли 28, то ли 16 работ Рутковского. Вот он и исчез. Предыдущий клип был натренирован на закрытом датасете, и там, походу, было овердохуя Рутковского, вот он и был. Феномен Рутковского - натурально аналог текстового эмбеддинга в масштабах всей модели.

Я не защищаю 2.0, если что. Это редкостное говнище. Просто оно не только художников не может промптить, оно не промптит вообще ничего, даже если любые персоналии убрать.
Аноним 23/01/23 Пнд 17:46:12 #302 №74172 
Думаю, давно пора брать подписочку у новелов, цензуры у их текстовой модели нет. Слишком много добра они сделали. Только оплатить не дают.
Аноним 23/01/23 Пнд 17:46:30 #303 №74174 
>>74168
>На пару секунд максимум, к тому его же можно отключить
На 1 минуту из 4 на 4090, замерял лично.
другой анон
Аноним 23/01/23 Пнд 17:48:55 #304 №74181 
>>74152
> самый масштабный проект дообучения второй версии
А не у Unstable Diffusion ли? Ничего не путаешь?
Аноним 23/01/23 Пнд 17:48:57 #305 №74182 
>>74153
надо.
Аноним 23/01/23 Пнд 17:49:43 #306 №74184 
В треде работает лахта кохьи-автоматика, превью у них ничего не замедляет, 0.4.0 тренирует отлично, а новый хайрезфикс не поломал обратную совместимость. Тьфу блядь, шлюхи продажные.
Аноним 23/01/23 Пнд 17:49:46 #307 №74185 
>>74165
Качество модели — это вопрос ресурсов и организованности. Вот, например, чуваки пилят распределенную треню: https://github.com/chavinlo/distributed-diffusion/. Вместо того, чтобы кричать, как все плохо, ты мог бы присоединиться к проекту, как-то им помочь.
Аноним 23/01/23 Пнд 17:52:00 #308 №74190 
>>74170
Интересно получилось. То есть, по факту оно тренилось не на Рутковском, а на том, что его напоминает?
Аноним 23/01/23 Пнд 17:52:02 #309 №74191 
.png
>>74174
Хочешь сделаю тебе на 0 минут из 4?
Аноним 23/01/23 Пнд 17:52:18 #310 №74192 
>>74185
Я в /to/ постил свой член с ручкой в уретре. Могу повторить подвиг, более ни на что не способен.
Аноним 23/01/23 Пнд 17:53:15 #311 №74195 
>>74184
Сука, кто-то специально заслал в тред агентов, чтобы мучить анонов.
Аноним 23/01/23 Пнд 17:54:08 #312 №74199 
>>74191
Вопрос в том, почему это говно в релизе вообще оказалось по дефолту включено, когда нищуки свои 20 картинок генерят по полчаса.
Аноним 23/01/23 Пнд 17:54:19 #313 №74200 
>>74181
>А не у Unstable Diffusion ли? Ничего не путаешь?
Могу, конечно, и путать. Но про Unstable у меня сложилось впечатление, что это развод лохов на деньги, они могут вообще ничего не тренировать и свалить с баблом на теплый остров на неделю, и я выкинул его из инфополя. Вдшники по крайней мере не только обещают, но и делают. Хотя и местами смешно получается.
Аноним 23/01/23 Пнд 17:54:53 #314 №74202 
Интересно было бы узнать, как наи составляли датасет и вообще тренировали свои модели, и почему они это делать не продолжают. В вд походу просто всё нахуй с бур тянут, без разбора, ну и как видно, такой подход не очень подходит.
Аноним 23/01/23 Пнд 17:55:15 #315 №74203 
>>74184
Да нет, это просто ты рукожоп-неосилятор
Аноним 23/01/23 Пнд 17:55:54 #316 №74205 
>>74199
Произошёл автоматик
Аноним 23/01/23 Пнд 17:56:21 #317 №74206 
>>74203
Это я чтоль мерджу коммиты, провалившие тесты, и выпиливаю сами тесты, когда они мешают?
Аноним 23/01/23 Пнд 17:56:24 #318 №74207 
>>74203
>рукожоп
Покажи как правильно тренировать на 0.4.0, умник бля.
Аноним 23/01/23 Пнд 17:57:19 #319 №74208 
>>74203
Вот, помоги анону добиться результатов, которые были раньше:
https://github.com/kohya-ss/sd-scripts/issues/98
О "лучше" пока речи даже не идет.
Аноним 23/01/23 Пнд 17:57:28 #320 №74209 
>>74203
Автолахта отработала, +15 генераций вне очереди
Аноним 23/01/23 Пнд 17:59:57 #321 №74211 
.png
Про SD_upscale спрашивали - иногда читаю у вас.
Аноним 23/01/23 Пнд 18:02:11 #322 №74216 
>>74211
>sd_upscale
Как и любой гений - безумен и не может ясно выражать свои мысли
Аноним 23/01/23 Пнд 18:03:04 #323 №74217 
6812598427.png
>>74206
Ты вникал в суть этих тестов и почему они фейлились?
Аноним 23/01/23 Пнд 18:03:30 #324 №74218 
>>74209
Что ты несешь вообще? Очереди у него какие-то, охуеть.
Аноним 23/01/23 Пнд 18:05:48 #325 №74220 
>>74211
>Отдельным выводом из этого следует, что можно радикально ускорить апскейл, уменьшив число кусочков, на которое будет дробиться картинка. Т.е. добавив размер полей (в сд_апскейле по-умолчанию стоит 64 пиксела), мы сможем уменьшить число генераций с 9 (при размерах 1536х1152) до 4 (при размерах 1600х1216) и, соответственно, уменьшить в два раза необходимое время.
Не пойму, 64 к width и height добавить?
Аноним 23/01/23 Пнд 18:07:11 #326 №74223 
>>74217
Нет, мне хватает того, что я до сих пор пикчу через раз не могу в img2img закинуть, получая плашку error вместо интерфейса инпеинта. Самая боль? Убиваешь плашку в меню разработчика - картинка и интерфейс на месте.
Сломать. Руки. Обе. Сложными переломами.
Аноним 23/01/23 Пнд 18:10:57 #327 №74231 
>>74223
Чел, ты просто рукожоп. НА последнем коммите автоматика и все работает..
Аноним 23/01/23 Пнд 18:11:19 #328 №74232 
>>74223
У автоматика код — то еще говно. Я в последнее время на https://github.com/huggingface/diffusers сижу, но там GUI нет, только скрипты. Зато куда стабильнее работает, и со временем не разваливается, а только лучше ставновится.
Аноним 23/01/23 Пнд 18:12:24 #329 №74234 
>>74223
Эта проблема была при переезде на gradio версии 3.16.2, и её в тот же день пофиксили.
Аноним 23/01/23 Пнд 18:14:20 #330 №74239 
Чутка не понял по поводу лоры
На выходе после тренинга у меня получается модель весом в 2 гига в то время как у анончиков лоры весят по 200-300мб и они их используют как гиперсеть
Как сделать так же
Аноним 23/01/23 Пнд 18:18:53 #331 №74248 
>>74239
network_dim сколько?
Аноним 23/01/23 Пнд 18:19:30 #332 №74250 
Вопрос на миллион, где находится, во время генерации, ВАЕ и модель?
Аноним 23/01/23 Пнд 18:19:54 #333 №74252 
>>74250
Ну т.е. оперативка или видюха.
Аноним 23/01/23 Пнд 18:20:09 #334 №74253 
>>74250
В VRAM
Аноним 23/01/23 Пнд 18:20:12 #335 №74254 
image.png
image.png
image.png
image.png
Вкусная лорка на Зеро из Drakengard 3:
https://mega.nz/folder/NmxECaiK#FJbhQ9bBKfTgZBPzycGbIQ
Аноним 23/01/23 Пнд 18:20:38 #336 №74255 
>>74250
в компьютере
Аноним 23/01/23 Пнд 18:21:36 #337 №74256 
>>74232
Тоже попробовал их, когда тренировал лоры на репошке Клона Симо. Тоже понравилось. Но части фич автоматика не хватает, они вроде как и прикручиваются в диффузерах, но пердолиться бывает лень.
Аноним 23/01/23 Пнд 18:22:34 #338 №74258 
>>74253
Отлично, есть ли способ запиздячить её в общую память графического процессора, чтоб было больше простора для апскейла или я тупой гуманитарий, который не шарит и это так не работает?
Аноним 23/01/23 Пнд 18:23:37 #339 №74262 
>>74254
На 0.4.0 хоть тренилась?
Аноним 23/01/23 Пнд 18:24:39 #340 №74266 
00650-1897028157-realistic photo of a alkemanubis, (wet dress1.1), (steam1.1), (squatting1.1), (legs spread1.1), 1girl, bandaid, bandaid on k.png
>>74216
в голос. весь гайд так-же написан. но ничего, скоро научится
Аноним 23/01/23 Пнд 18:24:59 #341 №74267 
>>74262
Это что...
Аноним 23/01/23 Пнд 18:25:22 #342 №74268 
>>74248
юзаю колаб
https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb?authuser=1#scrollTo=DNYGVTkaiQPf
Аноним 23/01/23 Пнд 18:26:36 #343 №74270 
>>74258
VRAM это и есть память графического процессора.
Если ты имеешь ввиду засунуть модель в RAM — то это так не работает.
Можешь, конечно, генерить на CPU, но скорость будет в пару сотен раз медленнее.
Аноним 23/01/23 Пнд 18:28:47 #344 №74275 
>>74267
Последний коммит кохии (сегодняшний), который вызвал у части из нас противоречивые чувства
Аноним 23/01/23 Пнд 18:29:14 #345 №74278 
>>74267
Версия релиза мокрописи sd-scripts, у тебя не она, т.к. от 20 декабря у тебя какой то коммит
Аноним 23/01/23 Пнд 18:29:42 #346 №74280 
>>74275
Ну то есть вчерашний, конечно
Аноним 23/01/23 Пнд 18:30:03 #347 №74282 
>>74275
У него не это нерабочее говно, в соседнем треде выяснили
Аноним 23/01/23 Пнд 18:30:05 #348 №74283 
>>74254
Красава. Можешь запиндюрить в репо https://rentry.org/2chAI_LoRA пасскод 2ch
Мне лень, я изучаю питон
Аноним 23/01/23 Пнд 18:30:09 #349 №74284 
image.png
>>74270
я к тому, что меня дико накаляет, что в генерации Общая память графического процессора никак не участвует. Вот я про неё, а не сам VRAM.
Аноним 23/01/23 Пнд 18:31:18 #350 №74287 
.jpg
.png
>>74220
> Ошибка: В сообщении присутствует слово из спам листа.
Аноним 23/01/23 Пнд 18:31:48 #351 №74288 
>>74256
Я в основном для Dreambooth использую, в целом хватает. Немного подправил у себя скрипт, чтобы он читал промпты из txt-файлов рядом с картинками, и просто периодически подтягиваю изменения с репозитория.

Кстати, они сегодня походу еще уменьшили потребление VRAM для Dreambooth, но я еще не пробовал последнюю версию.
Аноним 23/01/23 Пнд 18:33:40 #352 №74292 
>>74248
Извиняюсь за беспокойство и благодарю за наводку
Нашел колаб в котором есть настройка network dim
Аноним 23/01/23 Пнд 18:38:21 #353 №74301 
>>74292
Скинь ссылку
Аноним 23/01/23 Пнд 18:38:27 #354 №74302 
>>74284
Это другое лол
Общая память графического процессора — это надмогз с shared video memory. По сути это виртуальная видео память, а если точнее объем памяти, который может теоретически выделится из ОЗУ на нужды графического процессора (встроенного или дискретного, винде похуй). Но в любом случае CUDA не может использовать эту память.
Аноним 23/01/23 Пнд 18:43:09 #355 №74315 
>>74301
https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-LoRA-finetuner.ipynb#scrollTo=32aNPjnYAcu_
Еще не тестил
Аноним 23/01/23 Пнд 18:44:42 #356 №74317 
Самый нормальный этот >>73567
Все остальное хуита
Аноним 23/01/23 Пнд 18:44:48 #357 №74318 
>>74302
Пичальбидаотчаянье, у меня нет лишних 150к на йоба видюху.
Аноним 23/01/23 Пнд 18:46:15 #358 №74320 
>>74318
Тренить можно на 3060, с оптимизациями оно влезает в 12гб.
Аноним 23/01/23 Пнд 18:46:46 #359 №74321 
>>74231
КОМПЬЮТЕР ПРОБОВАЛИ ПЕРЕЗАГРУЖАТЬ???? НУ ТОГДА НЕ ЗНАЮ, У НАС ВСЕ РАБОТАЕТ!
Аноним 23/01/23 Пнд 18:47:10 #360 №74323 
>>74320
У меня 2060
Аноним 23/01/23 Пнд 18:48:22 #361 №74324 
>>74323
Я о том, что 3060 стоит куда дешевле, чем упомянутая тобой йоба видюха за 150к.
Аноним 23/01/23 Пнд 18:48:23 #362 №74325 
Screenshot 2023-01-23 at 20-46-50 Искусственный интеллект - Технотред №2 ГАЙДЫ ПО ОБУЧЕНИЮ Существующую модель можно[...].png
fine-alright.gif
>>74284
Аноним 23/01/23 Пнд 18:48:25 #363 №74326 
>>74320
У меня 1060
Аноним 23/01/23 Пнд 18:48:48 #364 №74327 
>>74315
В твоем можно попробовать просто передать туда --network_dim=128 в форме Additional parameters
Аноним 23/01/23 Пнд 18:48:50 #365 №74328 
>>74320
У меня 960
Аноним 23/01/23 Пнд 18:49:36 #366 №74329 
>>74323
>>74326
>>74328
Вы по убывающей идете что ли? Мне теперь интересно, насколько далеко вы можете зайти.
Аноним 23/01/23 Пнд 18:50:06 #367 №74330 
>>74328
У меня старый планшет сяомяо, ему лет 7 уже. Шах и мат.
Аноним 23/01/23 Пнд 18:50:42 #368 №74332 
>>74324
Вкатываюсь в гей шлюхи, чтобы купить 3060, сеймы в треде есть?
Аноним 23/01/23 Пнд 18:51:06 #369 №74333 
>>74330
Ну тренируй в колабе тогда, разрешаю.
Аноним 23/01/23 Пнд 18:51:25 #370 №74334 
>>74329
Ниже только колаб, хотя с lowvram можно и на 650 запустить
Аноним 23/01/23 Пнд 18:51:51 #371 №74335 
У меня не запускается LDSR апскейлер, пишет такую простыню:
Traceback (most recent call last):
File "C:\Program Files\Python310\lib\urllib\request.py", line 1348, in do_open
h.request(req.get_method(), req.selector, req.data, headers,
File "C:\Program Files\Python310\lib\http\client.py", line 1282, in request
self._send_request(method, url, body, headers, encode_chunked)
File "C:\Program Files\Python310\lib\http\client.py", line 1328, in _send_request
self.endheaders(body, encode_chunked=encode_chunked)
File "C:\Program Files\Python310\lib\http\client.py", line 1277, in endheaders
self._send_output(message_body, encode_chunked=encode_chunked)
File "C:\Program Files\Python310\lib\http\client.py", line 1037, in _send_output
self.send(msg)
File "C:\Program Files\Python310\lib\http\client.py", line 975, in send
self.connect()
File "C:\Program Files\Python310\lib\http\client.py", line 1454, in connect
self.sock = self._context.wrap_socket(self.sock,
File "C:\Program Files\Python310\lib\ssl.py", line 513, in wrap_socket
return self.sslsocket_class._create(
File "C:\Program Files\Python310\lib\ssl.py", line 1071, in _create
self.do_handshake()
File "C:\Program Files\Python310\lib\ssl.py", line 1342, in do_handshake
self._sslobj.do_handshake()
ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:997)

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
File "D:\Neural network\stable-diffusion-webui\modules\call_queue.py", line 56, in f
res = list(func(args, kwargs))
File "D:\Neural network\stable-diffusion-webui\modules\call_queue.py", line 37, in f
res = func(
args, kwargs)
File "D:\Neural network\stable-diffusion-webui\modules\txt2img.py", line 52, in txt2img
processed = process_images(p)
File "D:\Neural network\stable-diffusion-webui\modules\processing.py", line 476, in process_images
res = process_images_inner(p)
File "D:\Neural network\stable-diffusion-webui\modules\processing.py", line 614, in process_images_inner
samples_ddim = p.sample(conditioning=c, unconditional_conditioning=uc, seeds=seeds, subseeds=subseeds, subseed_strength=p.subseed_strength, prompts=prompts)
File "D:\Neural network\stable-diffusion-webui\modules\processing.py", line 853, in sample
image = images.resize_image(0, image, target_width, target_height, upscaler_name=self.hr_upscaler)
File "D:\Neural network\stable-diffusion-webui\modules\images.py", line 269, in resize_image
res = resize(im, width, height)
File "D:\Neural network\stable-diffusion-webui\modules\images.py", line 261, in resize
im = upscaler.scaler.upscale(im, scale, upscaler.data_path)
File "D:\Neural network\stable-diffusion-webui\modules\upscaler.py", line 64, in upscale
img = self.do_upscale(img, selected_model)
File "D:\Neural network\stable-diffusion-webui\extensions-builtin\LDSR\scripts\ldsr_model.py", line 54, in do_upscale
ldsr = self.load_model(path)
File "D:\Neural network\stable-diffusion-webui\extensions-builtin\LDSR\scripts\ldsr_model.py", line 40, in load_model
model = load_file_from_url(url=self.model_url, model_dir=self.model_path,
File "D:\Neural network\stable-diffusion-webui\venv\lib\site-packages\basicsr\utils\download_util.py", line 98, in load_file_from_url
download_url_to_file(url, cached_file, hash_prefix=None, progress=progress)
File "D:\Neural network\stable-diffusion-webui\venv\lib\site-packages\torch\hub.py", line 593, in download_url_to_file
u = urlopen(req)
File "C:\Program Files\Python310\lib\urllib\request.py", line 216, in urlopen
return opener.open(url, data, timeout)
File "C:\Program Files\Python310\lib\urllib\request.py", line 519, in open
response = self._open(req, data)
File "C:\Program Files\Python310\lib\urllib\request.py", line 536, in _open
result = self._call_chain(self.handle_open, protocol, protocol +
File "C:\Program Files\Python310\lib\urllib\request.py", line 496, in _call_chain
result = func(*args)
File "C:\Program Files\Python310\lib\urllib\request.py", line 1391, in https_open
return self.do_open(http.client.HTTPSConnection, req,
File "C:\Program Files\Python310\lib\urllib\request.py", line 1351, in do_open
raise URLError(err)
urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:997)>

Что ему надо, я тупой.
Аноним 23/01/23 Пнд 18:52:52 #372 №74336 
>>74335
Не может скачать модель LDSR из-за РКН
Аноним 23/01/23 Пнд 18:53:14 #373 №74337 
>>74334
Да, технически, можно запустить и на проце, если ты не боишься подождать.
Аноним 23/01/23 Пнд 18:53:44 #374 №74338 
>>74333
Я на пейперспесе, там тоже говно мамонта с 8гб. Но мне норм, запускаю - и пусть себе печется. Колаб нужно мониторить, много эпох там не натренишь.
Аноним 23/01/23 Пнд 18:54:13 #375 №74339 
>>74328
660
Аноним 23/01/23 Пнд 18:54:31 #376 №74340 
>>74328
У меня 660
Аноним 23/01/23 Пнд 18:55:24 #377 №74343 
>>74334
У меня 3080, но я периодически запускаю тренировку в колабе, чтобы не кипятить карточку и иметь возможность сразу смотреть оттрениные эпохи
Аноним 23/01/23 Пнд 18:55:39 #378 №74344 
>>74336
Лолшто, у меня прокси стоит по умолчанию в винде, какой РКН.
Аноним 23/01/23 Пнд 18:55:51 #379 №74345 
>>74335
Скачай руками и закинь куда просит. Там два файла надо будет дотащить.
Аноним 23/01/23 Пнд 18:56:01 #380 №74346 
>>74339
>>74340
Cлабаки, гигавладелец 9400
Аноним 23/01/23 Пнд 18:58:31 #381 №74350 
>>74345
Понял-принял, ссылка благо есть в батнике. И чтоб не спамить, где ещё можно апскейлы поскачивать, чисто для интереса, а то чет тут нет отдельного раздела по ним.
Аноним 23/01/23 Пнд 18:59:56 #382 №74353 
>>74338
М, я думал про паперспейс, но так и не смог понять, какие у них бесплатно доступны видеокарты. И вроде они требуют кредитку для регистрации? Как с этим решил вопрос?
Аноним 23/01/23 Пнд 19:00:55 #383 №74356 
>>74350
https://upscale.wiki/wiki/Model_Database
Аноним 23/01/23 Пнд 19:01:49 #384 №74359 
>>74356
Благодарю
Аноним 23/01/23 Пнд 19:03:15 #385 №74361 
>>74353
У них ахахах Квадро М4000, мне кажется, им их бесплатно со склада отдали, чтобы не утилизировать. Они не пашут вообще, но для неспешного выпекания лор - норм.

И нет, кредитка для бесплатного тира не нужна, нужен только сотовый.
Аноним 23/01/23 Пнд 19:33:54 #386 №74417 
>>74254
Анон, если це твоя лора, а можешь датасет еще скинуть пожалуйста?
Аноним 23/01/23 Пнд 19:37:06 #387 №74426 
>>74417
Но он литералли по этой ссылке.
Аноним 23/01/23 Пнд 19:37:36 #388 №74428 
А сколько повторений концепта лучше?
Сколько вы ставите, аноны?
Аноним 23/01/23 Пнд 19:38:15 #389 №74430 
>>74426
А, точно. Иннос ослепил меня.
Пойду выпилюсь нахуй
Аноним 23/01/23 Пнд 19:39:10 #390 №74431 
>>74254
Круто.
А сделайте эту плиз
https://drive.google.com/file/d/1374wdeS1t9gEJe-g59gNsH6cl6zRm3O9/view?usp=sharing

Это Имари. Только к ней нужны еще теги, позже займусь и залью с тегами, ну или сами сгенерируете. Если мало пикч, могу еще нащелкать скринов из адаптации.
Аноним 23/01/23 Пнд 19:40:10 #391 №74433 
>>74431
Не та ссылка, но тоже сгодится
Аноним 23/01/23 Пнд 19:41:41 #392 №74435 
Почему никто не постит свои лоры, хотя все их так старательно обучают? В этом треде ни одной ссылки ни на одну лору нет.
Аноним 23/01/23 Пнд 19:45:21 #393 №74443 
>>74435
У нас лавочка накрылась
Аноним 23/01/23 Пнд 19:47:32 #394 №74449 
пасаны хай fx 5500 amd sempron 2600+ есть шансы
Аноним 23/01/23 Пнд 19:49:13 #395 №74453 
>>74435
Так есть же ссылки.
Аноним 23/01/23 Пнд 19:49:50 #396 №74456 
>>74435
Я, например, обучаю не слишком анимешные лоры, которые нахуй никому не нужны и не интересны, судя по списку уже загруженного и вообще в целом по активности на доске. Тут тусовка любителей китайских мультиков, вон они пусть и шарят.
Аноним 23/01/23 Пнд 19:54:27 #397 №74469 
>>74456
Сейм
Аноним 23/01/23 Пнд 19:55:05 #398 №74471 
>>74456
двачую. лупоглазые всех отовсюду повыгоняли, путь теперь всё сами делают.
Аноним 23/01/23 Пнд 19:56:12 #399 №74474 
>>74471
>>74456
А мы-то тут при чем? Лупоглазые в соседнем треде.
Аноним 23/01/23 Пнд 19:56:34 #400 №74475 
>>74471
Семёныч, успокойся.
Аноним 23/01/23 Пнд 19:57:01 #401 №74476 
>>74453
Покажи, я не нашел. В прошлом треде 5 как минимум, в этом ни одной.
Аноним 23/01/23 Пнд 19:57:48 #402 №74479 
>>74456
Кринж
>которые нахуй никому не нужны и не интересны
Тыскозал?
Аноним 23/01/23 Пнд 19:59:05 #403 №74484 
>>74474
>А мы-то тут при чем? Лупоглазые в соседнем треде.
Да, сидеть сразу во всех тредах невозможно.
где пруф что не лупоглазый?
Аноним 23/01/23 Пнд 20:07:23 #404 №74508 
>>73567
А как этим пользоваться? Да, я тупой.
Аноним 23/01/23 Пнд 20:08:55 #405 №74512 
>>74508
Сразу видно: человек за кобольдом не сидел.
Аноним 23/01/23 Пнд 20:10:23 #406 №74516 
>>74508
У тебя не получится нихуя, понимаешь? Надо заниматься лет двадцать, ёпта
Аноним 23/01/23 Пнд 20:34:50 #407 №74575 
>>74456
>Я, например, обучаю не слишком анимешные лоры
И я. Я вообще на Хассане.
Аноним 23/01/23 Пнд 20:37:44 #408 №74583 
>>74456
Хз, обучал лору с теликами, все норм;)
Аноним 23/01/23 Пнд 20:37:50 #409 №74586 
>>74456
>>74469
>>74575
Аноны, вы чего. Делитесь с народом! Тут есть кому оценить выши труды.
Аноним 23/01/23 Пнд 20:39:24 #410 №74590 
>>74435
Да вот только дата сет наберешь, только на утро проснешься, вроде все +\- сносно, но заходишь в тред и понимаешь, что ты настройки не те поставил, все не так и все не то. Поэтому, во всяком случае я так думаю, что сейчас переделаю, все ошибки учел, сейчас все будет лучше на голову, а в итоге только хуже выходит.
Я так уже делал одну гиперсеть, которую залил в открытый доступ, а потом понял, что она бесполезная и без нее модели могут тоже самое рисовать. Кринж.
Ну и в целом я ебнутый, делаю одно, бросаю, начинаю другое.
>>74428
Ориентируюсь как у других. Некоторые забугорные совсем ебанулись, ставят по 60 на 10-30 изображений. Я пробовал и стили, и персонажей и пока мне хватало 8 повторений и 8 эпох.
Аноним 23/01/23 Пнд 20:47:09 #411 №74602 
Нихрена не понятно(
Аноним 23/01/23 Пнд 21:02:35 #412 №74642 
>>74602
что?
Аноним 23/01/23 Пнд 21:05:31 #413 №74651 
>>74575
На какой версии?
Аноним 23/01/23 Пнд 21:35:47 #414 №74754 
Стикер
как же хочеца обучать лору, но у меня карта 3 гига
Аноним 23/01/23 Пнд 21:36:23 #415 №74756 
>>74754
Обучай в колабе
Аноним 23/01/23 Пнд 21:37:24 #416 №74762 
>>74756
колаб ебнутый какойто
Аноним 23/01/23 Пнд 21:38:23 #417 №74767 
>>74762
да норм вроде
Аноним 23/01/23 Пнд 21:40:31 #418 №74775 
Screenshot Commits · AUTOMATIC1111stable-diffusion-webui.png
ristas1.jpg
Аноним 23/01/23 Пнд 21:42:57 #419 №74780 
>>74775
Так я прально понимаю, что все лоры сгенерированые sd-scripts версии менее чем 0.4 нихуя не работали до сего момента?
Аноним 23/01/23 Пнд 21:44:11 #420 №74784 
>>74780
Наоборот
Аноним 23/01/23 Пнд 21:44:26 #421 №74785 
>>74780
работали. просто додики, каждый день обновляющие автоматик кричат громе всех.
Аноним 23/01/23 Пнд 21:45:13 #422 №74787 
>>74780
Через дополнение от узкоглазого работали
Аноним 23/01/23 Пнд 21:46:27 #423 №74790 
>>74787
Но ускоглазый тоже сломал свою хуйню?
Аноним 23/01/23 Пнд 21:46:50 #424 №74792 
>>74754
Процессором можешь со скоростью улитки пилить.
Аноним 23/01/23 Пнд 21:47:49 #425 №74794 
>>74790
узкоглазый сломал обучалку
Аноним 23/01/23 Пнд 21:48:17 #426 №74797 
image.png
>>74775
>>74780
Походу он, когда делал поддержку 0.4.0, сломал поддержку предыдущих версий. Теперь починил.
Аноним 23/01/23 Пнд 22:00:37 #427 №74816 
1674494325184599.jpg
Сегодня кто-то натренировал в /h форчка. Альфа сверху вниз 128, 64, 32, 1. е5 е7 - эпохи, в каждой эпохе около 1000 шагов.
Аноним 23/01/23 Пнд 22:02:35 #428 №74822 
.png
.png
Аноны, а почему в аноновскх лорах метадата пик1 а в моих пик2? Там генерят чем то другим?
Аноним 23/01/23 Пнд 22:03:21 #429 №74824 
>>74822
Или вся доп хрен потому что я вае подсасываю?
Аноним 23/01/23 Пнд 22:05:44 #430 №74830 
>>74816
Лёрнинг рейт-то какой бля?
Аноним 23/01/23 Пнд 22:08:15 #431 №74841 
>>74816
>Альфа сверху вниз 128, 64, 32, 1
Чудеса науки.
А у меня nan на всем, кроме 1.
ДАТАСЕТ НЕ ТОТ
Аноним 23/01/23 Пнд 22:16:57 #432 №74863 
image.png
image.png
image.png
image.png
Лорка на главного антагониста евы:
https://mega.nz/folder/tiY1SQ6Y#hJZLoK51Zt4k-RiArwQ1dQ
Аноним 23/01/23 Пнд 22:23:55 #433 №74875 
>>74863
Лора, которую мы заслужили.
Аноним 23/01/23 Пнд 23:11:39 #434 №74947 
Гитпульнулся на самые распоследние версии всего что было, перестали отваливаться обученные новой версией скрипта лорки, старые тоже работают, но плачутся в сосноль что в них отсутствует альфа и будет на что-то там заменена. Только что проверил - как минимум одна свежеобученная лора подключилась и работает, и результат вроде даже лучше старых, но надо конечно статистически проверять.
Аноним 23/01/23 Пнд 23:13:31 #435 №74951 
Забывает ли модель при обучении через dreambooth старые вещи, которые касаются новой лишь опосредованно? Если да, то как? Например, модель знает персонажа A, как определить, что при обучении модели персонажем B модель забудет персонажа A? Или она может забыть что-то другое? Можно ли вообще как-то измерять ёмкость модели?
Аноним 23/01/23 Пнд 23:24:51 #436 №74972 
>>74951
Вкратце: если тренишь лицо человека, остальные начинают быть похожими на него. Можешь погуглить dreambooth catastrophic forgetting. Еще можешь саму статью про Dreambooth почитать: https://arxiv.org/pdf/2208.12242.pdf (ищи там "forget").

Dreambooth вообще был создан именно для того, чтобы уменьшить этот эффект, но убрать его полностью этот метод тоже не может.
Аноним 23/01/23 Пнд 23:25:53 #437 №74975 
>>74583
Алисы то релиз когда? Вчера уже вроде годноту кидал обфапался там уже небось
Аноним 23/01/23 Пнд 23:26:46 #438 №74977 
>>74975
Те, кто тренируют — дрочат параметры трени, а не фапают. До фапа обычно дело не доходит.
Аноним 23/01/23 Пнд 23:42:45 #439 №75005 
Слушайте, парни, у которых loss уходит в nan, вы используете xformers? У меня последние ее версии на 3060 в Dreambooth тоже nan'ы вызывают. В частности, это 0.0.16 версии xformers и некоторые 0.0.15.
Аноним 23/01/23 Пнд 23:52:28 #440 №75012 
image.png
image.png
image.png
image.png
Лора на бабку-админа:
https://mega.nz/folder/ZiBQQYSb#-qitW7dbFKqlZKKIEkC0yw
Аноним 23/01/23 Пнд 23:59:00 #441 №75017 
На последних эпохах начинают проёбываться задники, особенно с хайрезфиксом. Пробовал снижать количество повторений, но это как-то не особо спасает ситуацию. Помогает снижение веса модели, но тогда и перс хуже прорабатывается. Может быть это вызвано тем, что в датасете у многих пикч простой фон и соответственно прописан тег simpled background?
Аноним 24/01/23 Втр 00:06:58 #442 №75027 
>>75017
>Может быть это вызвано тем, что в датасете у многих пикч простой фон
Да.

>и соответственно прописан тег simpled background?
А вот это наоборот хорошо. Так ты модели даешь понять, что простой фон не связан с твоим персонажем или другими тегами, и если ты не будешь указывать этот тег при генерации, то будет больше шансов, что фон будет интереснее.

В идеале, тебе бы в датасет добавить побольше картинок с другими фонами. Если таких нет, попробуй хотя бы с другими персонажами картинок насыпать с интересным фоном (тегай тогда их соответственно, что основного персонажа там нет).

Еще можешь попробовать при генерации описать фон сам, типа outdoors sky cloud там.
Аноним 24/01/23 Втр 00:08:24 #443 №75031 
>>75027
>outdoors sky cloud
Точнее, outdoors, sky, cloud. Ну, как обычно всё.
Аноним 24/01/23 Втр 00:30:49 #444 №75056 
>>75005
Я пытался найти рабочую версию, заебался и откатился на торч 1.13 и иксформерсы 0.0.14, которые ставятся сейчас искаропки вроде бы.
Аноним 24/01/23 Втр 00:39:49 #445 №75073 
>>74972
Ебать ты вывалил, я статью и сам нашел бы. Ну, видимо придется читать, раз никто не знает или не хочет говорить.
>Dreambooth вообще был создан именно для того, чтобы уменьшить этот эффект
А какие вообще есть ещё методы обучения моделей для сд, лол? Кроме очевидной лоры.
Аноним 24/01/23 Втр 01:27:45 #446 №75202 DELETED
рейт лору. обучал целый день
Аноним 24/01/23 Втр 01:28:03 #447 №75206 DELETED
>>75202
Уважаемо
Аноним 24/01/23 Втр 01:37:41 #448 №75225 DELETED
>>75202
не ради этого стив джобс придумывал компьютер...
Аноним 24/01/23 Втр 02:00:54 #449 №75264 
1603870408098.png
1662490449039.png
1572424297807.png
1599635248629.png
>>73144
> Ты бля делиться будешь, шоха
Штош, вот. Это лучший вариант, который получился вроде
Вызывается по тегу shoha, но желательно что бы еще car присутствовал. Обучалось на AbyssOrangeMix2_nsfw
Выхлоп нормального так себе, если надо что-то кроме шохи еще сгенерить, я заебался и больше с ней пердолиться не буду

https://mega.nz/folder/fAFizDRQ#4LmNY5qDNdVpPWkFAp_9sQ
Аноним 24/01/23 Втр 02:02:17 #450 №75267 
xygrid-0093-2885833455-AliceDv, 1girl, solo, skirt, breasts, jacket, cleavage, navel, boots, black footwear, smile, looking at viewer, twintails, midri.png
>>74975
>>74977
>Те, кто тренируют — дрочат параметры трени, а не фапают
Этот прав. Я смотрел как оно работает и все еще не достаточно доволен. Но лору выкачу. Завтра выложу на хаггинфейс, надо картиночек наделать.
Вот грид с промтом из теггера со старого арта
Аноним 24/01/23 Втр 02:12:09 #451 №75280 
>>75264
Где датасет?
Аноним 24/01/23 Втр 02:17:35 #452 №75288 
Пара вопросов про тренировку есть:
1) Нужно ли зеркалить датасет, увеличивая количество пикч вдвое, помню раньше делалось что-то подобно для тренировок?
2) Изменение веса тега в тхт файлах лучше не использовать?
3) BF16 - что это и для чего использовать? Алсо вроде видел какое-то расширение для перегона в этот формат, напомните название?
4) keep_tokens and shuffle_caption. Понял что, если нужно засунуть какой-то новый общий концепт, то лучше защитить первые несколько токенов от решафла во время тренировки, эти токены можно достоверно проверить через токенайзер автоматика? Именно это число вписывать в keep_tokens?
5) Дальше начинается, как все базовые параметры станут понятны, просто дрочь циферок для подбора правильных значений для какого-то конкретного датасета для лучших результатов выхлопа?
Аноним 24/01/23 Втр 02:34:05 #453 №75298 
1528661321178.png
>>75280
> Где датасет?
От этой версии проебан за давностью изменений
Аноним 24/01/23 Втр 02:45:47 #454 №75308 
>>75288
>Нужно ли зеркалить датасет, увеличивая количество пикч вдвое, помню раньше делалось что-то подобно для тренировок?
Вроде как во всех уважающих себя способах тренировки уже есть как опция встроенная.
>Изменение веса тега в тхт файлах лучше не использовать?
Даже не уверен, что оно там работает.
>BF16 - что это и для чего использовать?
Типа чуть лучше работает, чем FP16, если поддерживается. Но это не точно.
>5)
Да.
Аноним 24/01/23 Втр 02:58:26 #455 №75316 
image.png
Зачем.
Аноним 24/01/23 Втр 03:11:26 #456 №75322 
image.png
image.png
image.png
image.png
Отправляем Рюкиши на пенсию.
Аноним 24/01/23 Втр 03:14:48 #457 №75326 
image.png
Аноним 24/01/23 Втр 03:28:22 #458 №75332 
> зеркалить датасет
В sd скрипте это какой параметр, кстати?
>>75288
> 4
Я этим задавался выше по треду. Уже протестировал и похоже что нет, как-то по другому надо. Пишу свой токен в негатив, а оно вообще никак картинку не меняет, точно такая же пикча выходит на одном сиде. Но один ли хрен, оно так и так работает.
Аноним 24/01/23 Втр 03:55:54 #459 №75355 
.jpg
>>75332
> В sd скрипте это какой параметр, кстати?
Не знаю, я этот датасет ещё давно делал во встроенной вкладке train, там можно выбрать создание отзеркаленных пикч

> Я этим задавался выше по треду. Уже протестировал и похоже что нет, как-то по другому надо. Пишу свой токен в негатив, а оно вообще никак картинку не меняет, точно такая же пикча выходит на одном сиде. Но один ли хрен, оно так и так работает.
А у тебя случайно не случилось "This one looks brighter!" или обновление от кохуи и автоматика? Где кстати пост, тыкни меня туда

>>75308
> Вроде как во всех уважающих себя способах тренировки уже есть как опция встроенная.
Интересно стоит ли её юзать, побродил по датасетам других анонов, в рофле нашёл флипы, но там и пикч было мало, всего 10х2 с флипами, впринципе у меня тоже очередной "рофл", так что думаю оставлю

> Типа чуть лучше работает, чем FP16, если поддерживается. Но это не точно.
Каким образом?
Аноним 24/01/23 Втр 03:59:02 #460 №75357 
13084-562323693-(AliceDv1.1), 1girl, solo, orange hair, letterboxed, short twintails, short hair, blush, hair ornament, outdoors, sky, white s.png
>>75267
Аноним 24/01/23 Втр 04:15:59 #461 №75364 
20634-230133716-(AliceDv1.1), crt, (VoxsonT302Photomatic1.1), on screen, 1girl, solo, orange hair, letterboxed, short twintails, short hair, (.png
20631-3704212079-(AliceDv1.1), crt, (VoxsonT302Photomatic1.1), on screen, 1girl, solo, orange hair, letterboxed, short twintails, short hair, (.png
20661-939894536-(AliceDv1.1), (crt1.3), (VoxsonT302Photomatic1.1), (on screen1.2), 1girl, solo, orange hair, letterboxed, short twintails, s.png
Лол. При применении двух лор, телик начал отрисовываться ровнее и больше похож на анимешный чем раньше.
Аноним 24/01/23 Втр 05:59:51 #462 №75391 
script.jpg
Почему может не работать скрипт для тренировки лоры?
Пикрил просто сжирает всю возможную системную память и ничего не делает, если немного памяти забить чем-нибудь типо браузера, начинает валиться сразу после запуска с рандомными еррорами, то мемориеррор, то файл подкачки на 16гб слишком маленький, то тензорфлоу не может загрузить.
Версия скрипта эта: https://github.com/anon-1337/LoRA-scripts/tree/6d915ba67169c383963ac0a181263af355899277
Версия сд-скриптс эта: https://github.com/kohya-ss/sd-scripts/tree/cae42728aba035a7ac305a40c75954530c3c3444
Аноним 24/01/23 Втр 07:50:37 #463 №75420 
xygrid-0015-3891293333-(High detail1.2), realistic, masterpiece, absurdres, best quality, HDR, high quality, high-definition, (extremely detailed1.2).jpg
xygrid-0016-3891293333-masterpiece, best quality, ultra-detailed, illustration, (solo), nsfw, wide hips, looking to the side, (white hair), shiny hair,.jpg
xygrid-0017-2039947362-(High detail1.2), realistic, masterpiece, absurdres, best quality, HDR, high quality, high-definition, (extremely detailed snow.jpg
Мерджи это зло, осталось понять, в каких пропорциях это замешивать, что бы получилось годно, а не каша.
Аноним 24/01/23 Втр 08:11:15 #464 №75430 
Вопрос на миллион, есть ли плагин, который в мердж добавляет только вычитание? Чтоб иметь только веса того, что натренил автор, без весов оригинальной модели, на которой тренилось все.
Аноним 24/01/23 Втр 08:30:43 #465 №75444 
xygrid-0018-2912870585-(High detail, realistic, best quality, HDR, high quality, high-definition, extremely detailed, 8k wallpaper, masterpiece,contras.jpg
Блять, быстрее бы отпуск, нет времени этим заниматься.
Если мод посчитает нужным это удалить, то я не против, а то чет не то полезло, но как пример сойдет
Аноним 24/01/23 Втр 08:44:34 #466 №75463 
>>75420
>>75444
Что эти картинки должны иллюстрировать?
Аноним 24/01/23 Втр 08:59:22 #467 №75469 
16744933396783.png
16744933396732.png
16744926208813.png
16744923722300.png
Оттренил embedding на стримерше.
Использовал кропы скриншотов 15 с ее стрима, выделил только лицо, на всякий случай указал в промпте процессинга что у нее пирсинг есть, поэтому итоговый эмбед успешно исключил его. Интересно, как успешно ембед может запомнить положение пирсинга на лице? Так или иначе я побоялся его не указывать в промпте на процессед.
Правда лицо почему-то получилось слишком широким, приходится посредством промпта делать (((thin face))) и добавлять также татухи. Может из-за того что я захватил слишком много кадров где она поворачивает свое лицо.
Аноним 24/01/23 Втр 09:02:16 #468 №75472 
>>75463
Степень мерджа.
Аноним 24/01/23 Втр 09:12:44 #469 №75478 
>>75430
не понял
Аноним 24/01/23 Втр 09:17:46 #470 №75485 
>>75469
>3дкал
>стримерша
в дедотред газуй, куколд
Аноним 24/01/23 Втр 09:21:48 #471 №75490 
>>75264
Пример успешного обучения лоры не на тян/стиль. Можно начинать тренить на оружие/метлы/здания/корабли/самолеты.
>>75202
А не вот этот вот кал.
Аноним 24/01/23 Втр 10:07:53 #472 №75553 
Я заметил, что многие миксы используют часто одинаковые модели для миксов, а потом уже доводят их до ума. Есть список моделей с их особенностями, ради чего их пихают в миксы? Я думаю в шапке это бы понадобилось.
Аноним 24/01/23 Втр 10:13:10 #473 №75562 
Ребятки. Скоро перекат. Подредактировал шапку немного: добавил краткое описание того, что обсуждается в треде, а также защиту от вахтёра(-ов). +кучу сылок на форчонг с гайдами, лорами и т.д.

https://rentry.org/ex947
https://rentry.org/ex947
https://rentry.org/ex947

Гайд по кручению слоёв моделей до сих пор пустой, если кто захочет взяться пароль 2ch

>>75553
> Есть список моделей с их особенностями
Вряд ли такое есть, это скорее просто устоявшиеся "стандарты качества", никто ведь не хочет пихать ноунейм говно в свой микс. Просто рабочие варианты, проверенные на большом количестве миксов
Аноним 24/01/23 Втр 10:21:33 #474 №75580 
схуяли мой пост с лоркой потёрли?
Аноним 24/01/23 Втр 10:22:17 #475 №75582 
>>75562
0.4.0 нашел как заставить работать?
Аноним 24/01/23 Втр 10:23:51 #476 №75585 
>>75562
Эх, я надеялся, что до меня уже прошёлся любознателбный анон и составил список. Придётся самому с этим ебать я, а времени нет.
Аноним 24/01/23 Втр 10:26:28 #477 №75587 
>>75580
Учите хорошему лупоглазому аниме, нехорошему нелупоглазому неаниме не учите.
Аноним 24/01/23 Втр 10:30:03 #478 №75590 
>>75582
Сейчас обкатываю разные варианты, типа не пассать альфу в аргументы раз она по дефолту 1 + сохранять во float а не в fp16 + разные lr
0.4.0 ТРЕНИТ, но у меня ошибка в расширении узкоглазого когда пытаюсь эти нетворки протестировать
Аноним 24/01/23 Втр 10:32:31 #479 №75594 
Поставил save_precision = float и скорость упала в ~2.5. Пиздец. Охуенное решение проблемы, кохъявыблядок.
Аноним 24/01/23 Втр 10:34:16 #480 №75597 
>>75590
> сохранять во float а не в fp16
Нахуя?
Аноним 24/01/23 Втр 10:34:32 #481 №75598 
>>75430
Есть. Называется extract loras from models, уже находится в кохийном sd_scripts/networks. Если обида на Кохию сильна, такой же есть у клона Симо.
Аноним 24/01/23 Втр 10:34:44 #482 №75599 
Ты блять, автоматик забыл закрыть. Извиняюсь, кохъявыблядок.
Аноним 24/01/23 Втр 10:35:54 #483 №75602 
>>75073
Первое изображение в шапке, блять
Аноним 24/01/23 Втр 10:36:02 #484 №75603 
>>75597
Потому что в расширении какая-то ошибка с числами. Мне лень разбираться, вот и поставил флоат. Авось.
Аноним 24/01/23 Втр 10:38:25 #485 №75606 
image.png
>>75364
Аноним 24/01/23 Втр 10:40:01 #486 №75610 
>>75590
Но fp16 это и есть float point, лол
Аноним 24/01/23 Втр 10:40:57 #487 №75612 
>>75610
Есть типа fp16 и float отдельно. Значит float это fp32. Яскозал.
Аноним 24/01/23 Втр 10:44:50 #488 №75620 
>>75587
>Технотред №2
анимэ сюда >>62555 (OP)
Аноним 24/01/23 Втр 10:48:03 #489 №75623 
>>75585
Из головы:
Наи - базовая аниме. Anything - китаемикс предположительно на ее основе
Elysium, Instagram Cafe - ради общей анатомии/рук, добавляет вот этой вот тридешности всяким апельсиномиксам. Раньше вместо Elysium была F222
Прономодели: gape, smirking face, rule34 - для прона.
Аноним 24/01/23 Втр 10:50:57 #490 №75630 
>>75469
Вообще-то годнота, если учесть, что это только эмбеддинг. Но как выглядит сама стримерша и какого качества был датасет, скинь один пример?
Аноним 24/01/23 Втр 10:53:49 #491 №75633 
.png
Цэ большие ботери или сойдет?
Аноним 24/01/23 Втр 10:55:24 #492 №75636 
>>75633
Очень даже хорошие. Мне б такие
Аноним 24/01/23 Втр 10:57:08 #493 №75639 
>>75636
Ага, только лора судя по результатам переобучилась
Аноним 24/01/23 Втр 10:59:31 #494 №75641 
Загитпулил автоматика и все сети что не работали начали работать, причём пользуюсь расширением китайца. Такие дела. У меня 0.4.0 работает.
Аноним 24/01/23 Втр 11:08:52 #495 №75653 
>>73279
Расскажи для тупых, как график лосей визуализировать.
Аноним 24/01/23 Втр 11:13:15 #496 №75659 
>>75653
-> >>73756
Аноним 24/01/23 Втр 11:15:08 #497 №75661 
.png
>>75641
Аноним 24/01/23 Втр 11:22:46 #498 №75669 
И действительно, как и сказал китаец пока лучшая сетка с альфой 1, Димой 128 получилась именно на lr 1e-3 (unet = TE)
Аноним 24/01/23 Втр 11:30:37 #499 №75680 
.png
.png
.png
.png
И получается кстати ну просто охуенно. Возможно плацебо, но имхо лучше чем раньше
И это всего лишь 575 шагов, 18 минут на лору
Возможно, мать китайца я не ебал. Но однозначно ебал мать автоматика.
Аноним 24/01/23 Втр 11:33:23 #500 №75684 
>>75669
Это learning_rate на 1е-3, а unet_lr ставить такое же как text_encoder_lr?
Аноним 24/01/23 Втр 11:36:25 #501 №75687 
>>75684
Просто ставь лр равным 1е-3, а унет и ТЕ оставляй равными основному лр. Как я выяснил есть только два лернинг рейта, унет и ТЕ, а самый первый лр просто отвечает за значения двух предыдущих, в случае если они не указаны. В след. версии скрипта уберу его вообще чтобы не сбивать с толку. А я тупой думал надо твикать сразу три значения.
Аноним 24/01/23 Втр 11:40:31 #502 №75692 
>>75687
А альфу равную диму не крутить? Оставить еденицу?
Аноним 24/01/23 Втр 11:46:54 #503 №75698 
>>75692
Естесна. Мы же пытаемся получить новый нетворк с фиксом, а не старый с андерфлоу. Поэтому и поднимаем лр
Аноним 24/01/23 Втр 12:08:14 #504 №75728 
>>75562
Ты долбоеб, поправь разметку бля, сделай как шаблон в геншинтреде https://rentry.org/ex947/raw
>тред общей тематики
Тред общей тематики означает, что тут должно быть обсуждение всего, а не какой-то одной темы. И чтобы гридами вайпать, существуют отдельные треды.
Бля охуенно было бы если бы запретили тут постить картинки вообще, отвечаю. Так была бы и реклама технотреду, а вахтерских разборок - бы не было.
Аноним 24/01/23 Втр 12:15:05 #505 №75735 
>>75728
> поправь разметку бля
Что именно?
> геншинтреде
Не полезу в болото, делать мне нехуй. Просто скажи что конкретно
> Тред общей тематики означает, что тут должно быть обсуждение всего, а не какой-то одной темы
Тред общей тематики в данном конкретном случае означает, что он не отпочковался от наи/дедотреда, а существует вне их юрисдикций. Поэтому посылать кого-то, если тебе не нравятся то что он тренирует, ты не можешь
> И чтобы гридами вайпать, существуют отдельные треды
Ссылку. Я так понимаю ты был бы не против запретить гриды в треде про обучение?
> охуенно было бы если бы запретили тут постить картинки вообще
Бред
> Ты долбоеб
Сам ты долбоёб
Аноним 24/01/23 Втр 12:22:11 #506 №75747 
>>75728
>И чтобы гридами вайпать, существуют отдельные треды.
Какие?
Аноним 24/01/23 Втр 12:23:32 #507 №75754 
>>75728
>Так была бы и реклама технотреду, а вахтерских разборок - бы не было.
Их и так нет. Видел, чтобы тут кто-то обсуждал, что надо кого-то выгнать?
Аноним 24/01/23 Втр 12:28:30 #508 №75770 
>>75754
Ну вообще я видел, полистай тред

> > Типа чуть лучше работает, чем FP16, если поддерживается. Но это не точно.
> Каким образом?
Больше точность. У fp16 5 бит на экспоненту, у bf16 - 8.
Аноним 24/01/23 Втр 12:29:14 #509 №75772 
>>75355
> > Типа чуть лучше работает, чем FP16, если поддерживается. Но это не точно.
> Каким образом?
>>75770
Аноним 24/01/23 Втр 13:25:41 #510 №75826 
image.png
image.png
>>75735
>что он не отпочковался от наи
Вообще-то он именно что отпочковался от наи треда, лол, но в целом всё верно, правила здесь должны быть такие, чтобы уживались аноны со всех тредов по генерациям картинок, раз уж это общий тред.

>Я так понимаю ты был бы не против запретить гриды в треде про обучение?
Бля, я погорячился с формулировкой, имелось в виду постинг картинок, связанных непосредственно с контентом, моделями, датасетами, генерациями и прочим подобным, гриды и сами генерации в частности - оставить в тематических тредах и линковать тут при необходимости.
https://2ch.hk/ai/res/62555.html
https://2ch.hk/fur/res/270356.html
https://2ch.hk/ai/res/72366.html
Может быть ещё есть какие-то, но я про них не знаю потому что особо не слежу.

Запретить постить картинки тут никто, понятное дело, не запретит, но делать так я считаю просто хорошим тоном.

Плюсы:
- Постоянная самоподдерживающаяся реклама и обсуждение технотреда
- Поднятие мертвых тредов и хотя бы частичное возрождение тематики
- Отсутствие вообще любых поводов начинать срачи по поводу тематики контента ака это тут почему-то именуется вахтерством

Минусы:
- ААРРРЯЯЯ ЗАПРИЩЯЮТ ПОСТИТЬ КАРТИНКИ
- Нужно держать как минимум 2 вкладки открытыми. Что минусом по сути не является, так как аноны и сейчас в большинстве своём сидят с двумя вкладками.
- В общем-то всё.

>Не полезу в болото, делать мне нехуй.
Так ты полезь. В болоте шапка лучше, и разметка там не проебана, в отличие от твоего технотреда.

>>75754
>Их и так нет.
Ты хочешь, чтобы они были? Может быть хотя бы стоит принять превентивные меры?
Аноним 24/01/23 Втр 13:37:10 #511 №75834 
>>75826
>Так ты полезь. В болоте шапка лучше
Предлагаешь - делай. Возьми сам и ручками репостни или отметь важные на твой взгляд отличия.
Щас бы эту помойку в пример приводить, ей богу.
мимо
Аноним 24/01/23 Втр 13:40:59 #512 №75837 
>>75687
>самый первый лр просто отвечает за значения двух предыдущих, в случае если они не указаны
Вот с этим осторожнее, видел давно утекшее обсуждение, что его использует адам (8 bit adam), но пруфов, понятно, не будет.
Аноним 24/01/23 Втр 13:58:58 #513 №75849 
>>75826
> усом по сути не является,
Вахтер, спок
Аноним 24/01/23 Втр 14:05:44 #514 №75853 
>>75834
У меня в общем-то основная претензия к шапке именно как к шаблону. Что я не учел, так это то, что в геншинтреде катят своими картинками, а не постоянными, соответственно нам ещё нужно держать картинки в удобном виде. Во-первых бекап нужно выкинуть нахуй или держать в отдельном рентри, если это кому-то нужно. Во-вторых, если копировать шапку прямо из рентри (не из /raw), то стоит держать её в блоке с кодом, чтобы копировать можно было одним кликом.
Аноним 24/01/23 Втр 14:07:09 #515 №75858 
Тред можно закрывать, лучше уже не будет.
https://civitai.com/models/5096/maestro-evgenii-ponasenkov
Аноним 24/01/23 Втр 14:20:31 #516 №75874 
>>75355
> А у тебя случайно не случилось
Я ничего не обновлял с 17 января.
Аноним 24/01/23 Втр 14:55:03 #517 №75916 
>loss=nan
Это нормально?
Аноним 24/01/23 Втр 14:56:22 #518 №75918 
2 датасета лежит нетренированных, пиздос. Когда этот кохью пидор все починит?
Аноним 24/01/23 Втр 14:56:39 #519 №75920 
.png
Есть тут разбирающиеся в питоне? Направьте меня, хочу запилить вместо павершелл скрипта гуй. Библиотеку мне какую-то юзать чи шо. Но чтоб для хлебушков совсем

>>75837
Блядь, внатуре, пикрил

>>75853
Сейчас буду править. Ты мне лучше скажи, формулировку про "тред общей тематики" стоит менять? Если да, то как
Аноним 24/01/23 Втр 14:57:44 #520 №75922 
>>75916
Нет

>>75918
Всё работает на 0.4.0. Ставь network_alpha = 1, network dim = 128, learning_rate = 1e-3
Аноним 24/01/23 Втр 14:59:44 #521 №75929 
>>75920
> Библиотеку мне какую-то юзать чи шо. Но чтоб для хлебушков совсем
DearPyGui
Аноним 24/01/23 Втр 15:00:34 #522 №75932 
>>75929
> DearPyGui
Спасибо!
Аноним 24/01/23 Втр 15:01:00 #523 №75934 
>>75922
>1e-3
Это и на unet, и на encoder?
Аноним 24/01/23 Втр 15:02:14 #524 №75937 
>>75922
По планировщикам ничего не поменялось? Можно ставить обычный constant?
Аноним 24/01/23 Втр 15:02:57 #525 №75939 
>>75934
Да
Аноним 24/01/23 Втр 15:04:18 #526 №75941 
>>75922
>все
Примерно нихуя на 0.4.0 не работает либо наны либо не учит нихуя.
Аноним 24/01/23 Втр 15:04:19 #527 №75942 
>>75937
Констант для быстротреняейся лоры не лучший вариант, он не умеет в скорость снижения обучения, используй любой вместо constant и constant_with_warmup, я использую linear и cosine
Аноним 24/01/23 Втр 15:06:13 #528 №75946 
Хоть одну РАБОЧУЮ лору на 0.4.0 покажите, бля
Аноним 24/01/23 Втр 15:06:55 #529 №75948 
>>75941
Я повторяю, работает. На 1е-3 учит хорошо. НаНы на очень большом lr (~ >1e-2). Еще загитпуль автоматика если у тебя отрененное на 0.4.0 якобы не работает. Даже если ты используешь расширение от китайца, а не нативную поддержку

>>75946
-> >>75680
Аноним 24/01/23 Втр 15:11:41 #530 №75952 
>>75948
>загитпуль автоматика
Это как в окно выйти
Аноним 24/01/23 Втр 15:12:36 #531 №75957 
>>75952
Значит трень на 0.3.2, проблему нашёл
Аноним 24/01/23 Втр 15:13:29 #532 №75958 
>>75957
Выходит говнинаща тестить 0.4.0 буду, перебирать версии начала декабря
Аноним 24/01/23 Втр 15:14:06 #533 №75959 
>>75958
Января, лол
Аноним 24/01/23 Втр 15:14:55 #534 №75961 
>>75957
Всм,я оттренил на одинаковых настройках с тобой на 0.3.1но вышел кал. Это как?
Аноним 24/01/23 Втр 15:15:48 #535 №75964 
>>75961
Я не знаю. Магия. Ты про tokiame?
Аноним 24/01/23 Втр 15:16:01 #536 №75965 
image.png
>>75920
>Если да, то как
Я что-то не очень понимаю, что конкретно из этого является формулировкой.
Аноним 24/01/23 Втр 15:16:59 #537 №75966 
>>75961
Что то все разы что я тестил работает лора как то через жопу, на половину тренит и все. Только кокоро отн норм вышла, хз поч. В складе лор, кста хуйня полная по кокоро вышла. Зря ты датасет скостил.
Аноним 24/01/23 Втр 15:17:22 #538 №75967 
>>75964
Да
Аноним 24/01/23 Втр 15:20:10 #539 №75970 
.png
>>75965
Я про это
Аноним 24/01/23 Втр 15:20:43 #540 №75971 
1к пикч в лору пробовал кто отгружать?
Аноним 24/01/23 Втр 15:29:42 #541 №75984 
>>75970
Ты хочешь включить вот это >>75826 или что? Ну допустим:
Тред общенаправленныей, тренировка дедов, лупоглазых и фурри приветствуются.
Тематический контент (датасеты, гриды, генерации) выкладываем в тематических тредах.
Аноним 24/01/23 Втр 15:29:53 #542 №75985 
Держу на новокупленном SSD на 1tb:
- версию автоматика от 1 января, от 16 января, самую новую
- версию дримбуха от 23 декабря, от 11 января
- версию лоры от 17 декабря и еще одну, хрен знает от куда я её взял, но в ней нет графического интерфейса и самого файла gui.ps1. Сейчас буду еще ставить самую новую
Уже начало забиваться на 90% из-за количества моделек
Аноним 24/01/23 Втр 15:36:14 #543 №75995 
> # LoRA retard-friendly train_network script v1.12 by anon
> # Последнее обновление: 24.01.23 20:17 по МСК
Ебало сгенерируйте.
Аноним 24/01/23 Втр 15:46:34 #544 №76001 
>>75939
scheduler = "linear" юзать или cosine_with_restarts? Раньше только вторым и делал.
Аноним 24/01/23 Втр 15:50:24 #545 №76006 
>>75985
>ssd на 1tb
Миллионер в треде?
Аноним 24/01/23 Втр 15:55:18 #546 №76009 
1573535791363.png
>>76006
Он же не уточнил марку.
Аноним 24/01/23 Втр 15:57:29 #547 №76012 
>>76009
Не понял
Аноним 24/01/23 Втр 15:57:46 #548 №76014 
>>76006
По меркам 2013 года сын депутата.
А сейчас это говно на али 3k стоит. Но я взял брендовый, хороший BX500 и то он вышел в 5k.
Аноним 24/01/23 Втр 15:58:05 #549 №76015 
>>76001
Результаты будут разные, но какой лучше я не скажу
Аноним 24/01/23 Втр 15:58:42 #550 №76017 
>>76014
Это когда такое случилось?
Аноним 24/01/23 Втр 15:59:10 #551 №76020 
Чудеса какие то
Аноним 24/01/23 Втр 16:12:31 #552 №76044 
>>75623
>Раньше вместо Elysium была F222
Так Элизиум это ж какая-то мешанина, она сама на f222 скорее всего. И из нее ниче не вычитается. Тогда уж можно более новые миксы подмешивать.
Аноним 24/01/23 Втр 16:18:27 #553 №76053 
>>76009
>алекспрес
может ему сказать?
Аноним 24/01/23 Втр 16:21:52 #554 №76058 
>>75985
Погугли ntfs junctions, свалишь все модельки в одном месте.
Аноним 24/01/23 Втр 16:25:45 #555 №76066 
2023-01-24162533.png
>>76006
Да этого говна щас валом же.
Аноним 24/01/23 Втр 16:25:47 #556 №76067 
>>76058
Я использую --ckpt-dir, так что нормально. Скорее проблема в миксах и точек дримбуха, которые все равно не очень вышли, но их пока жалко.
Аноним 24/01/23 Втр 16:39:16 #557 №76087 
image.png
>>76066
У меня пикрил. Лицо?
Аноним 24/01/23 Втр 16:40:55 #558 №76089 
grid-0243.png
grid-0242.png
блядь 0.4.0 практически не тренирует
1 - версия от 31 декабря, вроде
2 - 0.4.0 говнище
я ебал эту хуету нах, почему нельзя ПРОСТО работать, а не ебаться днями с этим??
Аноним 24/01/23 Втр 16:40:55 #559 №76090 
image.png
image.png
>>75630
Аноним 24/01/23 Втр 16:41:49 #560 №76093 
>>76089
что он там тренировал, дебил ебаный?
когда кохью пофиксит свою хуергу?
Аноним 24/01/23 Втр 16:43:03 #561 №76095 
2023-01-24163927.png
>>76067
Ну ебани тогда нтфс сжатие, LZX вариант. Питоноговно хорошо сожмет, модели тоже процентов на 7-10 ужать можно. Мастхев имхо. Файлы, которые нуждаются в редактировании - распакуются обратно сами по себе.
>>76087
>torch.cuda.OutOfMemoryError: CUDA out of memory.
Невообразимо.
Аноним 24/01/23 Втр 16:44:43 #562 №76104 
Когда лора заработает? У меня датасеты нетренированные.
Аноним 24/01/23 Втр 16:46:40 #563 №76107 
>>76089
> почему нельзя ПРОСТО работать, а не ебаться днями с этим??
Have sex Ну не ебись, отложи в сторонку и вернись когда заработает. Ты ебнутый или что?
Аноним 24/01/23 Втр 16:49:08 #564 №76111 
>>76107
>вернись когда заработает
Не заработает, кохью считает что все в порядке, поэтому я буду ныть в тредах.
Аноним 24/01/23 Втр 16:49:22 #565 №76112 
>>76089
Почему просто нельзя взять и откатиться на рабочую версию?
Аноним 24/01/23 Втр 16:50:06 #566 №76115 
>>75630
> Вообще-то годнота, если учесть, что это только эмбеддинг
Ну так эмбединг плюс-минус всегда дает примерно одну и ту же внешку на одной модели и настройках. Проблема в том, что обычно эта внешка мимо.
Аноним 24/01/23 Втр 16:51:06 #567 №76118 
>>76112
Вроде моя лора на старой версии не работала, а сейчас запустил и выдает нормальную касен. Я хз, может я слепой.
Аноним 24/01/23 Втр 16:51:35 #568 №76119 
>>76111
> я буду ныть в тредах
Но ведь твой протык, который считает что всё в порядке, эти треды не читает.
Аноним 24/01/23 Втр 16:52:52 #569 №76121 
grid-0245.png
Ебать мастерпис нах. Теперь бы вспомнить какой это коммит был..
Аноним 24/01/23 Втр 16:55:34 #570 №76127 
>>76121
Зачем кохью все сломал? Посмотрите на этот результат. Работает - не трогай.
Аноним 24/01/23 Втр 16:56:10 #571 №76129 
>>76119
Здесь кохью-лахта сидит ебнутая, у которой все нормально, все хорошо. Я ей назло буду постить.
Аноним 24/01/23 Втр 16:57:16 #572 №76131 
>>76121
Нет, это может быть вообще 0.3.1 был, я запутался...
Аноним 24/01/23 Втр 17:00:01 #573 №76137 
>>76044
Кто-то высказывал версию, что Элизиум - это и есть F222. У них один хэш. Но как мы теперь знаем, может быть тысяча моделей с одинаковым хешем.
Аноним 24/01/23 Втр 17:04:32 #574 №76148 
>>76131
Но на 0.3.1 по настройкам и датасету анона у меня вышел другой результат. (tokiame)
Аноним 24/01/23 Втр 17:05:59 #575 №76152 
>>76137
Надо полный хэш посчитать и сравнить
Аноним 24/01/23 Втр 17:09:20 #576 №76158 
>>75598
Сложна, я с этим не работал.
Аноним 24/01/23 Втр 17:11:50 #577 №76160 
Лора рабочая вышла, но сюда её скидывать мне не нужно, как я понял меня тут недолюбливают. tokiame так и не добавили, хотя у паханов этого треда нормально вышло натренить.
А 1060-анон вообще на меня обиду держит из-за одного поста, когда я по его советам кокоро тренировал.
Аноним 24/01/23 Втр 17:19:36 #578 №76171 
>>75920
Ты автор скрипта? Нужна хоть какая-то хелпа с вот этим >>75391
Куду тоже последнюю накатил, и павершелл 7 поставил и через него пытался открывать, не помогло
Аноним 24/01/23 Втр 17:20:22 #579 №76173 
>>76160
>недолюбливают
Драма уровня аи, хех.

>>76090
Хорошие фоточки, тренируй на них лору на хассане/dreamlike photoreal
Аноним 24/01/23 Втр 17:21:11 #580 №76175 
00565-3672707321-realistic photo of auzumaki himawari with lada, whisker markings, whisker marks, whiskers, by Jeremy Lipking, by William Bouguer.png
>>76160
>tokiame
>кокоро
>паханов этого треда
>1060-анон
анонимная борда. 2023 год.
Аноним 24/01/23 Втр 17:21:26 #581 №76176 
1674570084600.png
1674570084616.png
Скачал сейчас из гайда .ps1, ошибку пишет. Это автор гайда скрипт сделал косячным или что?
Аноним 24/01/23 Втр 17:23:44 #582 №76178 
>>76176
Да, лично я держу 4 версии его скрипта.
Аноним 24/01/23 Втр 17:29:25 #583 №76192 
>>76176
Обнови Силовую Оболочку
Аноним 24/01/23 Втр 17:30:13 #584 №76195 
image.png
>>76175
Они себя прямо в гайде прописали, ты лучше их не зли, они 90% советов в треде дают.
Аноним 24/01/23 Втр 17:31:10 #585 №76199 
>>76067
Я удалять такие начал, сохраняю только параметры, на которых тренил + датасет.
Аноним 24/01/23 Втр 17:32:30 #586 №76206 
>>76195
ладно
Аноним 24/01/23 Втр 17:32:31 #587 №76207 
>>76129
Каждый раз с этого шиза проигрываю
Аноним 24/01/23 Втр 17:34:38 #588 №76216 
>>76207
С кохью-лахты?..
Но она же реально есть.
>>74203
Аноним 24/01/23 Втр 17:36:35 #589 №76223 
>>76171
У меня файл подкачки 30 гб и нет ошибок
Аноним 24/01/23 Втр 17:36:41 #590 №76224 
image.png
>>76207
Чел, давай забудем старые обиды, ок?
Аноним 24/01/23 Втр 17:36:52 #591 №76225 
1674571011082.png
>>76192
Да, ты прав, там поперло.

Надо бы чтобы авторы добавили в гайд инфу про это. И еще инфу про то, что если ставить два повершела, то система политики ломается и приходится лезть в реестр. Я так для версии 7.3 её не починил. Сначала запускаю встроенный, кажется 5 версии, в нем делаю Set-ExecutionPolicy Unrestricted, а уже потом в 7.3 захожу.
Аноним 24/01/23 Втр 17:37:48 #592 №76231 
>>76176
Обнови паверхел
Аноним 24/01/23 Втр 17:38:51 #593 №76235 
.png
>>76225
> Надо бы чтобы авторы добавили в гайд инфу про это.
Кек
Аноним 24/01/23 Втр 17:40:41 #594 №76238 
image.png
И зачем такая лора нужна? Чтобы на огрызке нормальной модели - асернити её использовать? Моя лора на касен работает и на абиссе.
Аноним 24/01/23 Втр 17:44:32 #595 №76246 
1674571471418.png
>>76235
Я имел ввиду что-то вроде этого. Чтобы на видном месте.
Аноним 24/01/23 Втр 17:55:36 #596 №76265 
16660318820908-3574161151-a girl showing hands.png
16660318820913-3574161151-a girl showing hands.png
>>76137
f222 слева, элизиум справа.
Тут Элизиум выглядит примерно как f222 + инстаграм кафе.
Аноним 24/01/23 Втр 18:04:24 #597 №76279 
>>76246
Потом добавлю если не забуду
Аноним 24/01/23 Втр 18:05:29 #598 №76284 
>>76238
Потому что асёртенити - это отличная база для обучения, а оранж - это говномикс
Аноним 24/01/23 Втр 18:06:26 #599 №76287 
>>76284
>оранж - это говномикс
перетолстил
Аноним 24/01/23 Втр 18:07:39 #600 №76289 
>>76284
база три раза
Аноним 24/01/23 Втр 18:17:13 #601 №76319 
>>76284
>асёртенити
Соус?
Аноним 24/01/23 Втр 18:20:23 #602 №76323 
>>76319
это кал, не качай, если выйдет хуевая лора работающая только на модели, на которой обучал, то наи хоть как то выйдет
асернити же кал полнейший, обучай на наи
Аноним 24/01/23 Втр 18:24:51 #603 №76332 
>>76323
>хоть как то выйдет использовать
Аноним 24/01/23 Втр 18:41:23 #604 №76371 
>>76323
Долбоёб ебаный, зайди в репо, там все лоры на асёртенити натренены. Это отличная чистая база, не то что оранжкал
>>76319
https://huggingface.co/JosephusCheung/ACertainty
Аноним 24/01/23 Втр 18:43:05 #605 №76375 
.png
Есть шансы? Вчера только питон начал изучать
Аноним 24/01/23 Втр 18:47:15 #606 №76381 
>>76371
По факту есть что ответить?
>оранжкал
Тебя апельсиноюзеры проткнули что ли? Хули ты так рвешься? Я не на миксе предлагаю обучать, а на голом наи.
Аноним 24/01/23 Втр 18:49:28 #607 №76382 
>>76371
>зайди в репо, там все лоры на асёртенити натренены
Ну молодец хули, продвинул кал среди анончиков. Доволен их страданиями?
Аноним 24/01/23 Втр 18:53:49 #608 №76394 
>>76382
Кроме него тут никто на асертените не тренирует.
Аноним 24/01/23 Втр 18:56:23 #609 №76400 
>>76381
Никто меня не протыкал. На наи, на сёртэнити, не важно. Главное тренить на чистой модели, а не на миксе из непонятного чего со сломанным клипом после тысячи мерджей

>>76382
> модель специально созданная для файн-тюна
> кал
Сходи проветрись
Аноним 24/01/23 Втр 18:58:29 #610 №76406 
>>76400
>миксе
Он генерит годноту.
>клипом
В соседнем треде выяснили, что пофикшенный клип делает хуже.
>тренить
Я нигде не предлагал обучать на оранже, ты сам проткнулся.
Аноним 24/01/23 Втр 18:59:53 #611 №76409 
1674575991770.mp4
>>76400
>оранж
>сломаный клип
Аноним 24/01/23 Втр 19:06:16 #612 №76427 
>>76375
Нет.
Аноним 24/01/23 Втр 19:09:27 #613 №76433 
>>76375
Нахуя ты это делаешь, кстати? Оно же работает на видеокарте, отбирая кусочек от твоих и так немногих 6 гб.
Аноним 24/01/23 Втр 19:10:00 #614 №76435 
.png
.png
.png
.png
>>76406
> Он генерит годноту.
Что мешает обучить лору на чистой модели, а потом использовать на другой? Религия?
> Чтобы на огрызке нормальной модели - асернити её использовать?
Кто это придумал? У меня все аниме нетворки натренены на асёртэнити, и все без исключения подхватывают стиль любого микса
Пикрил одна и та же лора на асёртенити на 4 разных моделях. Она даже с протогеном справляется

>>76409
Оранжлахта, угомонись уже

>>76427
Пизда. Почему???
Аноним 24/01/23 Втр 19:13:49 #615 №76445 
>>76433
Гуй винды тоже отнимает, что предлагаешь делать?
Аноним 24/01/23 Втр 19:14:32 #616 №76450 
>>76435
Ты на оранже-то пробовал тренировать, умник ебаный нахуй? Там клип чище слез девственницы, нахуя ты несешь чушь?
Аноним 24/01/23 Втр 19:14:33 #617 №76451 
>>76433
Только замерил афтербёрнером, 11 мб видеопамяти занимает, похуй
Аноним 24/01/23 Втр 19:15:48 #618 №76458 
>>76450
Зачем мне тренить плоский 2д арт на псевдо 3д модели?
Аноним 24/01/23 Втр 19:24:28 #619 №76480 
>>76458
Не пробовал значит. Ну и не высирайся нахуй, раз у тебя все лоры на одной модели тренируются.
Аноним 24/01/23 Втр 19:27:11 #620 №76487 
.png
>>76480
Да, говноедством не грешу
Аноним 24/01/23 Втр 19:30:23 #621 №76491 
>>76445
Нативный гуй отнимет пару килобайт максимум, если отнимет вообще.
>>76451
А как же то время, которое видеокарта тратит на отрисовку гуя? Могло бы потратить это время на лору.
Аноним 24/01/23 Втр 19:33:11 #622 №76496 
>>76491
> А как же то время, которое видеокарта тратит на отрисовку гуя? Могло бы потратить это время на лору.
Да не души. Ограничу фпс отрисовки до 1 во время обучения или добавлю опцию чтобы гуй закрыался и открывалась консоль. Меня больше другое волнует - я не умею программировать
Аноним 24/01/23 Втр 19:35:11 #623 №76501 
>>76496
Ну, не расстраивайся, автоматик вон тоже не умеет, а написал гуи.
Аноним 24/01/23 Втр 19:38:16 #624 №76511 
>>76501
Проиграл
Аноним 24/01/23 Втр 19:40:50 #625 №76518 
>>76491
А как же то время, которое ты потратил на лору, вместо того чтобы вкатываться в айти и зарабатывать на 4090?

Что за минмаксинг, анон? Надо решать самые важные проблемы, а не каждую мелочь доводить до идеала.
Аноним 24/01/23 Втр 19:42:15 #626 №76522 
>>76518
>которое ты потратил на лору
А я и не тратил.
Аноним 24/01/23 Втр 19:43:27 #627 №76526 
>>76501
>автоматик
>написал гуи
>Contributors: 314
Самую первую версию, разве что. Сейчас он больше мержит PRы и мелочи правит.
Аноним 24/01/23 Втр 19:43:59 #628 №76528 
>>76522
Выходит, вовсе время потерял.
Аноним 24/01/23 Втр 19:45:22 #629 №76534 
1674578721162.png
>>76526
>мелочи
Действительно
Аноним 24/01/23 Втр 19:46:13 #630 №76537 
image.png
>>76534
Аноним 24/01/23 Втр 19:59:50 #631 №76577 
>>76534
Ещё один долбоёб, который не в состоянии открыть коммит и посмотреть что за тесты там были выпилены.
Аноним 24/01/23 Втр 20:02:02 #632 №76582 
memory.jpg
0.9.jpg
cowboy-shot.jpg
>>76223
Спасибо за подсказку, получилось, натренил за 20 минут вот такую херню, можно сказать сработало, даже лучше чем дримбут делал с этим датасетом.

Это что вообще бездонный колодец, жрёт вообще всё что выделяешь? На пикриле всю память и своп съел, но начал работать. У всех тренирующих свопы от 32 гигов?
Аноним 24/01/23 Втр 20:03:44 #633 №76586 
>>76582
Красава. У меня своп на авто стоял, залез недавно и увидел что он раздулся до 28 гигов
Аноним 24/01/23 Втр 20:19:20 #634 №76614 
>>76582
>20 минут
Это на каких настройках и какая GPU?
Аноним 24/01/23 Втр 20:21:25 #635 №76618 
1674580884145.png
>>76582
У меня оно само время от времени меняется. Ставил лишь на один 30гб, а теперь вот так на два. А до этого он сам поменял лишь на HDD, охуел от такого автоматического решения, при запуске webui комп зависал на минут 5 без возможности двинуть мышкой даже.
Аноним 24/01/23 Втр 20:36:25 #636 №76645 
cdrive.jpg
>>76586
>>76618
Стоял своп в рейндже 4-8 гб, увиличил вчера до 16, но этого тоже оказалось мало, мне буквально пришлось вычистить вилкой всё в диске, чтобы эти 32 гига в него влезли, перенесу потом своп на другой раздел диска, пожалуй

>>76614
3080, 24 отзеркаленные пикчи, 10 эпох, сток вроде остальное

$max_train_epochs = 10
$resolution = 512
$save_every_n_epochs = 1

$learning_rate = 1e-4 # Скорость обучения
$unet_lr = $learning_rate # Скорость обучения U-Net. По умолчанию равен скорости обучения
$text_encoder_lr = $learning_rate # Скорость обучения текстового энкодера. По умолчанию равен скорости обучения
$scheduler = "cosine_with_restarts" # Планировщик скорости обучения. Возможные значения: linear, cosine, cosine_with_restarts, polynomial, constant (по умолчанию), constant_with_warmup
$lr_warmup_ratio = 0.0 # Отношение количества шагов разогрева планировщика к количеству шагов обучения (от 0 до 1). Не имеет силы при планировщике constant
$network_dim = 128 # Размер нетворка. Чем больше значение, тем больше точность и размер выходного файла
$max_data_loader_n_workers = 8 # Максимальное количество потоков для DataLoader. Чем меньше значение, тем меньше потребление RAM, быстрее старт эпохи и медленнее загрузка данных
$save_precision = "fp16" # Использовать ли пользовательскую точность сохранения, и её тип. Возможные значения: no, float, fp16, bf16
$mixed_precision = "fp16"
Аноним 24/01/23 Втр 20:51:25 #637 №76672 
image.png
03210-1516621308-(masterpiece, best quality),1girl, standing, nude, glowpuss.png
03520-751946904-(best quality),1girl, (body fur1.2, white fur1.3), furry, furry female, sheep tail, ass focus, from behind, outdoors, (glowin.png
03324-3820252454-(best quality),1girl, colored skin, monster girl, nude, focus pussy, standing, outdoors, (glowing), fox tails, fox ears, yellow.png
>>74508
Короче я смог осилить вчера тот колаб и даже че то вышло в итоге, прикиньте. А ВЫ В МЕНЯ НЕ ВЕРИЛИ! Правда результат довольно посредственный вышел и часто говнит генерацию, но я и близко не ожидал какого-нибудь результата с первого раза.

Может кто подсказать где я обосрался? В основном проблема с лицами и анатомией. Тренил на NAI.
Вот датасет https://pixeldrain.com/u/AwpA7V9Z .
Настройки пикрел.

При использовании того что вылезло под конец тренинга как я понимаю там был 29-й epoch, он без названия почему то был, видимо финальная версия? результаты на NAI отвратительные (первая пикча), но оранжмикс внезапно выдал что-то адекватное. В основном говнит лица и анатомию. Дополнительные примеры в архиве.
Аноним 24/01/23 Втр 21:09:38 #638 №76717 
>>76582
У меня своп до 64 отжирается, при 16 гигах рам
Аноним 24/01/23 Втр 21:13:24 #639 №76724 
>>76717
Вау, у меня Dreambooth всего гигов 6 оперативы ест.
Аноним 24/01/23 Втр 21:31:33 #640 №76758 
>>76717
>>76586
>>76618
То-есть для тренировки таким способом нужно очень много памяти? Серьёзный минус. А ещё не очевидный, добавили бы в гайд. Гпу большую часть времени просто простаивала во время тренировки.

Алсо есть тут гигачеды с 128 рам на борту? С таким количеством должно быть куда быстрее по идее.
Аноним 24/01/23 Втр 21:36:09 #641 №76764 
>>76758
У меня 64, но в 99% случаев это нахрен не нужно, а в оставшихся 1% это решаемый вопрос. Если Dreambooth умещается в 6 гигов, лора тоже должна так уметь.
Аноним 24/01/23 Втр 21:39:05 #642 №76768 
господа, на huggingface почти везде есть папка vae с чекпоинтом внутри и конфигом в джейсоне

кроме самой модели нужно ли всегда устанавливать еще и вае?
нужно ли устанавливать конфиг вае в webui? если да, то как?

https://huggingface.co/stabilityai/stable-diffusion-2-base/tree/main/vae
https://huggingface.co/hakurei/waifu-diffusion-v1-4/tree/main/vae (тут по-моему какой-то кастом)
https://huggingface.co/naclbit/trinart_stable_diffusion_v2/tree/main/vae
https://huggingface.co/nitrosocke/mo-di-diffusion/tree/main/vae

и т. д
Аноним 24/01/23 Втр 21:40:48 #643 №76770 
>>76768
> кроме самой модели нужно ли всегда устанавливать еще и вае?
Ставь https://huggingface.co/stabilityai/sd-vae-ft-mse-original/blob/main/vae-ft-mse-840000-ema-pruned.ckpt
> нужно ли устанавливать конфиг вае в webui? если да, то как?
Не нужно, это diffusers файлы.
Аноним 24/01/23 Втр 21:42:38 #644 №76774 
>>76764
Ты тренишь лоры? Можешь показать сколько во время тренинга у тебя системной памяти жрёт в hwinfo или аналогичном?
Аноним 24/01/23 Втр 21:43:05 #645 №76776 
>>76770
эти поставил. а другие же не просто так там лежат?
Аноним 24/01/23 Втр 21:44:07 #646 №76779 
>>76774
Нет, только Dreambooth.
Аноним 24/01/23 Втр 21:46:22 #647 №76783 
>>76776
Они лежат для тех, кто знает что с ними делать.
Если ты задаешь такие вопросы — значит они тебе не нужны. Без шуток и подъёбок.
Аноним 24/01/23 Втр 21:50:57 #648 №76793 
>>76783

я знаю что их нужно класть рядом с моделью и они будут улучшать генерацию, и что их специально отдельно тренируют, в т.ч. то что ты скинул
Аноним 24/01/23 Втр 21:51:15 #649 №76795 
>>76779
Я пробовал дримбут, он точно так много памяти не потреблял, там врам только нужен вроде от 10, а на обычный рам похер. Сколько у тебя он занимает в враме и раме во время тренировки?
Аноним 24/01/23 Втр 21:54:39 #650 №76800 
>>76793
Конкретно эти файлы ничего не будут улучшать и в текущей реализации webui они никаким образом работать не будут.
Аноним 24/01/23 Втр 21:55:01 #651 №76802 
>>76795
6гб рамы и 11 с лишним врамы. Это с тренировкой text encoder, то есть полный файнтюн, не только unet.
Аноним 24/01/23 Втр 21:55:53 #652 №76804 
>>76800
спс. это то что я хотел узнать
Аноним 24/01/23 Втр 21:57:22 #653 №76805 
>>76802
Зачем файнтюнить text encoder, если его итт заменяют на то что в сд лежит?
Аноним 24/01/23 Втр 21:59:09 #654 №76807 
>>76805
https://huggingface.co/blog/dreambooth#fine-tuning-the-text-encoder

А вот зачем его итт заменяют - вопрос хороший.
Аноним 24/01/23 Втр 22:07:19 #655 №76818 
где можно посмотреть на сравнения 16 vs 32 битных моделей?
Аноним 24/01/23 Втр 22:36:34 #656 №76886 
>>76818
Если поверишь мне на слово, то там нет отличий. Есть между fp16 и bf16 не в пользу последних.
Это я почти с месяц назад тестировал, гридов нет больше.
Аноним 24/01/23 Втр 22:40:51 #657 №76895 
>>76886
спасибо. 16 по идее быстрее работает за счет i/o?
Аноним 24/01/23 Втр 22:41:37 #658 №76899 
>>76895
За счет чего не знаю, но быстрее
Аноним 24/01/23 Втр 22:47:12 #659 №76918 
>>76895
Одинаково
Аноним 24/01/23 Втр 22:51:55 #660 №76932 
>>76918
>>76899

понял. сравню, в общем, благодарю

там, где я работал, 16 битные вычисления именно ускоряются за счет увеличения пропускной способности шины, а не скорость просчета
Аноним 24/01/23 Втр 23:24:09 #661 №77047 
20870-1342430794-(AliceDV1.1), 1girl, solo, flower, outdoors, sitting, socks, open mouth, dress, looking at viewer, smile, twintails, day, orang.png
Залил АлисоЛору на хаггинфейс
MikuIncarnator/AliceLora
Аноним 24/01/23 Втр 23:26:09 #662 №77054 
>>77047
Нормальную ссылку дай
Аноним 24/01/23 Втр 23:27:31 #663 №77057 
>>77054
Когда нажимаешь скопировать, но он копирует не все..
https://huggingface.co/MikuIncarnator/AliceLora
Аноним 24/01/23 Втр 23:36:13 #664 №77066 
>>76672
Слишком не типичный концепт для nai, крайне сложно ему зацепится и понять, где там тян, а где фон\стол\цветная мишура из твоих пикч, а так же еще еблю он не любит.
Я бы не использовал пикчи, где есть 2girl или 1boy, где руки вылазят из границ экрана (и у тебя для них даже не задан тег pow). Отзеркалил бы все. Добавил бы пикч с full body и при этом nude, может даже в фотошопе им цвета поменял для большего разнообразия. Убрал бы ту какую-то каменную девку, которая на камне сидит.
У меня самого проблема с глазами. Сейчас пробую отзеркалить, до этого помогало.
Аноним 24/01/23 Втр 23:44:25 #665 №77074 
>>73055
>tsutomu nihei
а ты спросил его разрешения для скармливания его работ алгоритму ?
Аноним 24/01/23 Втр 23:57:06 #666 №77087 
>>77074
Кого ебет? Мы не Stable AI.
Аноним 25/01/23 Срд 00:00:37 #667 №77090 
>>77074
Только не говори ему, ну пожалуйста. Он наругает.
Аноним 25/01/23 Срд 00:02:56 #668 №77092 
>>77087
stability.ai
Аноним 25/01/23 Срд 00:05:26 #669 №77095 
1674594325521.png
Ого. Автоматик там сделал релиз!
Аноним 25/01/23 Срд 00:06:28 #670 №77099 
>>77092
И не они тоже.
Аноним 25/01/23 Срд 00:09:10 #671 №77104 
>>77087
Это по-свински, Человек годами работал над собой, делал тонны рисунков, чтобы какой-то безрукий мудак запихнул его труд в копировальную машину коллажей и обесценил всю его жизнь высерая сотни кривых подобий его стиля, который обыватель с трудом отличит от оригинала
Аноним 25/01/23 Срд 00:09:15 #672 №77105 
.png
Анончики, пытаюсь потренить лору на ксяо, но после установки всех параметров в dreambooth и нажатия train он выдает мне только это и всё. Что делатц?
Аноним 25/01/23 Срд 00:10:07 #673 №77106 
xygrid-0109-50265e48df-3123123.jpg
>>77047
Спасибо, анон. А датасетом и скриптом с настройками поделишься? Алсо на какой модели тренил?
Аноним 25/01/23 Срд 00:14:31 #674 №77111 
>>77104
¯\_(ツ)_/¯
Аноним 25/01/23 Срд 00:18:27 #675 №77115 
>>77106
Тренил на novelfull.

Потом выложу там же.
Аноним 25/01/23 Срд 00:21:34 #676 №77123 
1674595292641.png
>>77095
Найс
Аноним 25/01/23 Срд 00:22:08 #677 №77124 
>>77123
Автоклассика
Аноним 25/01/23 Срд 00:22:31 #678 №77126 
>>77104

так много работал над собой, что окончательно разучился рисовать. ему б самому себя покопировать
Аноним 25/01/23 Срд 00:23:05 #679 №77127 
.png
.png
Крайне медленно, но пилится. Релиз в 2024
Аноним 25/01/23 Срд 00:28:47 #680 №77132 
>>77115
А ещё, чуть не забыл, это ты на какой версии сд-скриптс тренил, на старой ещё?
Аноним 25/01/23 Срд 00:31:44 #681 №77135 
>>77132
Версия от 22 числа.
Работала норм, я сейчас вылетает ошибка. похоже я где-то накосячил когда собирал xformers.
Аноним 25/01/23 Срд 00:32:40 #682 №77137 
>>77123
>>77124
Но все же запустилось, когда запустил не run.bat, а webui-user.bat
Аноним 25/01/23 Срд 00:33:21 #683 №77139 
>>77104
Иди нахуй на /pa/. Либо не жалуйся что я на твоей доске сру.
Аноним 25/01/23 Срд 00:35:04 #684 №77140 
>>77104
>кривых подобий
Не обязательно кривых, но если и не полностью походит на его стиль, то что плохого? Так интересней
Аноним 25/01/23 Срд 00:42:27 #685 №77149 
Куча лорок, приятного:
https://mega.nz/folder/B6ZUyRJa#-r4ncWUclEG5P8T7LPIebw
Аноним 25/01/23 Срд 00:51:31 #686 №77158 
>>77066
Спасибо за советы, попробую.
Аноним 25/01/23 Срд 00:53:50 #687 №77162 
>>77127
Кул. Не будет лишним забекапить код. Если сломается что-то, ты сможешь восстановить. Ну или, наоборот, так проще экспериментировать, не боясь сломать что-то. Ручные бекапы - это git на минималках.
Аноним 25/01/23 Срд 00:55:09 #688 №77163 
>>77162
В плане забекапить? Если ты про гит, то репо есть. Когда будет реально рабочее (надеюсь это случится) сделаю публичным
Аноним 25/01/23 Срд 00:55:59 #689 №77166 
>>77163
А, ты уже с гитом работаешь, вообще круть.
Аноним 25/01/23 Срд 01:49:33 #690 №77222 
1657768279989.png
>>77074
За апосимз его можно не только не спрашивать, а еще и пару лещей выдать при встрече

>>77104
> обесценил
Попробуй лучше
Аноним 25/01/23 Срд 01:54:01 #691 №77225 
>>77222
Это гиперсетка Сенко на нихеевской лоре?
Аноним 25/01/23 Срд 02:08:58 #692 №77248 
1621330218856.png
1560006504722.png
1525488915673.png
>>77225
> Это гиперсетка Сенко на нихеевской лоре?
Нет, это моя кривая лора на сенко в стиле римукоро вообще первая лора, которую сделал и лора нихуя
Аноним 25/01/23 Срд 02:15:24 #693 №77257 
>>77248
Все равно забавно. Но Сенко явно даёт слишком много солнечности
Аноним 25/01/23 Срд 02:36:05 #694 №77315 
>>77257
Даже в эту унылую депрессивную атмосферу она способна принести лучик света

Чому играясь с весом эмбединга легко поймать момент, когда влияние на стиль отсутствует а персонаж охотно переодевается и принимает любые позы, а в случае с лорой элементы "канона" пытаются проскакивать вплоть до потери ключевых деталей?
Аноним 25/01/23 Срд 02:50:17 #695 №77350 
>>72987 (OP)
Бля, пацаны, есть ли какойнить новостной ресурс, где собираются все новости по поводу всех разработок в нейронках? На хагинфейсе неудобно и там новостей нет, только спейсы. На ютубе мониторить тоже неудобно. В частности интересует область генерации изображений.
1. Что планируют сделать с кривым рисованием рук, перекрываемых объектов.
2. Анимации? Или видосы?
3. Запоминание персонажа по 1 картинке со всеми деталями? Чтобы можно было сгенерировать девочку и потом ее в разные позы в визуальной новелле ставить, например.
Аноним 25/01/23 Срд 02:57:33 #696 №77369 
>>76672
Лизь-лизь 3
Аноним 25/01/23 Срд 07:15:29 #697 №77706 
>>76371
>Долбоёб ебаный, зайди в репо, там все лоры на асёртенити натренены.
В каком репо все лоры на асертанти натрейнены? Интересуюсь для друга.
Аноним 25/01/23 Срд 09:23:03 #698 №77757 
>>77350
> в визуальной новелле
Еще один.
Аноним 25/01/23 Срд 09:24:35 #699 №77760 
>>77757
Вахтер, плиз.
Аноним 25/01/23 Срд 10:36:16 #700 №77825 
drawnbyiwairyoudede31f8b0a95d2b0a898027fe1ca71d.png
>>73055
>4
>>73133
>1
>4

обалдеть. я вкатываюсь в нейронки чтобы наконцептить БУКВАЛЬНО такого ранне-нихее-аниме-мегаструктурного контента для своего соло поделия. ты можешь, насколько тебе не лень, объяснить, как прийти к подобному результату новичку с нуля?
Аноним 25/01/23 Срд 10:46:06 #701 №77833 
>>77825
Лору у него попросить и не плодить сущности?
Аноним 25/01/23 Срд 10:49:07 #702 №77836 
>>77833

мне хотелось бы удочку, а не рыбу
Аноним 25/01/23 Срд 10:49:35 #703 №77838 
>>77836
Лора и есть удочка.
Аноним 25/01/23 Срд 11:27:47 #704 №77881 
>>77706
В шапке, няш
Коллекция лор
Аноним 25/01/23 Срд 11:45:27 #705 №77897 
>>77350
Анон с форчана долгое время вел https://rentry.org/sdupdates3 и https://rentry.org/sdgoldmine В последнее время обновляет редко, но недавно писал (в первой ссылке), что собирается заняться активнее. Будем посмотреть. Тем не менее, там уже просто тонна инфы.

>3. Запоминание персонажа по 1 картинке со всеми деталями?
Гугли DreamArtist.
Аноним 25/01/23 Срд 14:16:52 #706 №78054 
Катите епта
Аноним 25/01/23 Срд 14:46:33 #707 №78103 
>>77760
Вахтерошиз, вон из треда.
Аноним 25/01/23 Срд 14:49:45 #708 №78110 
Какой минимум пикч для датасета лоры? 30?
Аноним 25/01/23 Срд 14:50:32 #709 №78112 
>>78110
1
Аноним 25/01/23 Срд 14:50:36 #710 №78113 
>>78110
От 5, если ультранищий на картинки. 30 хорошо.
Аноним 25/01/23 Срд 14:51:43 #711 №78117 
>>78113
>5
сколько тогда повторений ставить?
Аноним 25/01/23 Срд 14:54:37 #712 №78123 
>>78117
От 10 на пикчу я ставлю.
Попробуй разные цифры, расскажешь.
Все равно на 5 пикчах лора будет за 5 минут обучаться на 10 эпох.
Аноним 25/01/23 Срд 14:55:25 #713 №78124 
>>78123
>От 10 на пикчу
На концепт мб? Если в датасете 50 пикч, то обучать ты будешь 500 повторений, что за бред.
Аноним 25/01/23 Срд 14:57:03 #714 №78128 
>>78124
>На концепт мб?
Da.
Аноним 25/01/23 Срд 15:20:27 #715 №78166 
>>77897
>Гугли DreamArtist.
Да не, оно понятно, что можно и сейчас, будет похоже, но какие-то элементы проебутся, а это допустимо разве что в совсем нищих индииграх или особых случаях. Хотелось бы, чтобы модель прямо хорошо запоминала персонажа, тогда это уже можно будет коммерчески использовать. За две другие ссылки спасибо, посмотрю.
Аноним 25/01/23 Срд 15:51:57 #716 №78208 
>>77897
Он вроде хотел перекатиться на гитхаб. но новостей пока нет
Аноним 25/01/23 Срд 15:56:02 #717 №78216 
>>78166
Много хочешь из одной картинки. Это для людей даже не самая простая задача. Как именно этот персонаж будет выражать такую эмоцию? Как именно он встанет в определенную позу? Попробуй по одной картинке догадаться.
Аноним 25/01/23 Срд 16:26:08 #718 №78243 
>>77350
Заплати художнику, например, вместо того чтобы воровать работы. >>78166
>тогда это уже можно будет коммерчески использовать
никогда нельзя нейроподелки использовать коммерчески, на них нет авторского права
Аноним 25/01/23 Срд 16:29:35 #719 №78250 
>>78243
Пока есть желающие за них платить, будут те, кто готов сделать.
А авторские права нам не указ.
Аноним 25/01/23 Срд 17:09:02 #720 №78300 
>>78250
смысл платить, если можно саму нагенерить бесплатно?
Аноним 25/01/23 Срд 17:24:26 #721 №78328 
>>78300
Вон там в соседнем треде генерят 512х512 говно.
Нагенерить не говно - это уже нужны мозги и какой-никакой воркфлоу.
Аноним 25/01/23 Срд 17:56:25 #722 №78398 
image.jpg
Пока свой гайд не состряпали вкину сюда. Нашёл гайд по блок мерджу на форчонге: https://rentry.org/BlockMergeExplained
Начал читать, вроде прямо на пальцах начинается объяснение, алсо дополнение от автора на пике
Аноним 25/01/23 Срд 19:02:36 #723 №78489 
1674662556294.jpg
Заебался что-то. Но буду пробовать снова.
1 - малое количество пикч, а именно 24 шт, не считая отзеркаливания
2 - 94 шт.
3 - тоже самое, что и 2, но на новой версии скрипта
Везде 512x512, ACertainty, без vae, cosine_with_restarts. 1 и 2 на learning_rate 1e-4, 3 - на 1e-3
Сам x\y делал на новой версии webui и дополнения
Аноним 25/01/23 Срд 19:07:43 #724 №78500 
>>78489
учился бы рисовать, а не подделывать и воровать
Аноним 25/01/23 Срд 19:09:07 #725 №78507 
>>78500
Не, это долго, мы лучше сгенерируем.
Благо особой разницы нет.
Аноним 25/01/23 Срд 19:15:11 #726 №78514 
>>78500
Антош, если тебе так нравится рисовать - сходи порисуй. Или что-то случилось, что ты пришел на эту доску? Перестали работы покупать?
Аноним 25/01/23 Срд 19:16:41 #727 №78517 
.png
Дико извиняюсь, а что делать в таком случае?
Аноним 25/01/23 Срд 19:18:44 #728 №78521 
>>78517
Убери < и >
Аноним 25/01/23 Срд 19:19:10 #729 №78523 
>>78489
Так последняя версия крипта для обучения Лоры работает?

>>78517
Поправь путь, там не должно быть<>
Аноним 25/01/23 Срд 19:21:11 #730 №78524 
>>78523
Вчера только ставил. Файл .ps1 брал с гайда.
Но работает оно как-то по другому, как по мне хуже.
Аноним 25/01/23 Срд 19:21:35 #731 №78527 
>>78521
>>78523

спасибо, я бака
Аноним 25/01/23 Срд 19:24:37 #732 №78532 
image.png
>>78507
Разница есть, удовольствие от призания твоего скила и усилий от других, когда все знают что это сделал не ты, а нейросеть, нет, скорее презрение к криворукому вору, нет и радости творения и полученного результата, зачем это все тогда?
>>78514
Я, как человек с добродетелью справедливости, не могу смотреть как на моих глазах происходит несправедливость и воровство.
Вы же паразиты, вы ничего нового не создаёте, только воруете чужой труд
Аноним 25/01/23 Срд 19:25:40 #733 №78534 
>>78243
>Заплати художнику
У меня денег на еду не будет скоро, а ты говоришь, чтоб я художнику платил, который зарабатывает раза в 2 больше в среднем чем я в мухосрани.
Аноним 25/01/23 Срд 19:26:05 #734 №78535 
>>78532
Чел.. Иди спать в резиновый тред.
Аноним 25/01/23 Срд 19:29:56 #735 №78544 
Стикер
>>78534
И ты конечно сейчас самостоятельно нагенеришь спрайтов и напишешь опиздохуительный сценарий вночки с помощью опять-таки сетки, чтоб продать лохам и быдлу за сотни нефти в вк плее, чтоб озолотиться, такой план?
Аноним 25/01/23 Срд 19:33:56 #736 №78551 
Нубовопрос. Можно ли как-то использовать карту глубины при обучении?
Аноним 25/01/23 Срд 19:36:23 #737 №78557 
a.mp4
>>78544
Анон не станет платить художнику и не умрет с голоду. Все просто.
Аноним 25/01/23 Срд 19:42:34 #738 №78566 
.png
Это снова я, извините. Лажаю на каждом шагу.

Почему не копируется?
Аноним 25/01/23 Срд 19:43:50 #739 №78569 
>>78544
Конечно. Но не озолочусь, а реализую свои творческие начинания + если это будет приносить хоть какие-то деньги, хотя бы 20-30к в месяц, можно будет заниматься этим, а не разгребать говны, работая на дядю за те же деньги, под постоянным напряжением и еблей мозга. Когда у тебя есть по факту все, что нужно, ты собираешь из этого свой проект. Мечта любого творческого человека.
Аноним 25/01/23 Срд 19:46:17 #740 №78572 
>>78557
У анона будет полная свобода творческой деятельности, независящая от его изначальных финансовых возможностей. Чтобы начать что-то делать, ты либо должен уже дохуя охуенным быть, либо иметь большой стартовый капитал, а это тоже сложно, учитвая, что средняя зп в мухосране 30к, а средний художник требует 100к, что пиздец ваще.
Аноним 25/01/23 Срд 19:47:51 #741 №78575 
Раз уж об этом зашло опять, то почему никто не вспоминает, что было году так в 2010? Стал доступным блендер, юнити, всякие движки бесплатные, видухи стали тянуть рендер. Начали пилить 3d порн из моделек, порнхаб был забит этим. Было противно искать рисованный r34 по аниме, а находить кучу убогих 3d рендеров моделек.
Сейчас использовать 3d модели для рисоваки - это база, это норма. Посмотрите на ютубе как рисуют какую нибдуь пизду из уэнсдей. Для окружения они используют блендер и бесплатные модели, прорисовывают лишь отдельные детали и саму тянку.
>>78566
На это забей. Откопируй вручную
из \sd-scripts\bitsandbytes_windows
в \sd-scripts\venv\Lib\site-packages\bitsandbytes
и в \cuda_setup файл main.py
Все с заменой
Аноним 25/01/23 Срд 19:50:26 #742 №78580 
.jpg
>>78575

Правда в том, что у меня нет bitsandbytes_windows в scripts, что я упустил?
Только не бейте.
Аноним 25/01/23 Срд 19:53:52 #743 №78583 
1674665632726.png
>>78580
Ну я имел ввиду в корне папки со скриптом. Она с гитхаба качается со всем остальным. Или ты что-то другое ставишь?
Аноним 25/01/23 Срд 19:55:08 #744 №78585 
>>78583

Я следую лорагайду, просто не понял, что ты про гитпапку говорил. Сейчас все сделаю, пасибо.
Аноним 25/01/23 Срд 20:02:25 #745 №78597 
>>78534
Даже не начинай, бедность - не оправдание воровства
>>78572
Чтобы научится рисовать не нужно никаких финансовых возможностей, ты просто ленивый уебан
> а средний художник требует 100к, что пиздец ваще
охуительные истории, кто этот средний художник и за что такие расценки?
>>78569
Ты не реализуешь никакое творчество, когда за тебя всё делает нейросеть, ты блядь никакой не творческий человек раз чтобы задумываться о творчестве тебе понадобилась бесплатный костыль, который всё делает за тебя.
>>78575
Но нейросеть всё делает за тебя, буквально , а где нет твоего вклада, нет и творчества, жать на кнопку и выбирать из полученных вариантов это нихуя не творчество.
Аноним 25/01/23 Срд 20:13:07 #746 №78633 
Антоны, кто-нибудь тренил Dreambooth с другими lr_scheduler, помимо constant?
Аноним 25/01/23 Срд 20:13:31 #747 №78634 
>>78597
Чел.. Картинки-оригиналы используется для получения прибыли? Стили запатентованы?
Нет. А теперь иди нахуй.
Аноним 25/01/23 Срд 20:14:28 #748 №78638 
>>78633
Тренировал Алисолору с cosine_with_restarts.
Аноним 25/01/23 Срд 20:15:36 #749 №78640 
>>78597
>Даже не начинай, бедность - не оправдание воровства
Воровство тут только в твоей голове, малолетний долбоеб. Ты сперва изучи, как оно работает.
>Чтобы научится рисовать не нужно никаких финансовых возможностей, ты просто ленивый уебан
Да, только я вот год учился в юности и чот один хуй еле еле анатомию задрочил. А еще очень много нужно, кроме рисования. А я вообще программист.
>охуительные истории, кто этот средний художник и за что такие расценки?
Да пиздуй на любую биржу.
>Ты не реализуешь никакое творчество, когда за тебя всё делает нейросеть, ты блядь никакой не творческий человек раз чтобы задумываться о творчестве тебе понадобилась бесплатный костыль, который всё делает за тебя.
Ты меня не знаешь, малолетний долбоеб, но в каком-то своем воспаленном мозгу выдумал уже обо мне целую историю. Иди нахуй, даун ебаный.
Тебе сказано - нейросети помогут много кому раскрыть свой творческий потенциал и передать другим то что они чувствуют. Причем без каких-либо изначальных финансовых вложений и без задрачивания ненужной прослойки в виде рук и мозга. Ты когда-нибудь задумывался, например, что такое твои руки вообще? Почему ты видишь сны, но рисуешь руками? Руки это интерфейс, который не создан для рисования, даун ты ебаный, это костыль. А рисовать можно и из головы. Тебе по прежнему нужно будет дохуя чего знать, например композицию, "чувство прекрасного", да дохуя чего, если ты хоть немного знаком с творчеством, ты поймешь о чем я.
Аноним 25/01/23 Срд 20:17:19 #750 №78645 
.mp4
Блядь. С горем пополам сделал интерфейс. Застопорился на главном: как выполнить последовательность команд в консоли прямо из питона? С аргументами. Питонисты хелп
Аноним 25/01/23 Срд 20:20:33 #751 №78652 
>>78645
Что-то вроде:
https://stackoverflow.com/questions/14894993/running-windows-shell-commands-with-python
Аноним 25/01/23 Срд 20:22:06 #752 №78655 
1606630589909.png
>>78645
Я не питонист, но ща часто для простых скриптов на пихоне ебу чатжпт
Аноним 25/01/23 Срд 20:35:25 #753 №78690 
>>78655
Можно просто subprocess.run(["ls", "-l"])

Это выполнит ls -l в консоли. На каждую команду тебе будет нужен отдельный вызов subprocess.run().
Аноним 25/01/23 Срд 20:35:57 #754 №78692 
>>78634
>Картинки-оригиналы используется для получения прибыли?
Да.
>>78640
>Воровство тут только в твоей голове, малолетний долбоеб. Ты сперва изучи, как оно работает.
Воровства нет, вот только без охуительного датасета из работ взятых без разрешения авторов нихуя бы не работало, охуенно. И поэтому в этом ITT треде все воруют и скармливают чужий работы в копировальную коллаж машину.
>Тебе сказано - нейросети помогут много кому раскрыть свой творческий потенциал и передать другим то что они чувствуют. Причем без каких-либо изначальных финансовых вложений и без задрачивания ненужной прослойки в виде рук и мозга.
О,заученные тейки NPC, кк оправдания собственной никчёмности и воровства. Обесценивание настоящих рисунков с целью приравнять их к высерам нейросети а себя к 'творцам' при том нихуя не умея. Нет. Ты - ленивый долбоёб, по твоим же словам работающий за копейки, не помогут тебе нейросети никак, ты - не художник и никогджа им не станешь, ты - жалкая имитация и паразит.
Аноним 25/01/23 Срд 20:36:39 #755 №78696 
>>78652
>>78655
Ухх пизда сложно. Буду пробовать, спасибо
Аноним 25/01/23 Срд 20:36:59 #756 №78698 
xygrid-0019.jpg
И так, час генерил и теперь вопрос, как определить идеальный мердж? Потому что приемлемые значения лежат в диапазоне 30-70%, а как определять золотое сечение я хз, я тупой. Если только не хреначить по 100 артов на мердж и потом сидеть часами сравнивать чекаво.
Аноним 25/01/23 Срд 20:40:20 #757 №78712 
>>78698
Попробуй пару других промптов.
Аноним 25/01/23 Срд 20:44:00 #758 №78717 
>>78712
Пару сотен, ты хотел сказать.
Аноним 25/01/23 Срд 20:45:26 #759 №78722 
>>78692
>Картинки-оригиналы используется для получения прибыли?
>Да.
Где? После обучения модели они не нужны.
Аноним 25/01/23 Срд 20:45:37 #760 №78723 
>>78717
Если они все похожие, то дрочить можно до совершенства бесконечно. Тогда можно просто среднее выбрать. Если потом не понравится - попробуешь другое соотношение, и уже будет понятнее, на что обращать внимание.
Аноним 25/01/23 Срд 20:52:02 #761 №78741 
1530110576876.png
1617351043602.png
>>78690
>На каждую команду тебе будет нужен отдельный вызов subprocess.run().
Ну не мне, я не тот анон.

По пикрилам оно не пиздит? А то я уже поел всратых скриптов от него, но в целом результат удовлетворительный
дебажить через языковой чат то еще удовольствие

>>78696
Аноним 25/01/23 Срд 20:54:21 #762 №78748 
>>78741
Так может стоит делать это с дебагером и стаковерфлоу?
Аноним 25/01/23 Срд 20:55:11 #763 №78749 
>>78723
Окей, попробую разные сиды и промпты, ещё лучше наверное клип потестить.
Аноним 25/01/23 Срд 21:00:51 #764 №78774 
>>78748
Нужные мне скрипты не стоят такой ебли, да и можно запросить скрипт для павершела, чето из этого да заработает.

я в основном паскалебебил, который не прогал 10 лет
Аноним 25/01/23 Срд 21:01:31 #765 №78775 
>>78741
На первой пикче хуйня какая-то написана. На второй может даже сработает.
Аноним 25/01/23 Срд 21:02:45 #766 №78777 
Снимок экрана 2023-01-25 210116.png
Когда заменяю новый дримбутх на старый из лорагайда случается это и нихуя не работает. Нужно теперь какие-то новые действия предпринимать, в гайде не всё?
Аноним 25/01/23 Срд 21:04:04 #767 №78780 
>>78774
Ну, запускать полурабочий код, который ты не совсем понимаешь, и который был написан нейронкой, натрененной на тексте из интернета - по крайней мере, это не скучно. Примерно как в русскую рулетку играть.
Аноним 25/01/23 Срд 21:10:58 #768 №78800 
>>78780
> Примерно как в русскую рулетку играть.
А я и не против, все равно с этим стейбл дифужн стал лудоманом уже
Аноним 25/01/23 Срд 21:13:31 #769 №78808 
>>78774
> паскалебебил, который не прогал 10 лет
Обнял братишку.
мимо
Аноним 25/01/23 Срд 22:02:04 #770 №78914 
1547592695585.jpg
1645366566819.png
1554465638151.png
1601323959191.png
>>77825
> как прийти к подобному результату новичку с нуля?
1. Ставишь все по лорагайду
2. Без задней мысли собираешь датасет
3. Тренируешь
4. Профит


Ну а если серьезно, то я и сам считай новичок. Прочитай все два технотреда, местами есть разрозненная нужная инфа.
Вся суть в датасете. От того насколько он хорош и как протеган, в основном и будет зависеть твой результат. Аноны говорили что ты получаешь именно то на чем тренируешь~, что в общем-то очень дохуя логично. Тебе нужно протегать на пикчах все что ты хочешь видеть и все что не хочешь, но присутствующее, типа industrial pipes есть и wires тоже есть, тегаешь их. Кроме этого, как я понял, желательно еще дифферинцировать материал, например из тех же industrial pipes и wires, если ты хочешь только трубки в определенном стиле, то кроме теггинга, надо еще подкинуть пикч только с industrial pipes и только с wires отдельно и соответственно их протегать, что бы нейронка "поняла" че куда что бы обучить нейронку - думай как нейронка. Еще от самой модели, на которой тренишь зависит результат, лучше когда она знает то что ты хочешь получить, чем по факту обучать на тег с нуля.

Оранжмикс например смутно догадывается про существование нихуя, про другие модели уже не помню. У меня еще вылезла такая проблема что, тег megastructure на бурах существует, однако им тегали не только нихуя, и из-за этого, выдает не то что я хочу, негативы на сао помогают, но всеравно не то например. Еб твою мать, кто протегал Айнкрад из сао как мегаструктуру?
Алсо да, помогай лоре тегами не только из датасета.

Ну и собери хотя бы начальный датасет и ебись с лернинг рейтом, вармапом и шедулерами в 10 вариантах, что бы посмотреть, пощупать и уже понимать от чего тебе отталкиваться. Обязательно строй гриды по весу лоры и по эпохам с разными тегами, что бы понять как работает. Ну в общем начни, а там уже видно будет наверное.

Датасет для этой лоры нихуя я слил граббером с данбуру и чутка подкорректировал пикчи, обрезал где надо. Сейчас лениво собираю новый, листая блейм.

Хз насколько тебе эта информация поможет, объясняю я совсем хуево как и все аноны в треде, если чето не так написал, то меня поправят
Аноним 25/01/23 Срд 22:15:05 #771 №78946 
>>78532
>Разница есть, удовольствие от призания твоего скила и усилий от других, когда все знают что это сделал не ты, а нейросеть
Ой, не знаю, мне все равно. Лайков +- столько же.
>скорее презрение к криворукому вору, нет и радости творения и полученного результата, зачем это все тогда?
У меня есть радость от хорошей генерации, не знаю, что с тобой не так.
Аноним 25/01/23 Срд 22:24:47 #772 №78970 
>>78914
Надеюсь ты тегаешь perspective на страницы с видами мегаструктуры и зданиями
Аноним 25/01/23 Срд 22:36:56 #773 №78987 
>>78970
Я пока еще не создавал файлы описаний, но учту, спасибо за напоминание. Сначала датасет только из понравившихся разворотов соберу и посмотрю что получится, потом туда буду подмешивать остальное.

За неделю мб долистаю биомегу с абарой включительно
Аноним 25/01/23 Срд 22:48:44 #774 №79021 
00111-3491099384-fallout2-residential hyperrealistic post-apocalyptic desert town with rusty square shackspost nuclear wasteland isometric ae.png
00120-78392214-fallout2-residential buildings in hyperrealistic post-apocalyptic desert town with rusty square shackspost nuclear wasteland.png
00138-3355477318-hyperrealistic fallout2-residential computer generated image of a city with a lot of buildings and people walking around itpo.png
>>78914

спасибо за развернутый ответ

до этого пробовал колаб с textual inversion, пытаясь натренить сетку на здания из классического фоллаута. но за несколько попыток получил лишь лютую чепуху

да и размер эмбеддинга в пару килобайт вряд ли может содержать достаточно информации, чтобы адекватно воссодать все архитектурные формы из игры
Аноним 25/01/23 Срд 22:53:39 #775 №79041 
>>78987
Там много фреймов, которые можно тегать перспективой, трубами, кабелями, руинами и т.д.
Архитектуру и виды можно в отдельную лору запихнуть как вариант.
Надеюсь у тебя получится круто.
Аноним 25/01/23 Срд 22:56:22 #776 №79055 
>>79021
А сейчас есть смысл textual inversion использовать? Я его пробовал месяца три назад, он тогда требовал столько же VRAM, сколько и оптимизированный Dreambooth, но тренился дольше и результаты были значительно хуже.
Аноним 25/01/23 Срд 22:56:40 #777 №79059 
Аноны, почему в Additional networks ни одной лоры не отображается у меня? Что то в настройках не так? Не в ту папку положил?
Аноним 25/01/23 Срд 22:58:37 #778 №79064 
>>79059
Положи в папку Лоры в папке вебуи, а не расширения
Аноним 25/01/23 Срд 23:11:41 #779 №79093 
>>79064
sdw\models\lora? ну они с самого начала там лежали.
Аноним 25/01/23 Срд 23:39:14 #780 №79154 
https://github.com/Klace/stable-diffusion-webui-instruct-pix2pix
пикс2пикс в вебуи пульнули
Аноним 26/01/23 Чтв 00:16:46 #781 №79213 
image.png
image.png
>>79021
>>79055

кстати, попробовал дримбудку через колаб. тренируется в колабе минут 6, результат куда лучше
не знаю, зачем вообще текстуал инвершн нужен. тренируется часами, а результат смех один

https://github.com/Excalibro1/fast-stable-diffusionwik/wiki/fast-stable-diffusion-wiki
https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
Аноним 26/01/23 Чтв 00:47:02 #782 №79268 
>>79213
У каждого способа свои преимущества, а генерить ланшдшафты в стиле фоллача - не самая очевидная и ходовая задача.
Аноним 26/01/23 Чтв 01:07:18 #783 №79306 
>>79213
>>79213
> эмбеддинга в пару килобайт вряд ли может
Может. Только вот лишь с приходом дримбуха и лоры новые концепты пошли как из пушки, а до этого такого не было. Эмбеддинг слишком сложен в освоении, я только понял, как работает гиперсеть, а тут все внезапно пошли в лору, а про эмбеддинг забыли еще до него.
Так что, считай что эта технология либо сильно устарела и\или никто так и не нашел для нее достойного применения. Некоторые считают, что эмбеддинг никто и ни разу не смог одолеть до хоть как-то результата вменяемого. Но все же пару штук рабочих я видел.
Аноним 26/01/23 Чтв 02:00:52 #784 №79412 
.png
Ух пизда. Как-то разобрался. Ебал в рот писать гуй вручную... Есть пара косяков желательно если создал вкладку её не закрывать, там какой-то баг гуляет, пока лень разбираться НО ОНО РАБОТАЕТ. Можно тренить кучу лор последовательно. Можно создать одну вкладку и копировать все значения в любую другую, чтобы не заполнять одни и те же строки. Но защиты от дурака как в скрипте (почти) нету, это слишком долго делать. Но если всё ввести правильно, всё работает

Единственное я был бы ОЧЕНЬ благодарен если бы кто-то помог реализовать в приложухе консоль в любом виде. Чтобы видеть прогресс. Потому что пока всё пишется в stdout. И если не запускать аппсуху через консоль понять что она работает можно только через нагрузку на гпу. Я закоментил вкладку с консолью, но всё же хотелось бы её реализовать

Завтра узнаю как компилировать питонные проекты в один экзешник и скину потестить
Аноним 26/01/23 Чтв 02:14:46 #785 №79431 
>>79412
gui какой?
Аноним 26/01/23 Чтв 02:16:23 #786 №79434 
>>79431
dearpygui анон посоветовал
Аноним 26/01/23 Чтв 02:26:36 #787 №79454 
>>79412
> Завтра узнаю как компилировать питонные проекты в один экзешник и скину потестить
pyinstaller -F filename.py
> Единственное я был бы ОЧЕНЬ благодарен если бы кто-то помог реализовать в приложухе консоль в любом виде. Чтобы видеть прогресс.
У тебя при запуске консолька будет отдельным окном открываться
Аноним 26/01/23 Чтв 02:33:06 #788 №79463 
2023-01-26022100.png
>просто поставил галку для установки экстеншна дрмибуза
>старый автоматик: в плагине type error
>новый автоматик: я все сломал
>новый автоматик после удаления всего содержимого кроме гита и моделей и хардресета: я все сломал
>старый автоматик в той же папке: я все сломал
>новый автоматик в соседней папке: я все сломал
Да ебаный же автопидорас! Пойду отдельно дримтуз ставить, пошел он нахуй со своими экстеншнами.
Аноним 26/01/23 Чтв 02:33:49 #789 №79465 
.png
.mp4
>>79454
> pyinstaller -F filename.py
Не подцепляет файл шрифта из папки Assets. А если его убрать будут кракозябры. Но спасибо
> У тебя при запуске консолька будет отдельным окном открываться
Да, как вариант сойдет, но круто было бы если можно сделать кошерно
Аноним 26/01/23 Чтв 02:48:37 #790 №79480 
Анон, поясни по хардкору за различие принципов обучения. В гайд бы это добавить, но... давай я попробую объяснить, что я понял, а ты поправишь/добавишь.

Textual Inversion aka Embedding

Человек: нейросеть, вот персонаж, раз пик, два пик, десять пик. Как бы ты его в общем описала восемью словами (токенами)?
Нейросеть: 1девочка:1.5, длинные_волосы:1.2, голубые_глаза:0.95, хорошая_шея:0.5, серебряные_серёжки:1.4, луна:0.5, сковородка:0.2, плесневелые_помидоры:0.3, полтора_кило_гвоздей:0.1

Человек: Какие ещё нахрен гвозди?
Нейросеть: Я художник, я так вижу!


Плюсы:
+ Маленький размер (несколько килобайт)
+ Переносимость между родственными моделями
+ Можно прямо по ходу генерации менять вес ключевого слова, активирующего TI

Минусы:
- Не очень хорошо схватывает суть концепта
- Занимает место в токенайзере по длине токен-вектора (в примере - 8)

DreamBooth

Человек: Нейросеть, тебе при обучении кое-что недорассказали. Смотри, есть такая штука - %concept_name%. Это разновидность %base_concept_name%. Сейчас я тебе покажу, как оно выглядит... И давай посмотрим, чем %concept_name% отличается от %base_concept_name%.

Плюсы:
+ полноценная самодостаточная модель
+ возможность хорошо "схватить" персонажа/стиль/etc (*здесь и далее - при умении и везении)
+ возможность впихнуть в одну модель нескольких персонажей/артефактов/etc

Минусы:
- деградация базового концепта и иногда всей модели (реально страшная штука и мешает дообучать)
- большой размер (2-4-7 ГБ)
- плохая переносимость между базовыми моделями (разве что через Merge with Add Difference, и то не факт)



По идее, следующий шаг - это как DreamBooth, но каждая картинка размечается не одним токеном (названием нового концепта), а полным описанием с использованием нового токена, а дальше как в DreamBooth. Есть ли это и как оно называется?



Hypernetwork
Человек:
Нейросеть, а как надо после стандартной генерации преобразовать результат, чтобы картинки были похожи вот на это?
Нейросеть:
Это надо добавить ещё пару слоёв нейронов, записывай веса. 0xDEADBEEF 0xB16B00B5 ...

Плюсы:
+ относительно небольшой размер (десятки мегабайт)
+ переносимость между родственными моделями
+ ???
+ PROFIT!!11

Минусы:
- ???


LoRA

Неведомая штука.

Минусы:
- нужно очень внимательно размечать датасет



Ахтунг, я не то чтобы спец и могу сиильно накосячить, поправляйте!
Аноним 26/01/23 Чтв 03:45:34 #791 №79526 
>>79480
Обучение нейросетей для пятиклассников;)
Аноним 26/01/23 Чтв 04:00:29 #792 №79536 
>>79465
> Не подцепляет файл шрифта из папки Assets. А если его убрать будут кракозябры. Но спасибо
with dpg.font_registry():
if getattr(sys, 'frozen', False):
default_font = dpg.add_font(file=os.path.join(sys._MEIPASS, "fonts/freesans.otf"), size=20)
else:
default_font = dpg.add_font(file="fonts/freesans.otf", size=20)

При сборке .exe явно указать --add-data="SRC;DEST":
pyinstaller --add-data="fonts/freesans.otf;fonts" -F filename.py

> но круто было бы если можно сделать кошерно
Технически можно перехватывать вывод stdout из subprocess, но с некоторым пердолингом
Аноним 26/01/23 Чтв 04:03:14 #793 №79541 
fonts.png
>>79536
как всегда макаба и лично Абу просрали отступы
Аноним 26/01/23 Чтв 04:16:25 #794 №79552 
>>79536
Спасибо за код, так примерно и сделал
https://stackoverflow.com/questions/7674790/bundling-data-files-with-pyinstaller-onefile/13790741#13790741
> Технически можно перехватывать вывод stdout из subprocess, но с некоторым пердолингом
Я этим пердолингом сейчас занимаюсь. Я ХОЧУ СПАТЬ БЛЯТЬ. Я пытаюсь вывести выхлоп павершелла в консоль в реалтайме, но когда я так делаю (кучу методов перепробовал) у меня основной скрипт лоры виснет на строке "prepare images". И хоть ты убейся. А если выводить после конца работы stdout, то всё нормально, только ты нихрена не видишь пока скрипт свою работу не выолнит
Аноним 26/01/23 Чтв 06:48:29 #795 №79606 
image.png
Поясните за менюху, если есть возможность. Как сделать качественно, но медленно?
Аноним 26/01/23 Чтв 06:56:10 #796 №79614 
image.png
>>79606
На это тоже хотелось бы получить пояснение. Вроде при изменении картинка меняется, но непонятно как это сказывается на качестве, может оно имеет значение только при хайрезе простынь HD формата или что.
Аноним 26/01/23 Чтв 08:57:27 #797 №79672 
>>79480
У гиперов тоже надо очень внимательно размечать датасет и обучение тоже нужно пиздец как тюнить - результаты хрупкие и труднопредсказуемые. Плюс: при правильном обучении очень хорошо схватывает и накатывает стили, для стилей это самый лучший инструмент, что бы там лораебы не думали.
Аноним 26/01/23 Чтв 09:20:38 #798 №79689 
>>79672
Стили тренируются проще всего. В Dreambooth они первыми начинают проявляться, потом уже все остальное.
Аноним 26/01/23 Чтв 09:24:26 #799 №79692 
>>79689
Я предполагаю, это потому что для стиля даже в одной картинке есть куча примеров, как он изменяет различные детали. А для персонажа в одной картинке есть только один его пример.
Аноним 26/01/23 Чтв 09:25:44 #800 №79693 
>>79480
В минусы лоры можешь записать огромную нужду в системной памяти, будь то то рам или своп во время тренировки. Выше в треде было.
Аноним 26/01/23 Чтв 09:27:26 #801 №79695 
>>79693
Это минусы говнокода, а не лоры. Она не должна есть больше Dreambooth, который около 6гб оперативы ест.
Аноним 26/01/23 Чтв 09:30:48 #802 №79698 
>>79693
Еще когда ставил вебуй в сентябре приходилось ставить минимум 25гб подкачки, чтобы питон начал устанавливаться.
Аноним 26/01/23 Чтв 09:31:08 #803 №79699 
>>79695
Где именно? В скрипте для тренинга, в сд-скриптс? Как это исправить тогда, если можно уменьшить потребление?
Аноним 26/01/23 Чтв 09:40:58 #804 №79703 
>>79698
Сколько у тебя рам? Точно ничего не путаешь, сам интерпретатор в три клика ставится и ничего во время установки не жрет. Обновлял на днях микроверсию, вообще без проблем заработала, как раз в три клика
Аноним 26/01/23 Чтв 09:53:57 #805 №79707 
>>79703
16гб. Ну это сейчас, а вот тогда это было проблемой и в гайдах про это писали.
Аноним 26/01/23 Чтв 10:10:30 #806 №79710 
>>79552
Этот тред - теперь твой личный бложик о том, как ты изучаешь питухон?
Аноним 26/01/23 Чтв 10:19:58 #807 №79716 
>>79710
Анон пилит полезную вещь, задает вопросы. Это технотред. В чем твоя проблема?
Аноним 26/01/23 Чтв 10:27:35 #808 №79723 
>>79716
Вопросы какое отношение к СД имеют блять? Давайте тут обсуждать что такое классы и полиморфизм, хули, технотред жи, самая тема.
Аноним 26/01/23 Чтв 10:29:34 #809 №79728 
>>79723
Давайте
Аноним 26/01/23 Чтв 10:34:47 #810 №79732 
>>79723
Если ты почитаешь тред, то найдешь ответ на свой вопрос. А если ты его не читаешь, почему тебя это вообще ебет?
Аноним 26/01/23 Чтв 11:00:11 #811 №79748 
>>79732
Так ты по тематике СД ничего не пишешь, дебич, ты просто срешь своими личными проблемами с питухоном. РЕЕЕ СРАЧ - НЕ ТЕМА ТЕХНОТРЕДА
Аноним 26/01/23 Чтв 11:08:45 #812 №79752 
https://2ch.hk/pr/res/2582246.html
Аноним 26/01/23 Чтв 11:17:31 #813 №79759 
>>79552
> Я пытаюсь вывести выхлоп павершелла в консоль в реалтайме, но когда я так делаю (кучу методов перепробовал) у меня основной скрипт лоры виснет

ты в курсе дедлока в subprocess, если выдается много аутпута?
нужно вместо wait использовать communicate

https://docs.python.org/3/library/subprocess.html#subprocess.Popen.wait
Аноним 26/01/23 Чтв 12:03:49 #814 №79805 
Так мне кто-нибудь объяснит принцип действия лоры?
Аноним 26/01/23 Чтв 12:10:37 #815 №79811 
>>79805
В шапку загляни, наркоман, там картинка.
Аноним 26/01/23 Чтв 12:21:50 #816 №79829 
>>79811
А знаешь, всё ещё непонятно!
Аноним 26/01/23 Чтв 12:40:49 #817 №79862 
>>79829
Ты просто тупенький, на пиках специально все разжевано для тех, кто все понимает.
Аноним 26/01/23 Чтв 12:50:45 #818 №79875 
Анонче, первый раз испытал лору, результат не порадовал совсем. Хотел получить реального человека, до этого тренировал модель на колабе и хайпернетворк, первый вариант получился самым приемлемым. Лору тренировал на модели хассанбленд1512 с помощью скрипта от kohya, почему то от d8ahazard не заработало. Тренировал 200 эпох, но уже после 160-й пошло по пизде, до 120-й тоже совсем непохоже получается. Соответственно 140-я самая нормальная, но и она не дотягивает даже до самых слабых результатов, что я тренировал раньше другими способами. Не хочется забрасывать совсем, что еще можно сделать, какие настройки покрутить для реальных лиц?
Аноним 26/01/23 Чтв 13:02:48 #819 №79892 
>200 эпох
Это сколько шагов суммарно? Я делал лору на 10 эпохах, лол
Аноним 26/01/23 Чтв 13:15:28 #820 №79910 
Как вы осуществляете контроль версий датасета?
Аноним 26/01/23 Чтв 13:20:46 #821 №79932 
>>79892
25 фоток было. Я где то читал, что надо бы от 50 до 150 эпох1295392
Аноним 26/01/23 Чтв 13:40:04 #822 №79950 
>>79875
> реального человека
Эмбединги дрочи, не нужна тебе лора.
Аноним 26/01/23 Чтв 13:41:58 #823 №79952 
>>79910
git же, какие ещё варианты? Выгрузка на huggingface прилагается.
Аноним 26/01/23 Чтв 13:42:56 #824 №79954 
>>79862
В лучших традициях сего заведения, не приходя в чужой монастырь со своим уставом, намерен иметь честь осмелиться заявить, что в таком случае ШАПКА - ГОВНО!
Аноним 26/01/23 Чтв 13:55:24 #825 №79965 
>>79710
Слишком увлекся. Расслабься. Бывает
>>79759
Спасибо, попробую
Аноним 26/01/23 Чтв 14:10:08 #826 №79990 
>>79952
Хагингфейс на сдохнет от такого количества инфы? Там есть ограничения по объему?
Аноним 26/01/23 Чтв 14:12:00 #827 №79995 
>>79990
Нету
Аноним 26/01/23 Чтв 14:16:27 #828 №80005 
>>79995
Ушел сливать туда все с харда
Аноним 26/01/23 Чтв 15:01:54 #829 №80077 
>>79952
git lfs? Разе обычный гит позволяет нормально бинарные файлы хранить типа картинок?
Аноним 26/01/23 Чтв 15:16:03 #830 №80099 
>>80077
> Разе обычный гит позволяет нормально бинарные файлы хранить типа картинок?
Естественно.
Аноним 26/01/23 Чтв 15:44:29 #831 №80141 
>>79875
Попробуй версию по старее, до 0.4.0 как минимум.
Новая делает как-то не так, но все равно в целом справляется обычно.
>>79932
Пробуй поменьше. 5-20 где-то.
Аноним 26/01/23 Чтв 15:44:53 #832 №80142 
16660318820943-529063445-girl.png
16660318820944-529063445-girl.png
16660318820945-529063445-girl.png
Пытаюсь развить концепцию сруни, пруни или как там его.
Дано:
[[sexy (curvy) | girl body] anime girl | (beautiful face (detailed eyes, detailed face))]
Не будем о том, как оно помогает позитив промту, но при этом действительно весит 1 токен и в целом читается. Для позитива этот вес мало что значит. Другое дело для негатива, было бы неблохо запихать много понятной инфы в один токен.

Пробую негатив (пик1):
[[ugly (fat) | body] mutation | (bad face (bad eyes, bad hair))]
Пик2: без негатива.
Пик3: то же, разбитое запятыми.
Вроде неплохой результат для одного токена?
Чего дальше: можно распихать всю здоровую пасту для негативов подобным образом, но я совсем хз насчет структуры.
Аноним 26/01/23 Чтв 16:02:58 #833 №80165 
>>80142
И в результате запятые выигрывают, лол
Аноним 26/01/23 Чтв 16:06:16 #834 №80169 
>>80165
А они и должны выигрывать, но с запятыми рабочий негатив будет в разы меньше.
Аноним 26/01/23 Чтв 16:09:02 #835 №80173 
>>80169
Но в чем смысл большого негатива, если запятые его побеждают? Я пока не вижу профита.
Аноним 26/01/23 Чтв 16:15:29 #836 №80182 
>>80173
В негативе так и так будет здоровое полотно, но с запятыми оно сожрет доступные токены на первых двух строчках если позитив в пределах 75 токенов, остальное просто не подхватится. А способ с [ | ] перебором уменьшит силу каждого выражения, но задействует всё. При этом самое важное можно всё еще дать через запятые, а остальное влезет в десяток токенов.
Аноним 26/01/23 Чтв 16:16:40 #837 №80184 
>>80182
Что за монструозный промпт ты там пытаешься впихнуть?
Аноним 26/01/23 Чтв 16:22:06 #838 №80196 
>>80184
Да чего монструозного, огромные негативы были дефолтом. До того, как перестали работать из-за лимита токенов.
Аноним 26/01/23 Чтв 17:28:56 #839 №80314 
Тестите https://github.com/anon-1337/LoRA-train-GUI/releases
Аноним 26/01/23 Чтв 17:33:22 #840 №80326 
Почему у меня dreambooth автоматически проставляет cpu only ссылаясь на то, что у меня меньше 10 гб видеопамяти, несмотря на то, что я, по совету гайда скачал старую версию с заменой файлов?
Аноним 26/01/23 Чтв 18:00:03 #841 №80381 
>>80314
В папку со скриптом кидать?
Аноним 26/01/23 Чтв 18:02:05 #842 №80384 
>>80381
Нет, он самодостаточный
Аноним 26/01/23 Чтв 18:29:55 #843 №80436 
>>80314
>gui
Зачем? Неудобно
Аноним 26/01/23 Чтв 18:30:19 #844 №80437 
>>80436
И жрет врам
Аноним 26/01/23 Чтв 18:31:23 #845 №80438 
>>80314
Это тебе gpt помог?
Аноним 26/01/23 Чтв 18:35:50 #846 №80442 
>>80438
Одну строчку написать
Аноним 26/01/23 Чтв 18:42:24 #847 №80454 
1655643406937.png
>>80314
ТАМ ВИШМАСТИР1111
Аноним 26/01/23 Чтв 18:47:43 #848 №80472 
Анон, важный вопрос.

Как правильно файнтьюнить модель в Dreambooth на больших датасетах?
Аноним 26/01/23 Чтв 18:52:06 #849 №80490 
>>80454
Пиздец :) Ну собери из кода сам, там одна зависимость только

>>80436
Наше дело предложить!
>>80437
11 мегабайт
Аноним 26/01/23 Чтв 18:56:15 #850 №80504 
>>80472
Насколько больших?
Аноним 26/01/23 Чтв 18:56:44 #851 №80506 
>>80314
Шустро ты
Аноним 26/01/23 Чтв 19:00:54 #852 №80517 
>>80506
Да я сам охуел. Самое пердольное это букофками писать где какая кнопочка/вкладочка находится, я бля думал в 21 веке уже таким не занимаются
Аноним 26/01/23 Чтв 19:02:35 #853 №80523 
>>80314
Ты уже знаком был до питона с ООП? Писал на каком то языке?
Аноним 26/01/23 Чтв 19:04:57 #854 №80531 
>>80504
1000-5000 пикч.
Аноним 26/01/23 Чтв 19:12:17 #855 №80552 
>>72987 (OP)
а как анимации делоть
Аноним 26/01/23 Чтв 19:14:43 #856 №80567 
>>80523
> Ты уже знаком был до питона с ООП?
Ну так чутка совсем. В C# ковырялся с ним пытался понять зачем этим классы нужны, но так и не нашёл применения. И тут тоже самое, код тупейший конечно, мне кажется если бы я понимал ооп и как его применять, у меня кода было бы в 5 раз меньше, и написал бы этот гуй за полдня
> Писал на каком то языке?
Я "много" языков знаю, но везде одинаковая картина примерно была, это прочитать про if/else, узнать как объявлять функции а потом благополучно забить
Аноним 26/01/23 Чтв 19:21:01 #857 №80591 
>>80567
> Я "много" языков знаю, но везде одинаковая картина примерно была, это прочитать про if/else, узнать как объявлять функции а потом благополучно забить
Жиза

мимо вчерашний паскаледебил
Аноним 26/01/23 Чтв 19:25:26 #858 №80612 
05285-1719339302-pepe in a cafe with walter white, by greg rutkowski.png
05309-2354590111-pepe, by greg rutkowski.png
05108-1818454483-pepe clown, by greg rutkowski.png
05114-1818454489-pepe clown, by greg rutkowski.png
>>80531
Я сейчас треню датасет из ~2300 Пепе. Пикрилейтеды - после 20 эпох на lr 5e-7. Выглядит недотренено, так что я еще на 20 эпох поставил недавно.

Датасет отсюда спарсил: https://www.memeatlas.com/pepe-memes.html
Аноним 26/01/23 Чтв 19:27:43 #859 №80622 
>>80612
Второй пепич охуенен, забрал.
Моделью потом поделишься?
Аноним 26/01/23 Чтв 19:28:08 #860 №80623 
>>80612
> 5e-7
Как вообще примерно почувствовать сколько нужно lr ставить?

> 20
Это примерно сколько шагов для Unet?
Аноним 26/01/23 Чтв 19:38:41 #861 №80658 
>>80531
А, и разумеется, для каждой пикчи должен быть отдельный промпт.

>>80623
>Как вообще примерно почувствовать сколько нужно lr ставить?
Смотри >>69577 → и ответы. Также https://huggingface.co/blog/dreambooth

>Это примерно сколько шагов для Unet?
Размер одной эпохи равен размеру датасета. Если у тебя 1000 пикч, то 20 эпох это 1000 * 20 = 20000 шагов. Да, и я треню text encoder тоже, не только unet.

>>80622
Если не забуду.
Аноним 26/01/23 Чтв 19:48:14 #862 №80685 
>>80658
Еще неплохо генерировать промежуточные результаты по мере тренировки модели. Ну или хотя бы сохранять промежуточные модели, и вручную генерировать на них. Проверяешь, насколько хорошо модель запомнила датасет - можно скопипастить один из промптов из него, а также стоит посмотреть на "редактируемость" - насколько хорошо генерируются новые ситуации, которых в датасете нет.
Аноним 26/01/23 Чтв 19:50:53 #863 №80700 
>>80658
> А, и разумеется, для каждой пикчи должен быть отдельный промпт.
Не проблема, я картинки скриптом с бур подтягиваю.

> Размер одной эпохи равен размеру датасета. Если у тебя 1000 пикч, то 20 эпох это 1000 * 20 = 20000 шагов.
20 000? Нормально. Главное тут с lr не проебаться.

> Да, и я треню text encoder тоже, не только unet.
В случае бур, CLIP тренить нужно немного. В случае аниме-моделей CLIP и так знает все теги.

Алсо, спрашивал одного анона, он наоборот говорит, что нейронку кормить тысячами пикч не нужно. Достаточно 50 картинок на концепт. Пробовал эти концепты, вообще не почувствовал, что что-то изменилось.
Аноним 26/01/23 Чтв 19:57:25 #864 №80722 
>>80700
>Достаточно 50 картинок на концепт.
Смотря какой концепт. Для одного персонажа мб и ок. Но если что-то более абстрактное вроде ситуации, то маловато. Ну и результат у меня на маленьких датасетах получается либо статичный и плохо редактируется, либо недотрененный. Хотя 50 это еще куда ни шло.
Аноним 26/01/23 Чтв 20:04:19 #865 №80740 
>>80722
> Для одного персонажа мб и ок
Для одного художника.

Короче, я так понял, натренерировать свою собственную модельку можно, но нужны долгие дни экспериментов.
Аноним 26/01/23 Чтв 20:08:35 #866 №80755 
Хало гайс
Сколько обычно нужно изображений для лоры для качественного и точного результата?
Аноним 26/01/23 Чтв 20:09:52 #867 №80760 
>>80740
Это цикличная штука. Запустил, проверил, поправил, запустил снова. Ну и по ходу еще смотришь, иногда рано останавливаешь и правишь. Общее количество времени на весь процесс зависит от скорости железа и твоего опыта.
Аноним 26/01/23 Чтв 20:10:30 #868 №80763 
База: для датасетов нужны качественные изображения с качественными тегами. Чем больше - тем лучше.
Аноним 26/01/23 Чтв 20:13:39 #869 №80783 
.png
Переделал выход в консоль, теперь виден прогресс обучения! Также больше не должно быть ошибок, связанных с неправильными аргументами

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.15
Аноним 26/01/23 Чтв 20:18:53 #870 №80808 
>>80783
А можно сделать вывод тестовых изображений в процессе обучения? Как в дополнении на автоматика.
Аноним 26/01/23 Чтв 20:21:53 #871 №80818 
>>80760
> Это цикличная штука. Запустил, проверил, поправил, запустил снова.
Ну это да.

Но вообще в моем случае сложно оценивать. Модель и так неплохо понимает нужный мне объект. Но хотелось бы еще лучше, если это возможно. Впервую очередь хотелось бы, чтобы модель переняла бы стиль художников, которые рисуют нужный мне объект.

> Общее количество времени на весь процесс зависит от скорости железа и твоего опыта.
Аноним 26/01/23 Чтв 20:23:04 #872 №80824 
>>80763
Ну так это всегда базой было. Просто в случае с диффьюженами они стали настолько эффективны, что требуют не так много данных для файнтьюна.
Аноним 26/01/23 Чтв 20:23:34 #873 №80826 
>>80808
Это должен китаец у себя реализовать. Я лишь сделал обертку чтобы не ебаться с циферками в блокноте каждый раз. Больше я ни на что не способен
Аноним 26/01/23 Чтв 20:23:59 #874 №80829 
>>72987 (OP)
Раз уж заговорили про сбор датасетов с бур.

https://github.com/mikf/gallery-dl/ - Консольная программа для скачивания картинок с большого количества сайтов.

Поддерживает кучу бур, pixiv, твиттеры, реддиты, kemono.party и не только: https://github.com/mikf/gallery-dl/blob/master/docs/supportedsites.md

Для запуска нужно передать gallery-dl ссылку на то, что вы пытаетесь выкачать. Например, для https://danbooru.donmai.us/posts?tags=overgrown+forest будет:

gallery-dl "https://danbooru.donmai.us/posts?tags=overgrown+forest"

С флагом --write-tags она сохранит и теги каждой картинки в файлы рядом с ними:

gallery-dl --write-tags "https://danbooru.donmai.us/posts?tags=overgrown+forest"
Аноним 26/01/23 Чтв 20:24:43 #875 №80831 
1609945224101.mp4
1661377420889.png
>>80314
Штош, поехали багрепорт?
Поставь в настройки лернин рейтов разрядность больше, а то ниже 0.001 не ставится, 3 знака после запятой какие-то константные.

А еще когда крутишь эти поля кнопками + и -, то значения крутятся по 0.1, надо по меньшему разряду.

А еще желательно сделать что бы когда кликаешь в поля лернин рейтов, то строка в них не выделялась полностью.

А еще значение клип скипа и слайдер клип скипа одного цвета, цифру практически не видно.
Аноним 26/01/23 Чтв 20:32:17 #876 №80857 
>>80831
> Поставь в настройки лернин рейтов разрядность больше, а то ниже 0.001 не ставится, 3 знака после запятой какие-то константные.
Интересно, хорошо, поправлю. Можешь пока попробовать писать значения типа 1-e4, тоже работать по идее
> А еще когда крутишь эти поля кнопками + и -, то значения крутятся по 0.1, надо по меньшему разряду.
Исправлю
> А еще желательно сделать что бы когда кликаешь в поля лернин рейтов, то строка в них не выделялась полностью.
Гляну если это позволяет сделать библиотека, если да то исправлю
> А еще значение клип скипа и слайдер клип скипа одного цвета, цифру практически не видно.
Да, стоит поменять

К слову есть немного обновленная версия: https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.15
Из перечисленного тобой ничего не изменено, но на случай если ошибки из-за пробелов в пути или еще какая хрень, в этой версии этого быть не должно
Аноним 26/01/23 Чтв 20:33:03 #877 №80860 
>>80829
О, полезная вещь, схронил.
Аноним 26/01/23 Чтв 20:40:06 #878 №80876 
1572450745634.png
>>80857
Вдогонку, не можешь сделать чекбокс для отключения передачи параметра альфы? А то у меня старая версия, на которой все работает без нанов. Или там в новых версиях скрипта у кои не только это из интерфейса поменялось?
Аноним 26/01/23 Чтв 20:41:17 #879 №80879 
>>80829
примерно так собирались первые датасеты для всяких вайфу/хентай/левд/фурри диффужинов. Поэтому у них модели со спидозной анатомией, где хоть как промпт используй, получается монструозное говнище. Эти тэги, по хорошему, надо чистить от всевозможной параши, того же absurdres, которыйникак не отвечает за качество, а только за размер полотна, tagme и прочего неинформативного говнеца, а арты фильтровать, чтоб совсем днище не попало в треньку.
Аноним 26/01/23 Чтв 20:43:08 #880 №80884 
>>80879
>Эти тэги, по хорошему, надо чистить от всевозможной параши
На е621 это, кстати, проще всего - там мусорные теги лежат отдельно от полезных.
Аноним 26/01/23 Чтв 20:44:05 #881 №80886 
>>80876
Хорошо, сделаю. Если значение пустое, то не передавать аргумент вообще сделаю. Из нового в 0.4.0 кроме этого если и есть что-то, то не такое важное
Аноним 26/01/23 Чтв 20:46:28 #882 №80889 
>>80886
Спасибо от лица не обновлявшихся, буду ожидать
Аноним 26/01/23 Чтв 20:47:03 #883 №80891 
>>80884
Жаль создатели каловых yiffy-e18 и Furry_epoch4 тебя не слышат, такое чувство, что они тупо сгрузили весь дамп сайта на обучение, так как что-то годное на них сгенерить крайне трудно, их косоебит от 3d до карандаша/от HD до всратой каляки детей через раз.
Аноним 26/01/23 Чтв 20:47:22 #884 №80892 
>>80879
Пожалуйста, можешь сохранить другим флагом метаданные. Danbooru в отдельном поле держит те же general tags, можешь выцепить оттуда без кучи метатегов.
Аноним 26/01/23 Чтв 20:48:18 #885 №80894 
>>80891
>Жаль создатели каловых yiffy-e18 и Furry_epoch4 тебя не слышат, такое чувство, что они тупо сгрузили весь дамп сайта на обучение
Скорее всего.
Аноним 26/01/23 Чтв 21:10:38 #886 №80958 
Подскажите вебуи на нодах (аля unrial engine или blender), недавно видел в треде, но не могу найти.
Аноним 26/01/23 Чтв 21:11:28 #887 №80961 
>>80886
Алсо, было бы очень хорошо, если бы настройки вкладки можно было бы записать и прочитать в файл/из файла. Ну файл настроек короче. Или каким-либо другим образом организовать их перенос между версиями и сохранение. Это засейвит много человекочасов.
Аноним 26/01/23 Чтв 21:12:33 #888 №80967 
>>80958
https://github.com/comfyanonymous/ComfyUI
Аноним 26/01/23 Чтв 21:13:30 #889 №80971 
>>80967
Спасибо;)
Аноним 26/01/23 Чтв 21:14:46 #890 №80974 
>>80961
Да, это следующее в списке. Надеюсь справлюсь)
Аноним 26/01/23 Чтв 21:17:34 #891 №80980 
>>80974
Давай там, ток отдыхать не забывай. А то от длительного кодинга мозг вытекает.
Аноним 26/01/23 Чтв 21:31:32 #892 №81015 
>>80196
>лимит токенов
У меня была идея насчет токенизации для буровских тегов, чтобы на один тег был один токен. Но дальше идеи это никуда не ушло, потому что у меня даже близко нет ресурсов, чтобы натренить модель хотя бы до уровня WD. А зафайнтюнить существующую модель вряд ли получится, потому что они привязаны к обычному токенизатору. Скорее всего, придется с нуля тренить.
Аноним 26/01/23 Чтв 22:08:51 #893 №81097 
как граббером спиздить картинки с санкакукоплекс? не получается приконектить.
Аноним 26/01/23 Чтв 22:21:09 #894 №81121 
>>81097
Сайт у тебя заблочен? Каким грабером пытаешься? Я юзаю галлери-дл, там через проксю можно закачивать.
Аноним 26/01/23 Чтв 22:22:05 #895 №81124 
>>81097
сначала надо у каждого художника спросить разрешение на добавление каждой ег работы в датасет
Аноним 26/01/23 Чтв 22:27:12 #896 №81137 
>>80142
Эта хрень не взлетела, если кому интересно. Первые удачные тесты были рандомом, в формах типа [A | B] негатив читает только первое слово.
Аноним 26/01/23 Чтв 22:33:37 #897 №81148 
>>81097
Легче забыть про него, там админ петушара столько анальных ограничений нагородил что пиздец. Чего стоит недавние ограничение просмотра дальше n страниц и лимит на использование р18 тегов, а еще раньше ограничение запросов по времени. Когда-нибудь у него случится заслуженный рак жопы за всю эту херню.

И когда-нибудь я выкачаю оттуда все что надобавлял в избранное

В ишьюсах граббера как-то решили проблему костыльно, но хз, я не разбирался
https://github.com/Bionus/imgbrd-grabber/issues/2808
Аноним 26/01/23 Чтв 22:54:46 #898 №81215 
>>81148
у тебя и всех воров случится рак жопы
Аноним 26/01/23 Чтв 23:02:49 #899 №81236 
>>81215
Сдрисни нахуй обратно в загон, и свои охуительные позиции по важным вопросам выражай одноклассникам.

Как ты сюда попал то бля? Тред 2 дня тонет, но ты пришел срать сюда, а не в найфу, да еще и посты мониторишь. Шиза
Аноним 26/01/23 Чтв 23:05:00 #900 №81240 
>>81215
>у тебя и всех воров
А у кого что пропало????
Аноним 26/01/23 Чтв 23:17:49 #901 №81278 
>>81121
не забанен, граббер из шапки. https://github.com/Bionus/imgbrd-grabber
>>81148
ладно, давно не заходил, не знал что таким уебанством стало. жаль конечно т.к. был самый лучший сайт в плане контента.
и хуйдожник которого хотел спиздить есть только на пиксеве и на санкаку, придётся пиздить с пиксева и тренить без тегов.
Аноним 26/01/23 Чтв 23:33:53 #902 №81302 
>>81278
> придётся пиздить с пиксева и тренить без тегов.
Что мешает самому расставить теги или на крайняк интеррогатором?
Аноним 26/01/23 Чтв 23:44:28 #903 №81316 
>>81302
Аноним 26/01/23 Чтв 23:45:47 #904 №81318 
>>81302
лень
Аноним 27/01/23 Птн 01:15:04 #905 №81526 
1674771299540.jpg
1674771299572.jpg
Что поменять в настройках тренировки, если лора обучилась слишком хорошо и её вес не удается уменьшить, чтобы действовали веса из основной модели?
Вот сделал я себе персонажа, все кайфово, но если я хочу, чтобы он был, например, в спальной комнате или на открытом воздухе, то это отрисовывается крайне слабо, либо что-то из дата-сета корявое. Если уменьшаю вес до 0.5, тогда и персонаж теряется. Взять более раннюю эпоху в этом плане эффективнее, но не всегда, ибо в ней все так же персонаж прорисовывается куда хуже.

1 пик - 20 повторений на пикчу
2 пик - 12 повторений на пикчу
1e-4, cosine_with_restarts
Аноним 27/01/23 Птн 01:25:23 #906 №81545 
9hhcio4zlfea1.png
0qx8fzqb8hea1.png
Сумрачный реддитовый гений не перестает удивлять. Завтра попробую такой вариант.
https://www.reddit.com/r/StableDiffusion/comments/10lzgze/i_figured_out_a_way_to_apply_different_prompts_to/
Аноним 27/01/23 Птн 01:26:30 #907 №81547 
>>81545
Ну, а результат-то где?
Аноним 27/01/23 Птн 01:28:53 #908 №81554 
>>81547
Спроси у автора. Я ещё только устанавил.
Аноним 27/01/23 Птн 01:33:03 #909 №81561 
>>81554
То есть он не приложил пруфов, что это работает? Ок.
Аноним 27/01/23 Птн 04:12:56 #910 №81795 
.webm
>>80831
>>80876
>>80889
>>80961
>>80980

Я сделол!

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.2
Аноним 27/01/23 Птн 05:54:53 #911 №81828 
>>80879
>вайфу/хентай/левд/фурри
Мне вот интересно, F222 протегана с бур или БЛИПом. Инстаграм, как я понимаю, протеган с бур, потому что тохоебы.

>>81526
Вопрос года. Ничего ты в настройках не поменяешь, все так и останется. Это видимо датасет такой, нередактируемый. Есть еще два стула: тренировать с регами и из натрененной лоры избирательно выкидывать блоки (сейчас легко реализуемо через нативные лоры у автоматика+ расширение https://github.com/ashen-sensored/sd-webui-runtime-block-merge , позволяющее править блоки прямо во время инференса) в слепой надежде вышибить фон куском. Стулья натурально как в притче, со всеми стулофичами.

Третий стул - он ровный самый: добавить в датасет отфотошопленных/пропущенных через имгтуимг картиночек с персом на разных охуенных фонах/ в разной гамме. Вот его рекомендую от души. Но мы же здесь пердоли-аутисты, мы не ищем легких путей.
Аноним 27/01/23 Птн 07:37:00 #912 №81851 
0.3.1 версия мокрописи короче рабочая, уже вторая лора вышла рабочей подряд. Использую настройки 1060 анона, и его скрипт версии 1.06. На одного персика мне спокойно хватает 50 пиков.
Аноним 27/01/23 Птн 07:38:24 #913 №81852 
>>81851
Капшены спавнит теггер от вайфудифужена.
Аноним 27/01/23 Птн 07:39:54 #914 №81854 
На 0.4.0 ничего у меня не работает, кал. Зачем только обновляли?
Аноним 27/01/23 Птн 07:43:29 #915 №81857 
>>81526
используй инпеинт
попробуй также метод 75 чанков
Аноним 27/01/23 Птн 08:46:32 #916 №81900 
На колаб лорку загрузить реально?
Аноним 27/01/23 Птн 10:07:37 #917 №81993 
>>81900
Да, можно через их файловый браузер, но очень долго. Сначала на Хаггингфейс, а потом оттуда вгетом быстрее.
Аноним 27/01/23 Птн 12:20:20 #918 №82192 
>>81795
этачо лол? вместо редактирования через блакнотик типа лучше программу какуюто скачать?
Аноним 27/01/23 Птн 13:09:03 #919 №82315 
>>82192
tolsto
Аноним 27/01/23 Птн 13:52:33 #920 №82423 
наонец-то ПЕРЕКАТ

>>82417 (OP)
>>82417 (OP)
>>82417 (OP)
>>82417 (OP)
>>82417 (OP)

Вроде нормально катанул в этот раз
comments powered by Disqus

Отзывы и предложения