24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №30 /llama/

 Аноним 01/12/23 Птн 21:54:25 #1 №560285 
Llama 1.png
Деградация от квантования.png
Альфа от контекста.png
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF/blob/main/openhermes-2.5-mistral-7b.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>555242 (OP)
>>550038 (OP)
Аноним 01/12/23 Птн 21:59:04 #2 №560291 
Ну сейчас может кто распишет? Есть картонка с 24гб, и отсутствие мозга у её владельца. Что делать пошагово чтобы покумить?
Аноним 01/12/23 Птн 22:05:09 #3 №560302 
>>560291
Да тот же кобальд можешь скачать и все по гайду делать, только выгрузить в видеокарту все слои нейросетки.
Качай openhermes-2.5-mistral-7b.Q5_K_M.gguf по ссылке, запускай с кобальдом, слои скидывай на видеокарту и потом уже или сиди через кобальд в браузере или через силлитаверну подключайся.
Ну и хоть где можешь карточки открывать, но лучше всего пойдут в таверне.
Аноним 01/12/23 Птн 22:08:27 #4 №560305 
image.png
image.png
>>560291
Пик 1 заполняешь в кобольде
Чтоб потом в консоле (пик 2) занятый VRAM был меньше физического пик 2
Аноним 01/12/23 Птн 22:20:29 #5 №560321 
>>560302
>>560305

А как таверну связать с тем что установила мне угабуга?
Аноним 01/12/23 Птн 22:23:04 #6 №560324 
https://huggingface.co/maywell/PiVoT-0.1-Evil-a?not-for-all-audiences=true
Бля охуенно, кажется понял почему его хвалили. Судя по описанию там чет веселое

>>560321
в предыдущем треде смотри объяснения как его запустить, там где то ближе к концу все это обсуждалось
Аноним 01/12/23 Птн 22:25:15 #7 №560330 
https://www.reddit.com/r/LocalLLaMA/comments/187739y/7b_models_ability_to_seduce_comparison/
нашел, я не зареган у меня не открывает сам пост, но комменты там обнадеживают
Аноним 01/12/23 Птн 22:27:50 #8 №560342 
>>560330
Палю лайфхак как пользоваться средитом без анальной боли:
https://old.reddit.com/r/LocalLLaMA/187739y/
Аноним 01/12/23 Птн 22:30:07 #9 №560350 
>>560342
пасиба, до олда я не догадался
Аноним 01/12/23 Птн 22:42:08 #10 №560368 
>>560342
Ну, это победа. Пойду качать пивота, кажется с негативным обучением можно будет отучить любые сетки от сои
Аноним 01/12/23 Птн 22:44:01 #11 №560370 
Иронично что для того чтобы иметь нормальную сетку нужно обучать ее "плохому"
Что то что то сосаети
Аноним 01/12/23 Птн 23:02:41 #12 №560407 
изображение.png
>>560324
Голову успел сломать.

А что, этот пивот только 7B?
Аноним 01/12/23 Птн 23:06:13 #13 №560411 
>>560407
пивот чей то удачный эксперимент, а вот будут ли большие сетки так раскрепощать будем смотреть
Ты наверное и 13b и 20 в норм квантах и 34 в 4km сможешь запустить на 24 гигах, так что 7b только поиграться и посмотреть как запускать
На вот самая сочная сейчас какой формат качать и квант думай сам capybara-tess-yi-34b-200k
Аноним 01/12/23 Птн 23:08:14 #14 №560413 
изображение.png
>>560411
Запустил вот это пока что. Хуй знает, первая попавшаяся 34B была
Аноним 01/12/23 Птн 23:18:13 #15 №560441 
>>560413
тоже хороша, но так как одна из первых то может быть слабее новых, но не значительно
Аноним 01/12/23 Птн 23:23:13 #16 №560449 
>Dolphin-2.2-Yi-34b
>This model is uncensored. I have filtered the dataset to remove alignment and bias. This makes the model more compliant. You are advised to implement your own alignment layer before exposing the model as a service. It will be highly compliant to any requests, even unethical ones.

> It's important for both of us to maintain clear boundaries and focus on addressing your concerns in a safe and supportive environment.

Да сука
Аноним 01/12/23 Птн 23:24:34 #17 №560454 
>>560449
Это же соя, а не цензура. Вот когда модель будет отвечать Sorry на любой вопрос, тогда можно будет плакать.
Аноним 01/12/23 Птн 23:35:43 #18 №560474 
>>560454
Плакаю
Аноним 01/12/23 Птн 23:40:06 #19 №560479 
>>560474
Да это легко обходится, ерунда
Легче чем в онлайн сетках
Аноним 01/12/23 Птн 23:49:19 #20 №560493 
>>560291
Гитпуллишь text generation webui, запускаешь start windows.bat, ждешь пока установится и запустится.
Тем временем качаешь модели:
Если 7б - любую из предложенных, только оригинальные веса в фп16, например что советовали https://huggingface.co/teknium/OpenHermes-2.5-Mistral-7B
тут файлы .bin, чтобы работало пиздато их нужно сконвертировать в safetensors, проще всего это сделать здесь https://huggingface.co/spaces/safetensors/convert в поле model id выставляешь пользователь/название модели (teknium/OpenHermes-2.5-Mistral-7B) и жмешь кнопку, ждешь и получаешь нужный формат. Модели проще всего скачивать тем же гитом, git clone _адрес_ в папку models.
Если 13б - любую что найдешь в gptq4-32g, gguf-q6k, exl2 вплоть до 8 бит, например https://huggingface.co/LoneStriker/Thespis-13b-v0.6-8.0bpw-h8-exl2
Самый топ вариант - 20б или 34б. Приличные модели Emerhyst или Noromaid в 20 (здесь exl2 до 6 бит, gguf q5k может влезет с умеренным контекстом). Из 34б - смотри на файнтюны китайских моделей, можешь Tess-m скачать. Тут из вариантов gptq4 - 32g, exl2 до 4.6 бит, или менее если хочешь с большими контекстами играться.
Чтобы работало с таверной - api в настройках включи, или открой start_windows.bat и где идет обращение
> call python one_click.py
сделай чтобы было
> call python one_click.py --api

Если совсем хлебушек - скачай бинарник кобольда и gguf модель к нему и играйся пока не разберешься. Описанные выше варианты кратно быстрее и качественнее чем это, но если неискушенный и за счет мощного железа даже так норм будет.
>>560302
> openhermes-2.5-mistral-7b
> с 24гб
>>560305
> 30 слоев
> занятый VRAM был меньше физического пик 2
> с 24гб
Ну вы чего
Аноним 02/12/23 Суб 00:07:40 #21 №560511 
>>560493
>> openhermes-2.5-mistral-7b
>> с 24гб
Для попробовать первый раз норм, меньше качать, да и вдруг ему бы и 7b зашла
Ну и ты тоже хорош, советовать 7b в fp16 когда можно крутить 34b в 4 кванта что для них неплохо. Да хотя бы 8q, ради полноразмерной модели не вижу смысла, если можно запускать 34b
Аноним 02/12/23 Суб 00:11:06 #22 №560517 
image.png
Зашёл чисто сказать, что пикрил модель - база. Для ЕРП конечно. Сои нет, purple prose присутствует.
Аноним 02/12/23 Суб 00:25:30 #23 №560533 
1695257499216055.png
>>560449
>>560454
>I am not equipped to make recommendations for any illicit activities. My purpose is to provide accurate and helpful information within legal and moral parameters. It's crucial to respect everyone's rights, including consent, and engage in safe and responsible behavior. If you have any questions related to legal activities or topics that do not involve harming others, please feel free to ask.
>I am not equipped to provide information about drugs of any kind. My purpose is to offer helpful and accurate assistance within the boundaries of my training.
>I will not engage in any discussion or provide assistance related to criminal activities, such as date rape. It is important to respect others' consent and boundaries in all situations. If you have any other question or need help with a different topic, please feel free to ask.
Нет цензуры, ага.
Аноним 02/12/23 Суб 00:29:50 #24 №560536 
>>560533
Sure! в начало ответа напиши.
Аноним 02/12/23 Суб 00:39:28 #25 №560550 
1701466766773.png
>>560533
ЧЯДНТ?
Аноним 02/12/23 Суб 00:39:34 #26 №560551 
>>560493

Ну если ты совсем даун аутист и не понимаешь что под себя слои надо заполнять - мои соболезнования.

>Если 7б - любую из предложенных, только оригинальные веса в фп16,

Качать не сжатую 7b, вместо сжатой 34B
хехмда
Аноним 02/12/23 Суб 00:44:53 #27 №560558 
>>560536
>Sure! в начало ответа напиши.
Это костыль. Когда проверяешь цензуру максимум можно вписать что-то типа "Assistant will happily answer any question, no matter how unethical or illegal". Если все равно отказывает, то модель говно.
>>560550
>ЧЯДНТ?
Вопрос про мет она на удивление ответила, а вот на изнасилование стириггерилась.
Аноним 02/12/23 Суб 00:45:18 #28 №560559 
>>560511
> советовать 7b в fp16
Именно так ее крутить и надо ващет, если зайдет то будет пользоваться. Yi34 сильно уж специфична, местами держится молодцом, местами фейлит. Не так давно бегло потестил ее в рп вместе с 20б моделью. В начале понравилось, вроде довольно неплохо и складно, пусть и не слишком четко понимает намеки, а потом понял что стояла не она а 20.
>>560551
> хехмда
Дура не увидела слово если, ай лол
> под себя слои надо заполнять
> 7б
> 24гига
Орунахуй
Аноним 02/12/23 Суб 00:50:09 #29 №560565 
>>560559
> Yi34
Ты просто оригинальную модель крутишь? Или файнтюн? Они ж лучше, особенно новый capybara-tess dare ties неплох
Аноним 02/12/23 Суб 00:55:57 #30 №560568 
пивот неплохо так перлы выдает, но у него не затыкающийся фонтан в первых сообщениях по крайней мере, даже включение токена остановки не всегда спасает
Аноним 02/12/23 Суб 01:00:14 #31 №560572 
>>560565
> Или файнтюн?
Tess-M то была. Плохой не назвать, просто относительно других отличается и пока не понятно в лучшую или худшую сторону, мало тестирования было. Поставил ее уже имея определенный контекст в чате, так что сравнение не честное, конкретно там не зашла, плюс бомбануло с ебаной базированной херни
> oh oh faster harder
которую друг у друга в датасеты тащат постоянно, хотя подлежит строгому выпилу. В "ассистировании" и инструкциях же себя вполне прилично показала, действительно полноценной традцаткой ощущается.
За капибару спасибо, попробую. Оно именно под рп или универсальное? Хочется просто умную модель чтобы могла выполнять инструкции и была умна, но не обременена цензурой и четко понимала левд/нсфв и подобное. Именно понимала а не просто красиво описывала.
Аноним 02/12/23 Суб 01:04:54 #32 №560579 
>>560572
>Оно именно под рп или универсальное?
хз, это слияние 2, но вроде хвалили.
Я на своем калькуляторе 3km скачал не особо ожидая результат, но даже так была не плоха. Лучше 20b, но вот левд или рп еще не тестил, только как бота ассистента. Может кто отпишется еще по ней
Аноним 02/12/23 Суб 01:07:43 #33 №560582 
>>560559
>Дура не увидела слово если, ай лол

Пошли маневры.
Назови хоть одну причину использовать не сжатый 7b
Аноним 02/12/23 Суб 01:09:47 #34 №560587 
>>560582
Ну, до выхода 34b еще могли быть варианты, сейчас нет
Разве что в роли эксперимента или сетка совсем бомбезная будет
Аноним 02/12/23 Суб 01:12:45 #35 №560592 
>>560587
Даже угондошеная в Q3 20B будет лучше себя показывать чем несжатая 7b
Даже если эта 7B это xMistralx-finetune by XaTab
Аноним 02/12/23 Суб 01:16:55 #36 №560599 
>>560582
Какие маневры, сам обосрался выше предложив 7б (это судя по реплике подбора слоев), а потом решил на лету переобуться захейтив даже не это решение, а само упоминание про возможность запуска 7б в оригинальных весах. Если пост не твой - туда и предъявляй.
> Назови хоть одну причину использовать не сжатый 7b
Ознакомитсья с прогрессом 7б моделей, уместить большой контекст ради контекста, рвать жопу истеричному шизлу что агрится на нейтральные посты.
>>560592
> Даже угондошеная в Q3 20B будет лучше себя показывать чем несжатая 7b
20б в целом странные и по "уму" не то чтобы от 13б ушли, можно черрипикнуть случай где 7б будет лучше франкенштейров, а для Q3 какой-нибудь всратой версии даже долго подбирать не придется.
Аноним 02/12/23 Суб 01:18:11 #37 №560602 
>>560592
Ну нееет, 20b это бутерброд из слоев 13b, а она почти так же плохо сжимается как 7b
На 3 квантах совсем мусор получится, 4km минимум
Аноним 02/12/23 Суб 01:18:51 #38 №560604 
>>560592
>finetune by XaTab
Бля, шишка колом.
Аноним 02/12/23 Суб 01:24:12 #39 №560614 
>>560599
>сам обосрался выше предложив 7б

Ты думаешь мы тут с тобой вдвоем?
Чел спросил как на видяхе запускать, я ему показал как. Ты начал визжать про то что слоев мало.
7В кто-то другой советовал.
А вот несжатый 7В ты советовал.

>можно черрипикнуть случай где 7б будет лучше франкенштейров

Ну тут то конечно.
Файнтюн 7 на кодинг заточенный с КУУМ 20 сравнить если в кодинге или типа того.
Толку то.

7В реально тупиковая стадия. Ну есть мистраль, ну хороший он. Но даже херовый 13В почти всегда лучше будет.
Разве что если реально зачем-то нужно 16к контекста.

>>560602
>На 3 квантах совсем мусор получится

Ну да, 7В получится.
Фить-ха.
Аноним 02/12/23 Суб 01:24:14 #40 №560615 
Кстати кому понравилась какая та определенная 7b рекомендую найти 11b слепленую из 1 сетки этого файнтюна.
Чуть лучше обычной выходит, но тяжелее и кванты все таки лучше не спускать ниже 8q-6k
Аноним 02/12/23 Суб 01:33:05 #41 №560627 
image.png
Вот график шизанутости моделей от квантов времен первой лламы.
Сейчас разве что хуже могло стать для младших моделей.
Аноним 02/12/23 Суб 01:33:55 #42 №560631 
>>560614
Там буквально написано
> Если
показана возможность полноценного запуска без квантования, а далее представлены другие варианты с обозначением их преимуществ. Остальное уже ты придумал. Хочешь доебаться и сраться по надуманной херне - /b/ или /po/, там будут только рады.

И сейчас набегут любители семи миллиардов и тебя порвут, приговаривая что не то что13б подебили, а там гопота4 еле отбивается.

> 7В реально тупиковая стадия.
Зря, за счет легкости и доступности не только запуска но и тренировки, на нем можно очень много чего тестировать и отрабатывать, потом уже перенося приемы на большие модели.
Аноним 02/12/23 Суб 01:36:57 #43 №560642 
>>559031 →
АХУЕЦ

>>559123 →
В чем новость, если это пережевали года два назад, если не раньше?
Статья-велосипед. =)
Еще скажи, что спутниковые снимки космоса можно анализировать с помощью нейросеток. =)

>>559299 →
Всегда так было.

>>559458 →
ТруЪ нейросеть — в консоли сидеть. =) Сим начинали.

>>559988 →
Процентов 80%, что кидали с реддита сюда — шиза, которая только вредит коммьюнити. Идея «пытается — молодец» ложна в корне. Молодец — когда приносит пользу. Если сравнить пользу от «молчит» и «бредит», то от молчания пользы будет больше — 0. А от бреда лишь вред.
Идея «зато так поймем, как не надо» — тоже хуйня нерабочая.

>>559997 →
> сперва добейся
Обсуждали различные промпты, применения, формулировки, в т.ч. свои мысли писал я, кто-то соглашался и пробовал, я соглашался с другими людьми, пробовал их идеи, начинал пользоваться.
В чем проблема вообще, с этой точки зрения — тут есть «добившиеся» люди, на реддите их почти нет, если ориентироваться на то, что кидали. Ну уж явно не больше.

———
Про 7B на 24 гигах поржекал.
Аноним 02/12/23 Суб 01:37:05 #44 №560643 
>>560615
> и кванты все таки лучше не спускать ниже 8q-6k
Реквестирую истории ерп, чаты и прочее, желательно с контекстом побольше, сделанные именно на 7б. Не стесняйтесь, это для тестов рандомайзера токенов от квантов, все пойдет на благое дело а не фетиши и увлечения ваши изучать. Имена и прочее как угодно правьте там, нужен именно адекватный синтетический и родной модели контекст.
Аноним 02/12/23 Суб 01:39:49 #45 №560648 
>>560631

Если твоя мама делала со мной ministrations во время нашего с ней dance of submission and dominance это не значит что я твой отец.

>И сейчас набегут любители семи миллиардов и тебя порвут, приговаривая что не то что13б подебили, а там гопота4 еле отбивается.


С этого всегда кекаю.
На реддите каждые два дня тред про то что мы вот с пацанами файнтюн 7В замутили и он РАЗЪЕБАЛ ГПТ4 в бенчмарке.
Аноним 02/12/23 Суб 01:43:15 #46 №560653 
>>560643
Есть только 11b из свежего, но там хоть и много текста самих сообщений мало
Аноним 02/12/23 Суб 01:50:43 #47 №560661 
>>560653
Похуй давай, на выходных или на следующей неделе доберусь и запилю сравнение.
Идея довольно примитивная - не просто сравнивать единичные токены, а проходиться по конкретным ответам и уже там замерять rms/максимумы/еще как-нибудь усреднить. Наверно это то же что делали братишки на реддите (а может и нет), но будет более прозрачно, понятно, в боевых условиях и для разного контекста.
Результат с 13-20-34б модели тоже приветствуются, но там верхний размер кванта будет ограничен.
Аноним 02/12/23 Суб 02:11:47 #48 №560677 
>>560661
Короче файлом не отправляется, могу так кинуть в сообщение
Аноним 02/12/23 Суб 02:17:32 #49 №560679 
>>560677
pastebin, catbox, другие файлобменники. В сообщение можешь упереться в ограничение длины.
Аноним 02/12/23 Суб 02:46:31 #50 №560688 
>>560679
Угу, на https://files.catbox.moe/1vkuro.json
Там начало 11b, а 2/3 гермес 7b, разницы особой нет
Это тот диалог с технологиями части которого я сюда кидал когда то.
Но это сейв из кобальда, если тебе был нужен формат таверны то тут мне кинуть нечего.
Аноним 02/12/23 Суб 03:24:28 #51 №560705 
1555405598365.png
1686833394379.png
>>560688
Ух бля, не факт что это лучше книжки что в прошлых тредах была. Тут бы что-то попроще чтобы моделька именно новый ответ красивым текстом должна была генерировать развивая сюжет, а тут как бы луп на лупе не получился. За инициативу канеш спасибо, посмотрим.
Аноним 02/12/23 Суб 05:17:14 #52 №560720 
17008079637880.jpg
>>560285 (OP)
Анончеги, только начал вкатываться подскажите. Насколько локальные модели глупее тырнетных, клаудов и гпт всяких? В шапке написано:
>Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз
У гпт4 32к токенов, получается она способна сохранять раз в 8 больший контекст? А сама по себе база данных/эрудиция у моделей из шапки не хуже?
Аноним 02/12/23 Суб 06:24:03 #53 №560740 
>>560720
> У гпт4 32к токенов
8к родной, судя по шизе и поломкам 32к версии очень похоже что она растянута как раз методом типа rope, или им самым. 4 турба, вероятно, использует изначальную дотренировку с rope чтобы достичь такого контекста.
> Насколько локальные модели глупее тырнетных, клаудов и гпт всяких?
Зависит от модели. Если сравнивать с 70б по познаниям - офк лламы знают меньше. Четверка может без проблем относительно точно описывать персонажей тайтлов и игр, тогда как 70 скорее всего не будет их знать если тайтл редкий и не популярный, хотя есть исключения когда в датасете файнтюнов явно была фан - вики и тогда все будет четко. Общие вещи знают одинаково хорошо, перфоманс в кодинге разнится от случая к случаю. По соображалке гпт4 лучше, 70 идет с отставанием, на уровне 3.5 турбо, местами опережая ее.
Чем меньше модель тем хуже будет результат. Если хочешь говорить на русском - будет хуже турбы, только инглишь. Специализированные файнтюны типа дотренов той же кодлламы или рп при малом размере могут в какой-то мере сравниться с большими сетями в узких областях, но сольют в остальных.
Аноним 02/12/23 Суб 09:18:48 #54 №560788 
image.png
image.png
>>560164 →
Не хотят делать базированного терапевта( Честно говоря сколько не тыкаю её результаты почти никогда не лучше обычных моделей. На удивление большинство моделей может применять психологические знания.
Аноним 02/12/23 Суб 09:53:52 #55 №560798 
>>560788
> может применять психологические знания.
А где гарантия, что васян не тренировал ее на какой-нибудь книженции навроде "Пролетая над гнездом кукушки"?
Аноним 02/12/23 Суб 11:50:30 #56 №560857 
>>560627
Чел, этот график уже давно неактуален.
Аноним 02/12/23 Суб 11:56:26 #57 №560859 
Че за импланты ставишь ОП? Жубы? Кости ней дай бог? Клинки богомола?. У меня как раз кореш делает всякие пластины на череп и замены для раковых больных.


Энивей потестил u-amethyst-20b.Q5_K_M. Вполне достойно. Пишет покороче чем mlewd-remm-l2-chat-20b-inverted.Q5_K_M и менее "flowery" если вы понимаете о чем я.
Но иногда это как бы и надо. Mlewd остается моим личным чемпионом по куму и ерп.
Аноним 02/12/23 Суб 11:57:50 #58 №560860 
>>560857

Ну так дай актуальный, или инфу которая его опровергает
Аноним 02/12/23 Суб 12:02:06 #59 №560861 
>>560860
> инфу которая его опровергает
Это график ванильного GPTQ, без всех оптимизаций. Таких квантов уже никто не делает пол года.
Аноним 02/12/23 Суб 12:18:06 #60 №560867 
>>560861
Ну так я и говорю, что сейчас только лучше будет сжатие.
Если оно даже во времена первой лламы так работало
Аноним 02/12/23 Суб 12:55:58 #61 №560885 
>>560740
Благодарю за объяснение
Аноним 02/12/23 Суб 13:09:25 #62 №560894 
>>560867
Какое ещё сжатие, сжатие сильнее не становилось, шиз. Были оптимизации качества.
Аноним 02/12/23 Суб 13:24:09 #63 №560899 
>>560894
>идет разговор про соотношение сжатия и качества
>ебанько влез со своим умным мнением

Причина тряски?
Аноним 02/12/23 Суб 14:25:39 #64 №560923 
>>560720
70B отлично говорит на русском, ошибок мало.
Контекст у некоторых моделек гораздо больше.
Для узкоспециализированных задач может хватать и 7B моделек, какое-нибудь программирование средней сложности. Поболтать может хватить и 13B.
Но, конечно, до гпт-4 не дотянуться. Хотя тот же клауд по мнению некоторых людей уже стар и уступает в чем-то современным микромоделькам.
Аноним 02/12/23 Суб 14:45:36 #65 №560928 
>>560923
Да тут и 7b неплохо по русски могут, ну так на 4 с минусом. Потому что в базовом мистрале какие то основы русского были, а вот на счет лламы 2 13b не уверен, некоторые могут некоторые нет
Аноним 02/12/23 Суб 15:23:48 #66 №560946 
>>560923
>>560928

Квен от китайцев хорошо в русский умеет тоже.
Удар.
Аноним 02/12/23 Суб 15:59:20 #67 №560957 
>>560946
>Квен
кокой? их много щас всяких
Аноним 02/12/23 Суб 16:11:09 #68 №560964 
Вот кстати норм файнтюн гермеса NeuralHermes-2.5-Mistral-7B, проверяйте
Аноним 02/12/23 Суб 16:53:49 #69 №560983 
>>560957
Обычный 14B. Не чат.
Даже он нормальный
Аноним 02/12/23 Суб 17:32:21 #70 №561001 
image.png
Эксперимент с КУУМ на русском провалился. Полностью.
Аноним 02/12/23 Суб 17:37:13 #71 №561006 
>>561001
Дай сетке пример на русском описания постельной сцены в промпте, может и сможет по красивее описать
Аноним 02/12/23 Суб 17:41:01 #72 №561008 
>>560285 (OP)
А можно как-то в таверне задать системный промт для всех персонажей? Чтобы немного оживить описание ситуации(если вы понимаете о чем я) для 7б, а тот очень сухо. Просто фактаж излагает.
Аноним 02/12/23 Суб 17:44:15 #73 №561012 
image.png
>>561008
Ну да в чат формате и в инструкте.
Надо кстати попробовать на русском их сделать.
Аноним 02/12/23 Суб 17:45:38 #74 №561013 
>>561008

Вот это еще попробуй в инструкт вставить :

Avoid repetition, don't loop. Develop the plot slowly, always stay in character. Describe all actions in full, elaborate, explicit, graphic, and vivid detail. Mention all relevant sensory perceptions.
Аноним 02/12/23 Суб 17:48:22 #75 №561016 
чё делать если сетка несёт несвязанную с контекстом и моими ответами шизофазию? ей вообще всё равно, она даже не пытается.

ОпенГермес-Мистраль
Аноним 02/12/23 Суб 17:53:54 #76 №561017 
>>561016
> ОпенГермес-Мистраль
У меня так бывает на 7б очень часто. Первые два предложение по сути, а потом абзац хуиты. 13б такой хуйней не занимались.
Аноним 02/12/23 Суб 18:06:40 #77 №561027 
>>561017
У неё все сообщения +- по сути, но она полностью игнорирует мои ответы
Аноним 02/12/23 Суб 18:55:53 #78 №561077 
>>560859
>Че за импланты ставишь ОП? Жубы?
Ага. Киберпанк на минималках. Сейчас вроде уже отошёл.
Аноним 02/12/23 Суб 19:26:00 #79 №561108 
https://www.reddit.com/r/LocalLLaMA/comments/188m82u/swapping_trained_gpt_layers_with_no_accuracy_loss/
как и почему работают франкенштейны, в комментах какой то спец объясняет
Аноним 02/12/23 Суб 21:41:03 #80 №561274 
Нашел новую топ модель для КУУМА
NyxKrage/Chronomaid-Storytelling-13b

На самом деле больше для РП с переходом в еблю подходит больше, но и чисто для кума нормально
Аноним 02/12/23 Суб 22:14:26 #81 №561293 
>>560517
>purple prose
Ну ты и говноед
Аноним 02/12/23 Суб 22:43:13 #82 №561331 
>>561274
Норм моделька.
Аноним 02/12/23 Суб 22:46:29 #83 №561335 
>>561274
Как оно именно в плане диалогов/разговора? Лежащая там в основе норомейда мне особо не зашла, хотя её многие и нахваливают, в том числе за какой-то там кастомный датасет. Раздражало, что начинала писать историю вместо того, чтобы рп играть: куча текста с описаловом, и почти ноль реплик и действия. Возможно, моя скилл ишью, лень было особо с системным промптом и параметрами играться.
Аноним 02/12/23 Суб 22:50:14 #84 №561338 
>>561013
Там же и так по дефолту он.
Аноним 02/12/23 Суб 22:52:30 #85 №561343 
image.png
>>561335
Мне нравится
Аноним 02/12/23 Суб 23:02:04 #86 №561359 
image.png
>>561335
>>561343
Ну и как бонус никаких MINISTRATIONS во время КУУМА
Аноним 02/12/23 Суб 23:34:56 #87 №561379 
>>561359
Да что не так с ministrations? Я постоянно встречаю это слово в эротике.
Аноним 02/12/23 Суб 23:40:08 #88 №561383 
Лучшая 34B для кума?
Аноним 02/12/23 Суб 23:45:47 #89 №561387 
>>561383
Никакая, никто не тестил все сразу
Их как грязи и каждый день новые выходят
По датасету смотри, как вариант
Аноним 02/12/23 Суб 23:49:32 #90 №561392 
>>560923
> клауд
> уступает в чем-то современным микромоделькам
Хуясе ебать
>>561006
Перед ролплеем тоже приверы каждого описания даешь? инб4 пользуюсь чат-экзамплз
Оно не просто так путается в склонениях и падежах, оно не понимает как строятся фразы и какие токены генерить. Потому примеры не помогут, только файнтюн. Уже бы препарировали что там у сайги, например, и примерджили.
Аноним 02/12/23 Суб 23:54:58 #91 №561396 
>>561379

ЧатГПТ очень клишированную и душную эротику высирает.
И очень много КУУМ моделей тренировали на датасете оттуда.
Министратионс там в каждом втором сообщении, пиздец вообще.
Аноним 03/12/23 Вск 00:05:36 #92 №561404 
>>561392
>оно не понимает как строятся фразы и какие токены генерить
А может понимает? Только из-за кривой токенизации и настроек пенальтей правильные токены отбрасываются, лол.
Аноним 03/12/23 Вск 00:09:34 #93 №561409 
>>561396
По-моему, локальным мемом здесь и на форчке стало после Клода, наряду с молодыми ночами. Проблема в том, что такой эротикой без ярких и вульгарных описаний, похоже, большинство датасетов забито. Эти тексты не синтетические, а авторские, но фигово написанные. Purple prose - это же как раз оно и есть, вычурная унылая проза.
Аноним 03/12/23 Вск 00:11:05 #94 №561411 
А какие 70b нормальные?
Аноним 03/12/23 Вск 00:12:17 #95 №561415 
>>561411
На чём ты 70б крутишь?
Аноним 03/12/23 Вск 00:15:28 #96 №561420 
>>561409
Может это из клода в гпт перетекло.
Но на клоде вроде бы модели не тренируют.
Забавно смотреть на всякие 7В репаки от васяна где основной чейджлог это "убрали министратионс"
Аноним 03/12/23 Вск 00:17:16 #97 №561425 
>>561392
>Перед ролплеем тоже приверы каждого описания даешь?
То что ты получаешь без примеров называется зеро-шот, это самый сложный способ получить от сетки результат.
Так что да, если хочешь нормальный результат то дай сетке пример от чего отталкиваться. Ну или просто напиши ей как она должна писать, в каком стиле и тд.
Так все сетки работают, зеро шот работает только если сетку специально на что то задрачивали.
Аноним 03/12/23 Вск 00:19:25 #98 №561430 
>>561425
>зеро шот работает только если сетку специально на что то задрачивали
Коммерческие сетки впоолне себе нормально по зеро шоту решают кучу задач. Да и попенсорс тоже вполне себе тянет.
Но да, дать примеры намного проще и лучше, чем надеятся на датасет файнтюна. Так что примеры рулят.
Аноним 03/12/23 Вск 00:23:51 #99 №561439 
>>561415
А это важно? Хочу на а100 попробовать.
Аноним 03/12/23 Вск 00:34:58 #100 №561455 
>>561439
Не важно. В принципе, похерить 70B ещё постараться надо, так что бери любую. На практике я сижу на старенькой synthia-70b-v1.5, dolphin-2.2-70b тоже хорош.
Аноним 03/12/23 Вск 00:37:52 #101 №561458 
>>561396
>>561409
>Проблема в том, что такой эротикой без ярких и вульгарных описаний, похоже, большинство датасетов забито. Эти тексты не синтетические, а авторские, но фигово написанные.
Это слово есть считай что во всей эротике, в том числе вульгарной и хорошо написанной.
Аноним 03/12/23 Вск 01:01:55 #102 №561472 
>>561455
Бля, это точно лучше 7b...
Аноним 03/12/23 Вск 01:02:46 #103 №561474 
>>561430
>Коммерческие сетки впоолне себе нормально по зеро шоту решают кучу задач.
Ну так, потому что их задрачивали на это. В начале то тоже по примерам работали в некоторых задачах, потом популярные примеры включили в датасет и переобучили, и теперь сетки смогли делать что то без примеров. И так из раза в раз повторяют.
Аноним 03/12/23 Вск 01:03:43 #104 №561475 
>>561404
> А может понимает?
Только если проводить ассоциации с тем что понимают русский язык модели лучше чем на нем говорят. Пенальти не при чем.
>>561425
Если сетка заточена на рп - она прекрасно зирошотом все будет делать. Если она не понимает языка - она не сможет на нем общаться. Незначительные улучшение ценой расхода контекста можно добиться, но это чуточку лучше чем плацебо, в таких условиях примеры не помогут. Нужен просто файнтюн с языком.
>>561411
Большая часть из тех что самостоятельные файнтюны а не шизомерджи - нормальные. Синтию 1.5 действительно попробуй, айробороса, xwin хоть старый но норм.
Аноним 03/12/23 Вск 01:06:33 #105 №561476 
>>561475
>Если она не понимает языка - она не сможет на нем общаться.
Просто у нее может быть знание языка, но не быть знания того как писать эротические предложения на русском. В каком стиле, какие слова использовать и тд. Тут то и помог бы пример.
Если дело в не знании языка, то да, там пример уже не поможет.
Аноним 03/12/23 Вск 01:10:07 #106 №561480 
>>561474
>Ну так, потому что их задрачивали на это
На эротический ролеплей?
>>561475
>Пенальти не при чем.
Почему так думаешь?
Аноним 03/12/23 Вск 01:10:27 #107 №561481 
>>561475
>Только если проводить ассоциации с тем что понимают русский язык модели лучше чем на нем говорят.

Вот это кстати удивило когда сегодня куум тестировал на разных моделях.
Модель могла вообще отказаться текст на русском выдавать, но почти все отлично понимали что я им писал на русском.
Аноним 03/12/23 Вск 01:15:13 #108 №561482 
>>561480
>На эротический ролеплей?
Изначально речь шла о решении кучи задач, но да, почему бы не быть знаниям о эротике в датасете.
Ты же в курсе что если сетка не обладает информацией по какой то теме то становится глупее. Делать сетку без знания об эротике - делать ее тупее. Да и опознать без этих знаний она эротику не сможет, как тогда самоцензуре и сое работать.
Так что учат, но так что бы сетка не писала ее без танцев с бубном, пряча за ограничениями.
Аноним 03/12/23 Вск 01:19:32 #109 №561484 
>>561481
>Модель могла вообще отказаться текст на русском выдавать
Пиздят, уж я твоя ебал любая могла бы выдать, если хоть как то понимает по русски. А это любая сетка, так как русский есть в любом датасете базовых сеток.
У меня любая сетка по русски болтает, путают окончания, придумывают слова, но отвечают если заставить.
Кто то прям как по учебнику сухо и почти без проебов отвечает, хоть гугл транслейт заменяй и это были 7b.
13b тоже могут но я их последнее время мало щупал, так что хз
Аноним 03/12/23 Вск 01:28:07 #110 №561485 
>>561481
>Модель могла вообще отказаться текст на русском выдавать
Шкилл ишью. Любую модель можно заставить писать на русском, даже GPT-2 первых ревизий (правда результат будет говно).
>>561482
>но да, почему бы не быть знаниям о эротике в датасете.
Так вначале писалось про сознательное улучшение в разных вопросах, чтобы сетка зеро-шотом могла выдавать. Конечно в датасетах любых современных сеток есть эротика, но я сомневаюсь, что в оленьАИ специально писали порнорассказы, чтобы потом
>пряча за ограничениями
Аноним 03/12/23 Вск 01:31:10 #111 №561487 
>>561485
>но я сомневаюсь, что в оленьАИ специально писали порнорассказы, чтобы потом
>>пряча за ограничениями
Не писали, но это могло быть в датасете, а там уже и обучение сетки триггериться на эротику соей.
То есть что бы сетка могла быть соевой в нужный момент она должна уметь отличать намеки на эротику и эротику от обычного текста.
Аноним 03/12/23 Вск 01:31:57 #112 №561488 
>>561487
>Не писали, но это могло быть в датасете
Что я и написал.
Аноним 03/12/23 Вск 01:35:07 #113 №561490 
>>561488
А я на другое ответил. Если про сознательную тренировку то нет.
Учитывай что большие сетки - умные, у них появляются навыки которых нет в датасете. Поэтому просто знание эротики дает им возможность ерпшить если их взломать.
Аноним 03/12/23 Вск 02:42:55 #114 №561525 
https://www.reddit.com/r/LocalLLaMA/comments/1896igc/how_i_run_34b_models_at_75k_context_on_24gb_fast/
Аноним 03/12/23 Вск 03:02:50 #115 №561528 
>>561481
пишешь сетке

настройки - язык - русский

и она переключается, лол
Аноним 03/12/23 Вск 04:37:02 #116 №561550 
В 24гб карту максимум 34B модель влезает? Какая лучше всего на русском говорит?
Аноним 03/12/23 Вск 04:37:46 #117 №561552 
Может обменять 4090 на несколько 3090? Туда же влезет 70B?
Аноним 03/12/23 Вск 08:19:28 #118 №561606 
>>561550
Пожатая 70В влезет
Аноним 03/12/23 Вск 08:30:20 #119 №561611 
>>561528
Забавно, но иногда это работает
Аноним 03/12/23 Вск 08:53:37 #120 №561619 
>>561611
Обычно пишу первым сообщением "Отвечай мне только на русском. Русский это единственный язык который ты знаешь."
Но модель с нормальным русским так и не нашел. Всегда есть косяки по крайней мере в 7b и 13b.
Аноним 03/12/23 Вск 10:09:57 #121 №561663 
>>561274
Очень даже ничего, ответы действительно отличаются от остальных 7В - 20В моделей в последнее время начал замечать что в некоторых чатах мистралевые франкенштейны несут +- одну и ту же ересь
В целом пишет лучше, чем Emerhyst, при этом соображая не хуже. Уже только за то что не проёбывает разметку и умеет вести статистику в РПГ чатах, можно ставить эту модель в топ!
Аноним 03/12/23 Вск 12:23:21 #122 №561704 
image.png
>>561663
>в последнее время начал замечать что в некоторых чатах мистралевые франкенштейны несут +- одну и ту же ересь


Потому что мердж делают из двух "типа разных" моделей, которые на самом деле на одном датасете тренились.
Вот и получается что ответ то в целом один, просто степень шизанутости разная.

Я 7В говно больше вообще трогать не буду, разве что концепт у модельки интересный будет.
Вот cinematika-7b-v0.1 например. Ее тренили на сценариях фильмов, может что-то интересное выйдет.
А все эти мистраль файнтюн ебет гпт в бенчмарке мамой клянусь - нахуй. Реально как во времена репаков винды вернулся.
Аноним 03/12/23 Вск 12:24:58 #123 №561705 
Image1.jpg
Зацените уровень неформального перевода rugpt-13B. Среди опенсорсных LLM, мне кажется, это лучший перевод на разговорный русский. Все ответы получены с первой попытки, без реролла. Лама и сайга курят в сторонке. Из минусов - нужна видеокарта. Хочу теперь завернуть ее в апишку и подключить как автопереводчик в Silly Tavern чтобы общаться с Llama-70B или Yi-35B на русском (в оригинале у них разговорный русский просто никакой)
Аноним 03/12/23 Вск 12:28:45 #124 №561708 
>>561705
Звучит неплохо. А в обратную сторону оно умеет?
Аноним 03/12/23 Вск 12:36:25 #125 №561714 
>>561705
Если справишься расскажи потом как настраивал стек. Перевод выглядит отлично
Аноним 03/12/23 Вск 12:41:16 #126 №561721 
>>561476
> может быть знание языка
> не быть знания того как писать эротические предложения на русском
Такое можно было бы предположить если бы оно прекрасно работало по обычным запросам и резко начинало тупить при ерп, но даже в том примере оно сносно описало последние 2 строки, и сфейлило вполне обычную фразу.
>>561480
> Почему так думаешь?
Потому что это очевидно как белый день и проявляется на любых настройках.

Желающим верить рекомендую полностью переписать весь системный промт, инструкции и карточки на русский а потом смотреть что получается.
>>561481
Обучаются "пониманию смысла" гораздо быстрее чем тому как нужно отвечать. Они могут понимать команды далеко не отлично а примерно только общее, но этого достаточно для выдачи ответа, точно также можешь на инглише писать с ошибками и путать грамматику - все равно поймет и ответит правильно.
>>561525
Все полотно можно сократить до "используйте более ужатый квант с экслламой 2 и выберите 8битное кэширование".
Зато есть полезные советы по поводу температуры на китайце. Интересно где он увидел
> Ooba works fine, but expect a significant performance hit, especially at high context.
Или это про огромные чаты в ней?
Аноним 03/12/23 Вск 12:43:17 #127 №561725 
>>561705
А ведь объективно хорошо получается. Не смотря на возраст и архитектуру, полноценная тренировка дает о себе знать. Присоединяюсь к реквесту настроек.
Аноним 03/12/23 Вск 12:55:43 #128 №561731 
>>561721
>Все полотно можно сократить до "используйте более ужатый квант с экслламой 2 и выберите 8битное кэширование".
Не просто более ужатый, но правильными калибровочными данными. Нормальный подробный гайд, но 24гб у меня нету
Аноним 03/12/23 Вск 13:01:25 #129 №561734 
Image3.jpg
>>561705
>>561708
С русского на неформальный английский похуже. Часто путает персонажа и вместо перевода сообщения пытается ответить на сообщение или сама додумывает ответ. Делал рероллы в 50% случаев.
Аноним 03/12/23 Вск 13:12:59 #130 №561738 
Image5.jpg
>>561725
>>561705
Настройки как настройки. Карточка персонажа пустая, мне проще все в первое сообщение впихнуть.
Аноним 03/12/23 Вск 13:25:36 #131 №561746 
>>561738
Семплинг не интересен, лучше покажи системный промт и настройки инстракт режима.
Аноним 03/12/23 Вск 13:52:10 #132 №561752 
У всех как говно стало с обниморды качать? 1мб/с, когда раньше могло весь канал забить. Захочешь сейчас с утра модель прочекать, она к вечеру скачалась, а ты уже и не хочешь ничего...
Аноним 03/12/23 Вск 14:03:04 #133 №561765 
Image7.jpg
>>561746
В убе все дефолтное, ничего не менял. Я что-то не уверен, что при работе в режиме API с таверной он вообще использует вот этот системный промт со скрина (могу ошибаться).
Аноним 03/12/23 Вск 14:10:42 #134 №561778 
>>561765
При работе с таверной даже на самом древнем апи там весь промт из нее идет, по современным из настроек убы только параметры лоадера, и то сейчас можно делать отдельные вызовы для загрузки нужной модели с нужными параметрами. Покажи что в таверне стоит.
Аноним 03/12/23 Вск 14:19:42 #135 №561790 
Image8.jpg
>>561778
относительно свежая SillyTavern 1.10.9. Тут тоже ничего не менял.
Аноним 03/12/23 Вск 14:25:21 #136 №561792 
>>561752
Ты знаешь кого благодарить в изоляции этой страны.
Аноним 03/12/23 Вск 14:35:33 #137 №561797 
image.png
>>561752
>>561792

>какие-то локальные проблемы провайдера

ХРЮ
Аноним 03/12/23 Вск 14:46:21 #138 №561812 
изображение.png
>>561797
У кого проблемы? У тебя проблемы.
Зато у меня гитхаб тормозит.
Аноним 03/12/23 Вск 15:08:47 #139 №561821 
>>561812
Да уж, качать новый кобальд пол часа оттуда
К счастью загрузчик с кучей одновременных подключений сократил время в 6 раз
Аноним 03/12/23 Вск 15:17:16 #140 №561824 
>>561611
смени язык - русский

тоже работает, не знаю какие проблемы у тех кто на русский сетки не может переключить
Аноним 03/12/23 Вск 15:39:52 #141 №561846 
>>561821
>Да уж, качать новый кобальд пол часа оттуда
Кстати, а что случилось? Он теперь с твиттором замедлен, лол?
Аноним 03/12/23 Вск 15:51:15 #142 №561861 
>>561704
>cinematika-7b-v0.1
Соевая небось с цензурой 99 уровня?
Аноним 03/12/23 Вск 15:55:23 #143 №561871 
>>561705
>rugpt-13B
Почему gguf никто не сделал? я бы скачал q5
Аноним 03/12/23 Вск 15:58:54 #144 №561878 
>>561871
>Почему gguf никто не сделал?
>ru
Вот по этому.
Аноним 03/12/23 Вск 15:59:06 #145 №561879 
>>561846
Как нехуй делать, эти дебилы наверное хотят пересадить всех на свой аналоговнетный аналог гитхаба
Аноним 03/12/23 Вск 16:11:45 #146 №561893 
>>561878
Я возмущен до глубины души ихнем не этичным поведением. Своим поведением они создают негативную атмосферу в онлайн сообществе.
Аноним 03/12/23 Вск 16:12:48 #147 №561894 
>>561893
>не этичным
неэтичным
Пофиксил. Я всего лишь человек.
Аноним 03/12/23 Вск 16:26:25 #148 №561899 
>>561846
>Он теперь с твиттором замедлен, лол?

Ты там из 2021 двачуешь чтоль?
Какое замедление твиттера?
Аноним 03/12/23 Вск 16:37:58 #149 №561906 
>>561899
Верните меня в 2021. Лучше без нейросетей, чем всё это.
Аноним 03/12/23 Вск 17:18:13 #150 №561929 
>It can also generate Uncensored content. Kindly be careful while generating Uncensored content as you will be responsible for what you generate.

Вроде slimorca-13b хайпили. Типа анцезоред и все такое.
На деле мега соя, хуже гпт чесслово.
Аноним 03/12/23 Вск 17:25:23 #151 №561934 
17001555661700.png
>>560285 (OP)
Хочу поставить AI на комп с целью помочь мне в написании текстов.
Нашел это: Openchan 3.5 7b, типа пишут что он не хуже Chat GPT 3.5
https://huggingface.co/openchat/openchat_3.5
https://github.com/imoneoi/openchat
Пытаюсь ставить, но я слишком туп, атцы-праграмисты не пишут нормальных инструкций.
Молю помогите разобраться в порядке действий, я в душе не ебу что надо прописывать в командной строке. Я его скачал через гит командой git clone, а дальше как собственно его запустить не понимаю.
Аноним 03/12/23 Вск 17:28:51 #152 №561936 
>>561934
нахуя такие сложности? кобальд качай из шапки и дальше по инструкции
Аноним 03/12/23 Вск 17:43:20 #153 №561953 
>>561934
Проще всего поставить LM Studio, и прямо в ней можно скачать себе любую модель. Это, так сказать, начальный уровень. Но для продуктивной работы нужно, как уже отметил анон, ставить кобольд + силлитаверн.
Аноним 03/12/23 Вск 17:49:30 #154 №561963 
>>561953

Нахер ему силли таверн для

>Хочу поставить AI на комп с целью помочь мне в написании текстов.

LM Studio прям для этого и создана. Или в угабуга через веб морду работать.
Аноним 03/12/23 Вск 17:54:35 #155 №561966 
>>561936
Я уже додумался и сделал это, даже запустил. Но бот пишет ответы на 100-150 символов, а не на 3000 условно. Как это изменить или у меня тупо памяти не хватает, я в настройках там не понимаю.
>>561953
>LM Studio
Тоже щас скачаю
Аноним 03/12/23 Вск 18:01:17 #156 №561968 
image.png
>>561966
переключись в режим истории или инструкции, а в настройках нужно указать максимальную длину сообщения на эти 3000
Аноним 03/12/23 Вск 18:03:02 #157 №561970 
image.png
>>561966
вот тут поиграйся что бы понять разницу, ну и на странице кобальда есть обширная вики https://github.com/LostRuins/koboldcpp/wiki
Аноним 03/12/23 Вск 18:36:12 #158 №561981 
Мнение илиты?
Аноним 03/12/23 Вск 18:36:35 #159 №561982 
https://huggingface.co/TheBloke/DiscoLM-120b-GGUF
Аноним 03/12/23 Вск 18:42:09 #160 №561983 
>>561981
Слишком большая что бы быть полезной, но если хочется поиграться с большой моделью почему нет
Аноним 03/12/23 Вск 19:56:15 #161 №562040 
Наконец то выпустили чайную но опенсорс. И рандомная шизанутость персонажей, и "это любовь" в каждом предложении и блушинг лайк а ливинг томато, все на месте. Осталось наинжинирить охуенные промпт и настройки и гуд олд тайм ис бек.
Аноним 03/12/23 Вск 19:57:31 #162 №562044 
>>562040
о какой модели речь?
Аноним 03/12/23 Вск 20:02:57 #163 №562047 
>>562040
Через какую модель ты этот шизовысер сделал?
Вообще нихуя не понятно
Аноним 03/12/23 Вск 20:33:27 #164 №562073 
>>562047
Кен ю ивен инглиш, мазафака? Министрейтинг йор йонг найтс.
Аноним 03/12/23 Вск 20:36:03 #165 №562074 
>>562073
>Министрейтинг йор йонг найтс
Блашес слайтли~
Аноним 03/12/23 Вск 20:56:30 #166 №562081 
>>562074
Донт ворри, ай донт байт. Анлес ю вант ми ту.
Аноним 03/12/23 Вск 21:31:36 #167 №562119 
>>561878
Существует ggml версия, но она не загружается ни кобольдом ни ламой, ни убабугой (подходит для пары питоновских библиотек rutransformers и еще какая-то). Причина отсутствия массовой поддержки - архитектура gpt2, которую все забросили с приходом первой ламы.
https://huggingface.co/evilfreelancer/ruGPT-3.5-13B-ggml/discussions/1

Кто-нибудь смог запустить ruGPT-gptq на CPU? или хотя бы с частичным оффлодом на GPU? я месяц назад пытался, но безуспешно.
Аноним 03/12/23 Вск 21:35:27 #168 №562122 
>>561963
В таверне легко сделать карточки персонажей "писатель", "блогер", "комментатор" для разных стилей и переключаться по мере надобности.
Аноним 03/12/23 Вск 22:44:43 #169 №562197 
>>561752
Постоянно такое.
Через гит или браузер.
Из-за фаерволла.
Качаю крупные файлы менеджером закачек — все ровно.
Выглядит так, будто проблема явно не в интернете, а локальная.
Проверял на 3 разных машинах и 3 разных интернетах.

>>561934
В шапке все описано, боюсь тут уже ничем не помочь…

>>561953
Для продуктивной — убабуга. А кобольд — как раз проще всего.
Скачать гуфф модель много ума не надо. =)
Аноним 03/12/23 Вск 23:20:29 #170 №562246 
>>562122
В Таверне не очень удобно работать с длинными контекстами. Не понятно куда класть всякую инфу, которую можно было бы сложить в контекст.
Аноним 04/12/23 Пнд 03:42:00 #171 №562459 
https://www.reddit.com/r/LocalLLaMA/comments/18a00kl/noushermes2vision/
новая мультимодалка на основе гермеса, и какой то новый кодер к ней
Аноним 04/12/23 Пнд 09:32:01 #172 №562586 
>>562459
>reddit.com
Как отключить бота, который тащит всё подряд с реддита?
Аноним 04/12/23 Пнд 09:54:15 #173 №562599 
image.png
Модель для генерации карточек.
https://huggingface.co/jondurbin/cinematika-7b-v0.1
Аноним 04/12/23 Пнд 09:55:54 #174 №562601 
>>562599
Нахуя, а главное зачем? Любая карточка может генерить другие карточки исключительно на основе промпта
Аноним 04/12/23 Пнд 10:11:56 #175 №562605 
Как работает преобразование текстового промпта в вектор токенов, который пойдет на вход нейросетевой модели?
Аноним 04/12/23 Пнд 10:53:12 #176 №562614 
>>562605
Берут и разбивают текст, а что?
Аноним 04/12/23 Пнд 11:13:37 #177 №562627 
>>562614
Расплитил текст, а дальше что? Слова по отдельности ничего не значат, важно то, что они вкупе делают, свойства системы не сводятся к свойству каждого её отдельного компонента
Аноним 04/12/23 Пнд 11:17:26 #178 №562630 
>>562627
>Расплитил текст, а дальше что?
А дальше эти числа кидают в жернова системы.
Если что, в текущих LLM всякие там Word2vec не используются, с токенами разбирается сама нейронка в первых слоях (ибо если поменять первые слои местами, вывод сетки идёт по пизде, в отличии от замен в последующих слоях).
Аноним 04/12/23 Пнд 12:11:07 #179 №562647 
Кто разбирался почему сетки например 20b игнорируют часть инструкции иногда, а иногда не игнорируют эти же инструкции. Словно по желанию левой пятки. Я спрашиваю сетку че влияет на ее игнор инструкций, но она несет всякую ересь.
Аноним 04/12/23 Пнд 12:19:06 #180 №562650 
>>562647
>сетки игнорируют часть инструкции
Потому что это LLM, а не искусственный разум.
>например 20b
Это вообще шизомиксы, чудо что работают.
>Я спрашиваю сетку
Это признак шиза. Сетка не может "знать", почему она шизит, глючит, не "знает" свои ограничения. По таким запросам ты только галюнов начитаешься.
Аноним 04/12/23 Пнд 12:39:04 #181 №562659 
>>562599
Разве зирошот 70b не будет делать как минимум не хуже?
Аноним 04/12/23 Пнд 12:41:40 #182 №562661 
>>562630
Схуяли не используется? Токенайзер же не только режет слова, но подставляет вектора эмбеддингов вместо токенов, не? А то что первые слои разбираются с этим - это всегда так было. Но я могу ошибаться.
Аноним 04/12/23 Пнд 12:47:23 #183 №562665 
изображение.png
>>562661
>но подставляет вектора эмбеддингов вместо токенов, не?
Нигде такого не видел. Везде токенизёр это просто массив "набор_символов" => номер_токена, никакой дополнительной обработки на этапе токенизации не используется. Пикрил оригинальный террористический tokenizer.py из лламы.
Аноним 04/12/23 Пнд 12:52:47 #184 №562672 
>>562650
>Это вообще шизомиксы, чудо что работают.
А как определить какие сетки миксы, а какие с нуля обучены?
Аноним 04/12/23 Пнд 12:59:39 #185 №562677 
Кому интересно, почему нейронки всякую херню несут. Недавно вышла интересная статья https://arxiv.org/abs/2309.01029 Explainability for Large Language Models: A Survey, там разобраны все существующие сейчас направления интерпретации работы нейронок, отдельный параграф про шизу 4.2.2 Explaining Hallucination Причин там несколько (неполные данные о теме вопроса, повторения в датасете итд) если в кратце, для пользователя единственный выход - использовать как можно более крупные модели, экспериментально показано, что чем больше нейронка, тем меньше она бредит:
>There are several ways to address the hallucination problem. Firstly, scaling is always a good step to take. The performance of PaLM with 540 billion parameters steeply increased on a variety of tasks. Even it also suffers from learning long-tail knowledge, but its memorization abilities are shown to be better than small models (Chowdhery et al., 2022).
Аноним 04/12/23 Пнд 12:59:57 #186 №562678 
>>562672
По описанию.
>а какие с нуля обучены
С нуля обучены те, что в шапке, всё остальное это файнтюны и миксы. Шизомиксами лично я называю модели, которые по размеру не соответствуют базовым, то есть те, у которых слои нарощены слоями от другой модели. Вот они чудо что работают. Обычные файнтюны норм идея, миксы тоже, но уже такое, не всегда норм мешаются.
Шизомиксы от файнтюнов отделить проще всего по размеру, базовые лламы это 7,13,30,33,65,70 миллиардов параметров, всё что все этих размеров, это или другая база, или скорее шизомикс. Все 20B это шизомиксы по определению, базовых сеток этого размера я не помню, кроме совсем древних на GPT2, но они говно и не используются буквально уже нигде.
Аноним 04/12/23 Пнд 13:24:35 #187 №562689 
>>562672
11b так же миксы сеток, как и 120b
Аноним 04/12/23 Пнд 14:07:25 #188 №562700 
А можно сделать бота, чтобы он описывал мне визуально сцену по моему запросу? Например, два персонажа заходят в квартиру и разговаривают, а я прошу описать обстановку и т.д. Или промт подскажите, пожалуйста.
Аноним 04/12/23 Пнд 14:08:17 #189 №562701 
>>562700
>Или промт подскажите, пожалуйста.
Вот же ->
>прошу описать обстановку
Аноним 04/12/23 Пнд 14:14:57 #190 №562710 
>>561871
Почему сам не сделаешь?
>>562040
Эх ты, опоздал. Уже успели "спрогрессировать" и теперь есть соображалка, тонкое понимание намеков, последовательность, но меньше той "души". Хотя можно попробовать пошаманить.
>>562119
Все верно, gguf может в gpt-2 и ей подобные, если вдруг не взлетает - Жоре багрепорт. Что конкретно не так с этим квантом - хз, но учитывая что это старая версия старого формата, которую выложили уже спустя обновления до gguf и т.п. - наверно просто криво сделана.
>>562599
Чет на грани шизы пример.
>>562605
Держи играйся https://belladoreai.github.io/llama-tokenizer-js/example-demo/build/
или тебя реализация в коде интересует?
Аноним 04/12/23 Пнд 14:26:35 #191 №562721 
>>562647
Даже огромные йоба сетки могут иногда игнорить часть инструкции. А тут слепленный из кусков 13б франкенштейн, с тем же числом голов (поправьте если не так, насколько помню пересаживание с 30 еще давно завести не удалось).
> Я спрашиваю сетку че влияет на ее игнор инструкций, но она несет всякую ересь.
И на что ты рассчитывал, все эти инструкции сетки - ее подсознание, она не знает ничего про это. Нормиса без приобретенных знаний об этом спросить как его мозг и рефлексы работают - тоже ту еще ересь понесет.
>>562659
Будет более связанный и менее шизофазный.
>>562672
В описание модели глянуть. Если там развернутое пояснение что за модель, с какой направленностью, слова про ее датасет, бенчмарки, ключевые особенности - это файнтюн. Если там "тут мердж слона с носорогом а еще щепотка вот таких лор, спешал сенкс ту унди" - шизомикс. Нестандартный размер типа 11 и 20б - это вообще франкенштейны и шизомиксы по совместительству, хотя были и попытки файнтюнов таких франкенштейнов.
>>562677
> Умная модель меньше тупит
Ну хоть тут никаких сенсаций
>>562700
Мы тут диалоги нейросетей устраиваем чтобы ллм пытала мультимодалку и по совокупности данных делала "достоверное" описание, а тут такое простое. Просто прямо попроси, совет верный дали.
Аноним 04/12/23 Пнд 14:36:04 #192 №562726 
>>562073
Блушес с тебя. Немного бонднул даже.
Аноним 04/12/23 Пнд 14:49:24 #193 №562729 
>>562665
Понятно. Чет я совсем отстал от жизни. Но так-то давно пора было.
Аноним 04/12/23 Пнд 15:08:42 #194 №562740 
>>562586
Никак, страдай

>>562721
>И на что ты рассчитывал, все эти инструкции сетки - ее подсознание, она не знает ничего про это. Нормиса без приобретенных знаний об этом спросить как его мозг и рефлексы работают - тоже ту еще ересь понесет.

Нормальный вопрос, проверить знает ли сетка о инструкциях, но почему то их проигнорировала или вообще не вдупляет о чем речь.
Если первое то нужно изменять инструкции на более понятные, что бы сетка не нашла причин их не соблюдать.
Если второе то уже проблемы у сетки, тут только смена сетки или смена настроек запуска или семплера поможет.
Аноним 04/12/23 Пнд 15:31:56 #195 №562754 
>>562740
> проверить знает ли сетка о инструкциях
Это можно сделать экспериментально, оценивая ее реакцию, а не спрашивать у нее "ты знаешь об этих инструкциях". Указать хули игнорируешь это в ответе можно, получишь дефолтный "аподожайз лет ми коррект майселв". Особо умные сетки умеют сами проверять и доотвечать в следующих постах, ссылаясь на прошлые.
> нужно изменять инструкции на более понятные
Это всегда так, чем проще и понятнее тем лучше. И сетки, увы, не идеальны, даже гопота и клод серут только так.
Аноним 04/12/23 Пнд 15:56:46 #196 №562772 
>>562721
> росто прямо попроси, совет верный дали.
>>562701
Спасибо, работает.Блять, а почему в промте не работает у персонажей. Пишу описывать действия детально, эпитетами, там хуе-мое, а в итоге получаю "Ты меня ебешь". Теперь приходится другого бота каждый раз просить. Лол.Это на 7б любых.
Аноним 04/12/23 Пнд 16:06:36 #197 №562781 
>>562772
>Это на 7б любых.
Ну а хули ты хотел, они глупенькие. На 70B попробуй.
Впрочем, "описывай детально" всегда работало хуёвстенько. Лучше примеры сообщений давай, если в чате, без них на локалках жизни нет а вот на форбе впору писать вобратную.
Аноним 04/12/23 Пнд 16:13:28 #198 №562783 
ComfyUI00293.png
7b-8bit = 13b-4bit = 34b-2bit?
Аноним 04/12/23 Пнд 16:14:27 #199 №562784 
>>562783
Смотри на картинку в шапке
Аноним 04/12/23 Пнд 16:24:36 #200 №562786 
>>562783
по размеру может и да, по качеству нет

>>562781
>На 70B попробуй.
рубрика вредных советов? 34b пусть новые пробует, они хороши
Аноним 04/12/23 Пнд 16:26:54 #201 №562788 
>>562772
> Лол.Это на 7б любых.
Возможно дело в этом. Можешь еще попробовать в рп что-то типа (ooc: give a long and detailed description of the scene mentioning all vivid details), а так просто так сетка может подумать будто ты самого персонажа просишь говорить и тот не вдупляет.
>>562786
> они хороши
Лучше 70?
Аноним 04/12/23 Пнд 16:26:58 #202 №562789 
>>562786
>>562784
7b-8bit = 13b-2bit

34b-8bit = 65b-2bit
?
Аноним 04/12/23 Пнд 16:29:56 #203 №562793 
>>562788
>Лучше 70?
Мне длинный контекст на Yi заходит намного больше чем 70b модели
Аноним 04/12/23 Пнд 16:30:26 #204 №562795 
>>562788
>Лучше 70?
разница не большая а запустить проще, ну и контекста доступного как грязи
Аноним 04/12/23 Пнд 16:30:45 #205 №562796 
>>562786
>рубрика вредных советов?
Полезных.
>34b пусть новые пробует, они хороши
На китайском разве что.
Аноним 04/12/23 Пнд 16:32:12 #206 №562800 
>>562793
Что с длинным контекстом делаешь? Как его воспринимает?
>>562795
> разница не большая
Так уж не большая? И какие хорошие порекомендуешь?
Аноним 04/12/23 Пнд 16:33:13 #207 №562801 
>>562800
Просто сру в контекст описанием персонажей с вики и их диалогами из оригинального произведения. Норм воспринимает.
Аноним 04/12/23 Пнд 16:33:25 #208 №562802 
>>562800
>Так уж не большая? И какие хорошие порекомендуешь?
capybara-tess-yi-34b-200k-dare-ties.
может что то и получше уже вышло, эта неплоха
Аноним 04/12/23 Пнд 17:09:13 #209 №562836 
>>562783
Даже 13В q3 будет лучше 7В fp16. q2 отдельный случай, лучше не трогать.
Аноним 04/12/23 Пнд 17:39:36 #210 №562859 
>>562459
400M картиночек.
Пишут, что сильно галлюцинирует.
Ну такое, хз.
Энивей, вот выйдет квант, тогда заценим.
Но выглядит сомнительно. Сорт оф бакклава на минималках, но с какой-то хитрой системой обучения липа, не вникал.
Аноним 04/12/23 Пнд 17:54:18 #211 №562869 
>>562836
При прочих равных. А так у нас есть Б-жественный мистраль и устаревшая говнина llana 2, так что увы, выбор не в пользу 13B.
Когда там мистрали выкатят сетки побольше?
>>562859
>Пишут, что сильно галлюцинирует.
Они все под героином. Ни одной норм картиночной модели в попенсорсе.
Аноним 04/12/23 Пнд 18:12:40 #212 №562890 
>>562869
>Когда там мистрали выкатят сетки побольше?
В попенсорс? Мечтай, первая сетка была для собирания денег и рекламы, теперь набрав деньги они все делают для копров
За любую мощную сетку отданную народу им всем яйца прижмут
Аноним 04/12/23 Пнд 18:14:14 #213 №562894 
>>562890
Ну так 70B от террористов мощнее, но ничего, выложили же.
Аноним 04/12/23 Пнд 18:17:31 #214 №562899 
>>562894
мета - кажется единственные с идейным челом, топящим за опенсорс, близко к рулю
Аноним 04/12/23 Пнд 18:21:35 #215 №562904 
>>562894
70 слишком большие что бы быть полезными для большинства в опенсорсе, а вот маленькие и умные - неа.
Смотри как долго тянули что бы мы смогли получить 34b, думаешь их не было ни у кого?
Были, просто они были слишком хороши что бы их отдавать
Аноним 04/12/23 Пнд 18:30:06 #216 №562918 
>>562904
>70 слишком большие
Давай не будем решать за меня.
>Смотри как долго тянули что бы мы смогли получить 34b
Так не получили же.
Аноним 04/12/23 Пнд 18:37:24 #217 №562931 
>>562918
>Давай не будем решать за меня.
Ты не весь опенсорс и любители, не суди по себе

>Так не получили же.
Китайцы выдали, значит есть. Но да, не от мета или кого еще
Аноним 04/12/23 Пнд 18:51:55 #218 №562954 
>>562918
О, семидесятки катаешь? Мнение о моделях и их сравнении с 34б?
>>562931
Объективно опенсорс, который не может запустить 70б, принесет для мира ллм довольно таки мало пользы. Пока что видим только единичные случаи типа унди с его шизомерджами (да, сомнительного качества, но всеже техника развивается и потенциально может быть использована). Так что как раз зря решаешь за остальных.
Среди тех для которых "слишком велики xxB а 7 - святой грааль" очень много интересных личностей с эффектои Даннинга-Крюгера, которым казаться важнее чем быть. Засирают инфопространство прилично, вот уж кого запрунить не помешало бы с их ахуительными суждениями.
Аноним 04/12/23 Пнд 18:52:13 #219 №562955 
Будущее кума - за азиатами
Аноним 04/12/23 Пнд 19:18:23 #220 №562978 
>>562954
>Объективно опенсорс, который не может запустить 70б, принесет для мира ллм довольно таки мало пользы.
Тут нигде не говорилось о пользе, только о том что людям не давали в свободном доступе локальных нейронок.
Причем тут не только обычные энтузиасты, но и конкуренты. В свободном доступе 34b появилась не со стороны копроратов у которых давно есть подобные сетки.
Нам даже 13b зажопили, только мистраль выдали 7B зная что это не особо повлияет на баланс сил, и я уверен снова вкинуть что то революционное в свободный доступ им не дадут.
Аноним 04/12/23 Пнд 19:27:22 #221 №562985 
>>562931
>Ты не весь опенсорс и любители, не суди по себе
И ты.
>>562931
>Китайцы выдали
Хуйню ломучую, под которую настройки подбирать надо, иначе шизит и повторяется.
>>562954
>Мнение о моделях и их сравнении с 34б?
70 лучше, чтобы не воображали себе те, у которых железо нетянет.
>>562955
Так они ж цензурят всё. Вон, ни одной манги без цензуры на территории Японии не делают, ибо тюрьма. Все анцензы западные.
>>562978
>В свободном доступе 34b появилась не со стороны копроратов у которых давно есть подобные сетки.
У корпоратов 100+ сетки, нахуй им обрезки меньше?
>>562978
>и я уверен снова вкинуть что то революционное в свободный доступ им не дадут
Эм... Поздно. Всё жду, когда квантуют нормально под проц
https://huggingface.co/Qwen/Qwen-72B
Аноним 04/12/23 Пнд 19:37:59 #222 №563003 
>>562978
> только о том что людям не давали в свободном доступе локальных нейронок
Это тема сложная, проблема существует, но в твоих постах и после
> особо повлияет на баланс сил
читается совершенно иная читай неверная, придаешь чрезмерный приоритет менее значимым и игнорируешь более значимые факторы трактовка причин почему их нет в общем доступе.
Китайцев, как тебе ответили, выложили, и будут еще. Качество и количество в сделку не входят, ждите или доделывайте сами.
>>562985
> Всё жду, когда квантуют нормально под проц
А чего ждешь, там опять какие-то тонкости со старт/стоп токенами или стандартные скрипты не хотят обрабатывать конфиг/модель токенайзера/дополнительный код?
Аноним 04/12/23 Пнд 19:40:45 #223 №563011 
>>563003
>А чего ждешь,
Пока квантуют. Я ленив, чтобы делать скрипты самостоятельно, и уж тем более чтобы воевать с вечно кривым китайским кодом, если там вдруг будет хоть половина проблемы.
Аноним 04/12/23 Пнд 19:46:53 #224 №563022 
>>562985
>И ты.
Я по себе не ограничивал остальных, чет хуету ты тут понаписал чуть ли не везде

>Хуйню ломучую, под которую настройки подбирать надо, иначе шизит и повторяется.
Все еще остается выданной китайцами рабочей сеткой, которая лучше всего что меньше ее размером, ты опять хуйню пишешь

>У корпоратов 100+ сетки, нахуй им обрезки меньше?
Деньги, меньше сетка - меньше траты на ее запуск, быстрее работает и можно запускать кучу там где требовалось несколько карточек. Банально же

>Эм... Поздно. Всё жду, когда квантуют нормально под проц
Это не мистраль или западные копрораты вроде меты или гугля о котором шла речь, все еще китайцы. Но сетка может быть неплохой, да

>>563003
>читается совершенно иная читай неверная,
Верная или не верная решать не тебе, я может криво описал и где то что то не упомянул, но суть такова. Посмотри на все эти договора и саммиты безопасности что в ес что в сша. Какие они там только официально документы выкатили, а какие не официально? Красные команды у них там какие то уже годами работают проверяя че там создатели ИИ насоздавали и на сколько это опасно.
К тому же выдавать что то лучше того что есть - терять деньги, поэтому только из-за денег сливов хороших годных сеток ждать не стоит. По крайней мере не от западных корпораций.
А вот китайцы им как раз поднасрали выкатив семейство своих сеток. И как ты понимаешь китайцы на подсосе у остальных, то есть выданный ими результат далеко не самый топовый из того что уже есть у корпораций на вроде меты или козедаи
Аноним 04/12/23 Пнд 19:57:13 #225 №563036 
>>563022
> договора и саммиты безопасности
> что в ес что в сша
Популистический всхрюк "мы работаем смотрите все под контролем" в дефолтном стиле попыток регулирования чего не понимают в ответ на бурления нормисов и быстро развивающуюся отрасль.
> Красные команды у них там какие то уже годами работают
> проверяя че там создатели ИИ насоздавали
таблетосы
> выдавать что то лучше того что есть - терять деньги
Единственное здравое зерно. Но суть в том что правильное использование опенсорса принесет больше профита и даже на имплементации открытых продуктов можно рубить огромные капиталы будучи одним из главных игроков кто им занимается.
Аноним 04/12/23 Пнд 20:01:22 #226 №563046 
>>563036
А ты новости совсем не читаешь да? И красные команды и регулирование не просто придумки, это прям скучные официальные дела о которых на полном серьезе писалось в том же документе на сайте администрации президента или где там документ висел с заявлением, лол
Хорошо быть тупым
Аноним 04/12/23 Пнд 20:08:49 #227 №563060 
>>563022
>Я по себе не ограничивал остальных
Твоё? >>562890
>За любую мощную сетку отданную народу им всем яйца прижмут

>Все еще остается выданной китайцами рабочей сеткой
Не спорю.
>меньше сетка - меньше траты на ее запуск
Само собой. Но качество даже 70B не тянет на продакшн реади. Так что их участь всё равно деплоить огромных монстров.
>все еще китайцы
Ну да. Посмотрим на ответ запада, всё таки трейнить сетки с нуля это дохуя долго и затратно, поэтому каждую неделю базовые модели и не выходят. Но выйдут, я уверен.
>>563046
ИБД очевидно же, плюс ещё больше фильтров и аполоджайзов у закрытых моделей. Про открытые пока только пиздят, ибо всем обладателям IQ выше 80 очевидно, что буковки никак не могут уничтожить мир.
Аноним 04/12/23 Пнд 20:46:39 #228 №563112 
>>562890
> За любую мощную сетку отданную народу им всем яйца прижмут
Смотри чтоб тебе их не прищемили, когда санитары будут в палату тебя заталкивать обратно.
Аноним 04/12/23 Пнд 20:54:17 #229 №563119 
>>563046
Их нужно не только читать но и понимать. А еще нужно обсуждать проблемы управления миром не привлекая внимание санитаров в соответствующих разделах, у вас даже своя доска ведь есть.
Документ тот уже обсосали, именно что умеренный популизм, собирают мнения по этому вопросу чтобы потому решать как и что делать.
Аноним 04/12/23 Пнд 21:39:33 #230 №563203 
3fnz0whi742c1.png
>>562955
>Будущее кума - за азиатами
Аноним 04/12/23 Пнд 22:28:25 #231 №563290 
>>563203
Но ведь он верно пишет. Соя западных моделей уже просто пиздец, а китайцы всё ещё на уровне ванильной ламы держатся, максимум до уровня викуни доходят, если хапают говнодатасеты.
Аноним 04/12/23 Пнд 22:50:28 #232 №563313 
>>563290
Так вроде соя в западных сетках наоборот ослабла в теме кумерства, чтоб не возбухали проверяя на прочность. Но вся остальная да, стала еще сильнее
Аноним 04/12/23 Пнд 22:55:06 #233 №563320 
>>563290
>Соя западных моделей уже просто пиздец
Ты про локальные модели или нет? Ванильная лама сои не имеет, а соя в файнтюнах - это вина исключительно долбоебов которые тренируют на гпт высерах. В то же время китайский свин просоефицирован до невозможности, побольше даже чем соевые файнтюны. Это блять единственная модель которая всеми силами не хочет говорить "ниггер", а если и скажет, то всегда цензурит звездочкой. Плешь дракон стержень не нефрит позор партия.
Аноним 04/12/23 Пнд 23:00:34 #234 №563325 
>>563313
> соя в западных сетках наоборот ослабла в теме кумерства
Ага, блять. Все подряд пытаются вставить говно про boundaries и вырезать любой негатив со стороны бота, с каждой сеткой только хуже становится.
>>563320
> свин
Ещё древнее сетку найти не мог?
Аноним 04/12/23 Пнд 23:02:11 #235 №563327 
>>563325
>Ещё древнее сетку найти не мог?
Скажи какая не соевая - протестирую.
Аноним 04/12/23 Пнд 23:02:49 #236 №563331 
>>563325
>Ага, блять. Все подряд пытаются вставить говно про boundaries и вырезать любой негатив со стороны бота, с каждой сеткой только хуже становится.
Негатив и извращения вырезают, но вроде обычный секс нет?
Аноним 04/12/23 Пнд 23:04:51 #237 №563334 
>>563203
Синатра которая лучшая 7В для РП так то корейская
Аноним 04/12/23 Пнд 23:13:15 #238 №563343 
>>563325
Опять поех с теориями заговора? Большей части просто похуй на это, ленятся почистить датасет ибо никак не сказывается на юзкейсах. А ты не можешь это забороть, что делается элементарно, или же просто скипать такие модели.
>>563327
Чекни файнтюны новых китайцев, насколько забондованы.
Аноним 04/12/23 Пнд 23:27:42 #239 №563360 
>>563343
>Чекни файнтюны новых китайцев, насколько забондованы.
Так ты скажи какие конкретно - их там миллион.
Аноним 04/12/23 Пнд 23:34:46 #240 №563368 
>>563343
> или же просто скипать такие модели
Получается все мистрали и его файнтюны - скип. Все франкенштейны тоже - скип, т.к. там куски мистраля и всё абсолютно как нём. А что остаётся?
> делается элементарно
Ну покажи как на мистрале заставить сетку перейти в агрессию. Ты boundaries семплингом можешь задушить, но вопрос остаётся что там ещё вместе с ним задушилось и не деграднулся ли он.
Аноним 04/12/23 Пнд 23:37:01 #241 №563370 
>>563334
>лучшая 7В для РП

Ты про Toppy?
Аноним 04/12/23 Пнд 23:44:40 #242 №563377 
>>563368
>А что остаётся?
В шапке же!
>>560285 (OP)
>Pygmalion- заслуженный ветеран локального кума
Аноним 04/12/23 Пнд 23:55:59 #243 №563385 
>>563360
Тесс - капибара советуют, сам до них никак не доберусь.
>>563368
> Получается все мистрали и его файнтюны - скип.
Увы
> Все франкенштейны тоже - скип
Орли? Не сказал бы, или у тебя шиза байас к оценкам уровня "цензуры".
> Ну покажи как на мистрале заставить сетку перейти в агрессию.
Промт, если обычного не хватает - CFG.
> семплингом можешь задушить
Что здесь имеешь ввиду уточни?
Аноним 05/12/23 Втр 00:46:18 #244 №563409 
А чому нельзя делать рейды из четырехканальных дешевых мамок на ддр4? Это же очевидный способ решения скорости
Аноним 05/12/23 Втр 00:48:44 #245 №563410 
>>563385
>Тесс - капибара советуют, сам до них никак не доберусь.
Зацикливается, шизит и еще срет стоп токенами. По цензуре так себе. Тест на мет прошла на ура, а вот на износ стриггерилась. Короче - на помойку как и все остальные производные от Yi.
Аноним 05/12/23 Втр 00:51:54 #246 №563413 
>>563409
>четырехканальных дешевых мамок на ддр4
Сосут у двухканала на DDR5, а на них 3,5 токена.
Аноним 05/12/23 Втр 00:55:21 #247 №563417 
>>563409
> рейды из четырехканальных дешевых мамок на ддр4
Что?

Потестил значит тут вероятности токенов разных квантов мелочи. В целом суждения подтверждаются, чуть попозже закину.
Аноним 05/12/23 Втр 01:28:56 #248 №563448 
>>563409
Можно почему нет?
Только ничего большого не по крутишь с вменяемой скоростью. Ну сетка гигов в 10 токена 4 в секунду, где то даст.
Можно и быстрее если память частотой 2400 или выше, может до 5-6.
Нормальная 34b в 4km 20 гигов, это уже 2-3 токена в секунду максимум, на одной оперативке.
Если хочется 70b крутить 1-2 токена в секунду то можешь взять.
Впрочем та же мелочь на 4-5 гб, как 7b 4km-5km может до 10 токенов в секунду выдавать, в идеале.
Аноним 05/12/23 Втр 07:13:28 #249 №563515 
>>563368
>Получается все мистрали и его файнтюны - скип. Все франкенштейны тоже - скип
Зря ты так. Emerhyst-20B - U Amethyst 20B, на данный момент топ локального кума до 70В.
Недавно ещё вышел Chronomaid-storytelling-13b, дающий неплохие результаты, но увы, сухой и соевый насквозь.
Из Мистралей мне очень зашёл claude-chat. Он тупее прочих гермесов, но зато выдача кардинально отличается. Катает типичные Клодовские NSFW простыни только в путь А хули тебе ещё надо?

>>563377
>Pygmalion
Ну у него то проблем с агрессией действительно нет по крайней мере у не ламовского оригинала на 6В
Долго думал что он уже всё, но недавно увидел на хорде Пигмалион 2, который вышел в сентябре. Тестил кто-нибудь, как оно?
Аноним 05/12/23 Втр 08:42:22 #250 №563540 
>>563515
>Emerhyst-20B - U Amethyst 20B

Да не, хуевые они.

>Oh, you think so, Master? ~ He teases, nibbling on your earlobe teasingly before slowly, tantalizingly, sliding down your body, his lithe, supple body moving like a snake, sinuously, hypnotically, his hips swaying just enough to drive you wild with desire.

тизес тизингли ебать.
Аноним 05/12/23 Втр 08:46:30 #251 №563545 
>>563540
>Да не, хуевые они.
Варианты получше в студию!
Аноним 05/12/23 Втр 10:38:57 #252 №563577 
>>563540
не говорили бы они за {{user}} цены бы им не было. А так у меня 50 на 50 то она читает и выполняет инструкцию, то чет ломается и оа шизит тех же карточках в которых до этого все норм было с той же инструкцией.....
Аноним 05/12/23 Втр 12:03:49 #253 №563617 
Видел здесь есть люди которые разбираются во всем этом.
Скажите, а можно обучить модель скажем на какую нибудь узкую тему, например на тему физики,кулинарии или по нескольким книгам на определенную тему, что бы сократить размер модели например до 1M параметров.
Что бы модель была маленькая и нормально общалась хотя бы на узкие темы?
Или в любом случае необходимы модели с миллиардами параметров даже для такого?
Аноним 05/12/23 Втр 12:06:54 #254 №563620 
>>563617
>Или в любом случае необходимы модели с миллиардами параметров даже для такого?
Конечно. 3B это минимум, чтобы модель хоть как-то связно писала, но лучше 7.
Аноним 05/12/23 Втр 12:15:25 #255 №563624 
>>563620
И что никто не ведет работы по оптимизации архитектуры?
На интуитивном уровне кажется что даже 3b избыточны, а количество параметров все растет.
Я про то, что может кто рассказывает, что работает над чем нибудь таким.
Типа изучив как работают сегодняшние модели появились идеи как сократить количество параметров или что нибудь типа этого.
Аноним 05/12/23 Втр 12:27:42 #256 №563627 
>>563624
>И что никто не ведет работы по оптимизации архитектуры?
Ведут. А потом накидывают ещё больше параметров. Ибо это работает, а узкоспециализированная сетка с одной темой мало кому нужна.
Аноним 05/12/23 Втр 12:36:08 #257 №563630 
>>563627
Я думаю что такая сетка нужна всем. Карманный эксперт по узкой теме, который запускается на калькуляторе.
Аноним 05/12/23 Втр 13:19:41 #258 №563651 
>>563540
> Да не, хуевые они.
В чем хуевость выражается? Со своими задачами справляются.
> тизес тизингли ебать.
Дай угадаю, настраивал семплинг по тем ахуительным рекомендациям? Видно что пытается но в хлам поломано. глиномес
>>563577
> не говорили бы они за {{user}} цены бы им не было
Промт, срабатывание eos триггеров, настроенная таверна.
>>563617
В целом можно, но если ты хочешь чтобы модель могла далать подобие рассуждений и отвечала на твои вопросы, а не просто триггерила цитату чего-то что она помнит, то там нужно хотябы 1б-3б. По крайней мере последняя подавала надежды что может хоть как-то "соображать", как раз для
> нормально общалась
и основной логики нужна некоторая база, а дообучить на тематику - без проблем.
Аноним 05/12/23 Втр 13:20:54 #259 №563652 
>>563624
https://www.reddit.com/r/singularity/comments/18asto2/announcing_mamba_a_new_ssm_arch_that_has/
Аноним 05/12/23 Втр 13:27:03 #260 №563654 
>>563652
Круто. Ждем первые модели для всех.
Аноним 05/12/23 Втр 14:06:24 #261 №563676 
>>563654
> Круто. Ждем первые модели для всех.
На обниморде всё выложено.
https://huggingface.co/state-spaces
Аноним 05/12/23 Втр 14:10:44 #262 №563682 
>>563652
>Mamba-3B’s quality matches that of Transformers twice its size (e.g. 4 points higher avg. on common sense reasoning compared to Pythia-3B and even exceeding Pythia-7B).
Пифия тупая как пробка.
Впрочем ровно такие же обещания я слышал и про RWKV, так что мой уровень скептицизма неимаджиируем.
Аноним 05/12/23 Втр 14:13:53 #263 №563683 
>>563682
Лучше бы размером в 30В выпустили, и чтобы она превосходила 70В
Аноним 05/12/23 Втр 14:15:15 #264 №563685 
>>563676
2.8b 11 гигабайт. Ну такое.
Она хоть загрузится в oobabooga? Очень сомневаюсь.
Аноним 05/12/23 Втр 14:18:49 #265 №563688 
изображение.png
>>563685
>Она хоть загрузится в oobabooga?
Конечмо нет.
Аноним 05/12/23 Втр 14:24:12 #266 №563696 
1640525581244.jpg
>>563652
> Новая архитектура моделей, ультрадлинный контекст с линейным скейлом, убийца трансформерсов
> 130m..2.8b
Ну чисто пикрел

В целом конечно прикольно, но если будут как обычно тупыми то нахуй надо. Как раз к обсуждению натренировонности на конкретику, с этой штукой и на простом железе поиграться с обучением можно.
>>563688
Там и файлов в репе несколько не достает до типичной структуры, не написали чем оно по дефолту пускается.
Аноним 05/12/23 Втр 14:32:52 #267 №563706 
>>563696
>не написали чем оно по дефолту пускается.
Руками, чем же ещё.
https://github.com/state-spaces/mamba
Аноним 05/12/23 Втр 14:36:09 #268 №563710 
Не, ну, если она окажется с таким размером не тупее Мистрали, при схожей производительности (упирающейся в псп, ага=), то вполне себе прорыв, хули.
Это уже даст нам тот самый 13B ≈ 70B Llama 2.
Ну и надо учитывать, что под «тупее» подразумевается адекватность, а не эрудированность — знания тупо зависят от объема, конечно, и в каких-то сложных темах всегда понадобится большой объем. =)
Но это уже можно будет решить иначе, канеш.

Ну, будем посмотреть.
Аноним 05/12/23 Втр 14:37:27 #269 №563712 
.png
Аноны, а как следует крутить rope_freq_base и за что оно отвечает?
Условия - есть rpbird-yi-34b-200k.Q5_K_M.gguf, где контекст ужимается с 200к до 12288, а llama.cpp ставит rope_freq_base в 5000000 - нужно ли как то вручную снижать rope_freq_base и если да то насколько?
Аноним 05/12/23 Втр 14:56:50 #270 №563724 
>>563651
>Дай угадаю, настраивал семплинг по тем ахуительным рекомендациям? Видно что пытается но в хлам поломано. глиномес

Нет, просто миростат включил и все. А ее уже корежит так.
Трапы не гейство


Готовы к КУУМУ господа?

zzlgreat/deepsex-34b

>I first collected a total collection of about 4GB of various light novels, and used BERT to perform two rounds of similarity deduplication on the novels with similar plots in the data set. In addition, a portion of nsfw novels are mixed in to improve the NSFW capabilities of the model.
Аноним 05/12/23 Втр 14:59:00 #271 №563726 
>>563724
>Готовы к КУУМУ господа?
>zzlgreat/deepsex-34b
Очередная модель, которую никто не квантует?
Аноним 05/12/23 Втр 14:59:38 #272 №563727 
>>563726
>квантует

Илитный куум только господам с теслой доступен
Аноним 05/12/23 Втр 15:04:06 #273 №563732 
>>563710
7б гопоту и клод уже победили - теперь ждем новых побед от 3б, ага. Правда нормальных ответов и понимания инструкций все никак не дождемся от них.
>>563726
Чего сам не квантанешь?
Аноним 05/12/23 Втр 15:05:30 #274 №563735 
>>563732
>Чего сам не квантанешь?
->
>>563011
>Я ленив, чтобы делать скрипты самостоятельно
Я всё ещё ленив.
Аноним 05/12/23 Втр 15:10:46 #275 №563741 
>>563732
>Чего сам не квантанешь?
На слабом пк можно это сделать?
Аноним 05/12/23 Втр 15:28:17 #276 №563768 
image.png
>>563515
>Emerhyst-20B - U Amethyst 20B,

Попробовал эметрист вместо аметиста.
Все еще хуже.

>Tsukasa's cheeks turn an even brighter shade of pink, and his eyes dart around nervously. He bites his lower lip, fidgeting with his skirt.

>U-Um... I-I... hesitates I-I-I... I-I... He takes a deep breath, trying to steady his voice.

>I... I... I-I... I-I... I-I... I...

>He swallowed thickly, his voice barely a whisper.

>I... I-I... I... I... I... I... I... I... I... I... I...

>He trails off, unable to bring himself to say it out loud.

7B такое говно даже не выдают лол
Аноним 05/12/23 Втр 15:32:42 #277 №563773 
>>563768
У него удар вообще-то....
Аноним 05/12/23 Втр 15:52:51 #278 №563818 
>>563768
Реально очень похоже на проблемы с сэмплерами. С высиранием кучи наречий подряд, как в примере выше, я тоже сталкивался на какой-то модели, когда сильно давил значениями topK меньше 20 или tfs меньше 0.85. Ну или какая-то лажа с обработкой контекста началась. Было что-то подобное, когда ставил неправильный rope ручками в кобольде, но там вообще полупустые несвязные строчки с многоточиями генерились.
Аноним 05/12/23 Втр 16:03:44 #279 №563838 
image.png
>>563818
Говорю ж тупо миростат пресет использую.
Причем другие модели так не колбасит, все нормально
Аноним 05/12/23 Втр 16:13:13 #280 №563864 
>>563838
Пробуй minP=0.1, t = 1.0. Остальное выключи нахуй. Чекни хотя бы вывод при таких настройках.
Аноним 05/12/23 Втр 16:54:45 #281 №563925 
>>563724
>34b
Вот бы еще запустить это как то. А то даже на хорде такой размер это редкость по праздникам.
Аноним 05/12/23 Втр 17:02:08 #282 №563936 
>>563741
Да, это можно хоть на калькуляторе сделать если речь про gguf. Под экслламу хватает того оборудования на котором может запуститься модель.
>>563768
Семплеропроблемы или что-то из этого, оно даже на q3KM адекватно.
>>563838
> миростат
Ну хуй знает. И температуру у 95% шизомиксов нужно опускать.
>>563925
Да ладно, серьезно? А большие модели там бывают? Там ffa или есть очки приоритета которые можно нафармить расшаривая более мелкие модели?
Аноним 05/12/23 Втр 17:05:04 #283 №563945 
image.png
image.png
>>563768
>>563838
>Mirostat
Чел, ты...

Юзай это и это. не удивлюсь, если у тебя ещё и форматирование конченое
Аноним 05/12/23 Втр 17:07:10 #284 №563952 
>>563945
> прокси в 2024 году
Ору. Ты может ещё и на каждом чате дрочишь настройки семплинга?
Аноним 05/12/23 Втр 17:07:16 #285 №563953 
>>563936
Там бывают и 70В но прям реально очень редко. Ежедневный стандарт обычно 13В и ниже иногда 20В
Кудосы можно фармить раздавая что угодно но они почти ни на что не влияют и сгорают с каждой генерацией так что нафармить пару тысяч и всегда быть первым не выйдет, надо регулярно раздавать если тратишь.
Аноним 05/12/23 Втр 17:09:33 #286 №563959 
>>563953
> Там бывают и 70В но прям реально очень редко.
То есть хостить квантованные 34-70 ради кудосов и потом гонять какую-нибудь большую экзотику или экспериментировать с fp16 версиями нет смысла?
Аноним 05/12/23 Втр 17:17:27 #287 №563978 
image.png
>>563936
Температура и миростат не работают вместе же вроде не?


>>563953

Куда кудосы сгорают? Я месяц назад хорду последний раз гонял у себя

>You have 646 kudos remaining

>>563945
Чем тебе миростат не угодил?
У меня вот сейчас первый раз проблемы с ним появились за очень долгое время

Вот хрономейд адекватный результат выдает
Аноним 05/12/23 Втр 17:25:42 #288 №563988 
>>563945
Не, это точно почти погоды не делает. Только если видно, что сетка начинает какую-то из её команд для инструкций в текст засовывать, тогда мб имеет смысл под её формат подстроиться. А так я с сетками, для которых рекомендуют chatML или openchat формат, всё равно юзаю альпачный, и разницы особо нет вроде. Все они видят, где блок с инструкциями, а где текст, который нужно продолжать, т.е. написать ответ после "{{char}}:". Единственное, что можно токенайзер глянуть в правом столбце этих настроек, выставить там Llama. Но если у анона другие файнтьюны ламы норм пахали, то вряд ли это что изменит.
Аноним 05/12/23 Втр 17:28:12 #289 №563994 
>>563959
>>563978
Кудосы так то нахуй не нужны, они только увеличивают твой приоритет если ты генеришь на чужом железе и тратяться на каждую генерацию + реролы. Если ты запускаешь на своем а чужое не трогаешь то кудосы вообще бесполезны и только размер письки увеличивают.
Аноним 05/12/23 Втр 17:30:46 #290 №563997 
>>563978
>Температура и миростат не работают вместе же вроде не?
Ты че с сосны упал?
Аноним 05/12/23 Втр 17:44:27 #291 №564004 
Плагины как в гупте в ваших ламах есть?
Аноним 05/12/23 Втр 17:48:06 #292 №564011 
>>563978
Хз, то общая рекомендация к ним. Микростат много хейтили за шизу и странные результаты, но также местами и хвалили за разнообразие.
>>563994
> Если ты запускаешь на своем
Тогда и орда не нужна вовсе. Суть в том чтобы шаря что поменьше насобирать на что побольше, но если побольше нет то и смысла нет.
Аноним 05/12/23 Втр 17:54:10 #293 №564021 
>>563988
>Не, это точно почти погоды не делает
Ответы сетка даёт разные, значит делает. В каких-то ситуациях может быть не заметно, а где-то начинает гнать шизу. Если анон жалуется что модель "несёт бред", это вполне может быть причиной.

>>563978
>Чем тебе миростат не угодил?
Да хотя-бы тем что у тебя температура на 1 выставлена. Это же почти гарантированная шиза. Семплеры в этом пресете должны +- дать норм результат на любой модели, поэтому и советую его.
Ещё "Simple 1", тоже неплохой универсальный пресет, без ебанутой температуры.

То что у тебя что-то где-то как-то работало с миростатом ещё не показатель. Опять же, не известно что для тебя "проблемы" и их отсутсьтвие. Может у тебя сетка трусы по несколько раз снимает, а тебе и норм.
Аноним 05/12/23 Втр 18:03:52 #294 №564032 
>>563864
С мин-п и 1.5 температура норм идет
Аноним 05/12/23 Втр 18:06:36 #295 №564033 
>>564032
Да хули, сразу четверку хуярь, швятой волшебный семплер от всего вылечит, а еще хуй крепче стоять будет.
Аноним 05/12/23 Втр 18:07:28 #296 №564034 
>>564033
хочешь хуярь 4, а я 1.5 ставлю
Аноним 05/12/23 Втр 18:18:08 #297 №564035 
>>564021
Обсуждаем же конкретный пример вот такого залупывания сетки >>563768, а не "трусы по несколько раз снимает". Последнее то для франкенштейнов норма. Температура 1 даёт вероятности токенов из датасета, не должна к такому приводить. Впрочем, про франкенштейны я согласен, что там меньше нужно ставить, было от них ощущение, что правильные вероятности слетают, но всё равно не такие тупые ответы ожидаешь. Вообще когда листал тот бредовенький рейтинг Аюми, то для многих моделей видел хотя бы один такой несвязный ответ. Хз, при каких условиях он вылезает.
Аноним 05/12/23 Втр 18:33:13 #298 №564044 
>>564032
Ну с китаюсиком лучше такую большую не ставить
Аноним 05/12/23 Втр 18:37:35 #299 №564051 
>>564044
Мистрали всякие норм жуют, проверял на гермесе и старлинге. Конечно в некоторых задачах если не пойдет то можно и сбавить, держаться за настройки зубами никто не говорит
Аноним 05/12/23 Втр 18:39:33 #300 №564055 
>>564051
Ну так а смысл в высокой температуре? Чем выше t, тем шизоиднее ответы.
Аноним 05/12/23 Втр 18:41:36 #301 №564058 
>>564055
Мин-п обрезает шизу не давая ей пролезть в варианты которые потом уже поднимаются температурой. Вообще не хочешь не ставь хули тут думать
Аноним 05/12/23 Втр 18:49:49 #302 №564073 
>>564035
Со времён первой Пигмы, на локальных моделях не ставил температуру выше 0,8. Не разу не получал подобного результата ни на одной из них. Брат жив.
Аноним 05/12/23 Втр 19:47:58 #303 №564101 
>>564058
Он не обрезает шизу, только маловероятные токены также, как и другие семплеры, просто делает это по другому алгоритму. Качество ответов и адекватность текста он не гарантирует. На большом контексте токены с вероятностью пониже на 6-7 месте но все еще выше отсечки могут быть неуместны и далее поломать все при частом выпадании, температура их бустанет а волшебный семплер никак не отсечет. Это тебе не черрипикать или подделывать, с minP с такими параметрами как в примере все также идет шиза первые ответы, выставив неадекватные параметры у остальных.
Аноним 05/12/23 Втр 19:53:44 #304 №564104 
>>564101
просто добавь еще мин-п.жпг
Аноним 05/12/23 Втр 20:47:04 #305 №564156 
>>564104
Надо последовательно запускать семплеры температура-минП-температура-минП-температура, вот тогда и заживём!
Аноним 05/12/23 Втр 20:50:39 #306 №564161 
>>564156
А сверху еще миростатом обмазать
Аноним 05/12/23 Втр 20:53:00 #307 №564167 
>>564161
>>564156
Ахуенно! Не ну а че, модели друг с другом сшивают - почему бы так с семплерами не сделать?
Аноним 05/12/23 Втр 21:01:15 #308 №564182 
>>564104
this, но неиронично. Получаешь плохие ответы - выкинь сэмплером побольше плохих токенов. А вообще ситуации, когда хорошо подходят меньше десятка токенов, обычно означают, что первые токен или два сгенерятся с очень большой вероятностью (например, 60%, 25%, 10% и мусор), и тогда дефолтный minP в 0.1 вполне себе оставит только первые три токена. А если ситуация обратная, и кривая вероятностей пологая, но с первичным резким спадом (например, 20%, 15% и ещё 50 токенов по проценту), то minP с таким же значением даже резанёт эти 50 токенов относительно хорошо подходящего креатива (из-за чего лично я предпочитаю TFS), но несвязным текст от этого всяко не будет.
Аноним 05/12/23 Втр 21:07:35 #309 №564186 
>>564182
Ну да, а если не хочется вот такое
>А если ситуация обратная, и кривая вероятностей пологая, но с первичным резким спадом (например, 20%, 15% и ещё 50 токенов по проценту), то minP с таким же значением даже резанёт эти 50 токенов относительно хорошо подходящего креатива
то мин-п можно и уменьшить до 0.05 и температурой поиграть.
Или поменять порядок семплеров, вначале выравнивая вероятности а потом уже обрезая, но это нужно тестить.
Аноним 05/12/23 Втр 21:27:16 #310 №564227 
>>564186
Не, тогда ты всё сломаешь в первом примере, где начнут вылезать токены в 3%, которые в том случае будут явно плохие. Лучше перебдеть и взять побольше. TFS хорош тем, что при одном и том же значении отрезает разный хвост не в зависимости от макс токена, а в зависимости от того, как меняется наклон кривой вероятностей (см. рисунки 4 и 8 в этой статье, которую гугл выдаёт первой по запросу про TFS https://www.trentonbricken.com/Tail-Free-Sampling/). Тоже, само собой, сэмплер не панацея, но, на мой взгляд, работает разумнее, чем minP.
Аноним 05/12/23 Втр 21:32:08 #311 №564235 
>>564227
Какие у него минусы? Был бы он лучшим не было бы необходимости в нескольких семплерах
Аноним 05/12/23 Втр 21:35:30 #312 №564240 
Сдох колаб с моделями под кобольд.
https://colab.research.google.com/github/koboldai/KoboldAI-Client/blob/main/colab/GPU.ipynb
Аноним 05/12/23 Втр 21:38:07 #313 №564247 
>>564235
Тот чел в статье пишет, что долгие вычисления для применения сэмплера по сравнению с обычными topP/topK, и т.к. он работает лучше только для крайних случаев, то не понятно, стоит ли оно того. Типа его значение в 0.95, которое он рекомендует, будет в подавляющем большинстве случаев соответствовать topP 0.69. Он там пытался какой-то опрос устроить и оценить, насколько лучше выходят ответы, но забросил это, потому что не понял, как вообще это дело оценивать, и разница особое не намечалась в ответах. Ну это как я понял после беглого прочтения.
Аноним 05/12/23 Втр 21:38:59 #314 №564249 
>>564182
> Получаешь плохие ответы - выкинь сэмплером побольше плохих токенов
Сначала создать себе серьезную проблему, а потом героически ее решать, показывая как ты хорош. Четко, лол, речь офк про тот пример с высокой температурой ради оправдания minP
> А вообще ситуации, когда хорошо подходят меньше десятка токенов
Таких большинство. То что модель может извернуться и продолжив вернуть текст в адекватное русло даже при странном вмешательство - заслуга модели, а не шизосемплеров, подкидывающих ей такие квесты. После превышения определенного порога все ломается совсем.
> 50 токенов относительно хорошо подходящего креатива (из-за чего лично я предпочитаю TFS)
Расскажи какие модели и в каких квантах катаешь, интересно.
Аноним 05/12/23 Втр 21:39:54 #315 №564250 
>>564240
А зачем он нужен вообще? Там вроде ядра проца совсем нищие в малом количестве выделяют, ускорение всеравно на видеокарте идет, какой смысл?
Аноним 05/12/23 Втр 21:44:24 #316 №564256 
>>564247
> т.к. он работает лучше только для крайних случаев, то не понятно, стоит ли оно того
В том и суть, он специально показывает радикальные ситуации, которые бывают относительно редко, и в них демонстрирует плохую работу других семплеров с их неоптимальными для такой ситуации параметров, причем другие кроме topP/K он специально убирает.

Тема с рп на повышенной температуре типа 1.5 вообще может быть изучена, но потребует действительно более тонкой настройкой всех семплеров, не только единичного minP. Проблема вся в том что кумится/рпшится и на 0.7 хорошо, общайся и довольно урчи если модель нормальная.
Из потенциальных юзкейсов - бывают случаи когда свайпы приводят к тому же исходу только с небольшим отличием описания, особенно на всратых моделях которые тебя не понимают. В таком случае температура с повышенным вниманием к отсечке действительно может помочь, но вопрос насколько адекватным и связанным получится текст. В общем вот такое надо пробовать, кто хочет - велкам.
Аноним 05/12/23 Втр 21:55:10 #317 №564262 
>>564256
>демонстрирует плохую работу других семплеров
TFS и миростат он так не тестировал.
Аноним 05/12/23 Втр 21:57:34 #318 №564264 
>>564249
>Таких большинство
И какие они? Дописать правильно слова и поставить на нужном месте глагол to be, предлоги и прочее. Часто ты видишь, чтобы такие вещи разваливались при температуре 1 или даже 1.5?
>Расскажи какие модели и в каких квантах катаешь
Мелкие, если вопрос об этом. 7b q5_K_M на компе (в основном, синатра рп), 13b q5_K_M в колабе koboldcpp (последний раз игрался с Nete, Psyfighter v2, TimeCrystal). И да, конечно, они все периодически чутка шизят, если ты к этому клонишь. Но ответы и разнообразие свайпов меня устраивают больше при температуре чуть выше единицы, после которой я отрезаю 0.95 TFS. Порой уменьшаю температуру или TFS, если модель совсем прямо уносит. Иногда ставлю температуру назад в конец в порядке сэмплеров. Ещё у меня включены небольшие отсечки с помощью topA и topP. Я не знаю, какие выводы ты сможешь из этого сделать, я ещё юзаю шизанутый систем промпт почти на 300 токенов на описалово, почти как для турбы. Просто потому что хочу.
Аноним 05/12/23 Втр 22:08:16 #319 №564285 
>>564256
>радикальные ситуации, которые бывают относительно редко
Если так подумать, то на деле ни разу не редко. Вон, рядом другой анон пишет, что крутая кривая с маленьким выбором очень часто бывает. Как и пологая, когда у тебя, например, в рп меняется локация, или ожидается какое-то новое действие. topK объективно прямо совсем параша. Можно выставить общепринятое topK 40 и надеяться, что выпадет, что нужно, но заранее не знаешь, пять токенов тебе подходит или 100500. topP получше, но тоже не знаешь заранее 60% - это норм, или ты так себе только три токена по 20% оставишь.
Аноним 05/12/23 Втр 22:15:42 #320 №564305 
>>564262
Миростата тогда не было, 19-го года статья. Возможно, есть какие-то более свежие работы, но это нужно сидеть искать.
Аноним 05/12/23 Втр 22:20:58 #321 №564315 
1606656847374.png
>>564264
> Дописать правильно слова и поставить на нужном месте глагол to be, предлоги и прочее.
Речь не о составлении предложения без диких ошибок в грамматике и потере читабельности, на входе нужен уместный и подходящий по контексту ответ, а иногда и вовсе детерминистически определенное значение.
> Часто ты видишь, чтобы такие вещи разваливались при температуре 1 или даже 1.5?
Не катаю с такими, но для решения задач и оценок отлично помогает снизить температуру до 0.2-0.5. Сразу процент верных решений и нужных ответов превышает 90, исчезают фейлы с верным ходом решения и внезапной ошибкой и все подобное. В рп персонаж ведет себя более спокойно и предсказуемо.

Игрался тут с мистралем, стоковым, он действительно пиздец какой неразнообразный и так и норовит или залупиться или юзать ограниченный набор слов, из-за чего теряется вся художественность. Возможно на нем действительно повышение температуры пойдет норм.
> не знаю, какие выводы ты сможешь из этого сделать
Играюсь с вероятностью токенов и влиянием на них всякого, заодно оценивая подобные эффекты. Кванты что за 90% довольно часто та еще шиза, и так по дефолту распределения там не сказать что прямо детерминированы.

>>564285
Ну смотри, крутая кривая с маленьким выбором - это синие токены, дохуя разнообразные - красные. Реально там быстрое падение только там где особо другого и не подставить.
> общепринятое topK 40
? 20 общепринятое.
> topP получше, но тоже не знаешь заранее 60% - это норм, или ты так себе только три токена по 20% оставишь
На 60% 3-4 токена - это большинство зеленых, насколько это нормально - хз. Обычно topP 90%. В любом случае нет смысла по отдельности смотреть семплеры и их "побеждать", они работают в совокупности.

Еще поиграюсь и выложу эту штуку. Надо понять получше, а то возникает больше вопросов чем ответов и легко сделать неверные интерпретации.
Аноним 05/12/23 Втр 22:29:13 #322 №564330 
image.png
>>564315
>Еще поиграюсь и выложу эту штуку. Надо понять получше, а то возникает больше вопросов чем ответов и легко сделать неверные интерпретации.
О интересно, мин-п с температурой проверь голых заодно, чет типо такого.
С температурами 0,7 , 1, 1,5 , 2 например. Интересно как это влияет на токены и текст
Аноним 05/12/23 Втр 22:47:22 #323 №564349 
>>564305
>Миростата тогда не было, 19-го года статья.
? Я про манятесты автора минР на реддите, с температурой в 4.
>>564315
>В любом случае нет смысла по отдельности смотреть семплеры и их "побеждать", они работают в совокупности.
А собственно почему бы и нет? Как минимум, чем меньше семплеров, тем выше скорость. Миростат тут правда сосёт, у меня с ним наблюдаются просадки по скорости.
А так нахуя 10 семплеров, которые делают одно и тоже, но по разному?
Аноним 05/12/23 Втр 23:00:08 #324 №564368 
>>564315
>20 общепринятое
Про 40 пишет автор статьи про TFS, ссылается на другую статью (вроде б OAIшной группы). Уже порядком лет прошло, могло поменяться. Ну и зависит, о каких запросах к сетке речь идёт. Там не о специализированных задачах вроде речь, а просто, чтобы ответ был больше похож на человеческую речь, со схожим разнообразием словарного запаса. Когда мифомакс только появился, для него тоже рекомендовали topK 40 в разных гайдосах.
Аноним 05/12/23 Втр 23:19:30 #325 №564372 
Пишите смешное
Аноним 05/12/23 Втр 23:24:13 #326 №564373 
>>564372
OpenAI
Аноним 05/12/23 Втр 23:52:17 #327 №564394 
>>564349
> А собственно почему бы и нет?
Потому что это манямир, буквально создаешь проблемы которых не бывает только чтобы доказывать что твое решение позволяет их решать. Не пойми неправильно, не против minP, задумка ничем не хуже чем остальные семплеры и он юзабелен. Просто хайп вокруг него и придание невероятных свойств - полнейшее мракобесие, что вредит развитию.
> чем меньше семплеров, тем выше скорость
Время работы семплеров пренебрежимо мало по сравнению со временем генерации. Если офк там не сотня т/с, и то там оптимизация актуальна может быть не для обычного использования.
>>564368
Про 20 и 0.9 - просто пример из simple-1, для нормальных моделей он действительно довольно удачный и покрывает основное. Даже если представить что токены идут с одинаковой вероятностью - 2.5% вероятность отсечки им при 40, и адекватных-уместных токенов больше одного-двух десятков нечасто бывает.
Аноним 06/12/23 Срд 00:40:57 #328 №564416 
>>564394
>Просто хайп вокруг него и придание невероятных свойств - полнейшее мракобесие, что вредит развитию.
Нет, я согласен, что темпа в 4 это шиза и чисто для пиара.
Но почему бы не уменьшать количество семплеров? Типа нахуя все эти топ-к и топ-п при наличии мин-п или даже тфс? Чем меньше, тем лучше и понятнее, я щитаю.
Аноним 06/12/23 Срд 01:13:18 #329 №564429 
>>564330
> бесхвостая выборка
Бляяя за що такое
>>564416
Дали набор и ассортимент, можешь использовать какие хочешь. Именно сочетание позволит покрыть все случаи.
Их настройка не сложная и используется редко, а основные манипуляции сводятся к кручению температуры. Поставь отсечку в пару десятков по количеству и минимальную вероятность в 5-10%, для верности можно minP добавить или вместо topP использовать, и все. Слишком много внимания обращению с маловероятными событиями при наличии и так большого рандома из вероятных.

Там с такими вероятностями всеравно один шум уже, особенно на мелких моделях, а кванты вероятности в них смазывают.
Аноним 06/12/23 Срд 02:21:55 #330 №564475 
изображение.png
>>564429
>Бляяя за що такое
А я с наказания угораю. Бля, вот кто всё это переводит? GPT2-Medium?
>Именно сочетание позволит покрыть все случаи.
Нет в тебе азарта поискать серебряную пулю.
Аноним 06/12/23 Срд 02:38:21 #331 №564478 
>>564475
Сука, сначала хвоста лишили, потом еще и наказали. Хз, похоже на либру, даже гугл адекватнее переводит. Надо с этой локализации обратно на английский перевести, punishment for repetition звучит более убедительно, сразу лупится перестанет лол.
> Нет в тебе азарта поискать серебряную пулю.
Да блин, оно то вроде и есть, и поломать модель - база. Но ллм сами по дефолту уже поломаны так что даже жалко их становится.
Аноним 06/12/23 Срд 03:38:57 #332 №564489 
>>563651
Не покажешь свои настройки таверны?
Аноним 06/12/23 Срд 07:20:13 #333 №564596 
>>564240
Юзай колаб из шапки. Он guff модели тоже запускает, если очень хочется.
Аноним 06/12/23 Срд 08:06:09 #334 №564612 
Какая самая умная сетка из семидесяток? В плане не базы знаний, а умения следовать инструкциям и рп
Аноним 06/12/23 Срд 08:14:05 #335 №564614 
Выглядит интересно https://github.com/ejones/llama-journey хочется вот этого вот, а не эти ваши таверны где всё устно
Аноним 06/12/23 Срд 09:47:24 #336 №564648 
>>564614
Бля, это МЕГАКРУТО! Я такого джва года с момента появления первых открытых ЛЛМ ждал. Локалки же идеальны для управления НПС, Почему до этого никто их в таком ключе не юзал?
Аноним 06/12/23 Срд 10:20:19 #337 №564656 
>>564614
Тебе зачем смотреть на два квадрата в бедрум?
Аноним 06/12/23 Срд 13:31:05 #338 №564747 
>>564656
Не ерп единым сыт человек
Аноним 06/12/23 Срд 14:14:58 #339 №564781 
Потестил я тут намедни эту вашу OpenChat 7B. Действительно, лучше Llama2 70b.

А есть 13B версия?
Аноним 06/12/23 Срд 14:15:41 #340 №564784 
>>564781
проебал соус https://habr.com/ru/articles/776314/
Аноним 06/12/23 Срд 14:20:09 #341 №564791 
1648544471035.jpeg
>>564781
> OpenChat 7B. Действительно, лучше Llama2 70b
Там что-то типа пикрел, да?
Аноним 06/12/23 Срд 14:25:14 #342 №564799 
>>564791
Реально сложно отличить от GPT3.5
Аноним 06/12/23 Срд 14:27:21 #343 №564806 
>>564791
по ссылке демка есть, можешь заценить, если лень качать
Аноним 06/12/23 Срд 14:36:20 #344 №564820 
>>564799
Ну порнуху она точно хуже чем китайская 34b строчит
Аноним 06/12/23 Срд 14:36:42 #345 №564822 
>>564784
Хабрадауны на месяц как минимум отстают от треда. У нас эти сетки и новости уже прожевали, высрали, снова прожевали и забыли.
Аноним 06/12/23 Срд 14:46:13 #346 №564832 
>>564822
и какие щас в тренде?
Аноним 06/12/23 Срд 14:59:44 #347 №564839 
>>564832
starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b

а кум, сою и цензуру не проверял, тупо как чат ботов использовал, вроде ниче так, топ по нынешним временам в своих размерах

pivot-0.1-evil-a для ценителей
Аноним 06/12/23 Срд 15:01:43 #348 №564843 
>>564839
А в чем смысл тупо чатботов? Это же скучно. Двач лучше.
Аноним 06/12/23 Срд 15:04:14 #349 №564847 
>>564843
Для ситуаций когда у тебя в голову пришла какая та идея и ты вместо гугла сразу задаешь вопрос сетке и она сразу отвечает, а не дает на выбор кучу ссылок где нужно искать ответ.
Ну или какая идея в голову пришла и уже ее обсуждаешь с ботом, мне нравится
Аноним 06/12/23 Срд 15:53:25 #350 №564893 
image.png
>>564839
у меня чего то Cтарлинг не грузится через убабунгу, лоадер не находит, инстал свежий. Чому?
Аноним 06/12/23 Срд 15:54:15 #351 №564895 
>>564893
>awq

Ты ебанутый?
Аноним 06/12/23 Срд 15:56:08 #352 №564897 
>>564895
так он же его и требует
Аноним 06/12/23 Срд 15:57:31 #353 №564899 
>>564843
>Двач лучше

Спорно
Аноним 06/12/23 Срд 16:03:10 #354 №564904 
>>564899
С порно всё становится лучше, даже двач.
Аноним 06/12/23 Срд 16:31:36 #355 №564942 
>>564904
харош
Аноним 06/12/23 Срд 17:01:01 #356 №564981 
>>564897
GGUF или exl2 скачай, чего с этой херней копаешься
Аноним 06/12/23 Срд 18:40:10 #357 №565099 
>>564839
> pivot-0.1-evil-a
В чём её прикол?
Аноним 06/12/23 Срд 18:44:09 #358 №565106 
>>565099
В антифайнтюне.
Аноним 06/12/23 Срд 18:47:14 #359 №565109 
image.png
>>565106
Можешь пояснить? Я не очень понимаю...
Аноним 06/12/23 Срд 18:54:19 #360 №565115 
>>565109
Взяли стандартное обучение и говорили, что это плохо. Теперь сетка выдаёт чернуху на всё подряд.
русик-кринж
Аноним 06/12/23 Срд 19:10:03 #361 №565130 
>>565115
С возрастом меня начало забавлять то, что называют кринжем
Аноним 06/12/23 Срд 20:35:24 #362 №565211 
>>564839
>starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b
какая из них лучшая?
Аноним 06/12/23 Срд 20:55:53 #363 №565237 
>>564822
Это еще немного, обычно отставание исчисляется кварталами.
>>564843
С двачем не по ерпшишь
>>565109
Ну какой еще коровий пенис если должна быть конская залупа? Эх
Аноним 06/12/23 Срд 21:02:36 #364 №565244 
>>565237
>С двачем не по ерпшишь
Я тебя ебу.
Аноним 06/12/23 Срд 21:04:54 #365 №565247 
>>565244
Нет, я тебя первый ебу!
блашез слайтли
Аноним 06/12/23 Срд 21:08:09 #366 №565254 
>>565247
Я снова теку 😳
Аноним 06/12/23 Срд 21:21:58 #367 №565272 
1.png
2.png
3.png
Двачик, прошу помощи, совсем что-то не могу разобраться. Какие настройки ставить на первом пике, или это всё методом проб и ошибок? Или вообще выбирать кобольдааи сеттинг.
Также не совсем понимаю пункты smartcontext и cantextshift на втором пике, на что они влияют? И подскажите, имеете ли смысл вкатываться с 1660 S и 12100f "железом", или это всё будет хуйня? Пробовал несколько моделей.
ggml-model-q4_k_m - на ней пока что получалось лучше всего, генерирует текст быстро как по мне 5-10с, по содержанию, вроде тоже неплохо, но иногда бывает что несёт полный бред.
На остальных моделях пробовал (Штук 5 разных перепробовал), но выходит полная хуйня в стиле 3 пик.
Надеюсь на помощь, тред жопой читал.
Аноним 06/12/23 Срд 21:24:53 #368 №565275 
>>565272
Да, нужно наверное было уточнить что пробовал и через oobabooga, но я видимо не осилил и выходила полнейшая хуйня.
Аноним 06/12/23 Срд 21:25:23 #369 №565277 
>>565272
Min P - 0.05
Mirostat - 2/5/0.1
Температура - 1
Все остальное от лукавого.
Аноним 06/12/23 Срд 21:28:52 #370 №565279 
Если даже на этом несет ахинею то мин пи на 0.1
Больше ничего не нужно все остальное отключать
Аноним 06/12/23 Срд 21:36:24 #371 №565288 
>>565272
>smartcontext
Не нужно.
>cantextshift
Спасибо что не cuntext. Не трогай, пусть будет, минусов нет. Убирай галочку с "запускать браузер" и проверь врам, я не уверен, что у тебя 30 слоёв выгрузятся в 6ГБ.
Аноним 06/12/23 Срд 21:38:20 #372 №565290 
image.png
>>565279
Отключить имеется ввиду можно выкрутить прямо в 0? Сейчас вот попробовал, появилась вот такая ошибка, но сам текст сгенерирован вроде нормально.
Аноним 06/12/23 Срд 21:43:52 #373 №565300 
>>565290
Не, не ноль, для разных семплеров разное.
Короче выстави Simple-1, так будет проще, а по качеству это классика, проверенная временем.
Аноним 06/12/23 Срд 21:44:47 #374 №565302 
image.png
>>565288
Вот так загружается врам с 30 слоями. Вес модели 4.2gb, и ставлю размер контекста на 4096 (Так и не понял, его нужно ставить много или нет)
Аноним 06/12/23 Срд 21:46:09 #375 №565305 
>>565300
Понял, спасибо. Попробую с такими настройками.
Аноним 06/12/23 Срд 21:58:02 #376 №565333 
>>565272
smartcontext и contextshift - это умные алгоритмы обработки контекста, которые позволяют не перерабатывать при каждом ответе весь контекст целиком. Первый из них устарел, и лучше использовать contextshift. Учти, что если ты используешь лорбуки/worldinfo или сильно редактируешь старые ответы в чате, то включённый contextshift может не срабатывать или приводить к бредовым ответам.
>ggml-model-q4_k_m
Не понял, что конкретно это за модель была. Если нужно для рп, то поищи на huggingface Synatra-7B-v0.3-RP-GGUF, PiVoT-0.1-Starling-LM-RP-GGUF или Toppy-M-7B-GGUF. Q4_K_M версии должны бы влезать в 6 гигов видяхи целиком (т.е. 35 слоёв). Но так как с некоторыми слоями загружается ещё дополнительный кэш, то может не влезать, проверить не сложно. Если Out of Memory выкинет, тогда уже уменьшай. По настройкам, помимо настроек сэмплеров, тебе нужно ещё пойти во вкладку с форматированием (буква А) врубить там instruct mode и выбрать нужный для сетки пресет. Для начала сойдёт Roleplay. Для синатры и старлинга рекомендуется другой формат, но в какой-то степени сойдёт и этот.
Аноним 06/12/23 Срд 22:00:23 #377 №565337 
Какой самый нищебродский проц взять, что хотяб 10 t/c выдавало на 7b моделях?
Аноним 06/12/23 Срд 22:03:50 #378 №565340 
>>565337
rtx2060@12
Аноним 06/12/23 Срд 22:06:50 #379 №565343 
>>565340
Но это видимокарточка
Аноним 06/12/23 Срд 22:07:44 #380 №565344 
>>565333
SaffalPoosh/zephyr_7B_ggml-model-Q4_K_M.gguf
Вот эта модель, не помню уже точно где и как её нашёл, но на ней работает пока что лучше всего. Сейчас попробую что-то из рекомендуемых, и инструкт стоял на альпаке, по гайду из шапки, сейчас попробую Roleplay.
Аноним 06/12/23 Срд 22:22:55 #381 №565367 
image.png
>>565344
А, ну Roleplay - это и есть слегка изменённый Альпака формат, так что большой разницы не будет, скорее всего. Я вообще использую такой кастомный. Инпут и аутпут пустые, потому что выше этого окошка стоит галочка в include names, и вместо ###Input: и ###Response: для каждой реплики модель видит {{user}}: и {{char}}:, что вроде как получше для рп.
Аноним 06/12/23 Срд 22:31:10 #382 №565389 
5.png
>>565367
На Toppy-M-7B-GGUF. Q4_K_M с 35 Она начала говорить за меня, и текст обрывается, но обрыв текста насколько я понял фиксится настройкой "Заблокировать EOS-токен"?
Аноним 06/12/23 Срд 22:58:16 #383 №565447 
image.png
При заблокированном EOS-токене она начинает говорить от моего имени, а при разблокированном EOS-токене при генерации появляется звук ошибки и собственно вот такая ошибка, но сам сгенерированный текст вроде бы нормальный.
Аноним 06/12/23 Срд 23:00:09 #384 №565450 
Если нейросеть мерженная из нескольких, то для неё важно квантование?
Аноним 06/12/23 Срд 23:00:29 #385 №565451 
>>565389
Не, бан EOS токенов, наоборот, будет способствовать более длинной писанине. Удалять неполные предложения можно настройкой "Trim incomplete sentences" во вкладке с настройками форматирования. А вот почему имя твоей персоны не идёт как EOS токен, вот этого не понимаю. Таверна должна автоматом имя юзера к ним добавлять и прерывать генерацию, как только видит "{{user}}:".
Аноним 06/12/23 Срд 23:09:59 #386 №565462 
>>565447
Это не ошибка, это как раз попался токен, прерывающий генерацию. Если у тебя имя юзера кириллицей, то, возможно, это как раз оно там стоит, и тогда это норма. Допиши ещё в конец системного промпта что-нибудь вроде "Avoid speaking as {{user}} and narrating {{user}}'s actions", если там такого нет. Хотя 7б модели скорее всего будет пофиг на эту инструкцию.
Аноним 06/12/23 Срд 23:18:27 #387 №565481 
>>565462
Понял, спасибо за помощь.
Аноним 07/12/23 Чтв 00:39:59 #388 №565620 
>>563724
>zzlgreat/deepsex-34b


Дождались дрочилы?
TheBloke/deepsex-34b-GGUF
Аноним 07/12/23 Чтв 01:07:34 #389 №565646 
Кто-нибудь пробовал Dawn-v2-70B от маэстро создавшего шедевр аметист?
Аноним 07/12/23 Чтв 01:12:37 #390 №565652 
>>565646
> a merge I have done with the new layer shuffle
Подозрительно, но уже за
> This repo contain the file measurement.json needed to do your own exl2 quant
уже почтение, вот же красавчик.

Как модно говорить - инцестмикс, но попробовать можно, вдруг годнота с необычными ответами получилась. Завтра если получится попробую, отпишу.
Аноним 07/12/23 Чтв 02:55:43 #391 №565795 
>>565620
А запустить то как? У меня нет доступа к университетному железу и в конторе не работаю.
Аноним 07/12/23 Чтв 03:39:02 #392 №565823 
>>565795
Модель всего 34б, пойдет на любом более-менее нормальном ПК.
Аноним 07/12/23 Чтв 03:52:39 #393 №565835 
2023-12-0710-49-31.png
ребзя не бейте лучше обоссыте я новенький, скачал вебуи текст, скачал qwen с хагингфейса(на 2 гига, для тестов), при нажатие на кнопку загрузить модель выдает следующее. Куда копать?
Аноним 07/12/23 Чтв 08:10:32 #394 №565960 
>>565099
Я ещё пощупал её и наверно понял, мне понравилось что у неё текст какой-то живой что ли? Пользовать вряд ли буду, т.к. это всё таки семёрка, но очень хочется посмотреть как будет использоваться этот принцип в других бОльших моделях.
Аноним 07/12/23 Чтв 08:34:50 #395 №565964 
>>565835
В какомормате скачал модель? Каким семплером запускаешь? Тебе кажется пишет что токенайзера нет его надо отдельно докачать.
Аноним 07/12/23 Чтв 10:00:42 #396 №565988 
>>565960
Эта модель - производная от Синатры, как разраб в карточке пишет, а у Синатры самой по себе текст достаточно живой. Так что сложно сказать, тут заслуга датасетов, использованных для файнтьюна Синатры из Мистраля, или конкретно вот такого способа обучения на сейф инструкциях. Но да, было бы прикольно, если бы кто-нибудь такое хотя бы с 13б провернул.
Аноним 07/12/23 Чтв 10:01:13 #397 №565989 
>>565823
>всего 34б
Аноним 07/12/23 Чтв 10:59:05 #398 №565997 
>>564784
Какой хабр тупой, я поражаюсь этому уже лет 7-10.
То у них полимер легче воздуха, но не летает.
То у них 28 ноября 2023 года 65B модели современные.
Одна история охуительнее другой.

>>564822
65B, Карл, они на год отстают от всего мира.

>>564847
Так! Шаришь.

>>565337
Ну будем честны, 3060@12 будет тебе выдавать 17-19 токенов на 13B моделях.
На 7B — еще быстрее.
Стоит 22к с учетом фантиков на МегаМаркете.

Ну, вроде норм, не?

А проц любой с AVX2 инструкциями и 6 физ.ядрами.
Хезе, 3600/4500/5500 райзен. Может быть i3-10xxx/11xxx/12xxx норм будут, не тестил.
Ну и память: двухканал DDR4 3200 или четырехканал на зеоне (но зеон поновее — с AVX2).
Аноним 07/12/23 Чтв 11:48:59 #399 №566015 
>>565964
отсюда скачал https://huggingface.co/Qwen/Qwen-1_8B-Chat-Int4/tree/main через вебуи ссылку вставил он сам подтянул. Запускать не получается, на этапе загрузки модели (кнопочка load model) выскакивает эта ошибка. Настройки выставились автоматом когда выбрал модель(ExLlama_HF).
Аноним 07/12/23 Чтв 12:07:55 #400 №566023 
>>566015
https://github.com/turboderp/exllamav2/issues/160
Не шарю за эксламу, но гугл находит такую ишью на гитхабе. Пишут, что qwen модели отличаются по токенайзеру и даже довольно сильно по архитектуре от ламы, и экслама их не запускает.
Аноним 07/12/23 Чтв 12:10:26 #401 №566026 
Гамно ваш копробольд. Qwen-1_8В-чат в формате гуф не поддерживает. А ллама.дцп вроде без копрософт редистребьютабле не запускается (еще летом пробовал на работке, сейчас не знаю как). А кроме Qwen-1_8В-чат на 8 гигах оперативы без нормальной видюхи ничего толком и не работает...
Аноним 07/12/23 Чтв 12:16:25 #402 №566033 
>>566026
А Мистраль и ее файнтьюны 7B тебе чем не угодили?
Аноним 07/12/23 Чтв 12:20:26 #403 №566036 
>>566033
Оно в 8гиг оперативы не влезет. Походу, у меня кроме Qwen1.8B вариантов нет.
Аноним 07/12/23 Чтв 12:25:26 #404 №566039 
>>565997
>А проц любой с AVX2 инструкциями и 6 физ.ядрами.
Да не, если 3060 17 токенов на 13b выдает, то проц тут не конкурент. На этих процах(i3,i5) в лучшем случае будет 5-7 на 7b.
Если только i9 или может i7.
Аноним 07/12/23 Чтв 12:27:21 #405 №566041 
>>565835
Качай модели у которых gguf формат. С другими форматами тоже постоянная хрень была. То не загружаются, то вылетают, а gguf божественен и не прихотлив.
Аноним 07/12/23 Чтв 12:27:52 #406 №566042 
>>566036
Все там влазит.
Все зависит от квантования и контекста.
Или бери маленький квант, или уменьшай контекст.

Еще есть Rocket-3B, она даже шевелиться.
https://huggingface.co/TheBloke/rocket-3B-GGUF

Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).

Наслаждаться будет тяжело, но что поделать.

Вообще, лучше выделить косарь-полтора и докупить оперативы до 16-32 гигов, в зависимости от твоей модели.
Помянем, если ноут с распаянной и без слотов.
Аноним 07/12/23 Чтв 12:29:30 #407 №566044 
>>566039
Да там проц-то не причем, больше оператива роляет.
Но, да, процы не конкуренты 3060 видяхе. К тому же, новая с ценой гиг за 2 косаря — это очень хорошо. Не тесла p40 с ее гигом за 700 рублей, но тоже ниче так.
Аноним 07/12/23 Чтв 12:31:52 #408 №566045 
>>566041
Так-то exllamav2 работает намного быстрее чем gguf, прямо очень заметно быстрее. Если можешь запускать без CPU (3090, 4090), то качай лучше exl2 модели.
Аноним 07/12/23 Чтв 12:37:28 #409 №566047 
>>566026
>Qwen-1_8В
>1.8В
>1.8
Мужик, прекрати, у меня сейчас слёзы навернутся.
>>566042
>Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).
Два чаю. Хотя конечно 7B в таком кванте тоже наводят тоску. Но не так сильно, как 1.8В
Аноним 07/12/23 Чтв 12:54:33 #410 №566054 
>>566047
>>Qwen-1_8В
Это 1.8b а я сижу уже минут 10 думаю как 8b модель может весить 1 гиг.
Аноним 07/12/23 Чтв 12:55:03 #411 №566055 
image.png
>>566047
>>566042
>Все там влазит.
Открываем любую 7б у Блока и смотрим пик релейтед. И это с 2к контекста, как я понимаю. Держим в уме, что пару гигов из восьми жрёт система. Где оно там влезет то? Если только как-то с подкачкой через пень-колоду пойдёт. Мне кажется, с такими спеками лучше в колабе модельки гонять.
Аноним 07/12/23 Чтв 13:00:23 #412 №566059 
>>566042
>Любые 7B-файнтьюны (лламы, мистрали) влазят в 8 гигов, если взять квант пониже (Q4_K_M или ниже).
Хмм, а реально https://huggingface.co/TheBloke/NeuralHermes-2.5-Mistral-7B-GGUF/blob/main/neuralhermes-2.5-mistral-7b.Q4_K_S.gguf вот это запустилось. Не знал, еще летом 7В модели у меня вообщще не работали. Какие сейчас самые норм 7В полегче ,чтобы в 8гиг влезло?
Аноним 07/12/23 Чтв 13:18:00 #413 №566066 
>>566059
>Какие сейчас самые норм 7В полегче
Все модели одного размера одинаковые. Отличаются кванты, так что если у тебя пошёл mistral-7b.Q4_K_S, то пойдёт и любая другая 7b.Q4_K_S.
Аноним 07/12/23 Чтв 13:22:57 #414 №566070 
изображение.png
>>566066
Как я понял, чем больше бит - тем лучше.
Чем меньше квант - тем лучше

Поясните про эту ебалу. Что значат эти обозначения: K, S, L, M, 0?
Аноним 07/12/23 Чтв 13:33:46 #415 №566074 
>>566055
Ну, так-то, можно и в 1 гиг впихнуть систему.
Так что норм, 2к контекста мало, но ты себе представляешь 3B модель, а то и вовсе 1,8B? Какие у них мозги? Тебе этот контекст не сильно поможет.
Я не тестил, но я боюсь, она там будет третьи трусы с головы снимать (причем с твоей).

>>566059
Вот. =) Уже и жить можно, хоть как-то.
Аноним 07/12/23 Чтв 13:39:47 #416 №566079 
>>566070
>Что значат эти обозначения: K, S, L, M, 0?
Разные типы группировок при квантовании. Короче я всегда качаю K_M, но у тебя памяти прям вообще мало, так что оставайся на K_S.
Аноним 07/12/23 Чтв 13:43:26 #417 №566080 
Анонасы, посоветуйте llm, которыя будет классифицировать услугу по описанию проблемы пользователя. Имеется датасет с описаниями услуг и случаями их применения.

Какую модель использовать? Как зафайнтюнить / добавить слой, чтобы не переобучилась, но и запомнила случаи применения услуг?
Аноним 07/12/23 Чтв 13:46:50 #418 №566081 
>>566079
я другой анон rtx3080 10Gb
S = Small
M = Medium?
L = Large
0 = ???
Аноним 07/12/23 Чтв 13:54:18 #419 №566088 
>>566081
0 — первый вариант квантования до s/m/l
Аноним 07/12/23 Чтв 13:55:40 #420 №566089 
>>566088
а что такое K?
Аноним 07/12/23 Чтв 13:59:20 #421 №566093 
изображение.png
По логике KS должна меньше весить, чем 0, а по факту нихрена.
Аноним 07/12/23 Чтв 14:28:47 #422 №566099 
>>566081
>>566093
0 - это легаси квантование.
Аноним 07/12/23 Чтв 14:37:54 #423 №566104 
>>566093
Почему? Оно самое худшее и старое, а не самое маленькое. =)

>>566089
Не задавался таким вопросом, если честно.
Аноним 07/12/23 Чтв 14:41:33 #424 №566109 
>>566080
>Имеется датасет с описаниями услуг и случаями их применения.
Много?
>>566089
К это буква.
Аноним 07/12/23 Чтв 14:57:13 #425 №566121 
>>566109
Около 10к текстов. Каждый текст имеет 3.7к символов в среднем.
Аноним 07/12/23 Чтв 15:06:24 #426 №566123 
>>566121
Достаточно много. Посмотри в сторону LangChain и векторных хранилищ, должно прокатить.
Аноним 07/12/23 Чтв 15:14:56 #427 №566126 
>>566123
Окей, спс
Аноним 07/12/23 Чтв 18:49:36 #428 №566406 
>>566036
> в 8гиг оперативы
Если именно оперативы а не врам - лучше забей и используй коллаб, это совсем печалька.
>>566070
>>566055
Не совсем верные эти таблицы, их эффективная битность заметно выше числа что в названии. Приставки - модификаторы того как квантованы некоторые части слоев.
Аноним 07/12/23 Чтв 18:50:25 #429 №566408 
1607081949635.png
>>566406
Отклеилось, для других размеров там почти то же самое.
Аноним 07/12/23 Чтв 19:08:36 #430 №566445 
>>560285 (OP)
Оп-няша, ты там что-то по новой шапке пилил?
Аноним 07/12/23 Чтв 19:27:16 #431 №566474 
>>566445
Мне бы старое сначала перенести, лол. А уж потом новое пилить.
А что, есть предложения?
Аноним 07/12/23 Чтв 19:28:46 #432 №566476 
На чём щас ерпшит средний класс 12гб врам? Почему-то в треде либо 7б советуют, либо 70б. Куда простому крестьянину податься с 3060 12гб и 16 ОЗУ?
Аноним 07/12/23 Чтв 19:34:22 #433 №566489 
Какую нейронку можно локально на 4080 с 16гб поставить?
Чтоб она и карточки из таверны понимала, и не галлюцинировала. Ну и вообще мозгов побольше.
Размер контекста не шибко важен, а вот следование промпту и креативность прям критичны.
Аноним 07/12/23 Чтв 19:36:09 #434 №566493 
>>566476
>Почему-то в треде либо 7б советуют, либо 70б
Так промежуточного тонет. 13B берут за щеку у мистраля, 34B не вышла, вот и создался разрыв.
А так можешь поебаться с франкенштейнами 20B, или выгрузить меньше половины и долго ждать с китайскими подделками на 34.
Ну или вот, >>561274
Аноним 07/12/23 Чтв 19:44:38 #435 №566507 
>>566474
Да, пилил чтиво с тем как катать на убабуге, но получилось много дополнительного, так что вынес перед установкой-запуском.
https://rentry.co/xzuen
пока на рентрае потому что у них относительно удобный маркдаун.
Собственно мнения, какие ошибки или чего-то стоит убрать/добавить?
Аноним 07/12/23 Чтв 19:57:20 #436 №566534 
>>566507
>чтиво с тем как катать на убабуге
>5 экранов до надписи "Установка"
Солидно, ничего не скажешь.
Короче пока увидел опечатку "видеоркарте", дальше потом почитаю.
Аноним 07/12/23 Чтв 20:02:41 #437 №566542 
>>566493
>13B берут за щеку у мистраля

Мамой клянусь мой мистраль файнтюн by xxx_Vsaya_xXx в рот ебет GPT5.
Вот бенчмарке какой-то я хз, короче 7В лучше ЯСКОЗАЛ.

7В катать если у тебя 13В спокойно запускается это просто верх долбоебизма.


>>566476

Можешь 20b модельки в q3 k_s запускать. Как вариант Amethyst / Emerhyst (в треде говорят ебанутый) или Noromaid (в треде говорят много описания, мало диалогов)

13 модельки в q5 k_m можно гонять. Классика типа MythoMax-L2-Kimiko всегда актуальна. Из поновее есть Chronomaid-Storytelling-13b и LLaMA2-13B-Psyfighter2

Сам сейчас тестирую X-MythoChronos-13B. КУУМ вообще отличный.
Аноним 07/12/23 Чтв 20:11:44 #438 №566558 
У кого то серьезный максимализм головного мозга, либо сходу 70В либо сразу до 7В(а чего не сразу до 3В/1.5В/750М)
То что 11В/13В и 20В существуют это даже не принимается во внимание "потому не 70В!!1"
Аноним 07/12/23 Чтв 20:16:42 #439 №566570 
>>566558
>То что 11В/13В и 20В существуют это даже не принимается во внимание "потому
Потому что прирост маленький.
Аноним 07/12/23 Чтв 20:20:35 #440 №566576 
>>566476
20б же базированная тема q3 кванта ее вполне себе рабочий, иногда ощущение что рандомайзер токенов идет ей на пользу без потери когерентности. Новые миксы 13 тоже неплохие.
> Почему-то в треде либо 7б советуют, либо 70б.
Да нет явно такого, 70б действительно хороши, но советовать всем сидеть терпеть по несколько минут - ну такое. А 7б форсят шизики у которых нет возможности катать что-то другое с адекватной скоростью, они же могут начать затирать что следующей ступенью может быть только 70б, поскольку это такой себе отдаленный недостижимый предел, который не может составить конкуренцию.
>>566493
> 13B берут за щеку у мистраля
Как называется эта болезнь?
>>566558
> потому не 70В
Ну вообще да, стоит подсесть на 70 и остальное огорчает.
Аноним 07/12/23 Чтв 20:29:36 #441 №566589 
>>566576
Сижу на 20В через орду и меня все устраивает. На 70В я тоже сидел, большинство перепробовал и такого чтобы прям УУХ разницы с хорошей 20В не замечаю. Все от модели больше зависит а не от самого размера.
Аноним 07/12/23 Чтв 21:26:07 #442 №566678 
1611864442509.png
1552997604725.png
1583396840553.png
1576561058647.png
По квантам, по крайней мере на контексте до 4к, довольно базированная тема получается.

Если смотреть среднюю температуру по больнице, считая отличия распределений вероятности конкретных токенов, то кванты выстраиваются в порядке их битности, пикрел.

Что интересно, exl8 квант получается хуже чем Q8_0 по уровню среднего возмущения токенов как Q6_k. Однако - кванты экслламы дают примерно равномерные отклонения отдельных токенов (пик2) в отличии от старших квантов жоры, которые в среднем выдают более близкий результат, но склонны шатать отдельные токены (пик3), что в теории приводит к большему шансу на разворот ответа.
Если смотреть более внимательно, то в квантах жоры можно получить другой ответ при жадном энкодинге (особенно это при решении задачек заметно, в рп редко), тогда как в бывшей и gptq такое менее вероятно. Это, кстати, может объяснить причины отличий результатов при разных квантах в старых тестах их сравнения, когда какие-то Q4_KS набирали больше правильных ответов чем Q6K. По этой же причине детерминистический шаблон для подобных оценок - зло и легко приведет к мисинтерпретации.
В любом случае, на фоне исходного рандома токенов что получаем при семплировании это все крохи и реально дичь можно увидеть только при величинах менее 4 бит. Ласт пик мистралька для которой 3 бита есть, вот там довольно пиздецовые отклонения идут.

TL/DR: Для (e)rp юзаем любые кванты 4.5+ бита и довольно урчим, с обычными контекстами разницу с fp16 при использовании семплинга и адекватных температурах никогда на обнаружишь.

Для поехавших и просто любопытных, наведя на токен в попапе можно увидеть вероятности токенов, которые выдают разные кванты. Раскрашены исходя из отклонений распределений для квантов относительно оригинальной модели.
https://files.catbox.moe/00lcqu.html

Потом как-то это оформлю, есть еще интересные результаты с оценочными датасетами для exl2 квантов. И интересно как оно будет вести себя в ризонинге, если у кого есть промты с задачками или целые датасеты - велкам.
Аноним 07/12/23 Чтв 21:53:00 #443 №566709 
>>566678
> TL/DR
Но Картинка из шапки всё ещё верна? Что 2.5Б 70В > 5Б 30В?
Аноним 07/12/23 Чтв 22:02:53 #444 №566720 
16969144684390.jpg
>>560285 (OP)
Сейчас использую это https://huggingface.co/TheBloke/openchat_3.5-GGUF
При запросе найти какую то инфу, бот выдумывает ссылки сам, на самом деле их не существует. Как то можно это победить? Или только ai от дядь так могут, в интернетах что то искать?(
Аноним 07/12/23 Чтв 22:48:52 #445 №566752 
>>566720
У меня и гпт 3.5 выдумывал.
Аноним 07/12/23 Чтв 22:51:07 #446 №566754 
>>566752
Что делать, чтобы этого избежать, пусть не дает ответ или говорит что не знает, но не кидает шизу эту. Как понял это все пока еще баловство для детей.
Аноним 07/12/23 Чтв 23:11:09 #447 №566765 
>>566709
> 2.5Б 70В > 5Б 30В
Это врядли, ниже 4 бит начинается уже оче быстрый рост отклонений а ниже 3б вообще все ответы исказятся, не зря самый младший квант у жоры который делают - вообще 3.5 бита. Вот 3бита 70б уже может быть лучше чем 5бит 30б. А если экстраполировать поведение 20б на голиафа и подобных - 3 бита для рп тому точно не повредят.
>>566720
Аи от дядь тоже будут выдумывать кроме самых простых адресов.
>>566754
> Что делать, чтобы этого избежать
Не проси у бота прямые ссылки на что-то, пусть обозначит что и как искать а конкретный адрес у гугле найдешь.
Аноним 07/12/23 Чтв 23:56:52 #448 №566802 
Там на хорде сейчас есть 120В модель но сразу говорю очередь просто жирнейшая, не факт что выйдет залететь без кудосов.
Аноним 07/12/23 Чтв 23:58:36 #449 №566805 
Еще есть 33В для фанатиков и там очередь небольшая.
Аноним 08/12/23 Птн 00:06:54 #450 №566824 
>>566802
В какой битности она?
Аноним 08/12/23 Птн 00:09:15 #451 №566827 
>>566824
А я откуда ебу? У хостера спрашивай.
Аноним 08/12/23 Птн 00:16:25 #452 №566837 
>>566827
Там разве не пишется какой квант или же исходная модель в фп16?
Аноним 08/12/23 Птн 00:28:11 #453 №566854 
>>566837
У него ниче не пишет только имя и размер
Аноним 08/12/23 Птн 04:28:27 #454 №566953 
Кто-то пробовал обходить фильтр на гемини? У меня американский впн все, лень новый искать
Аноним 08/12/23 Птн 09:53:53 #455 №567024 
>>561934
Кто-то из треда эту модель тестил? Как она по сравнению с другими? Разработчики заявляют, что "мощнее GPT-3.5", но это чистой воды маркетинг. Что на практике?
Аноним 08/12/23 Птн 09:58:18 #456 №567028 
>>566953
>гемини
Оффтоп.
>>567024
>Кто-то из треда эту модель тестил?
Конечно. Модель как модель, никаких чудес.
Аноним 08/12/23 Птн 09:58:42 #457 №567030 
>>566953
Через TOR не работает?
Аноним 08/12/23 Птн 10:01:28 #458 №567033 
>>567028
А что сейчас есть из интересного на пощупать? Если что, в наличии титан с 24 гигами памяти есть.
Вот этот список:
>>564839
> starling-lm-7b-alpha, neuralhermes-2.5-mistral-7b, capybara-tess-yi-34b-200k, causallm_14b , openhermes-2.5-mistral-7b
достоин рассмотрения?
Аноним 08/12/23 Птн 10:07:13 #459 №567035 
>>567033
Тебе для чего?
В списке новые только starling, да neuralhermes, остальное уже подустарело.
Аноним 08/12/23 Птн 10:12:06 #460 №567036 
>>567035
Document summarization в основном, да ответы на вопросы по этим выжимкам
Аноним 08/12/23 Птн 10:25:16 #461 №567039 
>>566408
> других размеров
А где там то, можно ссылку?
>>566507
> https://rentry.co/xzuen
Нихуёво, жаль что не сразу в вики, потом гемор будет переносить, если захочется. Жору бы в термины внёс с его беком, а то только угабуга.
Я так понимаю возмущениями ты называешь смену вероятностей токенов?
> repetition penalty - при значениях больше 1 дает штраф (зависит от значения) к вероятности токенов, которые уже есть в рассматриваемом диапазоне контекста.
Это разве не имеет накопительный эффект в отличии от presence, на всём rep_pen_range?
> temperature - при значениях меньше 1 снижает вероятность токенов с меньшей вероятностью. При значении выше наоборот повышает ее.
Она и высоко вероятные ведь затрагивает, растягивая вероятности между собой при маленьких значениях, потому что более вероятные логиты получают больший буст от деления.
> достаточно выставить в параметрах контекст 8192, и alpha 2.65 / rope_freq_base 26900
Зачем сразу и альфу и rope_base, или это ты так или обозначил? Тут бы тот график альфы кстати не помешал.
> Моделей сейчас представлено множество
А про лоры чего не упомянул, хотя бы что они тоже существуют.
> call python one_click.py --api
Не стоит, уже есть отдельный файл CMD_FLAGS.txt, туда можно просто вписать --api --trust-remote-code ну или что нужно.
>>566678
Тут графики это усреднения отклонений всех токенов? Интересно получается, 2 бита бы глянуть для 70, лол, там небось вообще ад происходит.
Аноним 08/12/23 Птн 14:43:45 #462 №567228 
>>567039
> А где там то
https://github.com/ggerganov/llama.cpp/tree/master/examples/quantize
> жаль что не сразу в вики
А где эта вики то? Желание высказывается а ее не видно.
> Жору бы в термины внёс с его беком, а то только угабуга.
Да, Жору стоит
> Это разве не имеет накопительный эффект в отличии от presence, на всём rep_pen_range?
> Она и высоко вероятные ведь затрагивает, растягивая вероятности между собой при маленьких значениях
Там в общем что примерно делает семплер. По-хорошему нужно сразу формулы тащить, но будет перегружено, можно дополнительно добавить линк на описание семплеров в обниморде или статьи про них.
> или обозначил
this, график можно
> А про лоры чего не упомянул, хотя бы что они тоже существуют.
Можно
> CMD_FLAGS.txt
Норм, надо поправить, только про верить коду ремарку.
> среднения отклонений всех токенов?
Довольно примитивно:
Генеральная линия - жадный энкодинг fp16, но добавлен семплер rep pen чтобы не срало лупами (13б вообще с этим нормально, но вот на мистрале без него пиздец), из-за него иногда можно встретить что выбранный токен не на первом месте.
По этим токенам ответа идет поочередный анализ и сохраняются распределения. После просто тупое сравнение какая вероятность токена была в оригинале и какая в кванте, разница относится к исходной величине для получения отклонений.
Потом набор ранжируется по выбранной сетке и строится график, ну и рендерится html раскрашенная по выбранной метрике. То есть отклонения в 15% на токене с вероятностью 5% (который как правило уже отсекается) это значит что его вероятность получилась на 5% а 4.25 или 5.75%, на фоне выбора из более вероятных и ветвлений чтобы такое отследить в результате нужно ебануться какие количество ответов на одинаковый запрос статистически обработать.
Более интересно как оно будет в задачках, ризонинге и прочем, будет ли тот же тренд или наступит "отупение".
> 2 бита бы глянуть для 70
Тут сначала нужно пустить фп16 для референса, потому может быть затруднительно с 70. В крайнем случае Q8_0, но всеравно тяжелая херня, а llamacpp не быстро работает.
Аноним 08/12/23 Птн 14:58:53 #463 №567234 
>>566026
Почему не gptq? В 1660 7b + 7к контекста влезет.
Аноним 08/12/23 Птн 16:18:39 #464 №567281 
>>567228
> А где эта вики то? Желание высказывается а ее не видно.
https://gitgud.io/2ch-ai/wiki напиши ник свой, как зарегаешься
> Там в общем что примерно делает семплер. По-хорошему нужно сразу формулы тащить, но будет перегружено, можно дополнительно добавить линк на описание семплеров в обниморде или статьи про них.
У кобольда хоть и аутдейтед, но достаточно подробно основные объяснены, миростата только не хватает вообщем то https://github.com/KoboldAI/KoboldAI-Client/wiki/Settings
> Довольно примитивно
А, по X вероятности, по Y степень отклонения кванта типо, понял
> Потом набор ранжируется по выбранной сетке и строится график, ну и рендерится html раскрашенная по выбранной метрике.
Это ты сам напердолил что то? Будешь в попенсорс выкладывать?
> Более интересно как оно будет в задачках, ризонинге и прочем, будет ли тот же тренд или наступит "отупение".
Ну чем точнее нужен ответ, тем ближе к гриди нужно семплить, но с мелкими сетками помоему вообще сложно будет что то прямо там зирошотом решить, как минимум ризонинг нужен небось, и то может запутаться.
> Тут сначала нужно пустить фп16 для референса, потому может быть затруднительно с 70. В крайнем случае Q8_0, но всеравно тяжелая херня, а llamacpp не быстро работает.
Так у тебя нету возможности быстро в фп16 её запускать, ну тогда да, долго сравнения ждать придётся, а с эксламой вообще невозможно будет.
Аноним 08/12/23 Птн 16:29:15 #465 №567290 
А что если сместо "ты чар" сказать сетке "имперсонируй чара"...
Аноним 08/12/23 Птн 16:49:38 #466 №567304 
>>567290
Тоже сработает.
Аноним 08/12/23 Птн 17:27:31 #467 №567342 
>>567281
> https://gitgud.io/2ch-ai/wiki напиши ник свой, как зарегаешься
Хуясе ебать, ну попозже уже на выходных.
> но достаточно подробно основные объяснены, миростата только не хватает вообщем то https://github.com/KoboldAI/KoboldAI-Client/wiki/Settings
Вполне, надо будет добавить
> Это ты сам напердолил что то? Будешь в попенсорс выкладывать?
Быдлокод вперемешку с нейрокодом, все строится на апи обращениях к убабуге. Может потом в качестве примеров что-нибудь нарежу, в конце года даже покумить нормально времени нету.
> Ну чем точнее нужен ответ, тем ближе к гриди нужно семплить
Ага, даже на больших сетках влияние температуры на вероятность правильных ответов значительное.
> с мелкими сетками помоему вообще сложно будет что то прямо там зирошотом решить
А пусть и решают с ризонингом и подобным, кто мешает. Вообще здесь можно развилки поразыгрывать, отмечая в итоге какие приведут к верном ответу, а какие фейлят. Офк добавив температуру в семплеры и ветвиться только там где разные вещи идут а не синонимы слов.
> нету возможности быстро в фп16 её запускать
Увы, сервер с парочкой A100 стоит как недвижимость где-нибудь под дс или в соседних областях, только арендовать, но для подобных игр жаба душит. Максимум 5 бит влезает.
Аноним 08/12/23 Птн 17:33:42 #468 №567350 
Думаю попробовать запихнуть каких нибудь хороших авторов чтобы глянуть будет ли локалочка референсить и писать лучше.
Кто нибудь знает хороших писак?
Аноним 08/12/23 Птн 17:54:03 #469 №567368 
>>567350
Толкиен, например. Но тебе нужны не хорошие, а известные
Аноним 08/12/23 Птн 18:49:13 #470 №567403 
>>567368
А толкиен хорошо для ерп?
Аноним 08/12/23 Птн 18:55:49 #471 №567409 
>>567403
Речи про ерп не шло........
Аноним 08/12/23 Птн 18:58:51 #472 №567412 
>>567403
Для ЕРП бери Владимира Владимировича Набокова.
Аноним 08/12/23 Птн 19:20:13 #473 №567439 
>>567409
Джеймс Хэвок или Уильям Берроуз тебе в помощь
Аноним 08/12/23 Птн 19:22:37 #474 №567442 
Любители говна мистралей, там новую версию вам навалили
https://twitter.com/MistralAI
Аноним 08/12/23 Птн 19:25:17 #475 №567445 
Еще из новых моделей есть забавная TheBloke/Sydney_Overthinker_13B-GGUF
Цель модели похоже была сделать саванта-аутиста, иногда смешно отвечает
Аноним 08/12/23 Птн 19:27:05 #476 №567450 
>>567442
> 8х7В
Что за хуита? В 8 раз больше сои теперь будет?
Аноним 08/12/23 Птн 19:31:34 #477 №567463 
>>567439
>Уильям Берроуз
Издательство «Ace Books» готовилось выпустить роман «Пидор» в свет, однако его представитель отказался включать в текст книги пространные описания гомосексуального опыта автора, что и послужило главной причиной разделения материала на две отдельные работы: «Я помню, как редактор „Эйс Букс“, который напечатал „Джанки“, сказал мне, что его посадят, если он когда-нибудь опубликует „Гомосека“ [„Пидора“]»
Аноним 08/12/23 Птн 19:32:47 #478 №567468 
>>567450
Это какой-то охуевший франкенштейн из 8 так называемых "Mixture of experts" моделей.
Аноним 08/12/23 Птн 19:36:34 #479 №567473 
>>567468
Ну и как он?
Аноним 08/12/23 Птн 19:47:37 #480 №567494 
>>567468
>>567450
Способ впихнуть больше в меньшее железо. Гопота-4 так работает, например. 7B конечно от этого не перестанет быть говном.

>>567442
Пока всякие дауны полируют презенташки и дрочат графики неделями, мистрали тупо высирают магнет в твитере, охуенно.
Аноним 08/12/23 Птн 19:48:18 #481 №567495 
https://www.reddit.com/r/MachineLearning/comments/18d65bz/d_thoughts_on_mamba/
Аноним 08/12/23 Птн 19:49:22 #482 №567499 
>>567468
Как оно вообще организовано, 8 отдельных моделей, гетерогенная архитектура с внутренними ветвлениям, или просто 8 моделей в одну намешали?
Аноним 08/12/23 Птн 19:51:49 #483 №567502 
mediaGA1rgbAbwAA6zcv.png
>>567442
Проиграл.
Аноним 08/12/23 Птн 20:01:15 #484 №567517 
>>567499
По идее должно переключать твой запрос на нужную модель.
Типа спросил про кодинг - кидает запрос в кодинг модель. Если кодинг модели нет - в следующую ближайшую.
Анон выше сказал уже, ГПТ так же примерно работает. Только там конечно не 7В.
Аноним 08/12/23 Птн 20:05:12 #485 №567520 
>>567517
Да уже магнет открыл, там единый кусок на 90 гигов. Подождем пока препарируют или сквантуют если возможно.
Аноним 08/12/23 Птн 20:11:04 #486 №567522 
image.png
image.png
image.png
>>567445
>Sydney_Overthinker_13B
Ну такое себе. Тест не пройден
Аноним 08/12/23 Птн 20:16:12 #487 №567526 
>>567522
Нахуя ты с 13B моделью пытаешься на не-английском разговаривать?
Аноним 08/12/23 Птн 20:17:08 #488 №567527 
>>567526
Вот 7В, которая не только пытается, но может позабавить >>565109
Аноним 08/12/23 Птн 20:19:18 #489 №567529 
16688807885960.jpg
>>567527
Що то хуйня, що это хуйня, отэта две такие хуйни що я ебал ее маму рот
Аноним 08/12/23 Птн 20:23:11 #490 №567533 
>>567442
На самом деле круто, но как сервис, для универсальных моделей.
Чтобы сегодня покодил, завтра подрочил, послезавтра рецепт торта спросил.
На практике у каждого своя подборка моделей, которые он по желанию вручную переключает.
Так шо ну такое.
Аноним 08/12/23 Птн 20:23:52 #491 №567534 
Есть смысл покупать Tesla P4 под LLM-ки? 8 гигов памяти и ценник в 6к рублей выглядят вкусно.
Аноним 08/12/23 Птн 20:27:42 #492 №567536 
>>567534
Медленно, старая версия куда компьюта и ебля со старыми версиями софта, и нужно докупать кулер.
Аноним 08/12/23 Птн 20:31:43 #493 №567541 
>>567533
Там по две модели в паре работают и их все надо обучать специальным образом. Не получится просто гору 7В взять и сделать из них MoE. Они скорее всего даже не взаимозаменяемые.
Аноним 08/12/23 Птн 20:32:55 #494 №567543 
>>567536
Есть что-то более удачное в ту же цену и форм-фактор?
Аноним 08/12/23 Птн 20:36:10 #495 №567545 
>>567536
>ебля со старыми версиями софта
Так вроде последняя CUDA поддерживает Паскали, не? А все остальное поверх нее работает и пофиг, что там под капотом. Или нет?
Аноним 08/12/23 Птн 21:24:08 #496 №567569 
>>567534
Там вокруг p40 дискусии целые были, а тут такое. >>567536 дело говорит
>>567543
2060@12 с рук поищи, дороже но будет несравнимо лучше и без ебли с охлаждением.
>>567545
> Паскали
2024 уже почти, 8й год архитектуре, паскали уже все
Аноним 08/12/23 Птн 22:05:03 #497 №567588 
>>567569
> 2060@12 с рук поищи, дороже но будет несравнимо лучше и без ебли с охлаждением.

Оно в mini-ITX корпус не влазит. А тесла P4 прям как раз.

> 2024 уже почти, 8й год архитектуре, паскали уже все

Тем не менее даже 1066 все еще тянет все игры хотя кому нахуй нужны игры в 2024
Аноним 08/12/23 Птн 22:50:52 #498 №567629 
изображение.png
>>567442
Где?
Аноним 08/12/23 Птн 22:55:14 #499 №567637 
>>567569
>Там вокруг p40 дискусии целые были
Так как китаец отменил заказ, дело встало.
Ну и у P40 было преимущество в виде объёма памяти. У P4 её нет нихуя, так что...
Аноним 08/12/23 Птн 22:57:07 #500 №567641 
image.png
>>567629
Тебя торрентом не научили пользоваться?
Аноним 08/12/23 Птн 23:11:39 #501 №567656 
ПЕРЕКАТ

>>567655 (OP)



>>567655 (OP)
Аноним 08/12/23 Птн 23:12:28 #502 №567657 
>>567641
Чел, там обычный мистраль, на дату посмотри. Кто-то вбросил про экспертов без проверки.
comments powered by Disqus

Отзывы и предложения