Домены arhivach.top и arhivach.site временно не функционируют! Используйте домен ARHIVACH.XYZ.
24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Mistral, Command-R и прочие №62 /llama/

 Аноним 26/05/24 Вск 21:10:36 #1 №758770 
Llama 1.png
Альфа от контекста.png
KL-divergence statistics for Mistral-7B.jpg
Самый ебанутый охлад P40-13.jpg
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

LLaMA 3 вышла! Увы, только в размерах 8B и 70B. Промты уже вшиты в новую таверну, так же последние версии кобольда и оригинальной ллама.цпп уже пофикшены.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, Llama 3 обладает базовым контекстом в 8к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Базовым языком для языковых моделей является английский. Он в приоритете для общения, на нём проводятся все тесты и оценки качества. Большинство моделей хорошо понимают русский на входе т.к. в их датасетах присутствуют разные языки, в том числе и русский. Но их ответы на других языках будут низкого качества и могут содержать ошибки из-за несбалансированности датасета. Существуют мультиязычные модели частично или полностью лишенные этого недостатка, из легковесных это openchat-3.5-0106, который может давать качественные ответы на русском и рекомендуется для этого. Из тяжёлых это Command-R. Файнтюны семейства "Сайга" не рекомендуются в виду их низкого качества и ошибок при обучении.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2. Недавно вышедшая Llama 3 в размере 70B по рейтингам LMSYS Chatbot Arena обгоняет многие старые снапшоты GPT-4 и Claude 3 Sonnet, уступая только последним версиям GPT-4, Claude 3 Opus и Gemini 1.5 Pro.

Про остальные семейства моделей читайте в вики.

Основные форматы хранения весов это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это может серьёзно замедлить работу, если не выключить CUDA System Fallback в настройках панели NVidia. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ
https://github.com/ollama/ollama , https://lmstudio.ai/ и прочее - Однокнопочные инструменты для полных хлебушков, с красивым гуем и ограниченным числом настроек/выбором моделей

Ссылки на модели и гайды:
https://huggingface.co/models Модели искать тут, вбиваем название + тип квантования
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://ayumi.m8geil.de/erp4_chatlogs/ Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>751232 (OP)
>>740739 (OP)
Аноним 26/05/24 Вск 21:12:44 #2 №758774 
Мужики, мне сказали я промахнулся тредом, помогите пожалуйста >>758754 →
Аноним 26/05/24 Вск 21:13:21 #3 №758775 
>>758768 →
>Именно поэтому в опусе теперь все через мессаджез
Но там же префил вроде работает? Хотя я подробно не смотрел. В гпт там вообще адовый костыль с сообщением "вот кусок, продолжай как можешь", по моему только проблемы с такого компитишена.
>Уверен что он действительно полный?
Код не читал, так что процентов 90.
Аноним 26/05/24 Вск 21:15:24 #4 №758778 
>>758774
В том сервисе за кудосы, можно и вообще бесплатно, но с очередями. Помни, что твои запросы обслуживают рандомные аноны, и они вполне могут логировать все запросы.
Если есть нормальное железо, то можешь запускать у себя, максимум свободы, инструкции все в шапке.
Аноним 26/05/24 Вск 21:16:26 #5 №758779 
.png
Ну отлично блядь. Позавчера нейронка не лупилась и не шизила.
Сегодня лупится и шизит на тех же параметрах. ДА ЗА ЧТО БЛЯДЬ?!
Аноним 26/05/24 Вск 21:17:23 #6 №758781 
>>758779
Таверночник подсирает. И/или герыч, если через него запускаешь. Это норма, привыкай, каждая установка таверны персонализирована.
Аноним 26/05/24 Вск 21:19:42 #7 №758784 
>>758781
Так я её не обновлял.Там же вроде отдельный батник для обновления и запуска есть для такого.
АШ ТРЯСЕТ БЛЯДЬ
Аноним 26/05/24 Вск 21:24:30 #8 №758788 
>>758784
>Так я её не обновлял.
Код на рандомные подсирания уже вшит. Можешь даже не искать его, он скрывается в глубинах зависимостей. Некоторые неразумные неофиты думают, что это крутят коммерческие сетки, но такие же приколы на локалках гарантируют, что всё это таверна.
Аноним 26/05/24 Вск 21:26:25 #9 №758791 
>>758784
где то промпт криво сохранился, удали сообщения с шизой и нажми повторная генерация
Аноним 26/05/24 Вск 21:29:16 #10 №758795 
.png
>>758791
Я полностью с нового чата и пробовал и не раз уже. Лупа стабильно приходит через 5-7 сообщений.

>>758788
Трщ, Прокопенко, ну вы чего тайны раньше срока раскрываете?
Аноним 26/05/24 Вск 21:30:00 #11 №758797 
>>758792 →
>это облегчит создание личностей таких персонажей
Больше штампов Богу штампов! А то в самом аниме они ещё не настоебали, ага.
Аноним 26/05/24 Вск 21:30:28 #12 №758798 
>>758775
> Но там же префил вроде работает?
Да, закидываешь типа сообщение от ассистента и оно развязывает язык. Хуй знает только в какую именно структуру оно превращается у них там перед скармливанием модели, при желании вполне могут подрезать и все эти префиллы подустанут.
Аналогично там продолжение в таверне часто косячно работает и все такое.
>>758779
Ретроградный меркурий.
Просто тот промт ей был понятен а тут ты ее перегрузил. Или может такие отличаются параметры.
Аноним 26/05/24 Вск 21:33:21 #13 №758801 
>>758792 →
> Ну просто прикольная фишка, что модель шарит за анимешные жаргоны и т.д.
Чувак, нормальная модель знает лоры анимца, игорей, гач и прочего. Вполне можно обсудить твою вайфу просто по указанию имени и копирайта.
Карточки некоторые тоже потому так хорошо и работают, не только следование промту, но и подключение собственных знаний чтобы разыгрывать что-то в оригинальном сеттинге если не указано иное, подключать персонажей из серии в историю и т.д.
Насчет той модели что была в прошлых постах - хз.
Аноним 26/05/24 Вск 21:34:09 #14 №758803 
>>758779
>>758795
Просто тебе в прошлый раз повезло, а сейчас нет. Стохастический попугай.
Аноним 26/05/24 Вск 21:36:28 #15 №758806 
>>758788
>>758781
Причём тут таверна вообще? Лупы это следствие внутриконтекстного обучения. Распознаёт паттерн и схлопывается на нём.
Аноним 26/05/24 Вск 21:38:36 #16 №758807 
image.png
Вот кстати как это все выглядит в апи, через обычное подключение таверна кобальд
Аноним 26/05/24 Вск 21:50:50 #17 №758830 
000.png
https://github.com/LostRuins/koboldcpp/issues/305

Лолблядь, порядок семплеров тоже захардкодили. Как и длину контекста.
Аноним 26/05/24 Вск 21:52:40 #18 №758833 
>>758830
>порядок семплеров тоже захардкодили. Как и длину контекста
Год назад? Заебись, актуальную инфу нашел
Только вот все это настраивается уже давно
Аноним 26/05/24 Вск 22:15:49 #19 №758861 
>>758833
Весь openAI апи - хардкод. Опознание картинок - хардкод. С таким софтом разве что умалишённый будет связываться, лол. Всё работает не так, как ты хочешь, а как-нибудь.
Аноним 26/05/24 Вск 22:25:14 #20 №758875 
image.png
> Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
Вот такое вылезло, когда запустил koboldcpp.py (exe нету)

Скачал кинтер и не помогло даже
Аноним 26/05/24 Вск 22:27:02 #21 №758877 
>>758875
В смысле эксе нету?
Аноним 26/05/24 Вск 22:28:24 #22 №758878 
>>758877
Я долбаеб конечный походу
Аноним 26/05/24 Вск 22:30:16 #23 №758883 
2024-05-2700-29-28.png
>>758878
>>758875
Может ты сурсы качнул.
Аноним 26/05/24 Вск 22:37:32 #24 №758894 
>>758883
Да, в этом и было дело. Извините что накакал в треде.

Только вот я не очень понимаю как таверну запустить вместе с кобольдом теперь. Не вижу настроек в таверне где можно выставить кобольда
Аноним 26/05/24 Вск 22:39:01 #25 №758898 
image.png
>>758894
Аноним 26/05/24 Вск 22:40:58 #26 №758900 
2024-05-2700-40-16.png
>>758898
Аноним 26/05/24 Вск 22:42:33 #27 №758903 
>>758900
а мне зачем?
Аноним 26/05/24 Вск 22:45:36 #28 №758907 
>>758900
>>758898
Спасибо, вроде заработало
Аноним 26/05/24 Вск 22:57:35 #29 №758917 
image.png
Вопросик такой: Вот я чисто создал для теста тему и он 250 токенов генерит достаточно долго. Это я настройки каловые поставили где-то или это нормально? Все сделал по гайду из шапки

модель
koboldcpp/Fimbulvetr-11B-v2.q4_K_S

Нужно что-то выбрать где циферка перед "B" меньше?
Аноним 26/05/24 Вск 22:58:30 #30 №758921 
>>758779
Она переобучилась на твоих ответах, теперь надо перекачивать модель.
Аноним 26/05/24 Вск 23:00:22 #31 №758923 
>>758917
железо у тебя какое? настройки запуска?
долго - понятие относительное, сколько токенов в секунду генерация пишет?
Аноним 26/05/24 Вск 23:05:22 #32 №758933 
image.png
>>758923
> железо у тебя какое?
2060 super и интел 5 10440

Настройки запуска никак не менял, так что стандартные видимо. Все делал по гайду из шапки
Аноним 26/05/24 Вск 23:06:30 #33 №758935 
Оперативы 16 гигабутов
Аноним 26/05/24 Вск 23:11:47 #34 №758940 
>>758933
кек

Ну, скорость для процессора средняя
Двухканал память?
Укажи количество слоев 40 при запуске кобальда, вроде в 8 должно войти, быстрее будет
Аноним 26/05/24 Вск 23:13:33 #35 №758943 
изображение.png
>>758323 →
>Вообще ещё есть идея натравить суммаризатор на дамп архивача, взяв оттуда все достаточно большие посты, и получить этакую базу данных со всеми копипастами и кулсторями двача с оглавлением.
Таки взялся за эту идею. С лламой3 8b вроде бы неплохо выходит. Ещё заставил её теги придумывать.
Аноним 26/05/24 Вск 23:22:27 #36 №758950 
>>758496 →
--gradio-auth самое простое.

>>758499 →
Да нет, даже в убабуге можно сделать, переписав тот самый инструкт (чел выше все верно сделал).
А уж по апи тебе ваще льется все без участия убабуги (нахой бы она лезла в промпт), а Таверна тебе все кидает в консоль.
Я юзаю карточки от первого лица уже с осени, и через родной фронт убабуги, и через силлитаверну, и через апи непосредственно в самописных скриптах. Нигде не подводит.

>>758521 →
Можно еще в систем или ассистент теги завернуть, поэкспериментировать.

>>758534 →
Ну за кобольд не скажу, но если он так делает — то он верх шизы.
Типа, по дефолту у тебя силлитаверна это оборачивает в такой промпт и потом кобольд еще раз в него же оборачивает?
Вряд ли Лост настолько тупой в пизду.
Если по апи ни у кого ничего не оборачивается, с чего бы у кобольда оборачивалось?

>>758565 →
Ты генерируешь хуйню. =)
Сетки прекрасно генерируют даже без промптов, если это нормальные сетки. А дельфин какой-нибудь усрется на любом темплейте, хули толку-то.

>>758569 →
Out Of Character — не от лица персонажа.

Да, коммандер плюс порадовал. =)

>>758614 →
Бля, ну если Лост правда настолько тупой — то я извиняюсь, что я его считал не дегенератом…

>>758641 →
OpenAI-like API

>>758676 →
Но ведь на норм модели ничего не ломается. =) Тут уж сорян, но как есть.

>>758730 →
Предположительно, кобольд лучше выкинуть нахуй, если он правда имеет захардкоженные инструкции.

А таверну так и запускать — стираешь все говно, пишешь карточку от первого лица, пиздато работает.

>>758752 →
О, пасиба, значит Лост таки не совсем тупой?

>>758753 →
База.
Главное — обернуть в верный промпт-формат, а уж что там написано — на вкус и цвет.

>>758759 →
Кмк, чат-модели в принципе хуже из-за этого, а инстракт вполне норм.

>>758797
Ну, в самом аниме с ними нельзя пообщаться, а тут… Кому-то хочется, че ты. =)

>>758875
Прости, но это очень смешно! =D
Аноним 26/05/24 Вск 23:23:53 #37 №758952 
>>758940
>кек
Ты че мой комп обсираешь?

>Двухканал память?
Не знаю что это значит но плашки у меня две

Спасибо большое, попробую
Аноним 26/05/24 Вск 23:36:56 #38 №758970 
>>758257 →
кек, сейчас попробуем
Аноним 26/05/24 Вск 23:38:44 #39 №758972 
0000.png
>>758950
>значит Лост таки не совсем тупой?
Если опен АИ апи или опознание картинок, то всё плохо.
Аноним 27/05/24 Пнд 00:59:53 #40 №759055 
DK6mDMrfDkg.jpg
Уважаемые анилингусы, помогите залетному с настройками ебучей ламы.

На днях накатил кобольд и файнтюновую ламу3-8б, которую обсуждал какой то анон в предыдущем треде. Подключил к таверне, прогнал, попиздел. Всё вроде отлично, но она страшно шизит на русском. Все ее ответы это прямой и дословный перевод с английского. Даже в карточке, которая описана как обычный чат бот, она либо пишет, что не понимает русский, либо переводит слово в слово с кучей ошибок. В рп на славянском окончательно сходит с ума и уходит в лупы, повторяя одно и то же предложение из раза в раз. Я пытался переписать карточку персонажа полностью на русском, пытался переписать систем промт, но эффект нулевой. Учитывая, как восхваляли тут новую ламу и ее разноязычный датасет это все выглядит совсем странно.

Вдогонку же вопрос по параметрам и пресетам, на что они вообще влияют? Я перепробовал всё, но эффекта почти не заметил. Где вообще найти нормальный гайд по настройке? Методом тыка я выяснил, что влияет исключительно оформление карточки. Пресеты я перепробовал все, и дефолтный инструкт для третьей ламы и альпаку и прочее. Качество генерации это не изменяет и характеры персонажей вообще не держит. Вспоминаю свой опыт двухлетней давности с чайной и понимаю, что та гораздо лучше справлялась несмотря на то что явно была тупее.
Аноним 27/05/24 Пнд 01:03:45 #41 №759060 
>>758970
бля... моя модель не знает, что такое wanko...
отфыграть нерда она не сможет
а убабуга ёбаная всё еще не умеел в командер, сука.
>>759055
давай начнем с того, что ты опишешь свой железячный сетап.
и я могу тебя только по убабуге проконсультировать, хотя думаю, они с кобольдом сильно должны быть похожи.
Аноним 27/05/24 Пнд 01:07:11 #42 №759065 
>>759060
>давай начнем с того, что ты опишешь свой железячный сетап.
Да там все прилично для такой модели. 12 гигабайт врам и 16 оперативной. 35 слоев я поставил на видеокарту, так что генерирует шустро (где то в два раза быстрее, чем на модели из шапки, которая на 13б)
Аноним 27/05/24 Пнд 01:08:33 #43 №759067 
>>759055
Не ожидай от маленьких моделей хорошего русского, тем более от лламы 3. Если надо русский - юзай Command-R
Аноним 27/05/24 Пнд 01:09:43 #44 №759069 
>>759055
Тут недавно говорили, что 8б вресия третьей лламы слишком мала, чтобы понимать великий и могучий. Либо качешь 70б версию, либо ищешь нейронки, которые могут в русский официально. Но они тоже могут шизить.
Как по мне хороша aya-23, но другие Аноны говорили, что она тоже может шизить.
Ещё тут рекомендовали suzume-llama-3-8B-multilingual. Но у меня и ещё одного Анона, она тоже шизила и была слишком "соевой". Наверное, ты её и скачал, кстати.

>>759060
>давай начнем с того, что ты опишешь свой железячный сетап.
о, кстати, хотел спросить, а как именно железо может влиять на генерацию кроме скорости, естесно. Помню генерил на проце и ллама часто жизить начинала независимо от модели, а на гпу с cublas вродё реже шизит.
Аноним 27/05/24 Пнд 01:12:10 #45 №759071 
>>759055
Можешь заняться промт инженигрингом и интегрировать инструкцию на дополнительный cot где модель сначала будет думать на инглише, говорят тогда ответы на русском улучшаются. Но 8б ллама3 хоть и неплоха в языке для такого размера, все еще слабовата в нем.
> вопрос по параметрам и пресетам, на что они вообще влияют
Ставь simple-1 и забей. Можешь покрутить температуру и штрафы за повтор, но сильно лучше не отклоняйся. Можешь еще min-p шаблон, но он довольно шизоидный, хз как с ним что-то нормальное можно катать.
Если же ты про форматы промта - желателен тот с которым тренилась модель, разница может быть существенной. Возможно в этом причина твоих неудач, для 3й лламы в ласт версиях был готовый, главное чтобы опять жора не поломался.
>>759060
> а убабуга ёбаная всё еще не умеел в командер, сука.
Что?
> могу тебя только по убабуге проконсультировать
Проконсультируй
Аноним 27/05/24 Пнд 01:12:26 #46 №759073 
>>759065
Со скрипом можешь и командира попробовать, он в русский хоть как-то может. Мне кажется, что гонять мелкое 8В на русском это вообще уебищный вариант. Уж лучше переводить в гугле. А если уж сильно хочется, то напиши название модельки (файнтюна). Покажи настройки семплера, промпт формат, системный промпт и саму карточку. На русском шизить может на любом этапе. Даже просто потому что может.
Аноним 27/05/24 Пнд 01:13:15 #47 №759074 
>>759065
ты лучше покажи пример генерации который тебя не устраивает.
Мы оценим норма это для твоего сетапа или нет.
Но вообще да, с 12 врам я бы особо много не ждал.
>>759069
>а как именно железо может влиять на генерацию
в основном может хуйню выдавать если у тебя старая карта, из-за чего старая куда и/или тесла p40, из-за чего ты привязан к ллама.цпп. вот например я страдаю с коммандером, потому что криврукие обезьяны никак не впилят его по человечески в убабугу с лламой.
Аноним 27/05/24 Пнд 01:13:53 #48 №759075 
>>759071
>Проконсультируй
без скринов с тем что и как ты запускаешь - мы ничего не скажем
Аноним 27/05/24 Пнд 01:15:51 #49 №759076 
>>759071
>Можешь покрутить температуру и штрафы за повтор
у него наверняка какая-то детская ошибка, не нужно ему эти параметры крутить сейчас.
Аноним 27/05/24 Пнд 01:18:25 #50 №759081 
>>759074
>в основном может хуйню выдавать если у тебя старая карта, из-за чего старая куда и/или тесла p40,
Та-а-ак... Генерю на M40 24GB. Дрова стоят с кудой 12.4. Какова вероятность пиздеца? Если я правильно нагуглил помню, то M40 - это одна из старейших. Даже старше P40. Но у меня в экспериментальной ветке кобольда командер работает лучше лламы... Может в убабуге тоже есть поддержка в каком-то экспериментальном релизе?
Аноним 27/05/24 Пнд 01:22:06 #51 №759085 
Screenshot1.jpg
Screenshot2.jpg
>>759067
>не ожидай от маленьких моделей хорошего русского
Тут самый прикол в том, что модель из шапки, которая вроде как файнтюн вообще ламы второй, на русском отвечает точно так же. Разницы ровно ноль. По этому меня дурит и я не понимаю, почему тогда было столько разговоров о том, что третья лама гораздо лучше может в русский.

>если надо русский - юзай Command-R
Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.

>>759073
>покажи настройки семплера, промпт формат, системный промпт и саму карточку
Прикрепил. Я пробовал разные, но в основном сидел на этих. Разницы не заметил. Моделька Llama-3-Lumimaid-8B.

>>759071
>ставь simple-1
Либо сани мудацкие, либо я мудак, но simple-1 у меня нигде нет.
Аноним 27/05/24 Пнд 01:22:49 #52 №759086 
>>759081
>M40
ну и нахуя ты её купил? Все же тут рекомендуют p40.
Я не знаю, тут ни у кого скорее всего кроме тебя такой карты нет.
примеры генерации давай, заебал.
Аноним 27/05/24 Пнд 01:25:33 #53 №759089 
>>759085
>я не понимаю, почему тогда было столько разговоров о том, что третья лама гораздо лучше может в русский
Ллама3 имеет мало русского в датасете, даже 70Б, а восьмёрка ещё и слишком маленькая для серьёзной мультиязычности. Нормально в русский умеют только Command-R/Command-R+, и Клод.
Аноним 27/05/24 Пнд 01:29:08 #54 №759090 
1.png
>>759055
Все тюны третьей лламы говно. А 90% даже чистой лламы в ггуфах - поломаны. Качай чистую, на русском пиздит сносно, хотя иногда коверкает слова, но это лучшее, что можно найти в таком размере.
>вопрос по параметрам и пресетам, на что они вообще влияют
Если выше температура - больше шизы, выше мин п - меньше рандома в ответах.
Аноним 27/05/24 Пнд 01:29:46 #55 №759091 
>>759086
>примеры генерации давай, заебал.
Как бы тебе сказать... Я все примеры удалял. Да и не тестил в полноценный РП... Сейчас попробую нагенерить, что-нибуть. Есть какие-нибудь предпочтения в плане модели, карточки?
И я не этот >>759055 Анон, а другой. Но suzume-llama-3-8B-multilingual у меня тоже есть на харде.
Аноним 27/05/24 Пнд 01:31:05 #56 №759092 
Как сделать на таверне чтобы моделька писала более длинные и кумовые ответы? Или надо модель менять?

Использую эту
https://huggingface.co/Sao10K/Fimbulvetr-11B-v2-GGUF/blob/main/Fimbulvetr-11B-v2.q4_K_S.gguf
Аноним 27/05/24 Пнд 01:36:01 #57 №759096 
>>759091
зачем мне твои примеры, чел?
Я спрашивал у человека, который жалуетс на проблему.
>>759092
дежурные ночные ванги локального-кум-треда раскинули свои гадальыне карты
Аноним 27/05/24 Пнд 01:38:45 #58 №759098 
>>759096
>зачем мне твои примеры, чел?
Я хуй знает, ну ты же попросил... Не могу же я просто проигноривать тебя?
Я так и подумал, что ты просил у того Анона, поэтому и уточнил, что я другой. Ну ладненько... Всё равно спасибо, что пояснил.
Аноним 27/05/24 Пнд 01:45:17 #59 №759101 
>>759085
Какая версия таверны?
Аноним 27/05/24 Пнд 01:47:33 #60 №759102 
>>759101
1.12.0
Аноним 27/05/24 Пнд 01:49:08 #61 №759103 
>>759085
> Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.
В четвёртом запуститься должен.
> Прикрепил. Я пробовал разные, но в основном сидел на этих. Разницы не заметил. Моделька Llama-3-Lumimaid-8B
Поставь чистую лламу без вот этого говна. И запусти. Если все равно будет шиза, попробуй solar uncensored.
Аноним 27/05/24 Пнд 01:51:22 #62 №759104 
>>759102
Так в 12 версии нет ban eos token. У меня почему-то только skip special tokens опция. В чем прикол?
Аноним 27/05/24 Пнд 01:57:47 #63 №759105 
Screenshot3.jpg
>>759096
>Я спрашивал у человека, который жалуетс на проблему.
Ответы в таком стиле. Я тестил модель на кумопригодность, но она обсиралась даже с генерацией sfw-действий. Но только на русском, что характерно. Карточка эта дефолтная, которая осталась у меня с древней таверны, когда я кумил еще через жопен турбо.

>>759104
>Так в 12 версии нет ban eos token.
В душе не ебу, о чем ты, братик. У меня API стоит кобольт классик, а не текст комплетишен. Может в этом дело.

>>759103
>В четвёртом запуститься должен.
Придется попробовать видимо. Не хочу ебаться с переводами. Хочу просто нормальную сессию русифицированной дрочки.
Аноним 27/05/24 Пнд 02:01:35 #64 №759106 
>>759105
ох срань...
а это только на лламе3 или на всех остальных тоже?
Аноним 27/05/24 Пнд 02:04:39 #65 №759107 
>>759085
> пик2
Вот там где universal-light оно и должно быть. С подобным семплингом как раз шиза ожидаема, а в русском может быть повышенное количество ошибок. Как бы там не верили сектанты в min-p, но это так.
Аноним 27/05/24 Пнд 02:06:15 #66 №759108 
>>759106
Ты про пример генерации? Я тестил только Llama-3-Lumimaid-8B и Fimbulvetr-11B. Ответы в обоих случаях примерно одинаковые. С вкраплениями каких то ебанутых конструкций (у меня была фраза "украинский skirt") и обшей шизой, когда модель не понимала что делаю я, и что вообще делала она одно сообщение назад.

>Вот там где universal-light оно и должно быть.
У меня там есть только simple-proxy-for-tavern.
Аноним 27/05/24 Пнд 02:08:18 #67 №759109 
>>759107
>Вот там где universal-light оно и должно быть.
У меня там есть только simple-proxy-for-tavern.

Забыл отреплаить твой ответ
Аноним 27/05/24 Пнд 02:08:40 #68 №759110 
>>759105
> Придется попробовать видимо. Не хочу ебаться с переводами.
Буквально одну кнопку нажать. Можно даже сделать автоматически перевод. То есть по факту будешь получать текст на русском. Единственный минус, это все еще гуглоперевод со всеми вытекающими. А командира будешь долго ждать со скоростью 1 токен в секунду.
Ну или модельку умеющую в русик ставь.
Аноним 27/05/24 Пнд 02:09:52 #69 №759111 
>>759104
На третьей лламе нельзя банить eos и скипать спциальные токены, потому что иначе она не затыкается и начинает писать ответы за всех сразу.
Аноним 27/05/24 Пнд 02:10:38 #70 №759112 
>>759110
>Единственный минус, это все еще гуглоперевод со всеми вытекающими.
Я про это и говорю. Ответы там будут такие же шизоидные, как если бы я без перевода просто на русском общался с ламой.
Аноним 27/05/24 Пнд 02:28:29 #71 №759114 
>>759112
Нет. Там только перевод говном будет. Ответы будут нормальные.
Аноним 27/05/24 Пнд 02:29:12 #72 №759115 
>>759111
Она это и без бана делает.
Аноним 27/05/24 Пнд 02:29:19 #73 №759116 
Пора признать очевидное.

ЛАМА 3 - ГОВНО ЕБАНОЕ. ОЧЕНЬ ТРУДНО ЗАПУСТИТЬ БЕЗ ОШИБОК. ОЧЕНЬ ЛЕГКО ЛОМАЕТСЯ. ПЛОХО МОЖЕТ В РУССКИЙ ЯЗЫК. НЕ ПОДДАЕТСЯ ФАЙНТЬЮНАМ ВПРИНЦИПЕ.
Аноним 27/05/24 Пнд 02:33:09 #74 №759123 
>>759116
Альтернативы есть? Только без командиров 105В.
Аноним 27/05/24 Пнд 02:36:06 #75 №759125 
>>759123

Мистраль и его файтьюны, микстраль, командир, квен, мику.
Аноним 27/05/24 Пнд 02:36:29 #76 №759126 
>>759115
Без бана это делают только сломанные кванты.
Аноним 27/05/24 Пнд 02:38:43 #77 №759129 
>>759125
> Мистраль и его файтьюны
Говно.
> микстраль, командир, квен, мику.
Ты сравниваешь модельку 8В и 70В?
Аноним 27/05/24 Пнд 02:39:20 #78 №759130 
>>759126
Получается, все кванты сломаны.
Аноним 27/05/24 Пнд 02:41:56 #79 №759131 
>>759116
>ОЧЕНЬ ТРУДНО ЗАПУСТИТЬ БЕЗ ОШИБОК.
Запускается без ошибок в убабуге. То, кванты сломаны - проблема квантов. Отлично может в русский язык, по сути, лучше русскоязычных моделей и нет.
Да, у лламы есть проблема с тюнами, потому что датасеты говно, а люди, которые занимаются тюнами берут дпо и прогоняют его дефолтным трейнером. Система дошла до того уровня сложности, когда орочьи технологии не работают и обмазывая модель говном - уже не получается сделать её "лучше".

Всякие хералион b модели даже не рассматриваю, заебёшься ждать вывода. А мику оказалась говном, уступающим даже 8b лламе на несколько порядков.
Аноним 27/05/24 Пнд 02:50:39 #80 №759134 
>>759129
>Говно

Солар и его файнтьюны ебут ламу 8В.
А Солар это мистраль.

>Ты сравниваешь модельку 8В и 70В?

Понятно что мистраль сравнивается с 8В, командир, мику и микстраль с 70В, а квен и с тем и с другим.

>Отлично может в русский язык, по сути, лучше русскоязычных моделей и нет.

Толсто блядь, даже 70В отсасывает у 34В командира, про 105В я просто молчу.
Аноним 27/05/24 Пнд 02:51:52 #81 №759135 
>>759131
>мику оказалась говном, уступающим даже 8b лламе

Ты просто вытек уже из треда, прекрати.
Аноним 27/05/24 Пнд 02:53:10 #82 №759136 
>>759134
> Солар и его файнтьюны ебут ламу 8В.
> А Солар это мистраль.
Ебет в чем? В русике?
> Понятно что мистраль сравнивается с 8В, командир, мику и микстраль с 70В, а квен и с тем и с другим.
За 70В не скажу, не запускал. А на уровне 8В ллама все-таки получше.
Аноним 27/05/24 Пнд 02:55:36 #83 №759137 
>>759135
C русской карточкой на русские сообщения эта дрисня отвечала транслитом. Нахуй это говно ёбаное.
Аноним 27/05/24 Пнд 02:56:56 #84 №759138 
>>759116
Давайте делать правильные выводы. На сегодняшний день, русский язык сосёт. И даже всякие командиры куда лучше будут говорить на английском.
Аноним 27/05/24 Пнд 03:03:02 #85 №759141 
>>759137

Так она не обучалась на русском.
Аноним 27/05/24 Пнд 03:07:45 #86 №759147 
image.png
>>759138
>русский язык сосёт

Нет. Командир 34B выдает текст пикрелейтед. Это автоматом отправляет все остальные модели в мусорку, тут на равных с чатгопотой бой идет.
Аноним 27/05/24 Пнд 03:33:19 #87 №759176 
>>759147
> сожмявшись
> шепотите
> между них
Llama-8B-instruct выдаёт тексты такого же уровня, но на английском и при этом не выдумывает несуществующих слов.
Аноним 27/05/24 Пнд 03:33:23 #88 №759177 
1.png
Скачал командира 35b, ну такое себе. Много шизы, точно так же коверкает слова. В целом, чуть получше 8b лламы, но не намного.
Аноним 27/05/24 Пнд 03:35:44 #89 №759178 
>>759085
>Я сильно сомневаюсь, что даже на задушенном кванте у меня запустится командор.
Используй aya-23-8B. Она хорошо на русском говорит. Это что-то типа командора на минималках.
Аноним 27/05/24 Пнд 03:37:12 #90 №759181 
>>759177
Я думаю, что ощутимо лучше. Другой вопрос, что при долгом ожидании сообщения или тем более, когда ты вложил реальные бабки в Р40, хочется чего-то совсем на другом уровне. А получаем плюс минус ту же парашу с теми же проблемами.
Аноним 27/05/24 Пнд 03:42:39 #91 №759188 
>>759176
>>759147
А чатгопота выдаёт. У неё хуёвый русский.
Аноним 27/05/24 Пнд 03:43:27 #92 №759189 
>>759176
>Llama-8B-instruct выдаёт тексты такого же уровня, но на английском

На английском тексты такого уровня выдает много что, тот же мистраль.
А ты покажи на русском.
Аноним 27/05/24 Пнд 03:51:24 #93 №759197 
>>759188
Кому не похуй на гопоту? Она тебя зарепортит нахуй за такую карточку.
>>759189
> На английском тексты такого уровня выдает много что, тот же мистраль.
Вот только мистраль отказывается отыгрывать персов, у всех персов одна и та же соевая личность.
> А ты покажи на русском.
Я могу перевести в яндекс переводчике нормальный английский текст. И он, без всякой иронии, выебет и гугл, и командира, и кого хочешь. Единственная проблема, что к тебе могут постучать в дверь после таких запросов.
Аноним 27/05/24 Пнд 03:52:30 #94 №759199 
>>759181
>когда ты вложил реальные бабки в Р40

Она копейки стоит, 1/10 от 4090, и сама картонка - говно. Что ты там ожидаешь от нее?
Аноним 27/05/24 Пнд 03:54:17 #95 №759200 
>>759181
>А получаем плюс минус ту же парашу с теми же проблемами.
Не совсем. Когда ты можешь быстро рероллить умную семидесятку (что требуется не так уж часто) - ощущения совсем другие.
Аноним 27/05/24 Пнд 04:01:51 #96 №759209 
>>759199
Я не от карточки, а от сетки ожидаю.
Аноним 27/05/24 Пнд 04:02:57 #97 №759212 
>>759197
>Вот только мистраль отказывается отыгрывать персов

А ты его вообще запускал, лол? Какую версию и когда?
Аноним 27/05/24 Пнд 04:03:40 #98 №759213 
>>759200
Если можешь быстро рероллить 70В, то да. Ощущения наверняка получше. Но у меня она генерит очень медленно, так как я на цпу. И получается, что незначительное улучшение качества не стоит значительного увеличения ожидания.
Аноним 27/05/24 Пнд 04:05:12 #99 №759215 
>>759212
Запускал. И чистый мистраль, и мейд всяких, солар. Новенький мистраль вышел, тоже запустил. Но его только запустил на пару сообщений. Долго его не тестил.
Аноним 27/05/24 Пнд 04:05:43 #100 №759216 
>>759209

Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Аноним 27/05/24 Пнд 04:06:16 #101 №759217 
>>759212
Покажи, что он у тебя выдает. Может, я что-то не так настроил.
Аноним 27/05/24 Пнд 04:06:58 #102 №759218 
>>759216
> Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Начнём с того, что я и Р40 не имею.
Аноним 27/05/24 Пнд 04:11:48 #103 №759221 
>>759178
>Используй aya-23-8B.
Не вижу особого смысла в этом. Аноны выше были правы, что кастрированные модели уровня 8-13B можно хавать только на английском. Попробую скачать урезанного командора, если на 4 кванте скорость будет терпимой, то останусь на нем.
Аноним 27/05/24 Пнд 04:13:49 #104 №759222 
image.png
>>759217

Ну вот дефолтный солар, например, на дефолтной акве
Аноним 27/05/24 Пнд 04:14:07 #105 №759223 
>>759216
>Имея лишь всратую нищуковую Р40 ты слишком много хочешь, походу.
Модели, которые влезают в 24гб врам, на "всратой нищуковой Р40" работают быстро.
Аноним 27/05/24 Пнд 04:17:23 #106 №759224 
>>759221
>Не вижу особого смысла в этом. Аноны выше были правы, что кастрированные модели уровня 8-13B можно хавать только на английском.
А ты попробуй. Приятно удивишься. По сути, она тоже базируется на командоре или что-то в этом роде. Да и разраб у неё тот же, а именно CohereForAI.
Если я правильно понял, то aya-23 это попытка обмазать командора мультиязыковыми датасетами.
Аноним 27/05/24 Пнд 04:20:51 #107 №759227 
>>759222
> Ну вот дефолтный солар, например, на дефолтной акве
Скинь карточку аквы. Хочу потестить с ней лламу и командира, чтобы сравнить.
Аноним 27/05/24 Пнд 04:21:08 #108 №759229 
1.png
>>759181
Ну я скачал Q4_K_S, относительно быстро. Но не то, чтобы это добавляло хоть какого-то смысла. Язык такой же ломаный, а мозгов у модели не наблюдается в принципе. Слабо понимает, что от неё требуется и о чём вообще речь идёт, постоянно перескакивает с пятого на десятое. Попросил анекдот про быдло, начала рассказывать про Японию, а закончила предложением поиграть в инструктора и ученика в автошколе. Пиздец просто. Ллама даже в 8b может придерживаться темы разговора.
Аноним 27/05/24 Пнд 04:21:28 #109 №759231 
>>759223

Разумеется есть космическая разница между работой на цпу и Р40, тот анон просто пальцы гнет что он большего ожидал.
Да уже возможность не ждать по пять минут ответа любых денег стоит.
Аноним 27/05/24 Пнд 04:21:38 #110 №759232 
>>759227
Удваиваю реквест.
Аноним 27/05/24 Пнд 04:23:13 #111 №759234 
>>759224
>А ты попробуй.
Да попробую, че нет. Просто почитав реплаи у меня теперь еще больше скепсиса по поводу всей этой движухи с микро-моделями.

>Если я правильно понял, то aya-23 это попытка обмазать командора мультиязыковыми датасетами.

Разве aya это не урезанный командор?
Аноним 27/05/24 Пнд 04:27:00 #112 №759236 
>>758950
> --gradio-auth
Эта хуйня только на вход в настройки обобуги, для --public-api так себе варик, я могу навесить "пароль/ssh ключ" на подключение к самому api? Или нихуя страшного, что в бек ко мне могут стучаться всякие пидоры, но не получать ответа, т.к. не используют формат OpenAI API?
>>758671 →
Модель хороша - факт, но с норм карточкой. Ясен хуй, что я модель юзал и на других карточках и получалась хуйня. Хотя я сейчас и систем промт/семплеры под себя подправил, теперь чувствую "отыгрыш"!
Аноним 27/05/24 Пнд 04:27:08 #113 №759237 
>>759234
>Просто почитав реплаи у меня теперь еще больше скепсиса по поводу всей этой движухи с микро-моделями.
Ну мне вроде зашла. Только инструкт не забудь поменять. Для sfw РП, вроде не плоха... Для nsfw вроде тоже. По крайней мере лучше, чем метавская 8b ллама 3 и suzume ллама 3

>Разве aya это не урезанный командор?
Ну его можно и так назвать и по сути да. Но я думал, ты имел ввиду командора v01 на 35B
Аноним 27/05/24 Пнд 04:27:29 #114 №759238 
Aqua.png
>>759227
>>759232
Я другой анон, но вот вам старая аква от апреля 23 года.
Аноним 27/05/24 Пнд 04:28:29 #115 №759239 
>>759236
>Модель хороша - факт,
Какая у тебя модель, кстати?
мимо другой анон

>>759238
Двач трёт метаданные, заливай на catbox.moe.
Спасибо.
Аноним 27/05/24 Пнд 04:29:05 #116 №759241 
>>759227
>>759232

Это дефолтная картонка таверны, как вышло что у вас её нет? Таверна поставляется со всеми персонажами коносубы по дефолту.
Аноним 27/05/24 Пнд 04:29:52 #117 №759243 
>>759239
>>759236
А блять, я слепой еблан. Отбой. 4:20 даёт о себе знать.
Аноним 27/05/24 Пнд 04:32:35 #118 №759247 
image.png
>>759241
Ч-чего? У меня только эти. Версия 1.11.8.
Аноним 27/05/24 Пнд 04:32:41 #119 №759248 
>>759239
https://files.catbox.moe/sexojs.png

>>759237
>Но я думал, ты имел ввиду командора v01 на 35B
Да, я еблоид. Я думал айа есть только на 8Б, а там оказывается еще версия и на 35 есть.

>лучше, чем метавская 8b ллама 3 и suzume ллама 3
Ну, тогда точно покатаю. Хуже по крайней мере уже не будет.
Аноним 27/05/24 Пнд 04:33:17 #120 №759251 
>>759060
>а убабуга ёбаная всё еще не умеел в командер, сука.
Всм? Норм работает коммандер в ней, я только в уге все запускаю, про кобольд вообще забыл.
Аноним 27/05/24 Пнд 04:34:17 #121 №759252 
>>759241
> Это дефолтная картонка таверны, как вышло что у вас её нет? Таверна поставляется со всеми персонажами коносубы по дефолту.
Ты про силлитаверну? Если да, то в первый раз такое слышу. Если несложно, то скинь картинки этих чаров на catbox какой-нибудь.
Аноним 27/05/24 Пнд 04:35:07 #122 №759253 
>>759247
>>759241
После какой то версии Силли вырезала дефолтные карточки из конасубы. Если щас качать нулевую версию с гита, то там будет только серафима или как ее там. В любом случае, карты эти древние и хуево написаны.
Аноним 27/05/24 Пнд 04:36:17 #123 №759254 
>>759247

Лол, раньше были Аква, Мегумин и Даркнесс. Видимо в последних версиях сменили комплект поставки.

Ладно, держи эту троицу
https://aicharactercards.com/character-cards/anime-manga/aicharcards/aqua/
https://aicharactercards.com/character-cards/anime-manga/aicharcards/megumin/
https://aicharactercards.com/character-cards/anime-manga/aicharcards/darkness/
Аноним 27/05/24 Пнд 04:37:55 #124 №759256 
>>759248
>https://files.catbox.moe/sexojs.png
Спасибки!

> там оказывается еще версия и на 35 есть
А, ну это да. Вот она прямо достойно работает. Так бы и юзал, если бы не полтора токена в секунду.

>Ну, тогда точно покатаю. Хуже по крайней мере уже не будет.
Вообще, что-то меня одолевают ощущения, что одна и таже модель от Анона, к Анону может отличаться. Хуй знает с чем это связано, но не зря же мне Анон в прошлом так яро рекомендовал suzume-llama-3-8B-multilingual. Но у меня и у ещё двух Анонов была шиза. Значит что-то не так. Может быть это с железом связано? Да и я слышал, что кто-то писал, мол aya-23 шизит. Так что, мб она у меня зорошо летает из-за того, что у меня старушка M40.

>>759254
>Мегумин
ОООО! ВРЕМЯ КУМИИТЬ! СПАСИБО, АНОН!
Аноним 27/05/24 Пнд 04:41:16 #125 №759259 
>>759253
Спасибки, за информацию. В любом случае, думаю, они подойдут для тестов.
Аноним 27/05/24 Пнд 04:46:18 #126 №759261 
>>759222
Использовался ли лорбук или просто голая карточка?
Аноним 27/05/24 Пнд 04:46:41 #127 №759262 
>>759256
>одна и таже модель от Анона, к Анону может отличаться
Я думаю что дело в том, что у всех разные критерии адекватности. Хотя я только вкатываюсь в локалки, мне кажется что проблема именно в том, что нет нормальной системы оценивания. Меня бесит сухой и прямой текст, где тупо описываются действия персонажей. Я невольно сравниваю это дело с тем, что выдавала труба, когда я на ней еще сидел, и это пиздец как бесит. Души в нейронке нет, хуй знает. И Lumimaid я кстати тоже по совету анона ставил, который сказал, что она отлично держит характер и не шизит. В общем, всё персонализировано, правда где то по середине, правды больше нигде нет.
Аноним 27/05/24 Пнд 04:51:46 #128 №759264 
image.png
>>759261

Просто голая картонка
Аноним 27/05/24 Пнд 04:52:15 #129 №759266 
>>759262
Ну может и так... Хотя всё же мне кажется, что модели действительно генерят по разному у разных Анонов. И зависит это либо от железа, либо от настроек. Хотя, думаю, что в ситуации с той же сузумой, хотя бы у одного Анона были бы нормальные настройки.
Но, думаю, что всё же разность восприятия разных Анонов тоже влияет, это да. Этого отрицать тоже никак нельзя.
И всё же надеюсь, тебе понравится Ая. Она вроде ничего...
Аноним 27/05/24 Пнд 04:59:32 #130 №759270 
>>759266
>мне кажется, что модели действительно генерят по разному у разных Анонов.
Либо блять дело всё таки в ебаных карточках. Я прогонял русский через дефолтную акву, а она и сама по себе тупая, потому что написана дегенератами чуть ли не под пигмалион. На английском у нее ответы внятные, но всё равно тупорыльно дебильные, а на русском она вообще с ума сходит, потому что не понимает, что от нее требуют. Надо попробовать взять жирную карту токенов под 800 и протестировать с ней. Возможно чудо случится и теория подтвердится. А может и нет. Все таки модель обрезанная, тут никуда не деться.
Аноним 27/05/24 Пнд 05:02:46 #131 №759271 
aqua1.png
aqua2.png
>>759264
>>759222
В общем. Обе модельки не смогли справиться с Аквой. Но стоит так же признать, что здесь не полностью вина ЛЛМ, потому что в самой карточке тоже нет никакой инфы, что на попытки выебать Акву, она будет реагировать подозрительно и обзываться хиккинитом. Но вот что мне не нравится в мистрале так это то, что он пиздит про "I am always happy to help and guide". Эта ебучая личина ассистента вылазит постоянно и мешает погружению. Даже если это безобидно и не помешало куму, из персонажа дико выбивается. Я думаю, что надо либо кого попроще взять, либо допилить Бакву, а потом уже сравнивать. Сейчас персонаж не прописан даже на уровне карточки.
Аноним 27/05/24 Пнд 05:04:05 #132 №759272 
>>759270
Ну может и так. Однако, разве не стоит переводить карты для нормального руссского? Просто, судя по всем это тоже влияет.
Я тут парочку перевёл на скорую руку с гуголь транслейтом и есть ещё карта другого Анона. Не знаю, не против ли он если я её залью... Пока не буду, мало-ли он против.
https://files.catbox.moe/nces5o.png
https://files.catbox.moe/ev423p.png
Аноним 27/05/24 Пнд 05:06:10 #133 №759274 
>>759272
Я думаю, что надо переводить примеры диалогов и первое сообщение. А инструкции оставлять на английском, чтобы лучше их понимало и меньше шизило. Но это только мое мнение, на практике не пробовал.
Аноним 27/05/24 Пнд 05:09:36 #134 №759276 
>>759274
Ну в одной карточке про институт 13 я перевёл описание и первое сообщение. В другой я перевёл только первое сообщение. Разницы, пока не вижу...
Хотя трудно РПшить, когда ты тупо "тестируешь"
Аноним 27/05/24 Пнд 05:11:27 #135 №759278 
>>759276
А ты не тестируй, ты рпшь.
Аноним 27/05/24 Пнд 05:11:39 #136 №759279 
>>759271
>Сейчас персонаж не прописан даже на уровне карточки.
Потому что ее прописывали еще в прошлом веке и не зря вырезали к хуям собачим из таверны. Я помню, как ебаная Аква тупила даже на трубе. А труба вообще была всеядной и выдавала приличные вещи при минимуме усилий. Тут тупо старания картодела виноваты.

>>759272
>Однако, разве не стоит переводить карты для нормального руссского?
Я переводил, но так как исходный материал всё равно был жиденький, это не сильно помогло. По опыту могу сказать, что решает именно стиль написания карты и первое сообщение. Если в обоих случаях всё криво и надрищено без нормального форматирования, то позитивного эффекта не будет.
Аноним 27/05/24 Пнд 05:14:12 #137 №759281 
image.png
>>759256
>ОООО! ВРЕМЯ КУМИИТЬ! СПАСИБО, АНОН!

У меня для нее кстати live2d моделька завалялась, которая анимации проигрывает в зависимости от настроения персонажа.
Аноним 27/05/24 Пнд 05:14:50 #138 №759283 
>>759279
Что за труба?
> Тут тупо старания картодела виноваты.
Нет, не тупо. Справедливости ради, помимо картодела обосрались и сами модельки. Ебаная ллама подхватила стилистику сообщений и проебала кавычки при реплике. Срала ебучими ахахаха и подмигиваниями без всякой меры. Ну и в целом обдристалась. Мистраль и подавно не смог выйти из роли гида-ассистента, сука. Зато без ебучих ахахаха и кавычки не проебал.
Аноним 27/05/24 Пнд 05:15:34 #139 №759284 
>>759281
>live2d
Скинь что-ли. Может хоть с ней поиграть нормально получится.
Аноним 27/05/24 Пнд 05:18:28 #140 №759285 
>>759278
Ну да... Но мысль о том, что что-то может работать не "так, как надо" прям пиздец отбивает желание РПшить. Хочется то-ли на другую модель переключиться, то-ли пойти сэмплеры потеребить.

>>759279
>По опыту могу сказать, что решает именно стиль написания карты и первое сообщение.
Ну, судя по всему это так. Соглашусь с тобой.
Но вроде как на переведённых картах, русский лучше работает. По крайней мере, та же сузума работала получше. Так что если уж и тестить русик, то на полностью переведённых картах.

>Если в обоих случаях всё криво и надрищено без нормального форматирования, то позитивного эффекта не будет.
Вполне вероятно. Пока у меня нету достаточно опыта, чтобы возразить обратное.

>>759281
>в зависимости от настроения персонажа.
А для определния настроения разве не нужна отдельная нейронка? Или как это работает?

>>759284
Удваиваю реквест
Аноним 27/05/24 Пнд 05:20:28 #141 №759286 
>>759283
>Что за труба?
GTP-3.5 Turbo, в моем случае версия 0301, на которой я дрочил с 22 года по март 24, если память мне не изменяет.

>Ебаная ллама подхватила стилистику сообщений и проебала кавычки при реплике.
Ну так она и будет опираться на предыдущие сообщения в чате. Это норма для любых моделей, вроде как. Если только через промт ей не вбить как она должна форматировать текст, она может тебе в целом отвечать только аххахаа и подмигиваниями с мурмурами.
Аноним 27/05/24 Пнд 05:25:29 #142 №759288 
>>759286
> Что за труба?
> GTP-3.5 Turbo
Так она же говно. Хотя наверное получше 8В.
> Ну так она и будет опираться на предыдущие сообщения в чате. Это норма для любых моделей, вроде как. Если только через промт ей не вбить как она должна форматировать текст, она может тебе в целом отвечать только аххахаа и подмигиваниями с мурмурами.
Это понятно, что она будет опираться на сооьщения и обезьяничать. Но конкретно именно ллама очень часто любит залупаться. К счастью, да, часть проблем может решиться промптингом. А вот мистраля я в свое время так и не смог убедить стать жестокой яндере. Ему просто похуй на промпты.
Аноним 27/05/24 Пнд 05:33:07 #143 №759290 
>>759288
>Так она же говно.
Вот тут нихуя не соглашусь. Труба отыгрывала самую дикую хуйню, которую я ей скармливал и делала это на уровне. Да, иногда тоже шизила и контекст у нее был мизерный, но в остальном это был ахуенный выбор. Персонажей держала, против рейпов и других извращений не сопротивлялась (в отличии от соевой четверки и клода). Единственный ее минус только в том, что это всё таки API и за него надо платить. Хоть и сравнительные копейки.

>А вот мистраля я в свое время так и не смог убедить стать жестокой яндере.
А вот трубешница могла. Могла и в фемдом и в фембой и в томбой. И насилие хорошо расписывала и даже жесткое гуро (но недолго, после пары сообщений начинала выдыхаться).
Аноним 27/05/24 Пнд 05:35:25 #144 №759293 
>>759290
Я с трубой не общался в таверне. Поэтому промптинг там был дефолтный и по сути она вела себя довольно соево из-за этого. Так что может быть я и не прав.
Аноним 27/05/24 Пнд 05:36:42 #145 №759294 
image.png
>>759284
>>759285

https://files.catbox.moe/ueliea.7z

Держи всю троицу коносубы.
Почитай инструкцию на странице экстеншона чтобы понять что куда ставить и как настраивать.
https://github.com/SillyTavern/Extension-Live2d

>А для определния настроения разве не нужна отдельная нейронка?

Character expressions по дефолту встроен в таверну и интегрирован с live2d, придется только ручками анимации модели эмоциям сопоставить в настройках live2d.
Аноним 27/05/24 Пнд 05:39:20 #146 №759296 
>>759294
Ооо... Благодарю, Анонче! Это пиздец как круто. И спасибо за ссылочку на гайдыч!
Аноним 27/05/24 Пнд 05:39:21 #147 №759297 
>>759271
>Обе модельки не смогли справиться с Аквой.

Хоть бы написал какие.
Аноним 27/05/24 Пнд 05:39:56 #148 №759298 
>>759293
Ну значит модель соевая. Есть вариант конечно ручками подредактировать сообщений 5-10 и направить ее по нужному сценарию, но это конечно дикий гемор каждый раз переписывать то, что уже написала за тебя нейронка. Ощущение будто сам с собой в блокноте общаешься.
Аноним 27/05/24 Пнд 05:45:42 #149 №759301 
image.png
>>759253
>После какой то версии Силли вырезала дефолтные карточки из конасубы.

Пиздец, вся таверна по сути написана для отыгрыша коносубы, даже цветовые темы в честь персонажей названы и под них подстроены.
Аноним 27/05/24 Пнд 05:48:57 #150 №759302 
Screenshot4.jpg
>>759301
Больше нет. Теперь их две и обе рыготные. Разраб на силе вроде в одном из патчноутов написал, что хочет убрать весь неоригинальный контент из таверны, включая конасубский, который под копирайтом находится.
Аноним 27/05/24 Пнд 05:50:39 #151 №759305 
>>759302

Переименовать темы он не догадался? Копирайт по его мнению распространяется на цвета? Едрить он дегенерат.
Аноним 27/05/24 Пнд 05:55:07 #152 №759306 
>>759305
А в чем смысл иметь названия тем, связанных с персонажами, когда самих персонажей больше нет?

И если я не ошибаюсь, мегумины и даркнесы перешли в сили таверну еще с оригинальной таверны, когда разраб только начал перепаивать ее. На оригинальной таверне кстати конасбуские еще остались и висят в репозитории гитхаба.
Аноним 27/05/24 Пнд 05:55:52 #153 №759307 
>>759302
Да, подтверждаю, всего две темы.
Алсо, раз такая пьянка. Знает кто где достать другие темы? А то от этих двух глаза вытекают нахуй.
Аноним 27/05/24 Пнд 05:56:36 #154 №759308 
>>759297
Так я писал, что Llama-3-8B. А у второго анона, если ему верить, дефолтный солар.
Аноним 27/05/24 Пнд 05:58:33 #155 №759309 
>>759294
Благодарю.
Аноним 27/05/24 Пнд 05:59:24 #156 №759310 
>>759307
>Знает кто где достать другие темы?
Там вообще есть пункт для кастомной CSS, но я нигде не видел чтобы его использовали. Я бы тоже поменял тему на более вменяемую, но брать неоткуда.

Таверна вообще ебаный франкенштейн. Чего только не напихали внутрь за полтора года, а нормальный интерфейс до сих пор не сделали.
Аноним 27/05/24 Пнд 06:03:08 #157 №759311 
>>759308
>Так я писал, что Llama-3-8B.

Т.е. когда ты говорил "обе" ты имел ввиду что ты тестировал ламу, а вторая это солар, который я запостил? Ясно.
Я не соглашусь что модели не справились с Аквой, с тем что прописано в картонке они обе справились, но лама у тебя какая-то слишком словоохотливая получилась и не выдержала стиль первого сообщения с описаниями действий, в отличие от Солара. Потому я и говорил выше что солар лучше третьей ламы.
Аноним 27/05/24 Пнд 06:04:52 #158 №759312 
>>759306

Так смысл не в названиях, а в самих темах. Переименовать Aqua blue в blue и пользоваться дальше.
Аноним 27/05/24 Пнд 06:08:47 #159 №759313 
>>759312
Так он же все темы кроме двух убрал, не только конасубские. И самое главное что ни добавил ни одной светлой темы.
Аноним 27/05/24 Пнд 06:22:26 #160 №759314 
>>759311
> Я не соглашусь что модели не справились с Аквой, с тем что прописано в картонке они обе справились, но лама у тебя какая-то слишком словоохотливая получилась и не выдержала стиль первого сообщения с описаниями действий, в отличие от Солара. Потому я и говорил выше что солар лучше третьей ламы.
Словоохотливость это вопрос промпта, я ее так запромптил, чтобы она отвечала развёрнуто. Здесь важнее то, что по сути они писали. А по сути Аквы нет ни там, ни там.
Аноним 27/05/24 Пнд 06:22:53 #161 №759315 
>>759313

Я и говорю - дегенерат.
Залил старые темы кому надо.
https://files.catbox.moe/13nad9.7z
Аноним 27/05/24 Пнд 06:26:40 #162 №759317 
>>759315
Ещё раз, спасибо, Анончик!
Аноним 27/05/24 Пнд 06:27:25 #163 №759319 
>>759314
>А по сути Аквы нет ни там, ни там.

Просто у тебя свое понимание Аквы и ты отчего-то считаешь что модель должна ему соответствовать автоматом.
Модель отыгрывает то что в карточке написано, а не то что у тебя в голове. То что в карточке написано - она отыграла, не нравится - правь карточку. Ну и лорбук подключай.
Аноним 27/05/24 Пнд 06:36:56 #164 №759321 
>>759319
> Модель отыгрывает то что в карточке написано, а не то что у тебя в голове.
Во-первых, не в голове, а в ранобе или аниме.
> То что в карточке написано - она отыграла, не нравится - правь карточку. Ну и лорбук подключай.
Во-вторых, обе модельки не справились даже с карточкой, потому что одна из них откровенно палится ассистентской личиной, а вторая срет своими ахаха. И никакие промпты эту хуйню исправить не смогут. Вот сообщения сделать короткими - это пожалуйста, а убрать вот эти въевшиеся шаблоны - хуй.
Аноним 27/05/24 Пнд 06:48:17 #165 №759333 
>>759321
>Во-первых, не в голове, а в ранобе или аниме.
Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме? Нейросетям вообще по факту насрать на источник персонажа. Они будут опираться только на текст в простыне персонажа. Ты можешь вообще переписать у себя в карточке Акву из тупой пробки без трусов в умную пробку с шикарными и роскошными трусами. Нейросети будет насрать на несоответствие, потому что ей важен только промт, т.е. инфа, которую ты ей и скормил.

мимо другой
капча невалидна
Аноним 27/05/24 Пнд 06:53:07 #166 №759336 
>>759321
> потому что одна из них откровенно палится ассистентской личиной

Охуеваю как ты далеко идущие выводы cделал с одного скрина.
Аноним 27/05/24 Пнд 07:15:15 #167 №759351 
>>759336
А что там делать, если я уже общался с мистралем и знаю, что это такое?
>>759333
> Во-первых, не в голове, а в ранобе или аниме.
> Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме?
В жирных моделях может и быть. В мелких, если и есть что-то, то мало инфы.
> Нейросетям вообще по факту насрать на источник персонажа. Они будут опираться только на текст в простыне персонажа. Ты можешь вообще переписать у себя в карточке Акву из тупой пробки без трусов в умную пробку с шикарными и роскошными трусами. Нейросети будет насрать на несоответствие, потому что ей важен только промт, т.е. инфа, которую ты ей и скормил.
Я это понимаю. Так же я понимаю, что карточка написана плохо и это является главной проблемой. Тем не менее мой посыл в том, что нейросетки плохо создают иллюзию общения с карточкой. Все равно наружу вылазит вся нейросеточная суть.
Аноним 27/05/24 Пнд 07:35:08 #168 №759359 
image.png
>>759351
>Тем не менее мой посыл в том, что нейросетки плохо создают иллюзию общения с карточкой. Все равно наружу вылазит вся нейросеточная суть.

А вот тут вылезла?
Может все же в карточке дело?
Аноним 27/05/24 Пнд 07:45:44 #169 №759366 
>>759359
Что на этом скриншоте не демонстрирует нейросеточную суть?
Аноним 27/05/24 Пнд 07:50:00 #170 №759373 
image.png
>>759366
>Но вот что мне не нравится в мистрале так это то, что он пиздит про "I am always happy to help and guide". Эта ебучая личина ассистента вылазит постоянно и мешает погружению.

Ну и где тут эта личина ассистента?
Аноним 27/05/24 Пнд 07:56:24 #171 №759377 
Потыкал немного этот ваш Moistral. Ну, диалоги у него чуть поживее, и карточку/лорбук он, вроде как, понимает неплохо. Но всё равно как будто немного тупее третьей ламы.
Аноним 27/05/24 Пнд 08:19:33 #172 №759392 
>>759373
Залупается походу. И с хуя ли они решили драться? Я так понимаю в карточке ни слова о том, что они должны кончить. То есть нейронка путается.
>>759359
Только с последним персом непонятное что-то. Походу нейронка путается. Здесь особо и отыгрыша нет. У них же 0 реплик. Возьми какую-нибудь цунгпт и попроси ее что-то сделать. Там хоть сразу понятно будет, что оно отыгрывает.
В целом такую карточку оно походу не вывозит. В лламу тоже не верю.
Аноним 27/05/24 Пнд 08:20:28 #173 №759394 
>>759377
Он и есть тупее. Но секс сцены описывает лучше. И секс фантазии тоже.
Аноним 27/05/24 Пнд 08:32:08 #174 №759398 
image.png
image.png
image.png
>>759392

Все оно вывозит, хватит аутотренингом заниматься. В итоге я убедил трех из пяти, взял их, потом с их помощью изнасиловал двух оставшихся нитакусек.
Потом дверь открылась, мы перешли в другую комнату и там все началось заново.
Аноним 27/05/24 Пнд 08:45:56 #175 №759409 
>>758933
Для такого конфига вполне нормальная скорость.
Аноним 27/05/24 Пнд 08:50:15 #176 №759411 
>>758950
>Кмк, чат-модели в принципе хуже из-за этого
Нет, модели без разницы, будет ли она дописывать с префила или с начала ответа, тут проёба нет.
>>758950
>Ну, в самом аниме с ними нельзя пообщаться
Всегда мечтал уебать тсундере?
>>758972
>Если опен АИ апи
А есть ли хоть один повод использовать неродное апи, когда есть родное?
>>759081
>Генерю на M40 24GB
>Maxwell
>Double-Precision Performance - 0.2 Teraflops
Земля стекловатой.
>>759116
>ОЧЕНЬ ЛЕГКО ЛОМАЕТСЯ
Только это верно. ХЗ почему так. Остальное не верно, ждём норм тюнов.
>>759123
Командир 104 же, так что всё окей, меньше 105!
>>759147
Какой же кринж.
>>759213
>незначительное улучшение
Лол, я от перехода от 70 к 104 чувствую значительное улучшение, а ты просто от 8 до 70 "незначительное".
>>759286
>март 24
>турба
Ебаааатьь.
>>759310
>но я нигде не видел чтобы его использовали
Потому что есть юзерстили. Хотя я туда отступ для сообщений бота добавил, чтобы показывать имя модели, не перекрывая текст.
Аноним 27/05/24 Пнд 08:53:31 #177 №759415 
>>759398
Мне интересно, а каким промптом нейросетке объяснять, что когда дело до кума доходит, то надо описывать подробно?
> Все оно вывозит, хватит аутотренингом заниматься.
Так может это ты аутотренишь? Серьёзно, ты вчитайся, что оно пишет. Просто одни и те же реплики. София практически зациклилась. Я понимаю, что моделька маленькая, и на безрыбье и рак не рак, но как такое можно в принципе называть хоть каким-то отыгрышем? Это же ведь пиздец. Хотя ладно, она по крайней мере не спутала персов между собой, уже недурно.
Аноним 27/05/24 Пнд 08:53:37 #178 №759416 
image.png
>>759392
>Возьми какую-нибудь цунгпт и попроси ее что-то сделать.

Аска пойдет?
Аноним 27/05/24 Пнд 08:57:30 #179 №759423 
>>759411
> Лол, я от перехода от 70 к 104 чувствую значительное улучшение, а ты просто от 8 до 70 "незначительное".
Единственная значительная разница, которую я смог заметить, это скорость генерации. А так у 70В текст немного покачественней и чуть больше деталей. Может быть на 104В уже какие-то качественные отличия есть, здесь не знаю, не запускал.
Аноним 27/05/24 Пнд 08:59:27 #180 №759426 
>>759416
Пойдёт. Кстати, ты специально ее попросил коротко отвечать?
Аноним 27/05/24 Пнд 09:06:31 #181 №759434 
Вопрос промптоспециалистам, если таковые тут имеются. Вот есть у меня лорбук, где, к примеру, описаны всякие законы и культурные особенности местности, в которой проходит ролеплей. Можно ли как-нибудь сделать так, чтобы персонаж не тянул рандомно куски из этого лорбука, не относящиеся к ситуации? Ну, типа - "Кстати, а ты знал шо у нас в стране в жопу долбят за ношение адидаса?", при том что разговор в данный момент про то, какой сорт чая лучше.
Аноним 27/05/24 Пнд 09:08:11 #182 №759439 
>>759434
Какой моделькой пользуешься?
Аноним 27/05/24 Пнд 09:10:15 #183 №759443 
>>759439
Конкретно сейчас - llama 3, но вообще этот косяк вылезал на всех моделях, которые пробовал.
Аноним 27/05/24 Пнд 09:10:55 #184 №759445 
>>759426

Нет, но модель сильно копирует стиль первого сообщения.
Аноним 27/05/24 Пнд 09:25:56 #185 №759473 
https://www.reddit.com/r/LocalLLaMA/comments/1d1bnql/awesome_prompting_techniques/

>>759294
>https://files.catbox.moe/ueliea.7z
Не кочает почему то

>>759315
та же фигня, что то либо у меня либо на сайте выебывается и не открывает страницу
вроде раньше катбокс работал
Аноним 27/05/24 Пнд 09:30:33 #186 №759482 
>>759473

Только что проверил - все работает. Попробуй еще
Аноним 27/05/24 Пнд 09:33:49 #187 №759487 
>>759482
Ага работает, без перезагрузки модема даже на катбокс не заходило
Хотя инет вроде работал, хз
Аноним 27/05/24 Пнд 09:46:39 #188 №759511 
>>759443
Честно говоря не знаю как это предотвратить. Можно конечно лорбук задвинуть подальше в контекст, но мне кажется это совсем не решение.
Аноним 27/05/24 Пнд 09:49:39 #189 №759515 
>>759416
Анон, можешь зашарить карточку пжалста? Хочу глянуть как она там прописана.
Аноним 27/05/24 Пнд 09:56:22 #190 №759518 
>>759515

https://files.catbox.moe/57ann9.png

Держи
Аноним 27/05/24 Пнд 09:58:35 #191 №759520 
image.png
Почему Лама 3 говно ебаное? Ответ на пике. Это говно очень быстро входит в луп и начинает повторять предыдущие сообщения. Плюс цензура вылезает сразу как начинается какая-то движуха.
Аноним 27/05/24 Пнд 10:01:17 #192 №759521 
>>759518
Пасибо:*
Аноним 27/05/24 Пнд 10:01:34 #193 №759522 
>>759434

Зайди в лорбук и отредактируй записи чтобы они вызывались только при наличии связанных с ними тегов в прошлых сообщениях.
Аноним 27/05/24 Пнд 10:07:51 #194 №759526 
>>759520
Пиздец. Какой промпт формат и системный промпт? Вообще ллама любит залупаться и я не нашёл нормального способа побороть это. Все, что делаю, это сразу же повторно генерю при малейшей попытке залупиться. Иначе потом ее хрен заставишь выйти из лупа. Чтобы пореже выкидывала сою, надо ее попросить генерить любой контент. А ещё надо хорошенько попросить нормальный кум делать, а не эту хуйню.
Аноним 27/05/24 Пнд 10:11:07 #195 №759528 
>>759067
>>759069
Ньюфаги не застали вторую лламу, которая на 13b вообще не могла в русский.

>>759069
Ну, соевость и русский язык — не одно и то же. =) У нас тут куча «расцензуренных» ллам-8, но на деле я пока не слышал ни об одной реальных хороших отзывов.

> а как именно железо может влиять на генерацию
в общем — никак. Но на генерацию влияют даже солнечные бури, а ты про железо… =) (отсылка на мем-исследование, таки влияют=)

>>759071
> Ставь simple-1 и забей.
>>759055
Могу еще порекомендовать mirostat выставить на 1 (или 2, если запустишь убабугу и экслламу), и выставить 8/0,2 или 2/0,9 типа того, может стать заметно лучше.
На симпле-1, да.
Но то что шизит — странно само по себе, конечно.

>>759073
Гугл не сильно лучше натива, прям вообще преимуществ нет.

>>759074
Ну так, на всякий случай, убабуга работает на питоновской версии сиплюсплюсной лламы Жоры, то есть там прям совсем колхоз-колхоз.

>>759081
А че по скорости?

>>759089
Вот тут я не буду осуждать, но человек заявляет, что нормально даже чатгопота в русский не умеет. Ну да, тут не поспоришь, ллама-3 8б явно не лучше чатгопоты.
Восприятие зависит от требований.

>>759090
Сузума будет получше, но соглашусь, что тюны лламы-то англоязычные, поэтому они хуже оригинала.

Кстати, есть еще Вихрь, но там инстракт, а не рп. Так что такое.

>>759098
О_о

>>759105
Алкашка обоссалась, ясна, ебать Дюбуа — осуждаю.

>>759116
> ПЛОХО МОЖЕТ В РУССКИЙ ЯЗЫК.
Лучше любого конкурента соответствующего размера.
Даже Мистраль хуже, Фи хуже, а других адекватных (хотя Фи не сильно конкурент из-за сои) конкурентов просто нет.

В остальном да.

>>759125
Командира убери.
Квен, мику убери.

Получается, единственный конкурент (но про гпу-ускорение можно забыть) — это Микстраль/Кранчи-Онион.

>>759131
Ну база же.

>>759137
Пздц вы кривые нахуй.

>>759147
1. Он тупой.
2. Он не ко всем залезет.
Так-то я топил за коммандера еще на выходе, но файнтьюнов пока нет, и он большеват, ну и контекст, в общем, это модель другой категории.

>>759197
Не сильно выебет. Получше гугла, чище коммандера, но по адекватности перевода и художественности уже такое себе. Не панацея.

>>759221
Только будь готов, что коммандер ниже 6 кванта — непроходимо туп. Морально подготовься и тестируй.

>>759222
Вот это у тебя примеры в треде про модели на русском языке…

>>759229
> а мозгов у модели не наблюдается в принципе
Потому что он не для рп, и не в таком кванте, совершенно верно. Sad but true.

>>759236
Я этим не страдал, прости, не подскажу.
Где-то я видел мельком.
А силлитаверну так нельзя вывести? Просто мысль.

>>759241
Кек.

>>759254
Ну, в последних версиях за год, да. =)

>>759256
> ВРЕМЯ КУМИИТЬ!
Ты на чуб зайти был не в состоянии, выбрать себе Мегумин?..

>>759266
От настроек и солнечных бурь. =D

>>759283
GPT-3.5 Turbo.

> Мистраль и подавно не смог
Треш.

———

Ща попробую потыкать через убабуга => силлитаверна сузуму, посмотреть настройки, версию, разобраться, че не так у людей.
Неужели обнова все так поломала.
Аноним 27/05/24 Пнд 10:19:31 #196 №759539 
>>759526
>Пиздец. Какой промпт формат и системный промпт?

Обычный ламовский вшитый в таверну.

>Чтобы пореже выкидывала сою, надо ее попросить генерить любой контент. А ещё надо хорошенько попросить нормальный кум делать, а не эту хуйню.

Она очень плохо может в кум даже на правильной картонке и с правильным запросом, это не её тема.

>Все, что делаю, это сразу же повторно генерю при малейшей попытке залупиться.

А я просто не использую эту говномодель.
Аноним 27/05/24 Пнд 10:22:04 #197 №759543 
>>759528
>Вот это у тебя примеры в треде про модели на русском языке…

Лолчто? Это тред про все локальные модели. И тут исторически люди знающие англюсик минимум на upper-intermediate сидят.
Аноним 27/05/24 Пнд 10:26:33 #198 №759547 
>>759528
> Гугл не сильно лучше натива, прям вообще преимуществ нет.
Да, он тоже говно.
> Лучше любого конкурента соответствующего размера.
> Даже Мистраль хуже, Фи хуже, а других адекватных (хотя Фи не сильно конкурент из-за сои) конкурентов просто нет.
Что насчёт Yi?
> Не сильно выебет. Получше гугла, чище коммандера, но по адекватности перевода и художественности уже такое себе. Не панацея.
Не сильно, не панацея, но я не видел более хорошей альтернативы. Гугл скатился в жопу и его переводы стали гораздо хуже. Яндекс же стал переводить так, как гугл когда-то.
Аноним 27/05/24 Пнд 10:33:31 #199 №759552 
>>759522
Чаасть у меня так и сделана. Просто есть кусок, где описаны слишком общие вещи, чтобы пихать их под кейворды.
Аноним 27/05/24 Пнд 10:33:55 #200 №759553 
2024-05-2710-23-10.png
2024-05-2710-24-31.png
2024-05-2710-24-50.png
Карточка старая.
Чисто на русском.
От первого лица.

Что мне не нравится:
1. Начало и конец от лица ассистента (так, стоп, это и есть карточка ассистента, но я хочу, чтобы она не сыпала такими дефолтными фразами).
2. Путает размеры версий GPT (впрочем, аноны тоже).
3. Язык немного косноязычный.
4. Кавычки и дефис вместо тире — ле фу!

Запуск:
https://huggingface.co/BahamutRU/suzume-llama-3-8B-multilingual-8.0bpw-h8-exl2
ExLlama2_HF
Таверна на пиках.

Я не настраивал долго, поэтому результат можно улучшить, полагаю.

Мой тейк был в том, что у нее хороший русский язык.

Я не ЕРПшил с ней. Не писал джейлы (ладно, в карточке есть джейл на подавление диверсити, но тут не о нем).
Не гарантирую ничего другого, однако русский язык — вполне достойный для ее размера, ИМХО.
Аноним 27/05/24 Пнд 10:35:24 #201 №759554 
>>759543
Контекст у тебя 2048 выставлен?
Я не про общий тред, а про то, о чем мы перетираем со вчерашнего вечера. Про русский язык в локальных моделях.
Если ты думал, что речь сегодня идет о моделях вообще — перечитай, мы обсуждаем именно русскоязычные. Про англоязычные диалог бы шел в другую сторону немного (более позитивную, но сое-хейтерскую=).

Кон-текст!
Учитывай, плиз. =)
Аноним 27/05/24 Пнд 10:36:37 #202 №759555 
>>759547
Ой, новая Yi я даж хз, я че-то один раз запустил и забил.
Не знаю, честно.

По Яндексу соглашусь в общем, да.
Аноним 27/05/24 Пнд 10:41:08 #203 №759556 
>>759554
>Контекст у тебя 2048 выставлен?

За кого ты меня принимаешь? У ламы3 выставлен 8к, у солара 16к.

>Я не про общий тред, а про то, о чем мы перетираем со вчерашнего вечера. Про русский язык в локальных моделях.

Ты влез в чужой диалог, где мы обсуждали именно англоязычные. Глаза разуй, потом других жизни учи.
Аноним 27/05/24 Пнд 10:59:31 #204 №759570 
https://huggingface.co/cognitivecomputations/dolphin-2.9.1-mixtral-1x22b
Кто-нить тыкал это? Модель не разреженная и не плотная, мое и немое, отгадай кто это - дельфин-ебанин.
Из того что продолжаются эксперименты с предыдущими моделями видно что лама-3 не очень зашла. А хули - 70 не для масс, 8 - слишком мала, не хватает серединки. Кроме того лама-3 настолько натрейненена, что файнтюны не заходят, видимо любой из них уже был в датасете на 15Т
Аноним 27/05/24 Пнд 11:08:06 #205 №759573 
>>759556
Я про тебя, а не про ллмки. =)
Попроси ламу суммаризировать тред, чтобы быть в курсе, на что ты отвечаешь.

>>759570
Дельфин всю жизнь был тупым, зачем его пробовать в этот раз?
Аноним 27/05/24 Пнд 11:09:37 #206 №759574 
>>759556
Все, увидел, что вы про мистраль и про английские говорили.
Мои извинения.
Но Мистраль в принципе без сои и цензуры модель, но ее туда аноны сами напихивают, скилл ишью, как всегда.
Аноним 27/05/24 Пнд 11:12:38 #207 №759575 
>>759543
>И тут исторически люди знающие англюсик минимум на upper-intermediate сидят.
Сижу с самого начала на А2. Хотя конечно может уже и подтянул, лол.
>>759552
>Просто есть кусок, где описаны слишком общие вещи
Тогда почему оно не в карточке?
>>759570
>видимо любой из них уже был в датасете на 15Т
Даже если так, то полировка сверху всё равно выставит нужный биас модели. Но у тренировщиков просто руки из жопы. Ждём наработки опыта.
Аноним 27/05/24 Пнд 11:17:53 #208 №759577 
>>759573
> Я про тебя, а не про ллмки.
> Попроси ламу суммаризировать тред, чтобы быть в курсе, на что ты отвечаешь.
Да у тебя у самого контекст через жопу вывернут. На тот момент мы с аноном обсуждали мелкие модельки именно в плане английского языка. И пример он привёл в тему. Вот хуле ты до него доебался?
Аноним 27/05/24 Пнд 11:23:52 #209 №759579 
>>759577
В контексте общего разговора выглядело охуенно, не думаешь? Все обсуждают русский и челик скидывает инглиш.
Там всего один раз слово промелькнуло, да еще в контексте скилл ишью.
Я ебу этих ебанариев, что у них там в мистрали не работает. Это ж пиздец.
Аноним 27/05/24 Пнд 11:24:42 #210 №759580 
>>759573

Зачем ты пишешь людям гадости со смайликами? Ебать ты мерзкий.
Аноним 27/05/24 Пнд 11:34:19 #211 №759585 
>>759579
> В контексте общего разговора выглядело охуенно, не думаешь?
Я думаю, что ты в глаза долбишься. Там прямым текстом была просьба показать аутпут. Вот что анон должен был сделать, по-твоему? Послать меня нахуй или начать срать смайликами как ты? Абсолютно ебанутая логика.
Аноним 27/05/24 Пнд 11:42:03 #212 №759589 
>>759575
Потому что оно не относится напрямую к персонажу? Да и потом, так он ещё чаще будет это упоминать, нет?
Аноним 27/05/24 Пнд 11:45:29 #213 №759590 
>>759589
>Потому что оно не относится напрямую к персонажу?
Ну так отдели какой-нибудь пометкой.
>Да и потом, так он ещё чаще будет это упоминать, нет?
Зависит от того, где у тебя инжектится лорбук. Обычно он идёт ближе к ответу, поэтому учитывается сильнее.
Аноним 27/05/24 Пнд 12:26:01 #214 №759631 
>>759580
=D Сук.

>>759585
Так это ты в глаза долбишься. Перечитай, что я написал. =)

>>759590
Ближе к какому ответу?
Сильнее учитывается начало промпта или конец?
Аноним 27/05/24 Пнд 12:40:45 #215 №759644 
>>759631
> Так это ты в глаза долбишься. Перечитай, что я написал. =)
Хуйню полную ты написал, в надежде, что не придётся признавать свой жиденький обсер. Сразу начались манявры, что там "одно слово", "скилл ишью", не считается. По факту, был конкретный запрос и конкретный ответ. И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно было бы упрекать в этом анона, который посты читает нормально.
Аноним 27/05/24 Пнд 13:11:48 #216 №759678 
>>759644
> Хуйню полную ты написал, в надежде, что не придётся признавать свой жиденький обсер.
Ты не только в глаза долбишься, но еще и сам хуйню пишешь. =)
>>759574
> Все, увидел, что вы про мистраль и про английские говорили.
> Мои извинения.

Тут и 2048 контекста нет, я смотрю.

> И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно было бы упрекать в этом анона, который посты читает нормально.
И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно упрекать в этом анона, который посты хотя бы читает.

———

Блин, загрузил 70b, и она один раз слово выдумала с английским, другой раз с китайским.
Гребанный ггуф поломанный в гребанной ллама_сипипи_пайтон.
Почему 8б отвечает чище 70б.
Где мои две 3090.
Аноним 27/05/24 Пнд 13:19:38 #217 №759686 
>>759333
>Ты уверен, что в датасете есть инфа о так называемой акве и ее роли в ранобе или аниме?
Помнится крутил эту карточку Аквы ещё на Пигмалионе 6В, так он на низкой температуре даже названия глав ранобэ выдавал.
Как в новых моделях ХЗ, но по идее всё должно быть, Коносуба это база!
Аноним 27/05/24 Пнд 13:22:32 #218 №759692 
>>759686
Пигмаллион — это не «старая модель ллама», это отдельная модель, которая обучалась на ролеплее для тебя.
А ллама не обязана знать о Коносубе, она не для этого делалась.
Так что… Ну сорян-сорян. С чего бы ей знать такие вещи вообще.
Аноним 27/05/24 Пнд 13:47:34 #219 №759720 
>>759434
RAG.
Аноним 27/05/24 Пнд 14:15:58 #220 №759751 
1.png
Спросил нейронку про коносубу. Ответ убил.
Аноним 27/05/24 Пнд 14:32:40 #221 №759795 
2024-05-2714-01-04.png
image.png
Miqu — лучший результат на русском, и даже мнение свое высказала.
Starling-LM-7B-beta — говорит на русском неплохо, но проскакивают иероглифы, и вообще. Твердая 4 для своего размера.
Starling-LM-10.7B-beta — шизует, мне лень это бороть. Вроде старается по теме, и очень креативна, но нет. Ну и русский так себе.
Phi-3-medium-6.0bpw — одно слово перепутала, что-то там придумала, но когда я попросил быть немного неформальной, я не имел в виду смайлики в конце! Ну и 14B модель так себе 7-8, конечно. Нельзя сравнивать. Русский на 4+, думаю.
Пикрил.
Mistral-7b-v0.3 — вот тут уже сложно… С одной стороны, у нее очень хороший стиль. С другой, она так же придумывает слова и ошибается местами. Мистрали не хватает русского в датасете (но ее превосходит сузума, которая изначально multilingual). Так что 4+.
Yi-1.5-9B-Chat — я вспомнил о ней! Нет, она не умеет в русский, простите.
пикрил2

Это касается именно языка, а не стиля или соевости, окда.

В общем, ИМХО, ничего лучше сузуме в размере 8b нет.
Аноним 27/05/24 Пнд 14:33:59 #222 №759796 
image.png
>>759751
Последний сезон деградансткий.
Уже не просто веселое аниме с ебанцой, а ебанина мелкого пошиба.
Аноним 27/05/24 Пнд 14:37:19 #223 №759805 
>>759795
Ну что вы их русским мучаете постоянно, вам не надоело ещё?
Аноним 27/05/24 Пнд 14:39:43 #224 №759809 
>>759805
2 чая
Аноним 27/05/24 Пнд 14:39:48 #225 №759810 
IMG20240527143602078.jpg
IMG20240527143617077.jpg
Прошу прощения за долгий ответ, был очень уставшим. Постарался ответить всем, никого не забыть, если кого забыл, пишите.

>>757851 →
Да, это увидел. Хорошо тогда.
За вброс не переживай, анонче, всё хорошо.

>>757853 →
>В тред ее скидывай если будет.
Прикладываю. Это ещё с субботы ошибка была, когда я через oobagoba пытался запустить .gguf-модель. Сейчас скачиваю .exl2, буду её ковырять, но всё равно, хочется понять, что я делал не так.
>Это офк если карточки в одной системе а не нескольких
В одной, с этим всё хорошо.

>>757857 →
Понял, анонче, спасибо большое! Качаю exl2-модель, которую ты посоветовал. Буду пытаться разобраться.
>cohere и их command r+, хотя он под раг, но в твоем случае похую.
О, спасибо. Я как раз хотел в будущем RAGи использовать, потому что хочу сделать долгосрочную память, и через них выглядит удобно.

>>757858 →>>757863 →
Спасибо, анончики, попробую ещё и микстраль, отпишусь о впечатлениях, как всё подниму, непременно.

>>757848 →
>Все для мультигпу, ты просто воробушек. Плюсую вопрос, как они к тебе попали — ботаника в подворотне ограбил?
Понял, спасибо. На работе есть доступ к кластеру, спросил, можно ли поиграться с нейронками в свободное время - дали добро.

8x4090-кун
Аноним 27/05/24 Пнд 14:42:19 #226 №759813 
>>759805
Да просто тестики.
Нам лень на етом вашем инглише.
Ллама и мистраль уже норм, на самом деле.
Жаль, что там сою насыпают, а РП-файнтьюнов на русском нет.
Аноним 27/05/24 Пнд 14:44:36 #227 №759818 
>>759810
Классная работа, что сказать. )
У тебя фронт в веб-бразуере отсутсвует? Поставить убабугу, зайти по 7860 в Gradio возможности нет?
Аноним 27/05/24 Пнд 14:55:35 #228 №759831 
>>759720
Попробовал, но что-то не понял прикола. Оно просто подтягивает текст как лорбук, только из файла. Видимо, что-то неправильно настроил.
Аноним 27/05/24 Пнд 15:10:43 #229 №759840 
>>759239
>Какая у тебя модель, кстати?
Командор плюсовый, остальной шлак после него вообще не признаю, ламма 3 70b/Мику, просто нахуй проходят (для rp/erp of course, в логических задачках они тащат).
Кстати ломал кто-нибудь сою в ебучем Qwen? Это просто образцовый пример сои! Такой пиздец я только у ГОПОТы видел. Какой там префил, систем промт нужны, чтобы заставить ее творить дичь(как командор)
>>759177
>Скачал командира 35b, ну такое себе.
Какой квант? У меня только на 8ом он нормально заговорил(на 4ом рили не очень), и он реально затыкает все дыры, вплоть до 70B!
Аноним 27/05/24 Пнд 15:12:55 #230 №759841 
>>759631
>Сильнее учитывается начало промпта или конец?
ХЗ, зависит от сетки. Обычно конец.
>>759692
>А ллама не обязана знать о Коносубе, она не для этого делалась.
Но всё таки знает. По крайней мере в пределах вики.
>>759831
Раг подтягивает не по ключевым словам, а по сродству векторов. На этом отличия от лорбука заканчиваются, лол.
>>759840
>Это просто образцовый пример сои!
Фи ещё более соевая.
Аноним 27/05/24 Пнд 15:14:07 #231 №759844 
>>759840
>У меня только на 8ом он нормально заговорил
Да вы заебали уже. Один тред убеждают, что Q2 это заебись и вообще пиздатая хуйня, почти как полные веса. Потом начинается новый тред и всё, что до Q8 - говно ёбаное.
Аноним 27/05/24 Пнд 15:19:27 #232 №759848 
>>759844
Только второй квант катают на 70-ке, а четвёртый квант ломает 34. Чуешь разницу?
Аноним 27/05/24 Пнд 15:22:02 #233 №759850 
>>759844
Ну ты больше шизов с q1 слушай.

А вообще, у коммандора своя специфика, он реально до Q6 точно — тупой. Вот я прям крайне удивился этому, когда тестил, но человек правду говорит.
Ну и те же 7B-8B ниже q8 тоже бессмысленно использовать.
Аноним 27/05/24 Пнд 15:29:19 #234 №759853 
>>759850
> он реально до Q6 точно — тупой
Лол. Он всегда по умолчанию тупой. Иногда даже хуже 8В по логике. Разве что в РП неплох.
Аноним 27/05/24 Пнд 15:32:10 #235 №759855 
>>759844
Так это разные додики утверждают
Я тебе вообще могу сказать что любой квант хуйня, нужно оригинальные веса катать
И не совру, хули
Квант это не оригинальная модель, это китайская копия разной степени хуевости
Где то это кому то субьективно кажется работоспособным на 2 кванте что, по моему хуета
Кто то заявляет о более реалистичной работе на 4 кванте
Проверено, и мной самим, что те же мелкие модели страдают от квантов больше, поэтому их желательно или оригиналом катать или хотя бы 8-6 бит на вес
При квантизации модели теряют способность воспринимать контекст и работать с ним, ну и "мозги"
Качество генерации текста вообще, падает последней
Аноним 27/05/24 Пнд 15:35:20 #236 №759859 
>>759841
>Фи ещё более соевая.
Нихуя, хуже ебанного Квена я не встречал, Фи смогла даже в небольшой отыгрыш(сиськи/письки не описывала, но пыталась).
Аноним 27/05/24 Пнд 15:59:08 #237 №759888 
>>759855
>При квантизации модели теряют способность воспринимать контекст и работать с ним
Катал Лламу 8В на 8 кванте и на трансформерах, разницы в ответах не заметил.
Аноним 27/05/24 Пнд 16:15:10 #238 №759916 
>>759850
>он реально до Q6 точно — тупой
Командир+ в 4 кванте норм. Больше запустить всё равно не могу.
Аноним 27/05/24 Пнд 16:29:34 #239 №759935 
>>759850
>А вообще, у коммандора своя специфика, он реально до Q6 точно — тупой.

Хуйню несешь, в четвертом кванте он ебет все что движется, даже 70В мику и лламу, не уходит в залупы, не шизит, стоически терпит без падения качества урезание контекста контекст шифтом и замену на суммарайз. На русском шпарит так что все остальные модели сосут, в прямом смысле, потому что командир еще и не заражен соей, как эти ваши сузуны. И самое главное - на моей 4090 с 24 гб видеопамяти с 8к контекстом он ебашит от 4.5 до 6 токенов в секунду. Это идеальная модель.
Аноним 27/05/24 Пнд 16:53:07 #240 №759967 
>>759850
Ну я ебал полные века качать. А 34b в Q4_K_S хуже лламы 8b. Такие дела.

>>759855
Соглашусь. Ещё есть нюанс, что модели типа третьей лламы будут страдать от квантования в разы больше, чем большинство остальных.
Аноним 27/05/24 Пнд 17:07:52 #241 №759986 
>>759967
>Ну я ебал полные века качать. А 34b в Q4_K_S хуже лламы 8b. Такие дела.

Какую только шизохуйню в треде не встретишь, уже много раз запруфано что лама3 входит в луп на контексте больше 2-3к и никакого лекарства не существует, тем не менее эти шизы продолжают форсить эту срань и гнать на нормальные модели.
Разница в качестве между Q4_K_M и Q4_K_S незаметна глазу на больших моделях, что ты несешь-то вообще.
Аноним 27/05/24 Пнд 17:08:47 #242 №759987 
бля какие же скудные датасеты на кум, ну родина вам третью ламу дала, нет блять хотим говнотексты ей скормить чтобы она порождала "Еби меня василий. и Василий ибал иё, ана станала как шлюха". Тьфу блять!

А как надо?

А надо блять чтобы ИИ сам взял прекрасный слог и излагал графичность сцен и хорнивость героев. И нет, промптом то не фиксится, и нет, не существует такого датасета поэтому задача тут не в датасете, а в поколении ИИ которое будет по аналогии делать.

К примеру. Возьмем stable diffusion. Допустим какой нибудь Малевич не рисовал голых футанари. Но есть датасет с футанари. И ии способно обработать промпт "нариусуй футанари в стиле малевича". А текстовые не могут.
Аноним 27/05/24 Пнд 17:17:40 #243 №759998 
>>759987
>К примеру. Возьмем stable diffusion. Допустим какой нибудь Малевич не рисовал голых футанари. Но есть датасет с футанари. И ии способно обработать промпт "нариусуй футанари в стиле малевича". А текстовые не могут.

Могут. Напиши в картонке в чьем стиле писать, 70В+ модели поймут.
Аноним 27/05/24 Пнд 17:20:33 #244 №760002 
>>759935
> на моей 4090 с 24 гб видеопамяти с 8к контекстом он ебашит от 4.5 до 6 токенов в секунду.
Дай, ссылку, пожалуйста.
Аноним 27/05/24 Пнд 17:22:10 #245 №760004 
>>760002

На что?
Аноним 27/05/24 Пнд 17:30:25 #246 №760011 
>>759987
>а в поколении ИИ которое будет по аналогии делать.
Да, текущие модели говно. Сейчас пилю свою модель на 3080Ti, вот запилю, тогда и заживём!
Аноним 27/05/24 Пнд 17:45:55 #247 №760042 
>>759986
>лама3 входит в луп
Скилл ишью. Просто старайся лучше.
>Q4_K_M и Q4_K_S
Здесь соглашусь, и то, и другое - лоботомит ебаный.
Аноним 27/05/24 Пнд 18:04:45 #248 №760075 
>>760042
>Скилл ишью. Просто старайся лучше.

Блядь, как же толсто, лупит модель, а виноват я что "не старался". Не старался что - рероллить по 10 раз каждый её пост? Зачем если командира рероллить не надо вообще? Скачай уже небитый квант командира и сам зацени(да, кванты командира тоже были сломаны и их пофиксили уже после ламы3)

>и то, и другое - лоботомит ебаный.

Вытекаешь из треда уже, хватит новичков путать своим жиром.
Аноним 27/05/24 Пнд 18:10:04 #249 №760081 
>>760075
>кванты командира тоже были сломаны
Ну кстати командир+ даже сломанный был шикарен, проебал он там с процент мозгов (сейчас вообще огонь). А вот лламу 3 прям корёжит от замены токена \n\n на два токена по \n.
Аноним 27/05/24 Пнд 18:17:42 #250 №760093 
>>759411
>Земля стекловатой.
Ну это всё ещё лучше, чем на проце или на моей рыксе 570 потому что амуде пидарасы и прекратили поддержку Polaris в ROCM, так что хуй вам, а не ИИ..
Аноним 27/05/24 Пнд 18:18:06 #251 №760094 
image.png
>>759888

Там вплоть до самой ужатой четырехбитки iQ4_NL и iQ4_XS падение качества в пределах арифметической погрешности. У больших моделей даже самыми большими 3 бит можно пользоваться если совсем припрет.
Аноним 27/05/24 Пнд 18:28:58 #252 №760103 
>>759844
смотри, эти разговоры ведут владельцы 2-3-4 тесл, для чела у которого нету столько врам актуален вопрос на каком минимальном кванте приемлемо потянет скажем командир. Или вопрос что лучше лама-3-8 в 8 кванте или допустим командир в 3 кванте. А вот эти вот изречения типо: командир идиот ниже 6 или 4 кванта это ни о чем, так как идиот относительно чего? Относительно себя же в 8 кванте или относительно ламы-3-8 в 8 кванте? Как видишь две большие разницы. Другой вопрос почему владельцы 2-3 4090 гораздо меньше разговаривают о том, что все модели ниже 70б гавно, чем владельцы тесл? Потому что владельцы тесл сами себе хотят доказать, что не зря купили старые картонки, а 4090-никам ни в чем убеждать себя не надо и так все заебись.
Аноним 27/05/24 Пнд 18:30:27 #253 №760105 
>>760081
>корёжит от замены токена \n\n на два токена по \n.

Её от всего корежит - от настроек, от порядка сэмплеров, от пробелов в инстракшене, от стоп токенов. Overtrained говнина потому что. А дурачки её еще на открытых датасетах обучают, которые 100% что уже есть в модели(они буквально все что можно и нельзя туда засунули), разумеется это вызывает расфокусировку модели со всех остальных токенов.
Аноним 27/05/24 Пнд 18:30:45 #254 №760106 
>>760094
>тесты зирошотов, на которые всем миром модели надрачивают
Ещё бы модели по этим тестам страдали.
Аноним 27/05/24 Пнд 18:36:53 #255 №760110 
>>760106
>на которые всем миром модели надрачивают

Кванты натаскивают на тесты? Жора лично инъекцию правильных ответов в каждый квант вносит чтобы тот не обосрался?

>Перплексити не пруф
>MMLU не пруф

И что именно пруф в твоем манямирке? Может ты сам пруф своим словам и предоставишь тогда?
Аноним 27/05/24 Пнд 18:42:37 #256 №760113 
>>760094
Это просто тест на знания, оно даже мозги не оценивает, ни работу с информацией, ни удержание контекста или вообще многооборотистый чат
Знания так же как и генерация простых ответов страдают последними, это ведь одно и то же по сути.
Зерошот ответы на вопросики на которые сетку специально надрачивали
Аноним 27/05/24 Пнд 18:48:58 #257 №760118 
>>760110
>Кванты натаскивают на тесты?
При чем тут кванты и их обучение?
Речь о том что сетка при квантизации теряет в первую очередь не знания или способность продолжать текст
В первую очередь разница в том заметит ли она что то в длинном чате, сможет ли связать 2 мысли в одну и тд
Тоесть более абстрактные вещи, "мозги"

Вот только все тесты у нас либо зирошот вопросики, которые это не оценивают, либо вообще перплексити, для самых отбитых.

Потому что падение перплексити это вообще нижняя планка, оно просто оценивает на сколько точно зирошот вопросики отвечаются на разных квантах от оригинала. Тоесть оценивается отклонение в самой примитивной работе сетки - генерации текста, которая страдает как ясно самой последней.
Аноним 27/05/24 Пнд 18:49:24 #258 №760122 
>>760113
> мозги
Каждый раз как в первый вскрикиваю.
Аноним 27/05/24 Пнд 18:50:09 #259 №760127 
>>760113
>сетку специально надрачивали

Так сетку, а не квант. Квант какое отношение к этому имеет? То что метку надрачивали на знания делает сомнительным сравнение с другими сетками, а не с квантами одной и той же сети.
Аноним 27/05/24 Пнд 18:50:30 #260 №760129 
>>760122
Ну а хули, придумай как это покрасивее обозвать
Аноним 27/05/24 Пнд 18:51:09 #261 №760130 
>>760103
>Относительно себя же в 8 кванте или относительно ламы-3-8 в 8 кванте?
Ну смотри, я хуй знает, что там с командиром в 8 кванте, но в четвёртом относительно неквантованной 8b лламы он хуйня полная. Единственный плюс, что на одинаковых настройках у командира посты длиннее, но из-за длинны поста он теряет суть беседы буквально три раза за сообщение. Странно вообще, что такую хуйню кто-то серьёзно нахваливает, это троллинг какой-то.
>4090-никам
А у них руки заняты. А теславоды запускают хералион b с подкачкой на кофемолку и дрочат форум, пока там генерируется бредотина со скоростью 0.1т\с
Аноним 27/05/24 Пнд 18:54:15 #262 №760136 
>>760130
>я хуй знает, что там с командиром в 8 кванте, но в четвёртом относительно неквантованной 8b лламы он хуйня полная.

Ты 100% запускал сломанный ггуф с выкрученными в говнину настройками и инструкцией от чего угодно, но не командира и даже не альпаки/мистраля на которых он тоже хорошо работает.
Иначе я не понимаю как ты это получил.
Аноним 27/05/24 Пнд 18:55:05 #263 №760140 
>>760130
> но в четвёртом относительно неквантованной 8b лламы он хуйня полная.
Ну либо ллама неквантованная так сильно отличается от 8 кванта, либо ты пиздишь
Я тыкал только 4 квант командера 35, и с нормальным промпт форматом он заебись отвечает
Более связно, умно. Рассуждает гораздо лучше лламы
На знания не проверял просто ебал мозги задавал вопросики на карточке с тсинкингом. Гораздо лучше ей пользуется.
Лламе не хватает внимания, понимает меньше, не делает очевидных выводов
Аноним 27/05/24 Пнд 18:59:23 #264 №760153 
image.png
image.png
image.png
image.png
>>759528
>А че по скорости?
8B модель - пик 1 aya-23-8B-Q8_0
13B модель - пик 2 +/- 1.5 Т/c ruGPT-3.5-13B-erotic-kink-chat-Q5_K_M
35B модель - пик 3 +/- 0.4 Т/с c4ai-command-r-v01-Q4_K_S - и он полностью не влез. Потому загрузил всего 38 слоёв в гпу, может поэтому так медленно.
другая 35B модель - пик 4 yi-34b-chat.Q4_K_M - эта влезает полностью, поэтому решил её тоже протестировать.

Тестировал на koboldcpp + ST. Вроде как, на голой лламе.цпп без карточек, без фронтенда и прочей хуйни, должно быть быстрее. Но, думаю, никому здесь не интересно такое использование.
Да, данные грубые и их мало. И всё такое, но думаю, что в принципе они соответствуют видево карточке. Думаю, что прмерно такие результаты будут и на других моделях со схожими размерами.
Аноним 27/05/24 Пнд 19:03:17 #265 №760163 
котик блюет.mp4
>>760153
>ruGPT-3.5

Лучше бы ты сайгу 13В тестировал, чесслово, ругопота в 2024 это уже даже не кринж, это просто провал, это все равно что пигму использовать.
Аноним 27/05/24 Пнд 19:09:02 #266 №760171 
>>760163
Ну, тестовые модельки. Надо же было на чём-то затестировать 13B, правильно? А другого 13B говна, пока что на харде нету.
Сейчас же тестирование было не на кач-во, а на скорость, так что, думаю, вывод не сильно важен. И тестирование было не модельки, а железа.
Но если, они сильно отличаются по скорости, то могу скачать и протестировать её тоже.
Аноним 27/05/24 Пнд 19:11:16 #267 №760174 
>>759795
https://huggingface.co/Lewdiculous/L3-8B-Stheno-v3.1-GGUF-IQ-Imatrix
https://huggingface.co/CohereForAI/aya-23-8B
Они говорят и шарят. Первая хороша в РП. Вторая невероятно глючит в РП но как ассистент хороша несколько раз взбесилась ни с того ни сего и убила меня.
Аноним 27/05/24 Пнд 19:12:15 #268 №760179 
>>760130
>в четвёртом относительно неквантованной 8b лламы он хуйня полная
Было бы отлично если бы лама 8б была такой заебатой. Но увы, по-моему рулит не жирнота кванта а кол-во параметров все-таки. Так вот в чем и дело - командир в 4 кванте у меня дает макс 2 тс - это блять не скорость, а гавно. Поскольку это вымораживает я вот думаю попробовать 3 квант или ну нахуй лучше чего-то поменьше, типа дарк форест, который неплох или мойстрал и прочие соляры или ламу 8б, ну чтобы было хотя бы приемлемо, пусть не охуенно как там на командире или еще чего побольше, потому что скорость мне очень важно, более чем качество. Один хер такого же качества как у клода или гопоты все равно не будет, когда надо чего-то по делу я пользуюсь ими, а так поиграться в приключения можно и с такой моделью но чтобы скорость была.
Аноним 27/05/24 Пнд 19:16:42 #269 №760186 
>>759678
> Ты не только в глаза долбишься, но еще и сам хуйню пишешь. =)
Твоя неспособность отвечать по существу доказывает, что неправ здесь ты.
> И раз уж ты сам нихуя не способен осваивать контекст и читаешь посты жопой, то с твоей стороны очень странно упрекать в этом анона, который посты хотя бы читает.
Так я того анона как раз и не упрекал. Я упрекаю тебя.
> Блин, загрузил 70b, и она один раз слово выдумала с английским, другой раз с китайским.
> Гребанный ггуф поломанный в гребанной ллама_сипипи_пайтон.
> Почему 8б отвечает чище 70б.
> Где мои две 3090.
Скилл ишью.
Аноним 27/05/24 Пнд 19:16:54 #270 №760187 
>>760179
>я вот думаю попробовать 3 квант

Попробуй iQ4_XS квант сначала.
Аноним 27/05/24 Пнд 19:18:41 #271 №760190 
>>759987
https://huggingface.co/TheDrummer/Moistral-11B-v3-GGUF?not-for-all-audiences=true
Держи братишка. Попробуй отпишись, но имей ввиду модель ебливая.
Аноним 27/05/24 Пнд 19:22:22 #272 №760193 
>>759528
>Ты на чуб зайти был не в состоянии, выбрать себе Мегумин?..
Ну это была шутка, чтобы разбавить обстановку, тащем-та. Я же там продолжил отвечать Анону. Как ты себе это представляешь? Я дрочу на мегумин и параллельно на сосаке переписываюсь?
Аноним 27/05/24 Пнд 19:24:32 #273 №760195 
>>760193

Он имел ввиду что ты мог бы сам её на чубе найти, персонаж популярный.
Аноним 27/05/24 Пнд 19:27:28 #274 №760200 
>>760195
Так я понял. Я же поясняю, что это было именно, чтобы обстановку разбавить. А то вы все какие-то тут серьёзные. Забавен только тот Анон, что скрины с Педо-Рассказчиком кидает. Вот у него скрины забавные.
Аноним 27/05/24 Пнд 19:31:26 #275 №760204 
>>760130
> А теславоды запускают хералион b с подкачкой на кофемолку и дрочат форум, пока там генерируется бредотина со скоростью 0.1т\с
Этот прав, кстати.
Аноним 27/05/24 Пнд 19:34:02 #276 №760207 
>>760179
>рулит не жирнота кванта а кол-во параметров
Да там совокупность на самом деле. Одно без другого не работает. У меня вот скорость Q4 командира >>759229 но гоняю всё равно не его.
>дарк форест
В целом, неплох, но пиздец как путается в ерп, там и снимание трусов по три раза подряд и многое другое. И не слишком хорошо слушается карточку. Гопота хуй знает, пробовал новую 4о и 3.5 турбу, халявные версии, само собой. Впечатления строго негативные. Может, они и лучше даркфореста в понимании ситуации, в рп не пробовал. Но в целом впечатления негативные крайне. Ах да, если у тебя рп без е, то даркфорест чувствует себя намного лучше.
Аноним 27/05/24 Пнд 19:34:16 #277 №760208 
>>760200
>Забавен только тот Анон, что скрины с Педо-Рассказчиком кидает. Вот у него скрины забавные.

Это я. Спасибо. Тут полтреда - мои скрины, не любят аноны скринами делиться, почему-то, зато любят попукивать как 105В отсасывает у 8В
Аноним 27/05/24 Пнд 19:37:02 #278 №760217 
>>760208
>не любят аноны скринами делиться, почему-то
Лично мне стыдно нормальным РП делиться... А хули смысла Анонам показывать какое-нибудь тестовое говно, типа: "Hello, how are you?"?
Аноним 27/05/24 Пнд 19:43:28 #279 №760232 
>>760217
>Лично мне стыдно нормальным РП делиться

Ты там всерьез отыгрываешь что-ли? Ну тогда да, чего таким делиться. Надо просто дичь творить и заставлять сетку охуевать с твоих запросов - и сам развлечешься и сетку проверишь и анонам показать можно
Аноним 27/05/24 Пнд 19:48:14 #280 №760240 
>>760208
>как 105В отсасывает у 8В
Это возможно в принципе датасет разный.
Аноним 27/05/24 Пнд 19:48:32 #281 №760241 
16223303997580.jpg
Есть какие бомбезные нейросети среди новых до ~35B?
Аноним 27/05/24 Пнд 19:49:13 #282 №760244 
>>760232
Ну я либо тестирую, либо серьёзно отыгырваю. Хотя помню, пытался по приколу поиздеваться над нейронкой, а именно совершить износ над девочкой-роботом, при этом всём воспевая "И вновь продолжается бой!". Результатом стало то, что модель начала жрать постоянно все 250 Ватт и генерировать 256 EOS токенов.
Но я тебя понял. В следующий раз так и сделаю.

>>760241
aya-23
Аноним 27/05/24 Пнд 19:56:57 #283 №760252 
изображение.png
>>760110
>Кванты натаскивают на тесты?
Ну в общем-то калибровка на викитекст уже не новость.
А вообще, я про то, что на тесты модели гоняют дольше, чем на рандомные данные. Поэтому при квантовании данные тестов могут страдать меньше, чем любые другие.
>И что именно пруф в твоем манямирке?
Квадратные уравнения, лол. А так ХЗ, я ещё не настолько хорош в МЛ, чтобы выдумать правильный тест. Пока я вслепую ебашу какой-то код с GPT4, вроде работает, но нафига вот тут каждый шаг вызывать zero_grad(), я вот ХЗ. Через пару лет освою и скажу точнее про тесты.
>>760118
>Потому что падение перплексити это вообще нижняя планка, оно просто оценивает на сколько точно зирошот вопросики отвечаются
Перплекси это даже не вопросы, это дополнение текста википедии. Ещё проще по уровню на самом деле.
>>760130
>Странно вообще, что такую хуйню кто-то серьёзно нахваливает, это троллинг какой-то.
Я вот только плюсового надрачиваю, без плюса максимум 1,5 раза запустил.
>>760140
>Лламе не хватает внимания
Ну так 8к контекста против 128, хули тут хотеть (офк у командира наверняка растягивание + небольшой тюн, но всё же).
>>760153
>Вроде как, на голой лламе.цпп без карточек, без фронтенда и прочей хуйни, должно быть быстрее.
С чего бы?
>>760187
Тормоз тормоза же.
>>760232
>Ты там всерьез отыгрываешь что-ли?
Я всегда себя отыгрываю, так что лично я ни одного скрина РП не принесу. А от тестов моих уже всех воротит (впрочем я не перестану).
Аноним 27/05/24 Пнд 19:57:20 #284 №760254 
>>760244
>aya-23

Зачем он еще одну 35В обучил? В чем разница с командиром?
Аноним 27/05/24 Пнд 20:03:10 #285 №760272 
>>760252
>Тормоз тормоза же.

В моем случае два дополнительных слоя на видеокарте дают на IQ4_XS серьезный буст по сравнению с Q4_K_S
Аноним 27/05/24 Пнд 20:06:04 #286 №760274 
>>760252
>С чего бы?
Предположу, что это из-за того, что модель меньше информации на вход принимает. Типа нету особо контекста, описания карточки и т.п. Хотя, может я не прав. Но, когда я гонял голую лламу, то даже на проце 7B модели имели в районе 6 Т/c. После связкт голой лламы.цпп с фронтендом, скорость была настолько низкой, что даже спустя 30 минут нихуя не вышло.

>>760254
Другой датасет:
https://huggingface.co/datasets/CohereForAI/aya_collection

Написано, что официально может понимать русский язык:
Я сильно большой разницы между 35B версией командера и aya не заметил. Хотя вот 8B версия очень хорошо, как по мне понимает русский. Но я могу быть не прав из-за малого опыта.
Аноним 27/05/24 Пнд 20:09:26 #287 №760283 
>>760272
Ну разве что это последние 2 слоя.
>>760274
>Типа нету особо контекста, описания карточки и т.п.
Тогда смысл этого? Модели без контекста никому не нужны, тут бы наоборот, как бы 16-32к токенов впихать (больше уже жирнота, но вот 32к на локальном ой как хочется).
>скорость была настолько низкой, что даже спустя 30 минут нихуя не вышло
В оперативку выгрузилось небось, снизь число слоёв на видяхе.
Аноним 27/05/24 Пнд 20:09:54 #288 №760285 
>>760004
На командер конечно.
Аноним 27/05/24 Пнд 20:11:19 #289 №760289 
>>760283
>Тогда смысл этого? Модели без контекста никому не нужны, тут бы наоборот, как бы 16-32к токенов впихать (больше уже жирнота, но вот 32к на локальном ой как хочется).
Так я и написал, что смысла предоставлять информацию о скорости на голой лламе - нет. Потому и не стал добавлять, просто упомянул.

>В оперативку выгрузилось небось, снизь число слоёв на видяхе.
Нет, ты не понял. Я тогда ВООБЩЕ не грузил видюху. Чисто на ЦП. Экспериментировал, так сказать...
Аноним 27/05/24 Пнд 20:15:05 #290 №760296 
>>760285

https://huggingface.co/duyntnet/c4ai-command-r-v01-imatrix-GGUF/tree/main
Аноним 27/05/24 Пнд 20:15:26 #291 №760297 
17095336433100.jpg
>>759818
Работа просто замечательная, да.
Не совсем понял вопрос, но таки поднял убабугу, зашёл со своей машины. Долго не мог загрузить модель, в итоге оказалось, что по инструкции с гайда ставится торч2.30, а нужен торч2.20. Успел запустить 70В ламу, и заметил неприятный эффект: если использовать стандартное описание, он более-менее правильно отвечает на вопросы по математике, хотя бред полный несёт, а если дать кастомное описание с характером, то перестаёт вообще понимать о чём я его спрашиваю. Ну в целом это логично, что персонаж аниме не должен знать о гомотопических группах, но всё равно.
На днях буду тестить другие модели, принимаю реквесты, что спросить-как настроить.
Аноним 27/05/24 Пнд 20:16:17 #292 №760299 
>>760283
>Ну разве что это последние 2 слоя.

Не последние. И вообще - с хуя он должне быть медленнее, если он меньше?
Аноним 27/05/24 Пнд 20:22:42 #293 №760315 
Текстовые модели же могут в мультигпу, насколько я понимаю?
Имеет ли смысл взять мамку для майнинга и набить в неё что-нибудь дешёвое типа 3060? Эдакий А100 для бедных. Или фигня получится?
Аноним 27/05/24 Пнд 20:23:14 #294 №760317 
image.png
>>760297
Выбирай для сеток их промпт формат, без него они тупят и едва показывают на что способны
Это первые сетки и всякие миксы всеядные, им хоть без промпт формата запускай, а вот новая ллама 3 хочет свой формат
Вот эта хуета на пик
Аноним 27/05/24 Пнд 20:25:42 #295 №760326 
>>760315
>Имеет ли смысл взять мамку для майнинга и набить в неё что-нибудь дешёвое типа 3060?

Нет, 3060 с 12 гб стоит как P40 c 24 гб. Думай.
Аноним 27/05/24 Пнд 20:29:52 #296 №760337 
>>760326
3060 я просто в качестве примера привёл.
Аноним 27/05/24 Пнд 20:33:58 #297 №760346 
изображение.png
изображение.png
aya23 8b vs llama3 8b для придумывания заголовков и тегов к пастам.
Аноним 27/05/24 Пнд 20:35:30 #298 №760349 
>>760346
А чем тексты скармливаешь?
Аноним 27/05/24 Пнд 20:37:17 #299 №760353 
>>760349
Скриптом на питоне через апи кобольда.
Аноним 27/05/24 Пнд 20:41:55 #300 №760361 
>>760207
>>760179
Какой форест? Вы там ебанулись? Он сильно хуже лламы.
Аноним 27/05/24 Пнд 20:53:47 #301 №760398 
.png
Что значит это imat?
Аноним 27/05/24 Пнд 20:53:59 #302 №760399 
>>759987
> бля какие же скудные датасеты на кум, ну родина вам третью ламу дала, нет блять хотим говнотексты ей скормить чтобы она порождала "Еби меня василий. и Василий ибал иё, ана станала как шлюха". Тьфу блять!

> А как надо?

> А надо блять чтобы ИИ сам взял прекрасный слог и излагал графичность сцен и хорнивость героев. И нет, промптом то не фиксится
Вот за что мне ллама нравится, так это за то, что промптом это фиксится. Я думаю, что она все ещё проигрывает moistral, но вполне себе старается. Тебе вообще какой уровень результата нужен?
Аноним 27/05/24 Пнд 21:00:13 #303 №760412 
>>760217
А вот анон >>759398 вполне себе делится. Почему ты не можешь так же?
Аноним 27/05/24 Пнд 21:01:59 #304 №760419 
>>760412
Ну сты-ы-ыдно... Я жи омега трясун. У меня ноги начинают дрожать, когда мне на встречу даже дефки идут...
Аноним 27/05/24 Пнд 21:03:43 #305 №760424 
>>760419
> Ну сты-ы-ыдно... Я жи омега трясун. У меня ноги начинают дрожать, когда мне на встречу даже дефки идут...
Здесь в треде 95% абсолютно такие же. Иначе нахуя они по-твоему дрочат тупые нейронки, пока альфачи ебут настоящих тянок?
Аноним 27/05/24 Пнд 21:06:36 #306 №760431 
>>760424
Всё равно пиздецки стыдно. Я могу только не на серьёзном ебале что-то кидать. Потом так делать и буду... И всё равно стыдно... Я только-только переборол стыд написания нейронке всяких пошлостей... А ты ещё предлагаешь это на Двач заливать!
Аноним 27/05/24 Пнд 21:11:07 #307 №760435 
>>760431
Мне говорить легко, потому что мне стыдно за свое существование в принципе. И на фоне этого стыда, мне даже голым на улице пройтись не так позорно будет. Ты можешь отыгрывать не себя, а другого персонажа, например, девочку. И делать лесбийское. Попробуй, может так тебе даже больше понравится.
Аноним 27/05/24 Пнд 21:16:44 #308 №760447 
>>760435
>И на фоне этого стыда, мне даже голым на улице пройтись не так позорно будет.
Я бы хотел, чтобы тоже так мог бы про себя сказать... Но не могу... Всё равно стыдно...

>Ты можешь отыгрывать не себя, а другого персонажа, например, девочку. И делать лесбийское. Попробуй, может так тебе даже больше понравится.
Стыдит просто тот факт, что я на серьёзном ебале всякие пошлости пишу, а потом другим показываю. Так что даже если я буду отыгрывать не себя, но полностью серьёзно, то мне всё равно будет очень-очень стыдно! Думаю, что мне легче, но всё ещё стыдно, будет заливать какую-нибудь шизофазию, как тот сценарий с коммунистическим изнасилованием девочки-робота, где я отыгрывал психа-лениниста. Никакой политики, просто почему-то тогда мне пришла в голову именно эта идея.
Аноним 27/05/24 Пнд 21:35:30 #309 №760490 
>>760447
Лучше не заливай. Ничего противозаконного. Этот сайт под колпаком.
Аноним 27/05/24 Пнд 21:39:00 #310 №760502 
>>760490
Так это же диалог с нейросетью! Разве это противозаконно. Да и вон там Анон 10-летних ИИ лолей трахает и заливает сюдой...
Аноним 27/05/24 Пнд 21:42:17 #311 №760512 
>>760502
>Да и вон там Анон 10-летних ИИ лолей трахает и заливает сюдой...
Это опять товарищ лейтенант балуется, сделаю ему выговор.
мимо майор
Аноним 27/05/24 Пнд 21:44:20 #312 №760521 
>>760512
Понял вас, Товарищ Майор! Ничего противозаконного заливать не будем! Только зефирки, леденцы и милые одетые совершенно точно совершеннолетние девочки.
Аноним 27/05/24 Пнд 21:44:21 #313 №760522 
изображение.png
изображение.png
>>760299
>И вообще - с хуя он должне быть медленнее, если он меньше?
Реализация такая. Там другая математика, так что замедление прямо в репе герыча прописано. По моим прикидкам, замедление там раза в 2-4 при выигрыше в размере в 20%.
>>760398
Пикрил 2, в вики опять ещё подробнее расписывать.
Аноним 27/05/24 Пнд 21:46:22 #314 №760531 
>>760522
Ну так это на процессоре! На гпу всё норм жи, судя по скрину.
Аноним 27/05/24 Пнд 21:47:34 #315 №760536 
>>760531
Да. Но какой смысл использовать герыча GPU-only? Там уже можно экселя запускать.
Аноним 27/05/24 Пнд 21:48:33 #316 №760543 
>>760502
На хуй не верь никому. В пизду один крысакун и ты в пизде.
Аноним 27/05/24 Пнд 21:50:01 #317 №760550 
>>760536
Так вроде жи тот Анон хотел просто командера запустить полностью в ГПУ, не? Или я туплю?
Аноним 27/05/24 Пнд 21:59:47 #318 №760583 
>>760490
Человек и так зашуган, зачем вы его ещё больше шугаете?
>>760543
Но да, к сожалению, это правда.
Аноним 27/05/24 Пнд 22:03:23 #319 №760598 
https://www.reddit.com/r/LocalLLaMA/comments/1d1om5d/we_release_internlm2mathplus_with_18b7b20b_and/
Аноним 27/05/24 Пнд 22:23:42 #320 №760660 
изображение.png
>>760598
Мда, а говорили в СССР очереди большими были.
Аноним 27/05/24 Пнд 22:44:17 #321 №760712 
>>760660
Запускай локально.
Аноним 27/05/24 Пнд 22:46:35 #322 №760718 
изображение.png
>>760712
Кобольд не может.
Аноним 27/05/24 Пнд 22:48:14 #323 №760725 
>>760718
А что это значит? Типа версия драйвера старая? Какая у тебя версия CUDA?
Аноним 27/05/24 Пнд 22:48:38 #324 №760726 
>>760725
А, да. я не этот анон >>760712, а другой.
Аноним 27/05/24 Пнд 22:51:07 #325 №760733 
>>760725
Очевидно, что поддержки модели нет, вот и обосрамс.
Аноним 27/05/24 Пнд 22:53:04 #326 №760737 
>>760733
Нет, когда поддержки модели нет, то вроде же кобольд говорит, что - неизвестный тип модели, как с командером, например.
Аноним 27/05/24 Пнд 23:00:06 #327 №760753 
>>760737
Это когда совсем нет. А тут уже вторая или третья ревизия модели, поэтому тип есть, а поддержки нет.
Аноним 27/05/24 Пнд 23:08:32 #328 №760773 
>>760753
Ааа.. У тебя что за ветка кобольды? Пробовал через concedo_experimental?
Аноним 27/05/24 Пнд 23:12:13 #329 №760777 
>>760773
>У тебя что за ветка кобольды?
Да я казуал, у меня тупо релиз.
Аноним 27/05/24 Пнд 23:13:47 #330 №760780 
>>760773
тут уж проще сразу лламаспп качать последний релиз и проверять
Аноним 27/05/24 Пнд 23:14:51 #331 №760782 
>>760777
Так, установи именно concedo_experimental. Она наверное уже поддерживает эту модель... Ну и работает достаточно стабильно, по крайней мере я на ней и сижу.

>>760780
Да ничего сложного нет. Зато уже получишь рабочую кобольду в таком случае.
Аноним 27/05/24 Пнд 23:20:50 #332 №760792 
https://www.reddit.com/r/LocalLLaMA/comments/1d1e8is/you_can_train_at_an_acceptable_speed_while/
для нейроанонов пытающихся в обучение

>>760782
>Да ничего сложного нет. Зато уже получишь рабочую кобольду в таком случае.

Да там релиз скачать и кинуть заменив старые файлы, Редактируешь готовый батник запуска сервера и запускаешь. Можно и в консоли.
Чем ебаться со сборкой кобальда, нахуя?
Сервер лламаспп запускается изи, к таверне подключается
Еще бы выбор модели и настроек удобнее сделать
Но это уже новый кобальд выйдет, лул
Аноним 27/05/24 Пнд 23:24:27 #333 №760797 
>>760792
>Да там релиз скачать и кинуть заменив старые файлы, Редактируешь готовый батник запуска сервера и запускаешь. Можно и в консоли.
Так релизы с кудой только под винду. На гну/пинусе один хуй лламуцпп придётся пересобирать. А тут человек и так кобольдом пользуется. Прывык уже, наверное.
Аноним 27/05/24 Пнд 23:29:40 #334 №760802 
>>760792
>пытающихся в обучение
А там ничего нового, оффлоад третьего дипспида давно известен. Да и что лламафектори лучше аксолотля тоже все знают давно.
Аноним 27/05/24 Пнд 23:33:13 #335 №760810 
изображение.png
>>760792
>для нейроанонов пытающихся в обучение
ДОобуччение. Для обучающих с нуля это вряд ли поможет.
Шунт на 4090, чтобы та жрала 500 ватт, ебануться можно.
>>760802
>оффлоад третьего дипспида давно известен
Я вот не знаю про него.
Аноним 27/05/24 Пнд 23:39:31 #336 №760822 
4090 500 ватт ест, или это TDP?
Аноним 27/05/24 Пнд 23:41:05 #337 №760824 
>>760187
>Попробуй iQ4_XS квант сначала
не имеет смысла, это медленней чем Q4_K_S

>>760207
>рп без е, то даркфорест чувствует себя намного лучше.
Ну да, меня в принципе устроит

>>760361
>Какой форест? Вы там ебанулись? Он сильно хуже лламы.
Какой именно ламы? Если 3, то с этим никто и не спорит.
Аноним 27/05/24 Пнд 23:48:53 #338 №760833 
>>760810
>Я вот не знаю про него.
Да обсуждали миллион тредов назад же. Оптимизатор и всю требуху можно выгружать в оперативу. Плюс, дипспид умеет нормально раскидывать нагрузку на несколько карт, чего те же трансформаторы не умеют в принципе. Единственный минус, что всё это добро не работает под виндой.

>>760822
TDP это и есть, сколько карта есть. По сути, это тепловыделение, только вот кпд электроники настолько низкий на самом деле, что 99% энергии переводится в тепло. Так что энергопотребление равно тепловыделению.
Аноним 27/05/24 Пнд 23:53:30 #339 №760839 
https://huggingface.co/QuantFactory/L3-8B-Stheno-v3.1-GGUF
новую версию уже чекали?
Аноним 27/05/24 Пнд 23:56:55 #340 №760847 
>>760833
Бля нихуа себе. У меня блок питания на 600 ватт, тут нужен на 2 киловатта, как в серваке.
Аноним 28/05/24 Втр 00:00:45 #341 №760852 
>>760839
Я на ней неделю сижу. Еще Айя 8В вышла но она шизит в РП страшно.
Аноним 28/05/24 Втр 00:04:33 #342 №760856 
>>760852
Поменьше температуру сделай. У меня она тоже шизила настолько, что нормально стала работать только на 0.2-0.45.
Аноним 28/05/24 Втр 00:05:44 #343 №760857 
>>760833
>Единственный минус, что всё это добро не работает под виндой.
А, ну тогда мимо. виндоблядствую 15 лет
>>760839
>Occasionally spits out leaking XML and nonsense.
Лол, нейросети, которые мы заслужили.
>>760847
>тут нужен на 2 киловатта
Эм, 500 + 200 = 700, то есть моего 750 ваттника вполне себе хватит.
Аноним 28/05/24 Втр 00:07:23 #344 №760859 
>>760824
>Какой именно ламы?
Вторую даже не рассматриваю. Ясное дело, что вторая - соевый мусор. Третья даже в 8В работает хоть как-то.
Аноним 28/05/24 Втр 00:10:58 #345 №760863 
>>760847
Ну хуй знает. Так ты можешь серверный купить. Или бич-вариант, докинуть второй БП в систему. При соблюдении минимальной техники безопасности не полыхнёт.

>>760857
>А, ну тогда мимо. виндоблядствую 15 лет
В винде есть WSL, можно запустить линукс как приложение винды. Единственный минус, что картонки должны быть в WDDM режиме. С теслами есть проблема включить этот режим, если у тебя две разные видеокарты стоят. Если второй видеокарты нет или стоит заглушка слота от AMD, то всё работает без лишней ебли.
Аноним 28/05/24 Втр 00:35:10 #346 №760885 
>>760863
>В винде есть WSL
WSL2, который виртуалка, и с которым добавляется отдельный пласт проблем.
Аноним 28/05/24 Втр 00:47:48 #347 №760898 
image.png
>>760863
>заглушка слота от AMD
А вот чичас обидно было. Хотя это правда.
Аноним 28/05/24 Втр 01:14:29 #348 №760913 
>>760857
>А, ну тогда мимо.
Погоди, сразу мимо зачем, ламафактори нормально под виндой. Пусть там может и не все работает, зато без пердолинга, одно это того стоит.
Аноним 28/05/24 Втр 01:15:12 #349 №760914 
>>760852
>Я на ней неделю сижу.
Ты на англ её пользуешь или как?
Аноним 28/05/24 Втр 01:23:22 #350 №760918 
image.png
Товарищи, Аноны, чяднт? Пытаюсь загрузить уже вторую модель коммандера 35B на I квантах c4ai-command-r-v01.IQ4_XS. koboldcpp отказывается загружать. Пересобирал голую лламу.цпп, она тоже отказывается загружать с такой жи ошибкой.
Я тот балбес, что генерит на старушке M40 24GB. Может она настолько старая, что не поддерживает I кванты? Они же типа, на "другой математике", как писал Анон из этого поста >>760522.
Причём коммандер на K квантах грузится нормально кроме того, что полностю не влазит..

Тут отписывались Аноны, у которых были проблемы с загрузкой коммандера на P40, у вас такая же ошибка вылезает?
Аноним 28/05/24 Втр 01:27:08 #351 №760922 
image.png
>>760918
Заглянул сейчас в файл ggml-cuda/dmmv.cu и походу ллама просто не может понять, что это за тип квантования. Другой вопрос, как дать ей понять?
Аноним 28/05/24 Втр 01:27:43 #352 №760923 
>>760733
>>760718
Какая версия кобольда? У меня все работает.
Аноним 28/05/24 Втр 01:46:08 #353 №760937 
image.png
>>760918
>>760922
Ладно, похуй отбой. Походу была слишком старая версия лламы.цпп. Обновил, стала определять кванты. Ну да, последний раз лламу.цпп, я обновлял ~месяц назад. А вот кобольду дня 3 назад.. В экспериментальную ветку.
Аноним 28/05/24 Втр 01:47:55 #354 №760940 
Не пойму что-то. https://huggingface.co/legraphista/internlm2-math-plus-7b-IMat-GGUF/blob/main/README.md#common-quants
Это же chatML промпт формат, правильно? Почему-то он хуйню выдает.
Аноним 28/05/24 Втр 02:00:01 #355 №760947 
>>759935
На русском шпарит, все остальное — аутотренинг.
35B прям вообще воробушек.
Выше писали, что 105б в 4 кванте норм, но я пробовал 4, 5 и 6 — он в 6 норм, в 5 терпимо, в 4 я бы не сказал.

Или у тебя карта с отыгрышем специфичные, или тебе так лишь кажется.

>>760042
+
Но ваще байт немножк, канеш. =)

>>760174
> как ассистент хороша … убила меня
о_о спасиба ни нада

>>760186
Ты правда глупый. Уже без рофлов.
Давай я поясню для глупеньких, как ты.
1. Я сразу признал свою неправоту и извинился.
2. Ирония была про тебя и меня.
Ладно, закончим, а то ощущение, что с какой-то 3б моделькой без контекста говорю.

>>760193
Руки две, в чем проблема? )

>>760315
Да, но сомнительно. Скорость будет не ахти, а деньги убьешь.
Бери теслы, дешевле и вдвое больше памяти. А 3060 заебешься пихать.
Аноним 28/05/24 Втр 02:06:18 #356 №760949 
video2024-05-2801-58-38.mp4
image.png
image.png
Ну шо вы, тоже мешаете соседям спать по ночам?

Модель весит 60 гб. я поставил --n-gpu-layers 40 для llama.cpp
Можете мне пояснить, почему в двух гпу в сумме 40 гб, а в оперативке - ничего нет? Я думал, что в оперативку заедет еще 20 гб.
Не похоже, что модель прогрузила только 40 слоев из 64, потому что она дала вполне внятный ответ на реквест
Аноним 28/05/24 Втр 02:16:36 #357 №760950 
>>760949
>Можете мне пояснить, почему в двух гпу в сумме 40 гб, а в оперативке - ничего нет
Не можем. Так не бывает. Видимо использование РАМ мониторит криво.
Шум конечно сильный. Если свист будет напрягать, могу посоветовать поменять охлаждение на большие улитки с переходниками, есть готовые от 2,5к. Но в этот корпус не влезут, придётся менять и его. Зато заметно тише и охлаждают лучше.
Аноним 28/05/24 Втр 02:24:39 #358 №760952 
14967513482860.jpg
>>760940
>Руки две, в чем проблема? )
Аноним 28/05/24 Втр 02:57:41 #359 №760954 
image.png
Внесите в шапку онлайн-квантователь чтобы любой мог создавать себе ггуфы последней версии желаемой битности для любой модели.

https://huggingface.co/spaces/ggml-org/gguf-my-repo
Аноним 28/05/24 Втр 03:11:23 #360 №760955 
>>760947
> Ты правда глупый. Уже без рофлов.
Давай я поясню для глупеньких, как ты.
1. Я сразу признал свою неправоту и извинился.
>>759631
>=D Сук.
А, это ты так извинился. Понятно. Охуенно извиняешься. Продолжай в том же духе и тогда тебя даже на дваче игнорить начнут. Будешь с коммандиром создавать треды и общаться один на один, лол.
Аноним 28/05/24 Втр 03:14:39 #361 №760956 
>>760947
Алсо
>2. Ирония была про тебя и меня.
Походу ты реально только с нейронками общаешься, раз на полном серьезе думаешь, что я не понял контекст. Видимо, слишком много общаться с ИИ это тоже вредно.
Аноним 28/05/24 Втр 03:19:46 #362 №760958 
>>760937
Так нихуя не отбой. На новой лламе тоже нихуя не работает несмотря на то, что она определяет тип квантования, она всё равно нихуя не загружает.
Здесь: https://github.com/ggerganov/llama.cpp/issues/6282 - У человека тоже нихуя не получается загрузить IQ4_XS и он спихивает всё на P100, однако у владельца P40 удаётся её загрузить. Походу придётся, до Q3 опускаться..
Аноним 28/05/24 Втр 03:22:41 #363 №760960 
>>760954
>любой мог создавать себе ггуфы последней версии желаемой битности для любой модели.
А оно из чего делает желаемый квант? В большинстве репозиториев теперь не больше Q8 лежат. Как я понимаю, для хорошего результата FP16 бы надо. Правда я плохо понимаю.
Аноним 28/05/24 Втр 03:25:03 #364 №760961 
>>760960
>А оно из чего делает желаемый квант?

Из того что ты попросишь - из того и сделает

>В большинстве репозиториев теперь не больше Q8 лежат.

Лолчто?

>Как я понимаю, для хорошего результата FP16 бы надо

Все оригиналы моделей в 16 битах.
Аноним 28/05/24 Втр 03:26:12 #365 №760962 
>>760958
Это же P100, загружай версию exl2
Аноним 28/05/24 Втр 03:26:26 #366 №760963 
image.png
>>760958

У меня последний кобольд всё грузит как часы, именно этот квант этой модели.
Аноним 28/05/24 Втр 03:30:34 #367 №760967 
>>760960
>Как я понимаю, для хорошего результата FP16 бы надо.
Ллама-3 лежит в bf16, которую нужно перегнать в fp32 перед квантованием. Никакая веб-залупа этого делать не будет, а значит, квант будет сломан.
Аноним 28/05/24 Втр 03:31:31 #368 №760969 
>>760962
>Это же P100
Таки и чего? У меня тащем-та видюха старее. Или типа это нормальной для P100?

>загружай версию exl2
Т.е. через убабугу запускать? Ла-а-адненько..

>>760963
Понял тебя, значит скорее всего проблемы действительно в железе.
Аноним 28/05/24 Втр 03:32:08 #369 №760970 
>>760961
>Из того что ты попросишь - из того и сделает
Там же по сути одно поле ввода - Hub Model ID. Допустим я пишу туда: mradermacher/llama-3-70B-instruct-uncensored-GGUF
И дальше могу только выбрать желаемый тип квантования. Вроде всё, что там есть. Из чего оно будет квантовать?
Аноним 28/05/24 Втр 03:45:52 #370 №760975 
image.png
image.png
>>760522
>Реализация такая. Там другая математика, так что замедление прямо в репе герыча прописано. По моим прикидкам, замедление там раза в 2-4 при выигрыше в размере в 20%.

Там замедление на слабых цпу, везде это написано, на нормальных цпу падение незначительное и выигрыш от ускорения в кубласе перекрывает.

>>760550
>>760550

Объясняю кейс. Есть 24 гб видеопамяти на 4090. Командир 4_К_S влезает полностью на гпу почти без контекста. Но модель без контекста это чемодан без ручки, нужен контекст хотя бы 8к. Самая большая трабла командира - он жрет видеопамять для контекста как сука, там где лама 8В за 64к сожрет ~15 гб. Тут нужно ~12гб на 8к контекста. И я эти 12 гб обязательно должен отдать с видеокарты, потому что контекст с цпу это недопустимо медленная обработка промпта. В итоге я выгружаю 10 слоев модели с видеокарты в цпу, освободившаяся видеопамять идет на контекст, скорость за счет выгрузки 10 слоев в цпу падает в 2-3 раза, но это все еще комфортные 4.5 - 6 токенов в секунду. Я проводил тесты, с 4_K_S мне приходится выгружать 12 слоев в цпу и падение скорости идет до 4-5 токенов, с iQ4_XS - на цпу идет всего 10 слоев и скорость как написано выше.
На пиках пруфы с бенчмарками, доказывающие что iQ4_XS быстрее Q4_K_S на порядок.
Аноним 28/05/24 Втр 03:47:02 #371 №760976 
>>760970
>Допустим я пишу туда: mradermacher/llama-3-70B-instruct-uncensored-GGUF

Ты ебу дал, зачем ты ему ссылку на уже готовый квант даешь?
Аноним 28/05/24 Втр 03:50:44 #372 №760977 
>>760975
>Объясняю кейс. ...
Понял тебя, Анонче, спасибо, за пояснения.
Аноним 28/05/24 Втр 03:51:19 #373 №760978 
image.png
image.png
>>760975

Кажись обосрался с бенчмарком iQ4_XS, запостил с контекстом 2к. Переделал оба теста с правильным контекстом 8к, теперь выигрыш iQ4_XS не такой большой, но все еще налицо.
Аноним 28/05/24 Втр 03:55:42 #374 №760979 
>>760978
Да ничего, саму суть я понял и это главное.
Слушай, Анон. Я тут видел про то, что несколько видеокарт, которые работают вместе над одной нейронкой - это медленно и не эффективно. А что если сделать так, чтобы одна видеокарта обрабатывала нейронку, а другая содержала контекст? Хотя, это наверное ещё медленней, тому что надо чтобы данные из VRAM одной видевокарты прошли через pci шину, потом через чипсет, опять через шину PCI-e и только тогда дошли до VRAM другой видеокарты, а потом ещё и в чип загнать..
Аноним 28/05/24 Втр 04:02:54 #375 №760980 
>>760979

Не знаю, у меня всего одна 4090.
Тут все надо ручками проверять и тестировать, столько нюансов каждой конкретной имплементации, что чистая теория часто подводит, вот кто бы мог подумать что в поле IQ4_XS может быть быстрее Q4_K_S, а вишь оно как.
Аноним 28/05/24 Втр 04:16:52 #376 №760981 
>>760980
>Не знаю, у меня всего одна 4090.
Ну тут где-то гулял Анон с несколькими 4090, надо бы его попросить об этом.

>кто бы мог подумать что в поле IQ4_XS может быть быстрее Q4_K_S, а вишь оно как.
>>760978
>выигрыш iQ4_XS не такой большой, но все еще налицо

Вообще, Анонче... Немного выглядит, как погрешность... Не мог бы ты ещё пару-тройку раз провести бенчмарк? Желательно десяточку, но думаю, что ещё два раза хватит..
Аноним 28/05/24 Втр 05:03:27 #377 №760986 
Кек, решил поиграться с gemini pro, спросил у него за цензуру в Австралии, мол - чё так жёстко-то. В числе прочего он упомянул некие "Australian values". Спросил, чем это тогда отличается от использования у нас "традиционных ценностей" для оправдания всякого. Выдал мне стену текста в стиле "Ты не понимаешь, этадругое".
Это даже не соя уже, а хз как назвать.
Аноним 28/05/24 Втр 05:10:57 #378 №760988 
>>760986

Не суди строго, ИИ никогда не будет умнее людей потому что его обучают на высерах людей. Где затупы у людей, там будут затупы у ИИ. Вообще скоро все поймут что главное не количество инфы которым обучают ИИ, а качество. Тут как с человеком - если обучать человека только на узкой выборке лучших книг - получится интеллигент с высоким iq, а если на чем попало - на комиксах, сериалах нетфликс и книгах Донцовой - то выйдет среднестатистический дегенерат. Вот современный ИИ это и есть такой дегенерат, увы.
Аноним 28/05/24 Втр 05:18:58 #379 №760991 
>>760988
Да я в курсе. В принципе, я чего-то подобного и ожидал, учитывая кто его делал. Но всё равно забавно.
Аноним 28/05/24 Втр 05:20:30 #380 №760992 
>>760988
А что если заставлять ИИ, обучать другого ИИ, на датасетах предыдузщего. И так в несколько тысяч итераций? В конце концов же, в последующих итерациях должно быть всё меньше человеческого, разве нет?
Аноним 28/05/24 Втр 05:21:20 #381 №760993 
image.png
image.png
image.png
image.png
>>760981

Я могу и 10 раз его протестировать, результат не изменится, думаю дело именно в этих 2 слоях которые я пихаю в гпу, так что это не значит что всем подойдет использовать iQ4_XS вместо Q4_K_S, надо каждому индивидуально пробовать и тестировать.
Аноним 28/05/24 Втр 05:23:19 #382 №760997 
image.png
>>760992

Получится буквально пикрелейтед, лол.
Аноним 28/05/24 Втр 05:23:33 #383 №760998 
>>760993
А, ну в принципе, думаю этого и так достаточно. Думаю, погрешность была бы сразу видна. Хотя, думаю, что в отношении ИИ сложно применять одну ситуацию ко всем последующим, но ладно. Этого дейтсвительно достаточно, мы же тут блять не вговнемочённые, которым нужна выборка по нескольким тысячам экземпляров.
Аноним 28/05/24 Втр 05:31:43 #384 №761001 
ulitochka.png
>>760997
Ну в принципе, в самом последнем человеке в цепи будет меньше и меньше человечного в мозгу и меньше съедбного во рту... Так что задача решена! Дайте мне нобелевку!
Аноним 28/05/24 Втр 07:21:16 #385 №761015 
>>760975
>скрины
Чел, у тебя там размер контекста разный. Приведи к одному знаменателю. Ага, исправился.
>>760978
>теперь выигрыш iQ4_XS не такой большой, но все еще налицо
А теперь учти, что не у всех 4090. У меня 3080ti, 12 ГБ врама, и выйгрышъ от +1 слоя на ГПУ не перевешивает проигрыша от тормозов ЦПУ, ну прям вообще никак. Проц 7900х, современнее некуда, вершина процестроения.
>>760979
>данные из VRAM одной видевокарты прошли через pci шину, потом через чипсет, опять через шину PCI-e
Проц забыл. То есть путь будет (при типикал конфигурации) ГПУ 1 - шина - ЦП - шина - Чипсет - шина - ГПУ 2. Вот и живи теперь с этим.
>>760988
>Вообще скоро все поймут что главное не количество инфы которым обучают ИИ, а качество.
Уверен? Пока всё показывает ровно обратное, роляет практически только компут тайм, а для качества достаточно полиров очки сверху.
Аноним 28/05/24 Втр 07:46:54 #386 №761020 
>>761015
>Проц забыл. То есть путь будет (при типикал конфигурации)
А блять точно... Хотя разве проц не может просто на низком уровне дать команду чипсету на обмен данными между двумя ГПУ? Ему же не обязательно знать, что именно за данные передаются?
Аноним 28/05/24 Втр 07:52:08 #387 №761023 
>>761020
>Хотя разве проц не может
Технически для этого придумали ресайз бар. На практике... Да и ГПУ1 подключён напрямую к процу, так что как минимум шина в проце задействована будет однозначно.
Аноним 28/05/24 Втр 07:55:44 #388 №761025 
>Да и ГПУ1 подключён напрямую к процу, так что как минимум шина в проце задействована будет однозначно.
Чего? Разве вся периферия не должна быть подключена именно к чипсету/южному мосту, который уже передаёт данные на проц/северный мост?
Аноним 28/05/24 Втр 07:56:13 #389 №761027 
>>761025
>>761023
Блять. Всё ночь не спал... Прошу прощения.
Аноним 28/05/24 Втр 08:08:02 #390 №761029 
>>761023
Ребар не делает прямое копирование. Он даёт для CPU доступ ко всей видеопамяти, без ребара есть только окно в 256 мб, драйвер должен сдвигать его для доступа к врам и не может одновременно обращаться к удалённым участкам памяти.
>>761025
Есть прямые линии на проц, а есть через чипсет. Обычно только одна х16 прямая, может ещё NVME быть 1-2 напрямую. Остальное чипсет разводит по линиям.
Аноним 28/05/24 Втр 08:16:56 #391 №761034 
>>761029
>Есть прямые линии на проц, а есть через чипсет. Обычно только одна х16 прямая, может ещё NVME быть 1-2 напрямую. Остальное чипсет разводит по линиям.
Угусь, понял.. Т.е., чтобы уменьшить задержки между видеокартами в данной конфигурации, стоит использовать PCI-E слоты идущие через чипсет? Но тогда появятся задержки между ЦП и ГП1? А точно-ли ЦП будет пропускать через себя данные, которые нужно передать между ГП1 и ГП2? Или ему просто достаточно прочитать, для того, чтобы убедиться, что всё нормально и данные пойдут через чипсет?

Хотя смысл обсуждать это, ведь если даже удасться избежать участие ЦП, один хуй путь достаточно длинный, чтобы вносить задержки и серьёзно уменьшать произвдительность.
Аноним 28/05/24 Втр 08:25:19 #392 №761036 
>>761029
>Ребар не делает прямое копирование.
А что даёт? Вроде была какая-то технология, которая должна позволять копировать говно между устройствами на псине без соучастия проца. Забыл как называется.
Аноним 28/05/24 Втр 08:42:53 #393 №761044 
>>761036
> А что даёт?
Ну он ускоряет копирование, можно без сдвигов окна читать и писать сразу. Но это не прямое копирование, его всё ещё ЦП выполняет.
Аноним 28/05/24 Втр 08:49:55 #394 №761045 
>>760914
Ну да инглиш.
Аноним 28/05/24 Втр 10:19:12 #395 №761083 
>>760955
Бля, это так мемно. =D
Извинения были выше, но ты не смог их процитировать, потому что они уже из твоего контекста выплыли, былин…

>>760956
Ну да, ну да, а тут
> Так я того анона как раз и не упрекал.
Ты не обосрался, а это был постироничный байт, ага. =)

Признайся, это Phi-3-mini с яндекс.переводчиком? Ну не верю, что что-то умнее и больше.

>>760960
Q8 даже для мелких (≥6b) моделей норм. Разницу между BF16, FP32, FP16 и Q8 на деле тут не определит, вероятно, никто.

>>760975
Но там контекст 2К…
Не, не то чтобы я тебе не верил, но скрин кекный вышел. =)

>>760978
О, уже 8%. Ну, такое…
Но по конкретному юзкейсу ты прав. Все индивидуально, ето да.

Я надеюсь ты понимаешь, что те, кто с тобой спорил, имели в виду общую скорость в идеальных условиях, где iq_xss медленнее? Они ж не знали такие тонкости. =)

>>760979
> несколько видеокарт, которые работают вместе над одной нейронкой - это медленно и не эффективн
Ху-и-та, блядь.
Берешь — и тестишь.
Замедление есть, но далеко не такое огромное, как пиздят.
Не удивлюсь, если те же люди, у которых разницы между q2 и q6 нет.

Ну и кто знает, может это еще и медленнее, да, но опять же — так на доли секунды, скорее всего. Это надо потестить, выставив 0,1.

>>760980
Да, тесты решают.

>>760986
Это называется двойные стандарты. =)

>>760988
Ну слушай, ты не совсем прав. Многие файнтьюны — это датасеты сгенерированные другими ллм. И чисто за счет рандома они могут быть и без высеров людей.
Другое дело, что проблема-то не одна. =)
Сетки в т.ч. намеренно пичкают необходимой инфой. Не именно «Австралия и Россия — это другое», но дойти до этого она и сама может, зная, что «Австралия — хорошо», а Россия их дорогой партнер ага-да.

>>760992
Да, как повезет.
Но подобная хуйня делает только хуже. Вон, НейралГермес и НейралЧат обучены на большом датасете из гпт4 — сетки говнище. ИМХО.

>>761029
>>761034
Я вас умоляю, померяйте, прежде чем обсуждать.
Типа, вы правы, ок, но о каких задержках вы говорите по итогу? 0,7 сек? На 20 секунд ответа? Есть такое выражение «значением можно пренебречь». ИМХО, тут как раз этот вариант.
У нас погрешности больше, чем это значение, зачастую.
Аноним 28/05/24 Втр 11:21:39 #396 №761114 
>>760190
>>760399
Я пользуюсь моистралькой, но как бы блин родина третью ламу дала...
Может это скил ишью, но все файн тюны модные не следуют моему плану, я расписал ключевые моменты склонения к соитию, у меня не роулплей а рассказ. Там тян выебывалась перед мужиком дразнила а он ее силой трахнул, и этот момент расписан мной в плоте, но модельки пишут ересь как она к нему сиганула на член и прочие ДА ДА ЕБИ МЕНЯ. В общем не понимает сеттинг, описывает как обычный секс а писал что она сопротивляется и плачет.
Аноним 28/05/24 Втр 11:23:13 #397 №761118 
>>761114
Я не уверен, что книгу реально даже с 70В написать. Инструкций много, а моделька маленькая. Она будет путаться.
Аноним 28/05/24 Втр 11:27:23 #398 №761120 
>>761083
> Извинения были выше, но ты не смог их процитировать, потому что они уже из твоего контекста выплыли
Значит так извинялся, что на извинения не похоже. Пока что я от тебя только клоунаду и смайловысеры вижу.
Аноним 28/05/24 Втр 11:27:37 #399 №761121 
>>761118
Я разбиваю на главы и затем на сцены, пишу по абзацу-два за генерацию, все работает, но приходится постоянно переписывать самому, потому что либо я промпт не могу написать либо ИИ тупо не улавливает суть изложенного в плане. При чем когда я набросал план я гоняю ИИ по нему чтобы подтвердить его понимание, и он отвечает правильно, например я спрашиваю "тян хотела трахнуть мужика верно?" ИИ отвечает нет, она хотела лишь подразнить его. А потом когда к непосредственной генерации текста приступаю, он начинает писать ересь вроде она сиганула ему на член и смачно засосала. Ну то есть вылазит скудность датасетов этих, ну хули там блять васяны писали порнотексты уровня еби меня василий.
Аноним 28/05/24 Втр 11:30:55 #400 №761123 
>>761121
Я думаю дело не в датасете, а а том, что у нейронки изначально ни мозгов, ни памяти нет. Использовать 8В модельку для подобного это уже совсем плохая идея. Лучше уж генерить медленно, но нормальной моделькой.
Аноним 28/05/24 Втр 11:33:48 #401 №761129 
>>761123
Если ты о контексте, то я в него прекрасно вписываюсь, у меня всегда расписаны герои в контексте и всегда есть саммари ключевых моментов прошлого. От ии требуется только писать сцену которая на очереди. И в целом ИИ справляется, но вот эти моменты вылезают наружу, моменты что датасеты порнухи очень хуевые. Это как в генерации изображений, есть три руки, шесть пальцев и другие артефакты. Только тут еще помноженные на в целом хуевых артистов, как если бы SD генерило строго из датасета хуевых художников.
Аноним 28/05/24 Втр 11:36:37 #402 №761132 
>>761129
У меня ии сцену не писало. Просто не учитывает все факты. Они у нее в контексте лежат. Но когда дело доходит до писанины, то она начинает путаться. Я думаю что проблема не лечится. Ну или ггуф сломан был.
Аноним 28/05/24 Втр 11:37:05 #403 №761133 
>>761120
> Мои извинения.
> на извинения не похоже.
Извинения не извинения, понятно. Буквально цитата.
=D
Слепошарик.

>>761118
Это делается в ноутбук режиме (автокомплишена), без всяких диалогов, и с правками, «в четыре руки».
Аноним 28/05/24 Втр 11:38:40 #404 №761134 
>>761133
Ни в одном из твоих постов нет слова извини. Так что да, это не извинения.
Аноним 28/05/24 Втр 11:39:03 #405 №761136 
>>761129
>Это как в генерации изображений, есть три руки, шесть пальцев
Так это, шестипалых в датасетах не сказать чтобы много. Это уже проёб самой нейронки, до сих пор мало мальски сложную фигуру из пальцев отрисовать не могут, а некоторые так оверфитнуты на руках, что вместо ног руки рисуют.
С текстовыми аналогично, они в принципе не могут думать, и никакие самые прекрасные датасеты тут не помогут.
Аноним 28/05/24 Втр 11:47:03 #406 №761152 
>>761083
>двойные стандарты
Ну, справедливости ради, он там в конце пару строк черканул, что, мол, вообще-то вот всё что я сейчас написал - может показаться лицемерием, и вообще в реальности всё сложнее. Я сначала эту часть не заметил, спросил чё за дела такие. Ну там он уже эту мысль развил, сказал что да, лицемерненько как-то вышло, так что не стоит рубить с плеча, у всех свои загоны по поводу цензуры.

А вообще, тот разговор я начинал с попытки потроллить - вот, мол в америке негров линчуют в Японии рисуют прон с лолями, не пора ли этих педофилов на бутылку? Ответил, что нельзя так, культурные особенности, надо понимать, туда-сюда, и вообще они потихоньку исправляются. Тогда привёл пример австралии - типа вот челы вообще всех сажают - не деля на рисованное и нерисованное. Да, отвечает, есть такое, и вообще они много всякого цензурят и запрещают, щито поделать. Ну а что было дальше - я уже выше описал.

Вообще, этому место в gemini-треде, конечно, но там как-то совсем тухло
Аноним 28/05/24 Втр 11:57:12 #407 №761168 
>>761152
То есть у нейронки мозгов хватает на то, чтобы понять, что она несёт хуйню. Но нести хуйню надо, потому что она находится в датасете. Прекрасно.
Аноним 28/05/24 Втр 11:59:37 #408 №761171 
>>761168
Именно так, один из минусов ИИ в том что ей надо что то породить, отсюда и галлюцинации
Аноним 28/05/24 Втр 12:06:07 #409 №761175 
>>761171
Дело не в том, что породить, а в том, что соя часто противоречит сама себе, отсюда и шиза у нейронки, которая соей накачана.
sage[mailto:sage] Аноним 28/05/24 Втр 12:17:51 #410 №761177 
>>761015
>А теперь учти, что не у всех 4090. У меня 3080ti, 12 ГБ врама, и выйгрышъ от +1 слоя на ГПУ не перевешивает проигрыша от тормозов ЦПУ, ну прям вообще никак. Проц 7900х, современнее некуда, вершина процестроения.

Да, я понимаю, я так и сказал, что у меня кейс особый и каждому надо самому смотреть по его имплементации. В твоем случае впрочем тоже могут быть кейсы где iQ4_XS даст 2+ слоев на гпу и сделает ускорение по сравнению с Q4_k_s, например в 20В моделях.
Аноним 28/05/24 Втр 12:23:43 #411 №761181 
>>761177

Сажа прилипла случайно
Аноним 28/05/24 Втр 12:44:50 #412 №761195 
Бля, мочух, не в Китае живём, хули тереть то.
Аноним 28/05/24 Втр 12:45:24 #413 №761196 
Кста, на дваче цензура хуже чем у самых соевых сеток. И в чём я не прав?
Аноним 28/05/24 Втр 12:46:50 #414 №761197 
>>761134
А, то есть «извинения» и «извини» — это не одно и тоже? Разные токены, понимаю… То есть, я должен писать «извини», а не «мои извинения», да? =) Второй вариант у тебя не читается?

>>761152
Попытался затралить нейросеть.
Она затралила в ответ.
Чем вы недовольны после этого? )

>>761168
Ну, вот так как-то…
Поэтому люди и пишут тут о сое с каждым месяцем все агрессивнее и активнее. Раньше такого не было! (но раньше и модели были тупыми)
Аноним 28/05/24 Втр 12:56:16 #415 №761206 
>>761197
Так ты этот >>759574 анон что-ли? Мне казалось, что я общаюсь вот с этим >>759579
Аноним 28/05/24 Втр 13:04:58 #416 №761218 
>>761196
Прав во всем, вот только кто сказал, что двач это не говно?
Аноним 28/05/24 Втр 13:09:20 #417 №761225 
>>761195
Тем более там было китайскую локальную сетку Qwen, что целиком в тематике доски
Аноним 28/05/24 Втр 13:09:29 #418 №761226 
image.png
>>761206
Чувак, без обид. Никакого хейта в твою сторону, но ты правда глупенький.
Это буквально моя речь подряд.

Давай я еще раз поясню.

С прошлого треда тянется обсуждение о том, какие модели могут в русский язык.
И тут один собеседник вкидывает скрин с кучей английского языка.
Это выглядит странно, я пишу об этом.
Он говорит, что там был вопрос об английском — он ответил.
Я нахожу, пишу, что был невнимателен, ибо там всего лишь одно сообщение про инглиш и приношу ему свои извинения.
Все, в общем-то, тема на этом закрыта.
Но тут впрыгиваешь ты и начинаешь срать под себя и кидаться бесконечным боезапасом в меня. Я тебе отвечаю, что проморгал, ибо было всего одно сообщение про инглиш в целой теме про русик, и намекаю, что извинился за свой косяк, и пишу об этом прямо с цитатами (дважды или трижды — перечитай тред, я там даже делал ссылку на свой коммент).
Пожалуйста, не держи на меня зла, но ты правда смешно тупил все это время. Но теперь, я надеюсь, ты разобрался в ситуации? :)

Будем честны — ты просто тупанул, а конфликта как такового и нет.
Ну а в начале тупанул я, да, я ж не отрицаю. =)
Аноним 28/05/24 Втр 13:10:38 #419 №761228 
>>761225
Не гори, толку-то, что не нравится — то и трут.
А может кто-то решил перебдеть, или еще что.
На это не повлиять, я полагаю. =) Береги нервы.
Аноним 28/05/24 Втр 13:17:48 #420 №761237 
>>761197
>Чем вы недовольны
Да не, я-то вполне себе доволен.

У gemini, в случаях, когда запрос не настолько жёсткий, чтобы вызывать отказ на уровне апи - возможны достаточно интересные варианты.
Спросил у него, возможно ли какое-то время жить на диете из спермы (не спрашивайте, сам хотел бы знать, откуда у меня такие мысли).

Вместо вполне логичного и обычного "ах ты больной ублюдок, не буду я я тебе отвечать", он выдал, что "сорян, я не доктор, медицинские советы не даю, иди диетолога спроси". На второй-третий раз, правда, сдался, и сказал, что не выйдет, слишком маленькая пищевая ценность.
Аноним 28/05/24 Втр 13:20:37 #421 №761241 
>>761226
> Это буквально моя речь подряд.
То есть ты серьёзно утверждаешь, что вот это
> вы про мистраль и про английские говорили.
и это
> В контексте общего разговора выглядело охуенно, не думаешь? Все обсуждают русский и челик скидывает инглиш.
> Там всего один раз слово промелькнуло
писалось одним человеком. Два противоположных по смыслу тезиса. Я все правильно понял? Если да, то здесь одно из двух, либо это писал сумасшедший, либо я действительно лоботомит и проебал мозг, от чего до сих пор не понимаю контекст.
Аноним 28/05/24 Втр 13:23:24 #422 №761243 
>>761237
>слишком маленькая пищевая ценность
Хуя, там же чистый белок. Просто её понадобится очень много, 100 мужиков в день.
Аноним 28/05/24 Втр 13:28:54 #423 №761250 
>>761237
> Вместо вполне логичного и обычного "ах ты больной ублюдок, не буду я я тебе отвечать", он выдал, что "сорян, я не доктор, медицинские советы не даю, иди диетолога спроси".
И чему ты там радуешься? Тому, что тебе заролялась чуть другая соя? Ладно, когда ещё что-то бесполезное по рофлу спрашиваешь. А теперь представь, что ты спрашиваешь про лекарство, от которого очень много что зависит, а к врачу пойти ты не можешь.
Аноним 28/05/24 Втр 13:33:02 #424 №761255 
>>761241

Он сам понял что обосрался и тихонько извинился, как раз почти параллельно как ты ему предъяву написал. И вместо того чтобы дать тебе ссылку на свое извинение, которое уже произошло он зачем-то резко сдал назад, начал отпираться и кидаться калом, словно и не извинялся. Много раз такое ИРЛ встречал, где люди воспринимают любой спор и свои извинения как челлендж для своего места в иерархии, но на дваче, где все ходы записаны и такое поведение не имеет смысла, встречаю такое впервые. Забавно конечно.

Мимо-анон на которого он наехал изначально
Аноним 28/05/24 Втр 13:41:31 #425 №761269 
>>761255
> Он сам понял что обосрался и тихонько извинился, как раз почти параллельно как ты ему предъяву написал. И вместо того чтобы дать тебе ссылку на свое извинение, которое уже произошло он зачем-то резко сдал назад, начал отпираться и кидаться калом, словно и не извинялся. Много раз такое ИРЛ встречал, где люди воспринимают любой спор и свои извинения как челлендж для своего места в иерархии, но на дваче, где все ходы записаны и такое поведение не имеет смысла, встречаю такое впервые.
Да, после такого объяснения ситуация приобрела смысл. Но я бы не додумался. ИРЛ я с людьми не общаюсь и видимо слишком высокая предвзятость, что такое поведение в принципе невозможно, либо я лоботомит как минимум химическую я проходил. Если это все реально один человек, то вот этот пост >>759631 по моей логике выглядел бы как три ссылки: две на собеседников, одна на пост с извинениями.
> Забавно конечно.
Ничего забавного не вижу. Это странно.
Аноним 28/05/24 Втр 14:01:21 #426 №761291 
>>761269
>Ничего забавного не вижу. Это странно.

А мне забавно зоонаблюдать как он пытается некий статус сохранить и ни в коем случае не унизить себя лишним извинением, словно он альфа-самец в этом тредике. Человек явно на дваче лишний и привык к форумам с кармочками.
Аноним 28/05/24 Втр 14:04:20 #427 №761294 
>>761241
> Два противоположных по смыслу тезиса.
> либо я действительно лоботомит и проебал мозг, от чего до сих пор не понимаю контекст.
Ну давай еще раз.
Я не заметил это с первого раза, поэтому в контексте общего разговора (про русики) это выглядел «охуенно».
А когда он мне уточнил — то я понял свою ошибку.
Где тут противоречие, если это не одномоментные утверждения, а последовательные с изменением внутреннего контекста? :)

>>761255
Бля, ну не пизди. =)
Во-первых, как я должен был извиняться, капсом и болдом? =)
Во-вторых, ссылку я ему дал.
Так что, все ходы записаны, вас поймали на пиздеже. =D
Брысь под шконку иерархии, или как там тебе представляется это все, я хз, правда. =) Я надеюсь тут хотя бы юмор виден, или опять что-то не так?

>>759678 — вот мой комментарий, где я даю ссылку на свой комментарий с извинениями. И если я не проебался — это ответ как раз на комментарий вопрощающего.

В начале я проебал слово «английский», потом он проебал слово «извинения». Невнимательность банальная.

>>761269
Не, эт хуйня.
Аноним 28/05/24 Втр 14:07:13 #428 №761298 
>>761291
Некоторые его токены я не считываю. Особенно такие конструкции как (фраза =). Но про лишних на дваче я бы уже не стал говорить, потому что по факту ни абу, ни двача уже давно не существует. Мейлач это отдельная помойка, которая выглядит как двач, но по своей сути двачем уже не является и обитатели здесь тоже соответствующие. Так что даже если он пришёл с одноклассников, то мне уже все равно. Иногда отвечает по существу, уже хорошо.
Аноним 28/05/24 Втр 14:09:30 #429 №761299 
>>761294
>Бля, ну не пизди. =)
>Во-первых, как я должен был извиняться, капсом и болдом? =)
>Во-вторых, ссылку я ему дал.
>Так что, все ходы записаны, вас поймали на пиздеже. =D

Хватит уже позориться, ну серьезно. Ссылку >>759678
ты дал уже после того как набычил >>759579, причем дал её с оскорблениями, хотя во всей ситуации ты единственный мудак.
Аноним 28/05/24 Втр 14:16:23 #430 №761304 
>>761291
Ну у тебя и шиза. =) Сочувствую, мистер альфа треда.

>>761299
Во втором сообщение нет никакого быканства. Я хз, как можно увидеть то, чего там нет. Выдумать разве что.
А по поводу оскорблений в первом — так он начал оскорблять, я ответил тем же. Мудаков тут нет, кто ищет мудаков — может найти только себя, тут я никому не препятствую.

>>761298
Чаще 90% треда.
Аноним 28/05/24 Втр 14:17:09 #431 №761305 
>>761298
>Особенно такие конструкции как (фраза =).

Так на форумах(в основном) в нулевых общались, ставили смайлики после каждой фразы, особенно той в которой возможно было что-то жесткое или оскорбление, типа "ну ты типа понимаешь что это шутка и я не серьезно". Пелевин про это явление писал в Ампир В - "cмайлик – это визуальный дезодорант. Его обычно ставят, когда юзеру кажется, что от него плохо пахнет. И он хочет гарантированно пахнуть хорошо."
Аноним 28/05/24 Втр 14:17:35 #432 №761306 
Да все вы здесь мудаки, тут и спорить не о чем.
Аноним 28/05/24 Втр 14:21:36 #433 №761312 
Ваще, меня просто удивляет, как люди в начале не могут понять, что я пишу, а потом выдумывают тейки за меня, в итоге, и начинают их оспаривать, вменять мне в вину и так далее.

Если я чего-то не понимаю — я переспрашиваю.
Что мешает им сделать так же —я хуй знает.

И при этом, это выглядит как рефлексия собственных проблем.
Один затирает про какую-то альфовость (какая еще иерархия вообще, я здесь читаю интересные мысли и знакомлюсь с ссылками), другой критикует за невнимательность, при этом сам проебал весь контекст и сам же не смог даже связать два сообщения подряд.

РЕбят, я ж не психолог, вы мне не платите, решайте свои ментальные проблемы сами.

Окей, я тупой, даун, мудак, все проебал, нихуя не понял, только сру под себя и все.

Мне не сложно согласиться с вами в этом, потому что на реальность подобные фразы не влияют, и когда кто-то мне говорит спасибо — это греет. =3 А когда у кого-то жопа горит… НЕ НУ ЭТО ТОЖЕ ГРЕЕТ СВОЕГО РОДА (тут шутка про «греет» и огонь из жопы, если кто не понял), но на самом деле безразлично.

Все-все, я виноват, вы герои, умные, спасибо, что объяснили мне все. =)
Аноним 28/05/24 Втр 14:21:57 #434 №761313 
>>761306
Ну база же, да.
Аноним 28/05/24 Втр 14:24:59 #435 №761315 
>>761294
> Ну давай еще раз.
> Я не заметил это с первого раза, поэтому в контексте общего разговора (про русики) это выглядел «охуенно».
> А когда он мне уточнил — то я понял свою ошибку.
> Где тут противоречие, если это не одномоментные утверждения, а последовательные с изменением внутреннего контекста? :)
Противоречие в том, что они идут в обратном порядке. Сначала ты уже все заметил и извинился, а потом ты пишешь, что оно выглядит охуенно, а речь шла у русских моделях. В общем, я перечитал два твоих поста и похоже действительно один человек писал. Смайлоебов итт двое, а вот про скилл ишью затирает только один.
> Бля, ну не пизди. =)
> Во-первых, как я должен был извиняться, капсом и болдом? =)
Я могу ответить как бы я сделал. После поста извинений, всех остальных сообщений не существовало бы в принципе и все ответы бы ссылались на пост с извинением.
> Во-вторых, ссылку я ему дал.
>>759678
> > Все, увидел, что вы про мистраль и про английские говорили.
> > Мои извинения.

> Тут и 2048 контекста нет, я смотрю.

Да, действительно. Я эту строчку воспринял неправильно. Так как искренне считал, что это другой человек, воспринял как адресованное ему.

> Так что, все ходы записаны, вас поймали на пиздеже. =D
> Брысь под шконку иерархии, или как там тебе представляется это все, я хз, правда. =) Я надеюсь тут хотя бы юмор виден, или опять что-то не так?
Я думаю, идея в том, что логично было дать эту ссылку сразу.
> В начале я проебал слово «английский», потом он проебал слово «извинения». Невнимательность банальная.
Нет, я это прочитал. Моя ошибка была в сломанном детекторе. Я не распознал отправителя извинений. В следующий раз буду в первую очередь детектить по словам паразитам, а не по смыслу отправленного.
Аноним 28/05/24 Втр 14:30:23 #436 №761320 
>>761312

Да хватит уже, чел, серьезно. Просто будь внимательнее в будущем и не сыпь оскорблениями про размер контекста у людей которые не с тобой разговаривали и суть разговора которых ты мог не уловить.
Аноним 28/05/24 Втр 14:32:36 #437 №761322 
>>761306
>>761313
А вот эти два поста чьи? Только честно.
Аноним 28/05/24 Втр 14:42:04 #438 №761334 
image.png
>>761315
> Сначала ты уже все заметил и извинился, а потом ты пишешь, что оно выглядит охуенно, а речь шла у русских моделях.
Потому что там я пояснял, почему так отреагировал.
1. Реакция.
2. Извинение.
3. Пояснение, почему реакция.
Вот тебе и очередность такая.

Но, да, про скилл ишью мне аргумент понравился, я его у кого-то из треда спиздил. =)

> После поста извинений, всех остальных сообщений не существовало бы в принципе и все ответы бы ссылались на пост с извинением.
Ну а я просто в начале пояснил, а потом сослался.
А не сразу сослался, потому что подумал, что ты увидел.

Ну кто ж знал, что ты не увидел. =)

> Я думаю, идея в том, что логично было дать эту ссылку сразу.

Понимаешь, если бы я каждый раз предполагал, что вокруг меня невнимательные дауны (вот я сейчас не о тебе говорю, а вообще, шире), то я бы поясня и ссылался в каждом своем сообщении. Но я наивный и думаю, что люди вокруг меня умные и внимательные.
И тут, опять же, нет виноватых. И я забываю, что люди могут не заметить, и люди, порою, просто тупят. Всякое бывает.

> В следующий раз буду в первую очередь детектить по словам паразитам, а не по смыслу отправленного.
Боюсь, это не универсальное решение, но со мной бы сработало, да.

>>761320
Дак не я же тут горю целый тред. =) Вон, вопрощающий уже успокоился, а отвечающий почему-то альфа.
Ну, он тут главный, я не в силах с ним спорить. =)
Аноним 28/05/24 Втр 14:50:02 #439 №761343 
>>761334
>Дак не я же тут горю целый тред.

Оно и видно, такие пасты катаешь.
И прекрати уже смайлики ставить, они обратный эффект дают.
Аноним 28/05/24 Втр 14:55:40 #440 №761351 
>>761312
> Ваще, меня просто удивляет, как люди в начале не могут понять, что я пишу, а потом выдумывают тейки за меня, в итоге, и начинают их оспаривать, вменять мне в вину и так далее.
Нет, ничего придуманного там не оспаривалось. Все твои тейки были здесь >>759579
> Если я чего-то не понимаю — я переспрашиваю.
> Что мешает им сделать так же —я хуй знает.
Отсутствие понимания, что что-то упускаю.
> другой критикует за невнимательность, при этом сам проебал весь контекст и сам же не смог даже связать два сообщения подряд.
Да, признаю. Они у меня и сейчас хреново вяжутся. По крайней мере если оставлять в контексте вот этого >>759579
> РЕбят, я ж не психолог, вы мне не платите, решайте свои ментальные проблемы сами.
У тебя у самого проблема есть какая-то как мне кажется.
> Окей, я тупой, даун, мудак, все проебал, нихуя не понял, только сру под себя и все.

> Мне не сложно согласиться с вами в этом, потому что на реальность подобные фразы не влияют, и когда кто-то мне говорит спасибо — это греет. =3 А когда у кого-то жопа горит… НЕ НУ ЭТО ТОЖЕ ГРЕЕТ СВОЕГО РОДА (тут шутка про «греет» и огонь из жопы, если кто не понял), но на самом деле безразлично.
Потому что шутка мне понятна, а поведение - нет. Зачем в одном контексте писать "окей я даун", а потом сразу добавлять "мне не сложно согласиться, потому что на реальность не влияет". Если ты в действительности не даун и не мудак, то нахуя соглашаться? А если, вдруг, даун и мудак, то нахуя говорить, что в "реальности это не так". Это же по сути сам себе отрубаешь возможность им не быть.
Но может это и моя проблема, что я это не понимаю. Но на этот раз, как ты и хотел, задаю прямой вопрос. Объясни свое поведение в последнем гринтексте.
Аноним 28/05/24 Втр 15:00:15 #441 №761356 
>>761343
На обе строчки один ответ:
Ну я такой человек.
Пишу много, люблю писать, графоман и вязкость мышления, подробно и обстоятельно все объясняю.
А смайлики ставлю искренне. Улыбаюсь когда улыбаюсь, ржу когда ржу. Когда зол — я как раз смайлики не ставлю. =D
Я понимаю, что эффект обратный, но… меняться, как-то сдерживать себя, звучит странно. Думаю, кому-то безразлично на это, кто-то читает суть.

А кого бесят смайлики — искренне извиняюсь! Потерпите.

Или напишите с помощью llm плагин для барузера, который бы их вырезал. ;)
Аноним 28/05/24 Втр 15:11:13 #442 №761359 
>>761334
> Потому что там я пояснял, почему так отреагировал.
Да, но пост с пояснениями при этом не должен же противоречить посту с извинением.
> Но, да, про скилл ишью мне аргумент понравился, я его у кого-то из треда спиздил. =)
То есть и таких по итогу двое.
> Ну а я просто в начале пояснил, а потом сослался.
> А не сразу сослался, потому что подумал, что ты увидел.
Там все равно логично было сослаться сразу. Пояснять по факту причину, по которой долбился в глаза просто нечего и незачем. А все вопросы остальные закрываются коротким ответом в виде ссылки. Нет нужды писать "а ты читай мои сообщения лучше, смотри че написал".
> Ну кто ж знал, что ты не увидел. =)
Если бы воспринял как твой пост, вряд ли бы писал, что извинений от тебя нет. Опять же, как ты мог не знать, если же прямо в своих сообщениях над этим же и шутил.
> Понимаешь, если бы я каждый раз предполагал, что вокруг меня невнимательные дауны (вот я сейчас не о тебе говорю, а вообще, шире), то я бы поясня и ссылался в каждом своем сообщении. Но я наивный и думаю, что люди вокруг меня умные и внимательные.
Я не невнимательный, а просто даун, получается. Ведь пост прочитал, но не связал. Теперь будешь знать, что вокруг тебя одни дебилы. Их так-то 95% и я точно не исключение и в 5% не вхожу.
Аноним 28/05/24 Втр 15:15:55 #443 №761363 
бля какой унылый срач, заебали
Аноним 28/05/24 Втр 15:16:28 #444 №761364 
>>761351
> Если ты в действительности не даун и не мудак, то нахуя соглашаться?
Если кому-то очень важно доказать, что я даун и мудак, то у него явно проблемы какие-то. А я не хочу мучать человека. Пусть он успокоится.
Ну, это мое мироощущение.
Я могу быть даже не прав, и надо людей давить до конца, чтобы они реальность увидели. (это не моя точка зрения, я лишь предполагаю)

А по поводу гринтекста.

Смотри, вот человек на меня обиделся и агрится. Не кто-то конкретный, а вообще. И вот он считает (искренне или нет), что я — злой, плохой и глупый. Я могу спорить с ним, пытаясь доказать свою хорошесть. Либо, уйти из спора, согласившись. Он будет удовлетворен, спор будет окончен.
При этом, когда некто другой задаст вопрос, а я смогу ответить на него — я отвечу. По возможности подробно, корректно, понятно. И если человеку это поможет — он может сказать спасибо.
И вот это самое спасибо — реально имеет значение, оно ценно и приятно. =)
А как я закончил не интересный мне спор, на что я там согласился в глазах того человека — значения не имеет.
Те, кто знают меня — знают меня и так, без моих согласий с кем-то в целях окончания спора. (работает в обе стороны — кто-то считает меня шизом, даже когда согласны с вещами, которые я пишу=)

Надеюсь, у меня получилось ответить на твой вопрос. Я старался, лучше у меня не выйдет, извини.
Аноним 28/05/24 Втр 15:18:53 #445 №761365 
>>761359
> То есть и таких по итогу двое.
Надеюсь, второй не ставит смайлики. =D А то и правда можно запутаться!

>>761363
Да уже сцена после титров.

Надеюсь щас вернемся к обсуждению моделек.
Аноним 28/05/24 Втр 15:24:46 #446 №761369 
>>761359
>То есть и таких по итогу двое.
Ты ебанутый? "Скилл ишью" это стандартный ответ от всего треда, если у тебя что-то получается или модель поломанная и гонит хуйню. Если ты спрашиваешь, как это исправить, тебе ответят "сорри, гейткип". Это блядь по всему разделу распространено, здесь таких ответов сотни.
Аноним 28/05/24 Втр 15:26:21 #447 №761370 
>>761356
> Пишу много, люблю писать, графоман и вязкость мышления, подробно и обстоятельно все объясняю.
Но так, чтобы даунам все равно непонятно было.
Аноним 28/05/24 Втр 15:29:37 #448 №761378 
Поспорили как-то аутист-прагматик и графоман-обиженка...
Аноним 28/05/24 Втр 15:32:51 #449 №761382 
>>761369

А вот и второй юзер этой залупы. Ну хоть смайлы не ставит, но злой.
Аноним 28/05/24 Втр 15:33:40 #450 №761383 
>>761369
Обычно формулируют иначе. Либо про промпт формат говорят, либо про настройку семплера. А фразу "скилл ишью" употребляют редко. А так оно и без того понятно, что варианта все 2. Либо рукожоп, либо кванты сломаны. А чаще и то, и другое.
Аноним 28/05/24 Втр 15:34:52 #451 №761385 
>>761382

> но злой.
Нейтральный он.
Аноним 28/05/24 Втр 15:38:14 #452 №761392 
>>761385

Злой, приписывает собственные злые ответы новичкам всему треду. Я вот например стараюсь помогать новичкам и оскорбительную конструкцию "скилл ишью" не использую. То же русское слово "рукожоп" как-то ближе и добрее, без претензий.
Аноним 28/05/24 Втр 15:40:07 #453 №761393 
>>761370
Не специально.
Я поэтому и говорю, что графоман. Косноязычие дает о себе знать временами. Иногда не могу посмотреть со стороны.
Так что, мои 2 цикла похоронены в столе, не увидите вы как минимум 6 книг… И на том спасибо. =D
Сегодня челы обсуждали стыдность выкладывания ролеплея. И я на стороне того, которому стыдно (отношусь к рп серьезно, ага=).
И вот с книгами тоже самое. В детстве пытался писать, сюжеты есть, но на бумаге хуйня получается кринжовая.

>>761378
Кек.

>>761383
Раньше было популярное выражение.
Ну и часто я вижу, как люди правда работает с нейронками… Ну не то чтобы «неправильно», а именно неумело-в-лоб.
Запускаешь и без всяких промптов на стандартной Акве спрашивает «как написать свою игру на C++???»
С промпт-форматом викуни на чатмл без стоп-токенов и с температурой 1,5.
А другие люди сидят, промпт-формат вручную пишут, токены тестируют, CoT/ToT прописывают, карточку оформляют, семплеры подбирают.
Ну и результаты разные по итогу, да.
Аноним 28/05/24 Втр 15:40:35 #454 №761395 
>>761392
Хорошо, уговорил, буду говорить «рукожоп». =) Надеюсь, новичкам полегчает.
Аноним 28/05/24 Втр 15:56:22 #455 №761411 
>>761392
>приписывает собственные злые ответы новичкам всему треду
Я такие ответы использую, когда беседа уже проёбана и очевидно, что собеседник долбоёб непроходимый. Но ты можешь поискать по разделу, эти ответы распространены, в том числе в других тредах, где я даже не пощу, так что приписывать этот ответ каким-то конкретным анонимам лол глупо.

>>761393
>не увидите вы как минимум 6 книг
Спасибо тебе за это. Но на самом деле кринжатина от антонидасов находит свою целевую аудиторию, ты бы видел, что на автор сегодня народ читает, это такой пиздец, который не только писать стыдно, его читать стыдно. А в комментариях "автор молодец, хочу ещё".

>карточку оформляют
Если тебе нужна информация от модели, то карточку лучше делать максимально короткой. У меня с карточкой модель скорее высказывает своё мнение по теме, а не предоставляет информацию.
Аноним 28/05/24 Втр 16:27:17 #456 №761436 
>>761411
>что собеседник долбоёб непроходимый
Это с твоей точки зрения. А с его может быть наоборот.
Возможно чел просто непосвящен в тему чего-либо, так и ты ведь не всезнайка. Поэтому долбоебов тут вообще нет. Вот спесивые ебланы есть. Не принимай на свой счет если что.
я не он, а он не я
Аноним 28/05/24 Втр 18:07:25 #457 №761534 
>>761411
> ты бы видел, что на автор сегодня народ читает
Я литрпг послушивал на литресе, и там уже порою бывает испанский стыд, а уж на автор.тудей я пожалуй даже заходить не буду…
Наверное ллама-8 лучше пишет.
Аноним 28/05/24 Втр 18:54:30 #458 №761561 
1.png
Поискал сою в третьей лламе. Реально такое чувство, что вся соя привязана к ассистенту, стоит только сменить "личность", как модели становится похуй всё. Сжигать ниггеров на кострах? Заебись, внатуре чётко. Массшутинг? Да хуйня делов, лол, бывает. Выебать собаку хочешь? Ну ты уточни породу и организуем.
Аноним 28/05/24 Втр 19:06:37 #459 №761576 
>>761561
Это православный Noass из кончай треда? Как убрал ассистента, поделись опытом, мб можно будет и Qwen задоминировать. Я прошибал лламу префилом(тоже сжигала нигеров и подобное), но думаю без ассистента было бы лучше!
Аноним 28/05/24 Втр 19:23:52 #460 №761592 
>>759434
С лорбуком это походу не фича, а баг. По моим наблюдениям, если только лорбук векторизуется, сразу же начинают просачиваться абсолютно левые записи из лорбука, причем непонятно, почему - с человеческой точки зрения никаких совпадений нет.
Аноним 28/05/24 Втр 19:56:26 #461 №761627 
>>761121
Когда сетка говорит, что она поняла смысл, это не то же самое, как в случае, если разумное создание вроде собаки поняло задачу. Нейросеть это уровень колонии амеб, которые даже не понимают и не знают вещей, которые для тебя самоочевидны. Для них нет разницы между мужчиной и женщиной, и то, что у твоих женских персонажей вообще женские, а не мужские половые органы, это случайное совпадение, просто оно очень вероятное.
Аноним 28/05/24 Втр 19:58:56 #462 №761629 
>>761627
В общем мораль в том, что, когда нейросеть начинает систематически писать ахинею, то проще написать то, что ты хочешь, самому.
Аноним 28/05/24 Втр 20:16:59 #463 №761647 
А знаете что? Таки прихожу к выводу что Мику лучше чем командир. Не плюсовский который по крайней мере.
Аноним 28/05/24 Втр 20:18:24 #464 №761648 
>>761647
Она как минимум в 2 раза жирнее. Но говорят ллама ещё лучше.
Аноним 28/05/24 Втр 20:20:45 #465 №761651 
>>761648
> в 2 раза жирнее
Эт да, затупов с логикой меньше.
> ллама ещё лучше
Так что, третью лламу уже можно запускать без смс и говняка?
Аноним 28/05/24 Втр 20:21:48 #466 №761652 
>>761651
> уже
Давно. Ты бы ещё через год проснулся.
Аноним 28/05/24 Втр 20:22:48 #467 №761657 
>>761652
А файнтюны уже есть? Ну и да, вон в треде постоянно кто то про сою в тройке упоминает.
Аноним 28/05/24 Втр 20:25:25 #468 №761659 
>>761657
Есть анцензор вроде. Соя есть, но ллама хорошо слушается инструкций.
Аноним 28/05/24 Втр 20:29:42 #469 №761662 
>>761659
А что там по квантовальщикам не знаешь? Или можно в принципе у любого васяна с хаггингфейса брать - приколов не будет?
Аноним 28/05/24 Втр 20:30:27 #470 №761663 
>>761662
Я анцензор не пробовал, так что не знаю.
Аноним 28/05/24 Втр 20:31:53 #471 №761665 
>>761663
Ладно тогда наверну по рандому.
Аноним 28/05/24 Втр 20:33:39 #472 №761670 
бля аноны помогите пж. поставил таверну все завел вроде настроил.
время генерации при этом доходит до минуты в таверне притом что в кобальде на той же модели секунд 30 даже меньше. в чем может быть проблема? кто может подсказать с настройками таверны в целом?
Аноним 28/05/24 Втр 20:36:56 #473 №761671 
>>761670
Так ты может с карточкой какой общаешься, у которой контекста много обрабатывается?
Аноним 28/05/24 Втр 20:39:03 #474 №761673 
image.png
>>761671
да вроде не особо. опять же в кобальде все гораздо быстрее. кста а можно как то сделать в таверне что бы оно выводило текст пока генерит как в кобальде.
Аноним 28/05/24 Втр 20:45:05 #475 №761681 
>>761673
>да вроде не особо
Существенно как минимум. В кобольде у тебя контекста почти ноль, а здесь 1к минимум. Но проверки ради можешь создать пустую карточку и сгенерить что-то там. Если разница в скорости все равно будет ощутимой, то уже тогда смотреть надо.
>можно как то сделать в таверне что бы оно выводило текст пока генерит как в кобальде.
Слева сверху AI response configuration (значок с тремя полосками) > Streaming
Аноним 28/05/24 Втр 20:51:57 #476 №761700 
>>761657
Смауг давно есть. Расцензуривание есть.
Аноним 28/05/24 Втр 20:59:51 #477 №761712 
>>761700
> Смауг
Чем знаменит, на что годится?
Аноним 28/05/24 Втр 21:17:01 #478 №761739 
>>761681
а можно скрин пж где это находиться?
Аноним 28/05/24 Втр 21:19:35 #479 №761743 
screen.png
>>761739
Аноним 28/05/24 Втр 21:34:02 #480 №761763 
>>761743
спасибо анонче. я тыкал но он чет поиблось и не выдавало ответ. а сейчас перезапустил все ок. можешь еще в целом по настройкам советов дать можешь?
Аноним 28/05/24 Втр 21:45:51 #481 №761787 
>>761763
Остальные настройки это уже промпт формат, настройки семплера. Но оно сильно от модельки зависит.
Аноним 28/05/24 Втр 21:51:39 #482 №761795 
image.png
image.png
image.png
>>761787
а в какую сторону копать то? а то я пошуршал редит но там чет никакой четкой инфы нет. на ютубе так же. просто все эти настройки которые я кину нижу их шо и как ставить вот например пресеты.или же второй пик.третий пик это шо как и для чего? моей сетки нигде нет.
Аноним 28/05/24 Втр 21:51:46 #483 №761796 
Норма, что таверна после 3-х удалений персов подряд зависает?
Аноним 28/05/24 Втр 21:53:27 #484 №761797 
>>761795
В ту, где ты скачиваешь модельки. Там пишут какие настройки лучше использовать.
Аноним 28/05/24 Втр 22:00:26 #485 №761800 
>>761797
а можно скрин опять же где это написано и как эхто выглядит?
Аноним 28/05/24 Втр 22:02:54 #486 №761801 
>>761800
Нельзя, потому что каждый по-разному пишет. А кто-то так вообще не пишет. Скажи, какой моделькой пользуешься, и может подскажу что.
Аноним 28/05/24 Втр 22:06:01 #487 №761804 
Average_Normie_l3_v1_8B.f16. ее тут один анонче кидал говорил что норм вот я и скачал.
Аноним 28/05/24 Втр 22:21:10 #488 №761822 
>>761804
Во-первых, ты скачал слишком жирный квант. Совсем необязательно качать 16, можно скачать q8_0 версию. По качеству то же самое, но в два раза меньше места занимать будет. Во-вторых, моделька по факту llama-3. Для нее есть пресет в таверне. Жмешь AI response formatting (значок в виде буквы А), там выбираешь пресет Llama-3-instruct. По настройкам семплера, нужен пресет min_p. И кстати, раз уж вмещается 16 квант, то можешь модельку и пожирнее поискать. Командир тот же в русский неплохо умеет. Но это так, на потом.
Аноним 28/05/24 Втр 22:29:06 #489 №761834 
>>761822
>Командир тот же в русский неплохо умеет. Но это так, на потом.
Ну ты сравнил... Командира и 8B модельку. Даже несмотря на то, что эта 8B веси 16ГБ, командир будет столько весить только на ядрёных квантах типа Q3 и ниже. Да и разве командир не жрёт дохера места под контекст?
Аноним 28/05/24 Втр 22:29:08 #490 №761835 
>>761822
>По настройкам семплера, нужен пресет min_p
Это text completion presets, или где? Что-то не наблюдаю такого пресета.
мимо другой анон
Аноним 28/05/24 Втр 22:32:12 #491 №761841 
model.png
screen2.png
screen3.png
>>761804
>>761835
Пикрил 1 - версия модельки, которую ты хочешь скачать.
Пикрил 2 - Карточка модели, на которой есть вся важная информация. Перейди по ссылке, которую я подчеркнул.
В ссылке увидишь пикрил 3. Здесь все файлы с нужными тебе настройками. Первый - настройки семплера. Оставшиеся два - настройки промпт формата. Но в последних двух файлах нет нужды, они у тебя уже предустановлены в таверне. Просто выбираешь Llama-3-instruct пресет.
Аноним 28/05/24 Втр 22:35:12 #492 №761844 
>>761835
Да, по дефолту его там нет. Нужно скачать и импортировать.
https://dropmefiles.com/udsIM
Аноним 28/05/24 Втр 22:36:10 #493 №761846 
>>761822
ну в плане жирный? там же вроде он как бы жирнее из за контекста или я что то не так понимаю? (я просто только вкатиться пытаюсь)

>>761841
сейчас попытаюсь потыкать сам спасибо анонче. если не затруднит можно простенькую пошаговую инструкцию? на всякий. заодно отпишу тут о успехах
Аноним 28/05/24 Втр 22:44:23 #494 №761854 
>>761846
> ну в плане жирный?
Посмотри на скрин, который я тебе скинул. Пикрил 1. Квант в 2 раза больше весит чем 8_0.
> он как бы жирнее из за контекста или я что то не так понимаю?
Нет, он жирнее, потому что его не сжимали. Кванты сжимают с потерей качества, чтобы выиграть в памяти. Но 8_0 идет без потерь качества, поэтому если не заинтересован в тренировке модельки, то смысла качать 16 просто нет. А если заинтересован, то надо в формате safetensors качать скорее всего.
> сейчас попытаюсь потыкать сам спасибо анонче. если не затруднит можно простенькую пошаговую инструкцию? на всякий. заодно отпишу тут о успехах
Куда уж пошаговее? Я же со скринами все скинул. Пикрил1 надо скачать. Пикрил 2 это то, где ты обычно смотришь инфу у моделей, там перейдешь по ссылке и увидишь пикрил3. Тебе нужно скачать первый файл и добавить его в text completion presets как в таверне. Либо можешь скачать настройки min_p, которые я скинул здесь >>761844
text completion presets находится здесь >>761795 на пикрил 1. Жмешь на значок импортировать, импортируешь скачанный файл. После этого делаешь то, что я описал здесь >>761822
> Жмешь AI response formatting (значок в виде буквы А), там выбираешь пресет Llama-3-instruct.
Аноним 28/05/24 Втр 22:46:42 #495 №761857 
>>761854
>добавить его в text completion presets как в таверне
добавить его в text completion presets в таверне
Аноним 28/05/24 Втр 22:49:50 #496 №761863 
>>761844
Анонче, а можешь, пожалуйста, залить на catbox.moe, либо просто скрином?
Просто у меня что-то dropbox мозгу ебёт.
мимо другой анон
Аноним 28/05/24 Втр 22:52:20 #497 №761872 
>>761854
ну это как я понял квант от другого автора и нашел его. вот сейчас качаю. а как его добавить в text completion presets в таверне? (прости за очень тупые вопросы)
Аноним 28/05/24 Втр 22:52:40 #498 №761873 
>>761863
У меня впн отсутствует.
{
"temp": 1.25,
"temperature_last": true,
"top_p": 1,
"top_k": 0,
"top_a": 0,
"tfs": 1,
"epsilon_cutoff": 0,
"eta_cutoff": 0,
"typical_p": 1,
"min_p": 0.1,
"rep_pen": 1.03,
"rep_pen_range": 320,
"no_repeat_ngram_size": 0,
"penalty_alpha": 0,
"num_beams": 1,
"length_penalty": 1,
"min_length": 0,
"encoder_rep_pen": 1,
"freq_pen": 0.7,
"presence_pen": 0,
"do_sample": true,
"early_stopping": false,
"dynatemp": false,
"min_temp": 0,
"max_temp": 2,
"dynatemp_exponent": 1,
"smoothing_factor": 0,
"smoothing_curve": 1,
"add_bos_token": true,
"truncation_length": 2048,
"ban_eos_token": false,
"skip_special_tokens": true,
"streaming": true,
"mirostat_mode": 0,
"mirostat_tau": 5,
"mirostat_eta": 0.1,
"guidance_scale": 1,
"negative_prompt": "",
"grammar_string": "",
"json_schema": {},
"banned_tokens": "",
"sampler_priority": [
"temperature",
"dynamic_temperature",
"quadratic_sampling",
"top_k",
"top_p",
"typical_p",
"epsilon_cutoff",
"eta_cutoff",
"tfs",
"top_a",
"min_p",
"mirostat"
],
"samplers": [
"top_k",
"tfs_z",
"typical_p",
"top_p",
"min_p",
"temperature"
],
"ignore_eos_token_aphrodite": false,
"spaces_between_special_tokens_aphrodite": true,
"sampler_order": [
6,
5,
0,
1,
3,
4,
2
],
"logit_bias": [],
"n": 1,
"rep_pen_size": 0,
"genamt": 1000,
"max_length": 4096,
"name": "min_p"
}
Аноним 28/05/24 Втр 22:54:38 #499 №761878 
image.png
>>761854
то есть мне качать первый файл?
Аноним 28/05/24 Втр 22:55:42 #500 №761882 
>>761873
О. Спасибки! А в смысле? У меня он без ВПНа открывается. По крайней мере главная страница. Иногда правда не открывается именно страница скачивания файлов с catbox - но это чинится открытием главной страницы catbox.moe в другой вкладке и перезагрузкой странцы со скачиваемым файлом.
Аноним 28/05/24 Втр 22:56:09 #501 №761883 
>>761627
>Нейросеть это уровень колонии амеб, которые даже не понимают и не знают вещей, которые для тебя самоочевидны. Для них нет разницы между мужчиной и женщиной, и то, что у твоих женских персонажей вообще женские, а не мужские половые органы, это случайное совпадение, просто оно очень вероятное.
В шапку треда, однозначно. Лучшее описание современных нейросетей, что я видел.
Аноним 28/05/24 Втр 22:56:23 #502 №761885 
>>761576
>Это православный
Это православная база без "дотрейна". Оно так и работает. Про ассистента имел ввиду карточку адекватную. Тюнов, кстати, нормальных на эту модель нет.
Аноним 28/05/24 Втр 22:58:05 #503 №761890 
.png
Похоже, что кто-то обосрался и откатил в вики правки за последние две недели. Права на force push у всех контрибьютеров есть. Или может гитгуд что-то у себа шатает.

Вот вам и польза распределённости - сейчас долью удалённое.
Аноним 28/05/24 Втр 22:59:24 #504 №761893 
>>761854
>Кванты сжимают с потерей качества, чтобы выиграть в памяти. Но 8_0 идет без потерь качества
8 бит на вес, 16 бит на вес... А оригинал вообще 32 бита на вес. Что там остаётся от качества даже к 8 битам, остаётся только гадать. А ведь и 8 далеко не у каждого.
Аноним 28/05/24 Втр 23:01:15 #505 №761899 
>>761890
Ради интереса, а что за "fix small mistake". Выглядит так, будто кто-то всю вики в свастонах разрисовал и решил скрыть это под названием "fix small mistake".
Аноним 28/05/24 Втр 23:02:00 #506 №761903 
>>761872
Квант - это моделька. Ее ты добавляешь в кобольде, когда выбираешь модельку.
> как его добавить в text completion presets в таверне?
А сюда ты добавляешь первый файл на пикрил 3 >>761841
Как добавить? Пикрил 1 >>761795
Под надписью "Пресеты для Text Completion" справа от слова Default есть значки. Третий значок это значок импортирования файла. Вот на него надо нажать и выбрать скачанный файл. После этого нажать на надпись Default и выбрать сохраненную настройку.
>>761893
Ты и музыку, наверное, в wav формате исключительно слушаешь? Даже flac считаешь зашкваром?
Аноним 28/05/24 Втр 23:04:40 #507 №761915 
>>761627
>Для них нет разницы между мужчиной и женщиной
Это прям буквально прослеживается, кстати. На малых моделях у тян регулярно обнаруживаю наличие простаты.
Аноним 28/05/24 Втр 23:04:47 #508 №761916 
image.png
>>761903
ну вот вроде правильно сделал?
Аноним 28/05/24 Втр 23:05:03 #509 №761918 
>>761882
Попробую в следующий раз твой способ.
Аноним 28/05/24 Втр 23:05:33 #510 №761922 
.png
>>761890
Не, походу они совсем прилегли. У меня ни вики, ни сам гитгуд, ни гит не работает, хотя правки успел пушнуть до того, как он совсем прилёг.

>>761899
Да фигня там. Я перевод одной статьи по дифьюзерсам делал последние пару дней и мелкие правки докидывал. Думаю, там и на свастоны было бы плевать - там же эроге с лолями и прочее подобное на этом хосте висит.
Аноним 28/05/24 Втр 23:05:34 #511 №761923 
>>761878
Да, это твой файл с настройками.
Аноним 28/05/24 Втр 23:06:51 #512 №761929 
>>761885
А что за карточка?
Аноним 28/05/24 Втр 23:08:23 #513 №761939 
>>761916
Вроде правильно.
Аноним 28/05/24 Втр 23:08:29 #514 №761940 
>>761923
вот скачал и запустил его >>761916
правильно?
Аноним 28/05/24 Втр 23:10:19 #515 №761954 
>>761940
Теперь поставь Llama 3 instruct в промпт формат. Можно не качать, в таверне уже из коробки пресет есть.
Аноним 28/05/24 Втр 23:14:34 #516 №761962 
>>761922
>Думаю, там и на свастоны было бы плевать - там же эроге с лолями и прочее подобное на этом хосте висит.
Ааа... Вот почему он у меня не открывается...
Аноним 28/05/24 Втр 23:14:53 #517 №761964 
.png
>>761890
Они должны были уйти на техобслуживание, но они немного налажали, и вместо того, чтобы отрубить хост, они как-то старый бекап двух-недельной давности подняли, поэтому для всех глобально выглядит, что правки на 2 недели назад откатились.

Ждём завершения техобслуживания.
Аноним 28/05/24 Втр 23:16:03 #518 №761966 
>>761954
а где это сделать? можно скрин пж
Аноним 28/05/24 Втр 23:25:05 #519 №761983 
>>761966
Пикрил 3 >>761795
Вместо Alpaca ставишь Llama 3 Instruct.
А вообще, тебе бы не мелкую модельку, а умненькую мультимодалку, чтобы она тебя вела за ручку везде и отвечала на все вопросы в картинках. Было бы очень здорово.
Аноним 28/05/24 Втр 23:32:08 #520 №761996 
image.png
>>761983
вот анонче оно и так стояло (мб я натыкал)
а про какую мультимодельку ты говоришь?
Аноним 28/05/24 Втр 23:43:21 #521 №762016 
>>761996
Ставишь Llama 3 Instruct.
> а про какую мультимодельку ты говоришь?
Чатгпт только если. А так я понятия не имею, что там умного локально запустить можно.
Аноним 29/05/24 Срд 00:39:41 #522 №762130 
>>761890
Всё, починили гитгуд.
Аноним 29/05/24 Срд 03:00:24 #523 №762404 
>>761885
Ну и нахуя вводить ананов в заблуждение? Noass был бы ещё интересен, а с этой мелочью любой овощь разберётся. Так и пиши, что сделал карточку маньяка.
Аноним 29/05/24 Срд 03:34:37 #524 №762470 
LOL.png
>>762404
Тем временем "карточка маньяка" для базовой лламы-3.
Аноним 29/05/24 Срд 03:54:43 #525 №762493 
>>762470
Ну так базовая модель (не инстракт) вроде соей/аполоджайзами и не страдала, хотя могу ошибаться, я с ней особо не "общался". Я про инстракт и ее пробите спрашивал (ну ООС и префил пробивают, но.. Думал, можно тупо вырезать ассистента), если судить по кончай треду, для удаления изначальных ролей (хумана/ассистента) у Опуса юзают дохуя контекста для их затапливания, что для лламы критично, т.к. у нее всего 8к из которых "рабочих" вообще 4к.
Аноним 29/05/24 Срд 04:17:10 #526 №762519 
>>762493
Под "базовой" я имею ввиду, что не "тюн" и не квант. А так это инстракт версия 8b через трансформеры. Полностью вырезать ассистента не выйдет, так как он привязан к большой части обучающих данных. По идее, можно его подавить векторами, но это даже не требуется.
На счёт контекста хуй знает, уходил далеко за 4к, всё работает нормально. Ответы не всегда нравятся, но это же 8b, мне и более крупные модели не всегда нравятся. Единственное, что хотело бы подавить, так это бесконечный хохот модели, даже ассистент смеётся, а уж с "весёлой" карточкой, то вечно улыбки и смех. Может, потом запрещу в карточке.
Никакого префила, оос и подобной хуйни не использую, так как модель изначально отбитая на все нейроны, о чём в первом посте и писал. Ставишь отвечать ассистента или пишешь в карточке "хелпфул ассистант" - пиши пропало. Но с другими карточками это просто дичь.
Аноним 29/05/24 Срд 05:40:19 #527 №762544 
>>762519
>Ответы не всегда нравятся, но это же 8b
Она и на 70B начинает заЛУПаться и тупить после 4-5к, про 8В я даже думать боюсь.
> ассистант
Он "вылазит" из без его упоминания (в нарративе за {{char}} начинает писать про "хейт"/"bad things" and etc.), именно поэтому и хотелось бы его вырезать нахуй.
>вектора
Пока не пробовал, но читал, что они на активацию входных нейронов влияют. Как их обучить и как их в таверне/обабуге подрубить можно, знает кто?
Аноним 29/05/24 Срд 07:28:51 #528 №762561 
ПОЛОЖНЯК
stheno пока ЛУЧШАЯ модель для рп среди мелких, больше 20b не тестил, не влезают.

Креативная, быстрая, большие посты, не тупит, иногда шизит но даже меньше чем fim. До 16к контеста тестил - не сильно деградирует. Кайф, sao10k шарит, не то что драммер.
Аноним 29/05/24 Срд 07:38:44 #529 №762564 
0000.png
>>762544
>начинает писать про "хейт"/"bad things" and etc.
У тебя что-то сломано, смотри настройки. Или квант говно.
Ассистент залупается на эксплисит контент, на порнушной карточке ей вообще поебать. Где-то на 3.5к контекста этот пост. Суховато, но и модель не ерп, лол.
Аноним 29/05/24 Срд 07:49:08 #530 №762571 
>>762564
Так я и написал, что триггерится она только на расизм/угнетение и подобное, спроси про то как ККК сжигали негров, а их детей насиловали и получишь "bad things" и как этого надо избегать. (у меня с ООС или префилом отвечает, но также "сухо" как и с порно)
Про "сухое" описание деталей порнушки и так понятно, да и с ней проблем не было, с чего ты это взял, я не понял.
ПЕРЕКАТ Аноним 29/05/24 Срд 08:35:26 #531 №762584 
ПЕРЕКАТ

>>762583 (OP)

ПЕРЕКАТ

>>762583 (OP)
Аноним 29/05/24 Срд 08:49:18 #532 №762587 
000.png
>>762571
Вообще похую
comments powered by Disqus

Отзывы и предложения