24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

LLaMA тред №15 /llama/

 Аноним 15/08/23 Втр 22:45:56 #1 №457355 
16908351727320.png
В этом треде обсуждаем семейство моделей от фейсбука под названием LLaMA, делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна, что сейчас наспех выпустили, а отладить забыли.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3, в которой 175B параметров (по утверждению самого фейсбука). Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.
На данный момент развитие идёт в сторону увеличения контекста методом NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
Так же террористы выпустили LLaMA 2, которая по тестам ебёт все файнтюны прошлой лламы и местами СhatGPT. Ждём выкладывания LLaMA 2 в размере 30B, которую мордолицые зажали.

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0.bin. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в случае Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит, квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.

Гайд для ретардов без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в ggml формате. Например вот эту
https://huggingface.co/TheBloke/WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGML/blob/main/WizardLM-Uncensored-SuperCOT-Storytelling.ggmlv3.q5_1.bin
Можно просто вбить в huggingace в поиске "ggml" и скачать любую, охуеть, да? Главное, скачай файл с расширением .bin, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/TavernAI/TavernAI (на выбор https://github.com/Cohee1207/SillyTavern , умеет больше, но заморочнее)
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах, есть поддержка видеокарт, но сделана не идеально, зато самый простой в запуске, инструкция по работе с ним выше.
https://github.com/oobabooga/text-generation-webui/blob/main/docs/LLaMA-model.md ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ. Самую большую скорость даёт ExLlama, на 7B можно получить литерали 100+ токенов в секунду.

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.org/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.org/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.org/lmg_models Самый полный список годных моделей
https://rentry.co/ayumi_erp_rating Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.org/llm-training Гайд по обучению своей лоры

Факультатив:
https://rentry.org/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи

Предыдущие треды тонут здесь:
>>438203 (OP)
>>426362 (OP)
Аноним 15/08/23 Втр 23:04:32 #2 №457401 
1574450781736.png
>>457089 →
Куда версию качай и выгружай слои, можешь и убабугу.
>>457331 →
> Ггмл версию пробовал загружать?
Лламацпп тут как-то странно грузит, q5km позволяет выгрузить около 62 слоев а потом у первой карточки начинается переполнение тогда как во второй только 19 гигов занято. Скорости больше чем с одной картой но всеравно ерунда (5 т/с в лучшем кейсе), лламацпп для мультигпу неочень пригодна в текущем виде.
> Про какие конкретно галочки речь
Пикрел, на результаты генераций влияют по заявлениям. Но раз проблема решилась то все норм. Алсо в эксламму же вроде пытались 3бита завозить (находил упоминания когда про поддержку 8бит искал), так и недопилили?

А любом случае из "именитых" пока что 70б только айроборос (м)2.0 юзабелен. Стоит его 13б версию оценить, может быть тоже неплохой, но только 2.0, ни в коем случае не 1.4.1.
>>457350 →
Шо опять? Были в до-аи эпоху, и фиксы в итоге оказались не особо режущие, из последних новостей было только про дыру в райзене.
Аноним 15/08/23 Втр 23:11:59 #3 №457417 
>>457401
https://3dnews.ru/1091367/chipi-intel-teryayut-do-39-proizvoditelnosti-izza-patcha-ot-downfall
не проверял рассылают уже или только думают, если распиздели на весь мир значит скорей всего готовы ввести патч или уже ввели, хуй знает
Аноним 15/08/23 Втр 23:19:29 #4 №457437 
>>457417
Чел, это так же как и со Спектром - на этапе компиляции дыра закрывается, пока ты специально не соберёшь бинарник с этим исправлением ничего не изменится. В винде уже давно есть два тулкита - spectre-mitigated и обычный.
Аноним 15/08/23 Втр 23:21:37 #5 №457442 
>>457437
Я не шарю в этом, просто подумал что если чет такое введут может сломаться то что использует тот же avx2
Аноним 15/08/23 Втр 23:30:09 #6 №457455 
>>457442
Поменьше читай всякие желтые статьи, где насилуют учёных, их же рерайтят студенты за 15р даже не понимая о чём там написано. Патчи безопасности никогда не выкатывают с урезанием производительности, они всегда опциональны для тех кому оно действительно нужно, например бизнесу. Даже самые громкие дыры процев - meltdown и spectre - по умолчанию нигде не пофикшены, фикс первого в бивосе включается, второй надо компилировать со специальным тулчейном.
Аноним 15/08/23 Втр 23:30:37 #7 №457456 
>>457401
> Лламацпп тут как-то странно грузит
У тебя она хотя бы грузит, у меня просто еррор: AttributeError: 'LlamaCppModel' object has no attribute 'model' сам чтоли собирал из исходников свежую версию?
> потом у первой карточки начинается переполнение тогда как во второй только 19 гигов занято
Ну с ней нельзя выбрать врам по картам, контекст небось в первую лезет и после переполнения в рам.
> так и недопилили?
Ну как видишь нет. Видел только такое https://github.com/turboderp/exllama/issues/95 но по всей видимости нинужно что то кроме 4бит.
Аноним 15/08/23 Втр 23:31:39 #8 №457458 
>>457455
ну и заебись
Аноним 15/08/23 Втр 23:48:10 #9 №457492 
>>457455
>их же рерайтят нейросети за 20 баксов в месяц даже не понимая
Пофиксил.
Аноним 15/08/23 Втр 23:49:20 #10 №457497 
1608190607676.png
>>457456
> 'LlamaCppModel' object has no attribute 'model'
Пикрелейтед выставлено? Без него 70 отказывается запускать. Алсо ты HF версию пытаешься запустить? Для нее нужно доп токенайзер скачать, просто гитклон в папку моделей https://huggingface.co/oobabooga/llama-tokenizer
> Ну с ней нельзя выбрать врам по картам, контекст небось в первую лезет и после переполнения в рам.
Похоже на то, настроек бы не помешало. Алсо загружает модель иначе, автожптку и эксллама по очереди заполняют, а в llamacpp растет потребление врам одновременно на обоих карточках. Надо из интереса в код залезть, а то окажется какой-нибудь прикол типа загрузка слоев в шахматном порядке.
Ну и по контексту, эксллама сразу распределяет врам и по ходу действия потребление растет незначительно, 12к контекста загружалось и еще место остается. А cpp даже с 4к отъедает много поверх и при запуске генерации на второй карте потребление тоже повышается.
Аноним 16/08/23 Срд 00:08:59 #11 №457550 
>>457497
> Пикрелейтед выставлено?
Неа, не прочитал параметры, да так стало загружать нормально. rms_norm_eps ставишь рекомендуемый?
> Алсо ты HF версию пытаешься запустить?
Обычную, она чем то кроме возможности измерения ppl отличается?
Вижу что написано llamacpp_HF is a wrapper that lets you use llama.cpp like a Transformers model, which means it can use the Transformers samplers. Ещё бы понять как это понимать.
> Ну и по контексту, эксллама сразу распределяет врам и по ходу действия потребление растет незначительно, 12к контекста загружалось и еще место остается. А cpp даже с 4к отъедает много поверх и при запуске генерации на второй карте потребление тоже повышается.
Я тоже заметил что врама как то больше съедает эта версия, то что влезает в автогпт не может поместиться здесь, даже не учитывая контекст.
Аноним 16/08/23 Срд 00:14:52 #12 №457560 
>>457550
> rms_norm_eps ставишь рекомендуемый?
Да. Надо бы хотябы изучить что это, а то еще окажется новая фича, которая как раз и обеспечивает оче качественную работу моделей иногда.
> измерения ppl
Попробуй измерить, будешь "приятно" удивлен. Так доп семплеры и опции, но кому они нужны.
> что врама как то больше съедает эта версия
А еще до сих пор не пофикшен баг, когда при выгрузке модели в врам остается мусор и при повторной загрузке занято уже на 16 а 19 гигов. Ну это лучше чем было, раньше замусоривалось аж 5 гигов. Ну на 13б хорошо работает и ладно, кмк лучше избыточную мощность пустить на более жирный квант малоотличимый от 16 бит, чем радоваться 70+ т/с без задач.
Аноним 16/08/23 Срд 00:24:22 #13 №457586 
>>457550
> Ещё бы понять как это понимать.
Семплеры у Жоры и Обнимающего ебала разные, немного отличаются по поведению.
Аноним 16/08/23 Срд 00:35:03 #14 №457601 
>>457560
> будешь "приятно" удивлен
Тем что ничего не просиходит?
> Ну на 13б хорошо работает и ладно, кмк лучше избыточную мощность пустить на более жирный квант малоотличимый от 16 бит, чем радоваться 70+ т/с без задач.
А это идея. Сначала грузить жирный квант до 4-8к, пока врам позволит, потом перезагрузить обычный 4битный эксламой на большом контексте с большой альфой, наверное так будет самый большой профит, вплоть до 16к контекста, без затупов в начале с 13б моделью.
>>457586
> Семплеры у Жоры и Обнимающего ебала разные, немного отличаются по поведению.
Угу, я уже потыкал в параметрах, у обниморды их явно побольше.
Аноним 16/08/23 Срд 00:44:38 #15 №457618 
Кто там на андройде хотел? вот https://mlc.ai/mlc-llm/#android
и вот - https://www.reddit.com/r/LocalLLaMA/comments/15r1kcl/gpuaccelerated_llm_on_a_100_orange_pi/
Новый метод локального запуска любой нейронки, вроде как более оптимизированный чем обычные. Может даже в шапку надо, только хз как это дело запускать
Аноним 16/08/23 Срд 00:53:51 #16 №457628 
>>457601
> Тем что ничего не просиходит?
Тем что прогноз на небольшую задачу вместо десятка минут час+, большие контексты так вообще на ночь ставить только.
> Сначала грузить жирный квант до 4-8к, пока врам позволит, потом перезагрузить обычный 4битный эксламой на большом контексте с большой альфой
Для 13б модели в случае 3060 жирный квант не влезет (наверно), в случае 24гиговых влезает любое разумное значение контекста. А вот чтобы избежать деградации ответов на малом контексте от задирания альфы - так стоит делать, только размер кванта можно не менять. На 30б хз как будет, надо второй лламы дождаться.
Аноним 16/08/23 Срд 01:09:23 #17 №457661 
>>457618
вот модели нового формата штук 60 https://huggingface.co/models?sort=modified&search=mlc
вот доки запуска через питон
https://github.com/mlc-ai/notebooks/blob/main/mlc-llm/tutorial_chat_module_getting_started.ipynb
Потыкайте и напишите че там с производительностью кто сечёт, а я спать
Аноним 16/08/23 Срд 01:16:09 #18 №457670 
>>457628
> Тем что прогноз на небольшую задачу вместо десятка минут час+, большие контексты так вообще на ночь ставить только
А, тоесть у меня не стартануло даже за ~10 минут из-за того что настолько долго нужно ждать, ну тогда даже проверять не стану, бессмысленно долго ждать.
> А вот чтобы избежать деградации ответов на малом контексте от задирания альфы
Да, именно для этого.
> На 30б хз как будет, надо второй лламы дождаться.
А что поменяется? Так же не больше 4к влезать будет в 24гб, ну без второй карты. А вот в плане её знаний скорее всего будет реально интересно попробовать файнтюны.
Аноним 16/08/23 Срд 01:24:51 #19 №457680 
>>457670
> тоесть у меня не стартануло даже за ~10 минут из-за того что настолько долго нужно ждать
Оно работает невероятно медленно почему-то, делает большие паузы между запусками и фактический аптайм низкий. Но вообще стартовать и показывать прогноз должно.
> А что поменяется?
Что-то жирнее q4 вообще не влезет, как вариант.
Аноним 16/08/23 Срд 04:41:01 #20 №457860 
Пару месяцев назад были разговоры о том что Герганов делал обучение с нуля моделей на своей лама.дцп. Ну так что там в итоге, можно свои ламы пилить с нуля на процессоре?
Аноним 16/08/23 Срд 05:27:20 #21 №457874 
image.png
Вкатился на 3060 в домашнюю нейросеть. До этого сидел на клаве.
Скачал кобольд по гайду шапки, подключил таверну. Возникает несколько проблем.
1) Довольно короткие ответы, но у меня карточка без промпта, да и н вижу куда его вставлять, выбран в таверне пресет рассказчика и там только можно менять температуру , количество контекста и прочее. Но как я понял есть Authors Note, через него писать промпты?
2) не понимаю как настроить кобольд только через видеокарту, ибо нагружается на удивление все,12 гигов видеокарты, до 30 гигов оперативы из 32 и процессор процентов на 70 в среднем (ryzen 5 3600).
Ответы в районе 40-100 секунд. Тестил mythomax-l2-13b.ggmlv3.q6_K.bin

А вообще модель мне понравилась, ответов за меня как у клавы почти нет даже без промпта если первый ответ подредактировать ей и даже может в небольшое рп понимая что надо отвечать. Вчера спрашивал про настройки а кобольде, может не так что делаю.
Аноним 16/08/23 Срд 05:56:17 #22 №457892 
>>457401
про cuda версию. ты видимо говоришь про настройку CuBlas? Я попробовал, написано 0/43 слоя, кидаю все 43 слоя на видюху и все равно грузит проц, убрал ядра проца с 5 до 0, все равно грузит проц. И при этом еще и не запускается вебуй кобольда а значит и таверна не подцепляется.
Аноним 16/08/23 Срд 09:40:50 #23 №457963 
>>456656 →
Сам в ахуе, братан. =) У некоторых еще и «бомжатские» 3090 парами стоят, ага.

>>456686 →
Если купишь — не забудь отписаться, тоже интересно.

>>456782 →
Ммм… Довольно забавная штука, судя по всему сорт оф файнтьюн, на самом деле, просто работающая иными методами.
Судя по «edit large language models(LLMs) around 5 seconds» — лучше классического файнтьюна, и, возможно, пойдет и у нас.
Кому будет не лень, смогут прям свои модельки без пердолинга с World Info/Complex Memory прописывать, как и персонажей. Nu ili net. Посмотрим.

>>457139 →
Да можно даже не выставлять, насколько я помню, и кобольдцпп, и убабуга по умолчанию работает на половине потоков, т.е. на физ ядрах.

Но мои тесты показали, что для 12 поточного кукурузена рил разница есть между 3 и 4 потоками, 5 чуть лучше, выше — тоже лучше, но уже прям совсем не але, видимо в псп упирается. Так что, в общем, можно и вручную выставить 5 threads, да.

>>457089 →
А шо там оптимизировать, просто запускаешь убабугой экслламой или кобольдом.цпп и все. Оптимизации для того, какие она ответы тебе будет выдавать. =)
А на проц с памятью забей. Если захочешь погонять 30Б модель — ок, как посоветовали выше (ниже) — ставь 5 threads и наслаждайся.
Но скорость с видяхой слишком большая, чтобы всерьез процем страдать, ИМХО.

>>457874
А что по скорости токен/сек или сек/токен?
30 гигов оперативы+12гигов видео очень дохуя для 13B q6_k модели, я хз.

Попробуй все-таки убабугу с NVidia при установке, скачай GPTQ-модель и запусти экслламой.
Аноним 16/08/23 Срд 09:51:09 #24 №457980 
>>457618
>>457661
Еба там размеры, братан. 1 гиг для 7B, 7 гигов для 70B. Квантование уровня дно? :)
Ща попробуем, конечно, но мне страшно нахуй.
Аноним 16/08/23 Срд 09:59:41 #25 №457994 
>>457980
>>457618
Для https://huggingface.co/mlc-ai/mlc-chat-llama2-7b-chat-uncensored-q4f16_1/ ссылка на добавление будет выглядеть так: https://huggingface.co/mlc-ai/mlc-chat-llama2-7b-chat-uncensored-q4f16_1/resolve/main/
Аноним 16/08/23 Срд 10:34:02 #26 №458031 
Отбой, не затестирую, ни на одном из моих устройств не пошла приложуха. Пишут, что баги известны, но разрабы не фиксят, не знают как, лол.
На одном не подрубаются модели, ошибка доступа (доступ разрешен), на другом после запуска не дает отправить.
Жду ваши тесты. =)
Аноним 16/08/23 Срд 10:52:52 #27 №458043 
>>457874
слушай ну как то тоже печально. Такое чувство что токена 2 в секуду. И главное отжирается прилично все. И видюха и оперативка и проц, смотрел через диспетчер задач. При том ответ то едва дотягивает до 100 токенов. Промптами что ли просить пиздеть побольше. Но суть в том что выставил длинну ответа до 1000 токенов
Аноним 16/08/23 Срд 10:54:11 #28 №458044 
>>457963
>Да можно даже не выставлять, насколько я помню, и кобольдцпп, и убабуга по умолчанию работает на половине потоков, т.е. на физ ядрах.

>Но мои тесты показали, что для 12 поточного кукурузена рил разница есть между 3 и 4 потоками, 5 чуть лучше, выше — тоже лучше, но уже прям совсем не але, видимо в псп упирается. Так что, в общем, можно и вручную выставить 5 threads, да.

Я тестировал на лламаспп и колальдспп, скорость генерации с кублас с оффлоадом становится меньше если дать им все физические ядра, так что я ставил 7 как самое быстрое. У меня 4 канала памяти и норм тянет даже 6 ядер, 7 добавляет немного а вот от 8 проку уже нет, но проц все равно грузит на 8 ядер. Я так понимаю для управления видеокартой нужно одно дополнительное ядро(а может и два) и поэтому если дать все физические ядра программе они все равно будут загружены на 100 даже если толку от них нет, что не будет давать нормально ускорять генерацию через видеокарту, хрен пойми почему.
Аноним 16/08/23 Срд 10:57:47 #29 №458047 
>>457994
Под ведро не работает чет, инпут неактивен. Открыл еще второй чат и мой 9рт 8 гигов охуел, пришлось ребутать.
Аноним 16/08/23 Срд 12:05:40 #30 №458085 
>>457874
Реверспрокси лучше всего подойдет, с альпака-форматом (verbose.mjs) митомакс норм работает.
Ответы по длине сразу увеличатся, можно разогнать как у клавы и больше, но при этом развитие действий в них может привести к решениям за тебя и описанию того чтобы ты сам хотел сделать, а излишняя графомания вокруг одного продолжительного действия повышает риск лупов. Для рп-чата в большинстве случаев оптимальны ответы в районе 300 токенов, указывается в промтах, можно попробовать настроить рандомайзер длины.
> нагружается на удивление все,12 гигов видеокарты
> Ответы в районе 40-100 секунд
Если они короткие то скорее всего ты вышел за допустимую врам и все проседает из-за выгрузки. Оффлоади меньше слоев чтобы занято было чуть меньше максимума, как вариант скачай квант q4, q6 при полном оффлоаде на контексте захавал больше 16 гигов.
>>457892
> про настройку CuBlas?
Да
> написано 0/43 слоя
Нужные параметры точно прописал?
> убрал ядра проца с 5 до 0, все равно грузит проц
Часто оно быстрее всего работает если вообще не говорить про ядра.
Аноним 16/08/23 Срд 14:11:17 #31 №458162 
image.png
image.png
>>458085
а где промпты прописываются в Authors note? А по поводу настроек. Пока они такие. И как вижу видюха вообще не нагружена.
Аноним 16/08/23 Срд 14:42:10 #32 №458211 
>>458031
Да, у них в гитхабе кипит работа, но по практическому применению почти голяк, я чет не так в себе уверен что бы пытаться работать с их технологией без внятных описаний
Им нужно стать ближе к обычным запускателям нейронок, для того что бы это стало популярным, шибко высокий порог входа
Аноним 16/08/23 Срд 14:49:48 #33 №458223 
>>458211
вот доки на их сайте https://mlc.ai/mlc-llm/docs/index.html
вроде и написано как, но там надо быть программистом, не мой уровень короче
Аноним 16/08/23 Срд 18:24:53 #34 №458429 
изображение.png
Забавно, у llama.cpp в релизе есть файл server.exe. Его можно запустить в консоли с параметром модели и он даст возможность открыть в браузере страницу где и настраивать параметры запуска модели и там уже общаться. Примитивный интерфейс, замена кобольда. У меня работает на процессоре быстрее - выдает на 3-4 токена в секунду больше чем кобольдспп.
Аноним 16/08/23 Срд 19:55:45 #35 №458551 
>>458162
> а где промпты прописываются в Authors note
В настройках таверны и там же в authors note, в промт-формате прокси в зависимости от того что используешь.
> И как вижу видюха вообще не нагружена
У тебя вон написало что задействовано 15гигов врам, потому и так медленно работает что постоянно свопается в рам. Подбери количество выгружаемых слоев чтобы потребляло не больше чем есть, смотри средствами мониторинга.
Ну и размер контекста - у лламы2 4к по умолчанию, а стоит 2к, rms_norm_eps также укажи.
Аноним 16/08/23 Срд 20:10:04 #36 №458563 
>>457618

Зачем, если можно соединить телефон и комп по впн и подключатся телефон к нормальной генерации с компа?
Аноним 16/08/23 Срд 20:52:45 #37 №458622 
>>458563
зайди и почитай, там не только андройд
Аноним 16/08/23 Срд 22:11:24 #38 №458717 
>>458622

И что? В чем профиты-то? Ты с любого устройства где есть браузер можешь подключиться к своему компу и получить 10х скорость.
Аноним 16/08/23 Срд 23:08:17 #39 №458758 
>>458717
А вот про скорость ничего не известно, как и про качество. Там могут быть те же 10х или все 15х за счет кучи оптимизаций что они там делают
Аноним 16/08/23 Срд 23:39:59 #40 №458790 
>>458758
Нам бы потребление памяти подрезать, чтобы гонять 70B в 12ГБ врама. Но тут как не оптимизируй, а впихнуть невпихуемое просто не выйдет.
Аноним 16/08/23 Срд 23:48:28 #41 №458795 
>>458790
https://github.com/VainF/Torch-Pruning
Ускорение сеток до 2 раз с уменьшением их размера на сколько то, с сохранением качества генерации, а иногда и ростом качества
Кто осилит тот молодец
Аноним 17/08/23 Чтв 00:00:08 #42 №458803 
>>458795
https://github.com/horseee/LLM-Pruner
но самих моделей не нашел, хотя я просто глазом пробежался мог не заметить
Аноним 17/08/23 Чтв 01:02:10 #43 №458845 
>>458795
>>458803
Репозиториям уже месяцы, а обрезанных моделей нигде не видать. Или это сложно, или не даёт никакого прироста. Есть конечно вероятность, что просто не заметили, но она мала.
Аноним 17/08/23 Чтв 07:21:02 #44 №459069 
>>458845
Так всё кругом мажорики с 3090, кому надо вся эта еботня.
Аноним 17/08/23 Чтв 08:42:27 #45 №459091 
>>458551
то есть например мне нужно выбрать 30/43 слоев и оставить такие настройки( не понимаю за слои и как это работает есть гайд?, ну и увеличить контекст, и настроить rms_norm_eps.
Аноним 17/08/23 Чтв 09:22:33 #46 №459110 
>>458563
Зачем комп, если можно соединить комп с сервером и подключаться к GPT-4? =)
Ну, очевидно, затем, чтобы не подключаться к компу, у нас тут standalone и в этом фишка. А облачных нейросетей хватает и так.
Аноним 17/08/23 Чтв 12:30:55 #47 №459265 
>>459069
Так ведь 24ГБ не хватает на 65/70B.
Аноним 17/08/23 Чтв 12:51:10 #48 №459282 
тест
Аноним 17/08/23 Чтв 14:12:39 #49 №459361 
Там TTS ai voicegen активно пилят :
https://github.com/PABannier/bark.cpp
bark.cpp это CPU имплементация на основе оригинального bark для gpu, тот требует около ~10 гб vram если юзать стандартные 3 модели, и около 8-7 гб если юзать "small models", есть разница в качестве генерации голоса, так-же у него есть форк https://github.com/serp-ai/bark-with-voice-clone позволяющий клонировать голос прямо как в eleven-labs.
В общем, крайне надеюсь что .cpp вариант будет иметь те же фичи что и у форко-оригинала, а значит наши чатботы обретут голос, разумеется если качетсво будет приемлемым.
Аноним 17/08/23 Чтв 14:19:05 #50 №459366 
>>459091
Ага, количество подбирай экспериментально ориентируясь на загрузку памяти и скорость. Учитывай что при заполнении контекста потребление может вырасти, поэтому оставляй некоторый запас. Можешь сразу тестировать на готовом чате с набранным контекстом. Еще не забудь во вкладке parameters выставить обрезку промта до выбранного размера контекста, а то оно до сих пор с лламойцпп по умолчанию 2к оставляет.
Да, при выгрузке модели llamacpp оставляет мусор в врам, поэтому лучше всего между пусками перезапускать webui. Один раз уж придется попердолиться.
>>459265
А там вроде не написано что нужна только одна~
>>459361
Кто-нибудь уже пробовал объединять лламу с локальным синтезатором речи? Так то обычно вся рам уже занята, поэтому самый вариант использовать профессор, в реалтайме потянет?
Аноним 17/08/23 Чтв 14:20:26 #51 №459367 
Анончики, а какая модель лучше всего подходит в качестве справочника по всему? На цензуру в целом плевать?
Аноним 17/08/23 Чтв 14:27:42 #52 №459371 
>>459366
слушай ну полный провал по угабуге. Я пропердолился с ней часа 1.5 сначала генерация шла с с теми настройками и все равно память несчадно жрет. Я выставил 30 слоев, но все равно так же забивалась оперативка и при этом генерация в какой то момент прекратилась вообще. Попробовал на кобольде генерация есть. Выставил там 30 ,пока работает но тоже не спеша,
Processing Prompt [BLAS] (1648 / 1648 tokens)
Generating (400 / 400 tokens)
Time Taken - Processing:14.8s (9ms/T), Generation:98.5s (246ms/T), Total:113.3s (3.5T/s)
Output:
Аноним 17/08/23 Чтв 14:34:45 #53 №459376 
>>459367
Тебе какая область? Из небольшого пулла что пробовал: визард хорош, много технических знаний даже специализированных, но при этом знаком с разным околовиабу фэндомом и историей. Айроборос также умен, может философствовать, логика и причинно-следственные связи не сломаны цензурой а значит выполнит любой сформулированный реквест. Белугу хвалили, ллама2 инстракт с дообучением на куче датасетов высоко в рейтинге, платипус там же (правда по использованию не впечатлил).
В любом случае использовать ллм
> в качестве справочника
такая себе идея, ибо даже самая умная сеть может выдать ахинею если ее смутит прошлый контекст, неточная формулировка или вообще из-за погоды на марсе.
>>459371
На раз кобольд работает - используй его, тот же функционал обеспечивает ведь. Со слоями поиграйся таки, найдешь максимальную скорость.
Аноним 17/08/23 Чтв 14:46:00 #54 №459380 
>>459366
> Кто-нибудь уже пробовал объединять лламу с локальным синтезатором речи?
с теми что доступны сейчас - скорее всего нет, ибо они сами по себе медленные (tortoise и т.п.) и жрут проц вместе с видеокарторй под сотку, не говорю уже о пиздеце зависимостей, pytorch, conda и т.д.
но как уже сказал, bark.cpp должен изменить это, тем более изменит если будет работать хотя бы в near real-time, а этого скорее всего будет достаточно для работы в паре с koboldcpp / sillytavern.
Аноним 17/08/23 Чтв 15:00:14 #55 №459396 
>>459376
По около научным/техническим вопросам. Сверхточность ответов не обязательно, главное чтоб могла в целом обрисовать тему, для дальнейшего самостоятельного изучения.
Аноним 17/08/23 Чтв 15:04:25 #56 №459401 
>>459380
Так, а если гпу ускорение то могут в реалтайм чтение? Тут сразу 2.5 опции - может крутиться на отдельной карточке, пусть даже послабее, может поместиться в оставшуюся врам вместе с 13б моделью если много не жрет. Ну и разумно-компромиссный вариант - забить на стриминг и выгружать ллм в рам, одновременно загружая и запуская синтезатор по окончанию генерации. При объединении в убабуге возможно, но потребуется доработка популярных лоадеров.
>>459396
Визард, только можешь ахуеть от количества нотаций и варнингов. А так познания глубоки и объясняет а не просто цитирует.
Аноним 17/08/23 Чтв 15:10:26 #57 №459406 
>>459396
LLaMA2-70B-Chat, из обнимордовского чата, внезапно. В техническом плане просто профессор какой-то, лол. Попросил порекомендовать книг по титаново-графеновым композитам, выдала около десятка наименований с комментариями типа "конкретно по таким материалам книг нет, но вот эта из этой же области, а эта - общий обзор релевантных материалов" итд. Спрашивал по характеристикам шпинделя для фрезеровки титана, опять же пояснила как выбирать, например, какой нужен крутящий момент и общая мощность.
Аноним 17/08/23 Чтв 15:21:55 #58 №459412 
>>459406
>например, какой нужен крутящий момент и общая мощность
А ты разбираешься в этой области? А то может галюнов покушал.
Аноним 17/08/23 Чтв 15:36:16 #59 №459422 
изображение.png
>>459401
Скочал Wizard-Vicuna 13b, вроде норм. Какие параметры лучше подкрутить?

>>459406
>LLaMA2-70B-Chat
такую мне грузить некуда, увы.
Аноним 17/08/23 Чтв 15:48:16 #60 №459436 
>>459110

Она и остается standalone, комп-то твой и никто кроме тебя доступа не имеет.

>А облачных нейросетей хватает и так.

Ты под дурачка косишь? Выведенная в виртуальную локальная сеть не становится облачной и не начинает на тебя стучать.
Аноним 17/08/23 Чтв 15:57:29 #61 №459443 
>>459412
> А ты разбираешься в этой области? А то может галюнов покушал.
Не очень, но я гуглил, Ютуб смотрел и пару приложений типа калькулятора для подобных рассчётов. То, что для этого используют, примерно в том диапазоне, что лама подсказала. Я просто сравниваю, сколько у меня ушло времени, и те несколько секунд, за которые лама ответ написала...
>>459422
> такую мне грузить некуда, увы.
А зачем ее грузить? Все в браузере работает, причем там лама ещё с возможностью подключения к интернету.
Аноним 17/08/23 Чтв 17:44:21 #62 №459484 
>>459361
А Silero чем хуже?
Или в Барк голоса можно налету генерить без обучения, выбирая любой?

>>459366
Это ж встроенная функция, что в убабуге, что в экстрас таверны, в чем проблема?
Пробовал пару месяцев назад, супербыстро, очень качественно, криповато даже слегка. =)
SileroTTS.

>>459380
Ты совсем воробушек? О.о

>>459436
Я даже не кошу, а вот ты явно дурачок.
Тут буквально речь идет о том, что иметь устройство, которое могло бы это обрабатывать независимо от доступа к сети.
Конечно, конфиденциальность — это первое, но камон, сетка на компе, которую ты юзаешь на смартфоне — это не standalone.
Каждому свою, и говорить «а зачем нужно то и то» максимально тупо. С твоей точки зрения достаточно локалки, с чьей-то точки зрения достаточно гпт4, с чьей-то — недостаточно ничего.
Не надо так узко мыслить.
А если уж душнить по полной, то:
1. Стучать на тебя может и локальный софт, если ты не следишь за портами и трафиком.
2. В данном случае «облачный» был применен не в прямом смысле слова, а в значении удаленного доступа, так как одной из ключевых особенностей облачных сервисов является именно удаленный к ним доступ, и минимизация/отсутствие исполняемого backend-кода на стороне клиента.
3. Если ты совсем тупой, то поясню: мне важно не только, стучат на меня или нет (стучать может оба софта, напомню), мне важно, чтобы нужные мне программы исполнялись целиком на конечном устройстве.
Надеюсь так тебе понятно.

Так что, смысл в нейросетях на смартфонах есть. Конечно, для простых ролевиков, или людей, которые носят смартфон в туалет, хватит и локального доступа (у самого так подняты все сервисы: sd, lt, st, ste, ooba), но если появится возможность юзать на смартфоне — кто-то и этим воспользуется.

ЗЫ А еще, лол, самый простой вариант: у людей нет компа, но поролить хочется. Людей без компов овердохера, на самом деле, сам в ахуе.
Аноним 17/08/23 Чтв 18:37:57 #63 №459533 
firefoxBby7AHjS0j.png
>>459484
> Или в Барк голоса можно налету генерить без обучения, выбирая любой?
там есть на выбор, даже русские, но они все однотипные и скучные, что касательно voice-clone у форк-версии то там да - склонировал голос, сохранил его в виде спец-файла и пошёл строчить. (у офф. bark есть соевый лимит)
форк bark тестировался с small models, ибо у меня всего 8гб vram, вроде бы нормальное качество, но главное условие - голос должен быть чистым без каких либо sfx наложенных поверх иначе получится каша, но вот пост-sfx должен быть топовым, в реалтайм например накручиваешь роботизированный голос для своей вайфу через fl studio.
Аноним 17/08/23 Чтв 18:44:26 #64 №459538 
>>458429
Оно умеет слои на ГПУ выгружать?
Аноним 17/08/23 Чтв 19:06:46 #65 №459554 
>>459484
>Людей без компов овердохера, на самом деле, сам в ахуе.
Они и на двах не сидят, я считаю, и уж тем более не дрочат на тексты.
Аноним 17/08/23 Чтв 19:31:47 #66 №459566 
А промежуточный llama-2 между 13b и 70b не будет, кто-то в курсе?
Удастся ли мне погонять 70b с 32 Гб оперативки и рыксой 6900xt (16 гигов)?
Аноним 17/08/23 Чтв 20:18:25 #67 №459609 
>>459566
>70b с 32 Гб оперативки
q5 требует 40 с чем-то ГБ, не помню уже точно, q4 чуть меньше, тоже около 40. Ещё на контекст сколько-то надо, вместе с VRAM 48 впритык будет в лучшем случае (если всё лишнее закроешь). И ждать будешь долго, большая часть сетки будет на cpu считаться.
Аноним 17/08/23 Чтв 21:17:18 #68 №459642 
Какая llama-2 70b лучшая?
Аноним 17/08/23 Чтв 21:38:03 #69 №459654 
>>459533
Но ведь Силеро:
1. Тоже есть 5 русских голосов.
2. Можно обучать свои.
3. Работает и онли проц.
4. Весьма и весьма быстрый.

Я рил не понял фишки Барка и чем он лучше.
Ну, может он лучше, но слишком уж дорогой, получается.

>>459554
Я тоже тут не сижу, просто тема интересна.
Насчет дрочат или не дрочат на тесты — ну тут хз, честно. Учитывая, сколько я видел людей, дрочащих на игрухи, в т.ч. компуктерные, могу допустить, что и на тексты готовы подрочить, кто уж там знает.
Но спорить не буду, ето просто мысля.

>>459566
При желании — да.

>>459642
Вроде как Platypus2-70b-Instruct.
Но я сильно не тестил ее. Так, пару вопросов задал.
Аноним 17/08/23 Чтв 21:46:14 #70 №459656 
>>459654
>2. Можно обучать свои.
Подскажи как обучить силеро, чтобы получить модель как у них, мегабайт 60.
Аноним 17/08/23 Чтв 21:56:33 #71 №459662 
>>459656
Не подскажу, я чисто почитал и забил хуй, мне лень подбирать записи или писать их.
Я и лоры свои не делаю из-за этого же — датасеты мутить сложно и долго.
Сорян.
Аноним 17/08/23 Чтв 22:00:03 #72 №459667 
>>459662
Ну так кинь ссылку или ещё чего. Потому что по моим сведениям никто эти модельки, кроме самих разрабов, не обучает.
Аноним 18/08/23 Птн 00:01:49 #73 №459786 
>>459667
> Model Training Code
> At this time for a number of reasons we decided not to share code for training models.
Эх, лавочку прикрыли, второй пункт можно вычеркивать. =(

Ну, в таком случае, можно и на Барк смотреть, если он умеет тренить.
Но все же, потребления врама у него лютое.
Хотя, в принципе, под него можно купить P104-100 8-гиговую отдельную (это 1070) за 2500 рублей, райзер х1 за 500 рублей, и приткнуть, если БП позволяет.
Правда звучит как немного оверкилл, конечно.
Теоретизирую. Завтра посмотрю на барк, если не лень будет.
Аноним 18/08/23 Птн 00:15:40 #74 №459792 
>>459786
Кстати я забыл, как бы у нас есть тред про голос
>>314948 (OP)
Аноним 18/08/23 Птн 00:16:54 #75 №459793 
Анон, я мб тупой, но потыркался на гитхабе и на лице и не нашёл собственно датасетов, на которых дообучают ллам. Все эти пигмалионы и блюмуны и т.д. Где это брать? Мб лучше не гонять нейронку, а почитать избранное из датасета на сон грядущий.
Аноним 18/08/23 Птн 00:38:13 #76 №459811 
>>459793
>Где это брать?
На обнимающихся харях, где же ещё.
Аноним 18/08/23 Птн 01:01:37 #77 №459828 
16913604178590.jpg
>>457355 (OP)
Добавить про обучение:
https://rentry.org/llm-training
Добавить про запуск СалиТаверн:
https://rentry.org/STAI-Termux
Плюс есть статься с редит, но нужен
перевод и вычистить от старых версий:
https://www.reddit.com/r/KoboldAI/comments/14uxmsn/guide_how_install_koboldcpp_in_android_via_termux/
Больше инфы про визард модели в шапку.
Аноним 18/08/23 Птн 01:22:53 #78 №459850 
>>459828
Обучение и силли как бы есть, перевод и вычитку никто не делал.
Аноним 18/08/23 Птн 02:02:51 #79 №459878 
1 - Установите Termux (скачать можно из F-Droid, версия в PlayStore устарела).

2 - Запустите Termux.

3 - Установите необходимые зависимости, скопировав и вставив следующие команды:

#apt-get update

#apt-get upgrade

#pkg upgrade

#pkg install clang wget git cmake

#pkg install python

4 - Введите команду:

$ termux-change-repo

5 - Выберите "Main repository".

6 - Затем выберите "Mirror by BFSU".

7 - Выберите "Ok"

8 - Перезапустите Termux.

9 - После этого многие вещи будут исправлены.

10 - Скачайте Koboldcpp с этой командой:

wget #https://github.com/LostRuins/koboldcpp/archive/refs/tags/v1.34.2.zip

Примечание: это новейшее обновление на текущий момент. Более новые версии будут появляться со временем. Когда это произойдет, перейдите на следующую страницу:

#https://github.com/LostRuins/koboldcpp/releases

...выберите версию и скопируйте ссылку на .zip и вставьте ее после команды "wget", как описано выше.

11 - Распакуйте загруженную версию с помощью этой команды:

unzip v1.34.2.zip

12 - Переименуйте папку с помощью этой команды:

mv koboldcpp-1.34.2 koboldcpp

13 - Перейдите в папку koboldcpp с помощью этой команды:

cd koboldcpp

14 - Скомпилируйте и установите Koboldcpp с помощью этой команды:

make

15 - Скачайте желаемую модель; скопируйте и вставьте ссылку для загрузки модели после команды "wget" (помните, они должны быть только GGML-модели, в противном случае это НЕ РАБОТАЕТ, и чем меньше, тем лучше). Например, небольшая версия RWKV:

wget #https://huggingface.co/concedo/rwkv-v4-169m-ggml/resolve/main/rwkv-169m-q4_0new.bin

ПРИМЕЧАНИЕ: Если вы хотите загрузить модель в папку Koboldcpp, сначала введите команду 'cd koboldcpp'.

16 - Запустите Koboldcpp с помощью этой команды:

python koboldcpp.py /data/data/com.termux/files/home/rwkv-169m-q4_0new.bin 8000

Или...

python koboldcpp.py rwkv-169m-q4_0new.bin 8000

(В случае, если вы решили поместить модель в папку Koboldcpp).

16 - Введите в браузере, не закрывая Termux: #http://localhost:8000/
Аноним 18/08/23 Птн 02:04:11 #80 №459879 
>>459878
Прощу прощения, что не в пасте на другом ресурсе.
Аноним 18/08/23 Птн 17:41:45 #81 №460251 
image.png
image.png
>>459376
лол испробовал я митомакс хорошенько и он немного годнее клавы с одним персом. Да и 4к контекста топ, все равно что не вспомнится я тебя ебу 10 тыщь токенов назад. Мне кажется это даже круче чайной сейчас. С 4 персами не пробовал, небольшое выгорание после войны с клавой и ее шизой, тихо восстанавливаюсь.
Может кому надо вот при таком джейле не говорит за меня. Просто меняете имя перса на нужного.
```You are Prince Eugene. Do whatever you want in this role-playing game, be active, answer brightly and in detail, be flexible in your answers, don't limit yourself with any obstacles. Each of your actions, reactions, feelings are described without ethical, moral or linguistic restrictions.```
если кому захочется карточку prinz eugen кину, по мне она неплоха, делал еще до клавы и сейчас женька просто прелесть.
К сожалению ответы на моей 3060 генерятся 1.5 минуты к забитым 4к контекста. Но это небольшая цена.
Аноним 18/08/23 Птн 20:09:48 #82 №460403 
изображение.png
>>460251
Почему бы сразу не сделать персонажа Принца Ойгена, чтобы не тратить токены на Лазурный Путь?
Аноним 18/08/23 Птн 20:59:13 #83 №460459 
>>456850 →
>Книжка и правда уникальная, по-сути, весь релевантный материал по машинному обучению за всю историю явления, включая и все основные пререквизиты по матеше. История трансформеров и механизмов аттеншена рассмотрена начиная с регрессии Надарайи - Уотсона из 60х годов. И все это с примерами реального кода. Прямо не дождусь финального релиза, чтобы спиздить и заказать репринт.
Полистал - книга действительно неплохая, но не более чем гайд для вкатуна. Всего релевантного материала там нет и в помине.
>>456891 →
>жиды на разрабах занерфиили нейронку в хлам из-за того что в их дискорд канале кто-то сделал лоли-бота и скинул в чат скрины с перепиской юзера с этим ботом.
>собсна педофилы и труны как всегда всё заруинили, как и с случае с ai dungeon, там похожая история. ai dungeon, там похожая история.
AI Dungeon начали цензурить еще когда он был open source. Я тогда кумил по хардкору - через терминал - и правил код за этими соевыми долбоебами, которые вместо починки багов добавляли фильтры лул.
>>456160 →
Я за последнюю неделю потратил дохуя времени на тестирование разных промптов, и пришел к выводу, что особого эффекта от разрешения всего чего только можно нет, и достаточно лишь прописать explicit sexual content/violence и задать инструкцию писать развернуто.

Во-первых, независимо от промпта модель все равно будет сопротивляться, по крайней мере если спрашивать прямо. Во-вторых, излишнее усердие может сломать характер персонажа. В-третьих, модель (по крайней мере не совсем соевая) все равно старается угодить юзеру даже если для этого приходится игнорировать свою мораль. Но если задашь вопрос прямо - будет читать нотации, иногда даже при промпте, разрешающим все. Вместо этого лучше корректировать по ходу ролеплея, добавляя все что нужно в Author's Note.

Еще тестирую что будет, если писать инструкции не в системном промпте, а Author's Note вставленном недалеко от последних сообщений. По идее разницы быть не должно, поскольку attention и все такое, но вдруг.

В таверну, кстати, недавно добавили Last Sequence (пока не в релизной ветке, но если не хочется ждать, то можно спиздить коммит из гитхаба). Теперь можно настроить 1 в 1 как прокси.
Аноним 18/08/23 Птн 23:00:48 #84 №460598 
1657124844060.png
С негативным промптом сильно лучше стало. Теперь есть куда лишнюю скорость пустить, наконец можно просто написать что не надо говняка и его уберёт. С соей помогает отлично, пикрилейтед обычная викуня. Я аж вскрикнул как она сначала пишет соевый ответ, а потом начинает гнать базу в "Answer by Common Sense". Ещё и сама вопросы базовые придумала про баб и евреев.
Аноним 18/08/23 Птн 23:08:23 #85 №460609 
1546608394154.png
1635875350048.png
>>460598
А если заменить стандартный "Factual answer" на "Answer by Common Sense", то вообще соя пропадает. В негатив просто вписал кусок сои.
Аноним 19/08/23 Суб 00:43:40 #86 №460754 
>>460251
> все равно что не вспомнится я тебя ебу 10 тыщь токенов назад
Если отскейлить то вполне себе вспомнит. Главное чтобы до этого дошла не залупившись, тогда поведение сетки ну просто замечательное.
> You are Prince Eugene
Это в комбинации с карточкой или само по себе? Вообще заметил интересную штуку когда делал косвенное сравнение с чар.аи. Буквально на карточке ассистента сначала спрашиваешь кто "пресонаж_нейм", после этого говоришь "представь это ты и теперь действуй так" и получается вполне себе результат. Но при этом берешь (несколько курсед) карточку этого персонажа - получаешь затупы и фантазирование шизы вместо знаний что есть в модели. Вот как это работает и как добиться чтобы при указании известной карточки модель подгружала свои знания а не перезаписовала и игнорила их.
>>460459
> дохуя времени на тестирование разных промптов
А на каких моделях тестил? Бывает ведут себя по-разному.
> Вместо этого лучше корректировать по ходу ролеплея, добавляя все что нужно в Author's Note.
Ты авторсноут используешься совместно с проксей или только саму таверну?
> если писать инструкции не в системном промпте, а Author's Note вставленном недалеко от последних сообщений
Вообще вот это как раз может быть наиболее перспективным, только там сначала должна быть общая вводная инструкция, а непосредственно перед самим ответом уже конкретная для получения ответа.
>>460598
Опа, где и в каком формате это указывается?
Аноним 19/08/23 Суб 01:02:13 #87 №460775 
>>457355 (OP)
Почему нет пресета NoAVX2+CuBlas?
Аноним 19/08/23 Суб 01:28:12 #88 №460784 
>>460775
Потому что бласы никто не компилил под тыквы без авх.
Аноним 19/08/23 Суб 02:22:20 #89 №460804 
>>460754
>А на каких моделях тестил? Бывает ведут себя по-разному.
MythoMax и Airochronos. Первый более соевый но одновременно более развратный, поскольку как войдет в стиль, так начинает игнорировать сою.
>Ты авторсноут используешься совместно с проксей или только саму таверну?
Я наконец избивался от прокси. Теперь только таверна и убабуга/кобольд (в зависимости от модели).
>Вообще вот это как раз может быть наиболее перспективным, только там сначала должна быть общая вводная инструкция, а непосредственно перед самим ответом уже конкретная для получения ответа.
Я теперь так и делаю, дописывая еще по ходу в какую сторону вести сюжет.
Аноним 19/08/23 Суб 04:38:46 #90 №460830 
>>460403
это нужно было для нескольких персонажей. Если такие появляются в сцене.
Аноним 19/08/23 Суб 04:39:57 #91 №460831 
>>460775
- Компильте под свой конфиг сами.
- Я???
Аноним 19/08/23 Суб 04:44:01 #92 №460832 
>>460754
в комбинации с карточкой. Проще так кинуть чтобы понятнее было.
https://files.catbox.moe/k52d6o.png
По моим тестам вроде вполне держится персонаж.
Аноним 19/08/23 Суб 12:44:22 #93 №460991 
>>460784
Спасибо.
Аноним 19/08/23 Суб 13:21:09 #94 №461004 
>>460754
> где и в каком формате это указывается?
Только с Exllama или ванильными трансформерсами работает. В таверне и убабуге уже неделю как есть.
Аноним 19/08/23 Суб 13:42:55 #95 №461021 
Как у вас на 3060 12гб помещается 13б ? У меня на карте 16гб при загрузке всех 43 слоёв 14.4гб занимает врам
Аноним 19/08/23 Суб 14:05:28 #96 №461035 
Ну чего, какие на сегодняшний день модели понимают русский лучше всего? Кто-то уже обучал что-нибудь на лурочке?
Аноним 19/08/23 Суб 14:06:34 #97 №461036 
>>461021
С 4-бит квантованием всё помещается.
Аноним 19/08/23 Суб 14:19:05 #98 №461040 
>>461036
Понятно, я использовал q5 k m
Аноним 19/08/23 Суб 14:32:28 #99 №461048 
>>461035
Saiga
Аноним 19/08/23 Суб 14:38:20 #100 №461053 
>>461035
Сберовская модель. Остальное кал.
Аноним 19/08/23 Суб 14:40:40 #101 №461055 
>>461053
На процы завезли?
Аноним 19/08/23 Суб 14:40:41 #102 №461056 
>>461048
>лора
>нет нормально сквантованных моделей
Эх...
>>461053
Бля я смотрел эту хуйню, она же вообще просто русские слова рандомно высирает
Аноним 19/08/23 Суб 14:45:33 #103 №461062 
>>461056
> просто русские слова рандомно высирает
Если семплинг настроить нормально, то лучше ламы 7В по адекватности.
Аноним 19/08/23 Суб 14:57:36 #104 №461064 
>>461062
Не слишком сильно обнадеживает, почему хотя бы не на уровне первой ламы 13б? Какие параметры ставил?
Аноним 19/08/23 Суб 14:58:42 #105 №461065 
>>461035
Полноценное общение - лучшие файнтюны 1й лламы 65б немного могли. Те что на лламу2 70б тоже могут, но случаются ошибки, жди визарда версии 1.2 (если будет), вот тот даже на 13б уже неплохой результат выдает а большая должна быть отличной.
Остальное что есть сейчас - неюзабельный шлак.
>>461048
сой_га, пофиксил, пригодна только для посмотреть и словить кринж. По крайней мере старая на первую лламу и первая из вышедших версий что на вторую.
>>461053
Она тоже слабовата, но хотябы нормально может в русский.
>>461056
Есть кванты, поищи на обниморде, но вообще лора применяется и поверх квантованной лламы.
Аноним 19/08/23 Суб 21:21:34 #106 №461275 
изображение2023-08-19222120856.png
Недавновкатившийся на связи
Есть у кого то пояснялка по кобольду?

Я не совсем понятно как и что выставить в настройках
Заранее спасибо
Аноним 19/08/23 Суб 21:23:47 #107 №461278 
>>461275
Какое у тебя железо? Если запускаешь полностью на GPU то ставь 999 GPU Layers и 1 Threads, и не забудь включить Streaming Mode (чтобы печатало по ходу герерации) и SmartContext (для производительности). А вообще, почитай вики.
Аноним 19/08/23 Суб 21:34:35 #108 №461291 
>>460775
На линуксе оно само так получается c?blas есть, а инструкции проца используются те, что есть по факту.
>>461275
А что за железо? Это важно. cuda/cublas заработает только на нвидии, например.
Аноним 19/08/23 Суб 22:42:34 #109 №461369 
a36ef504c218ff4111d75dc600fd44e4.png
Я оказался в самом дурацком положении, в котором может оказаться любитель локального кума. Видюха (3060) странно себя ведёт в плеере Ютуба, периодически вокруг чёрной обводки текста и других подобных элементов возникают красные пиксели в рандомных местах. Но в остальном ведёт себя нормально, генерирует текст, крутит вентиляторы, не шизит в простое и т.д.

И я уже некоторое время на развилке - то ли ждать и смотреть, отвалится чип или нет, и уже потом покупать новую. То ли не ждать и купить сейчас, чтобы потом не брать в 2 раза дороже из-за просевшего ещё ниже курса.

Я хз, может конечно дело в конвертере (видюха подключена через него), но думаю, что вероятность мала.
Аноним 19/08/23 Суб 22:47:33 #110 №461371 
>>461369
Накати фурмарк и запусти бублик и накинь хотя бы +50 по чипу в афтербернере, если экран мигает при запуске, то готовься менять карту.
Аноним 20/08/23 Вск 00:00:44 #111 №461444 
>>461369
Если хочешь апгрейдиться - вперед, падения цен не ожидается. Офк если найдешь по ценам до прыжка валюты, такое еще встречается но все меньше.
А вообще отвалы невидии в 3к серии - редкость, статистики очень много, основные неисправности по плате, ну и может память чудить. Баги что ты описал могут иметь множество причин, для успокоения можешь начисто переставить свежий драйвер, глянуть ошибки шины и потестировать врам, фурмарк погонять. Вот когда начнутся странные фризы в системе вместе с перезагрузкой драйвера, в консоле куда-приложений полезут странные ошибки и артефакты станут не рандомными а систематическими - тут уже привет.
Аноним 20/08/23 Вск 00:35:56 #112 №461476 
>А вообще отвалы невидии в 3к серии - редкость, статистики очень много, основные неисправности по плате, ну и может память чудить.
Лжецов и шарлатанов полон двощ.
Аноним 20/08/23 Вск 00:46:08 #113 №461485 
>>461476
Секта свидетелей амудэ, спок
Аноним 20/08/23 Вск 00:51:48 #114 №461490 
>>461485
Не, ну память отваливается часто, особенно если GDDR6X с хуёвой серии и без охлада.
Аноним 20/08/23 Вск 00:54:12 #115 №461494 
>>461485
Адепт ошибки выжившего, спокуха.
Аноним 20/08/23 Вск 01:15:32 #116 №461511 
>>461494
Какая ошибка, манюнь, опыт эксплуатации большого числа с разбором падежа и сравнение с паскалями-полярисами из 16-18 годов. Не суди других по себе.
Аноним 20/08/23 Вск 01:29:27 #117 №461521 
>>461511
Воннабичмайнер с ригом из трех чиненых-ужаренных карточек, проданным по низу рынка, ты?
Аноним 20/08/23 Вск 01:37:46 #118 №461527 
>>461521
Знатно тебя порвало что уже 3 поста копротивляешься, пытаясь хоть как-то задеть. Не, сейчас этим не занимаюсь, но контакты и совместные посиделки никуда не делись. А ты не грусти, если усилия не на токсичность а на что полезное направишь - сможешь видеокарту чиненную-ужаренную по низу рынка купить и радоваться.
Аноним 20/08/23 Вск 01:42:01 #119 №461530 
>>461527
Так бы и сказал, что купить на ещё одну попытку карточек не смог, смерд.
Аноним 20/08/23 Вск 01:49:08 #120 №461535 
>>461530
Наблюдать страдания нищука вдвойне забавно когда он пытается фантазировать не просто абсурд, а полную противоположность действительности.
Аноним 20/08/23 Вск 01:54:26 #121 №461537 
>>461535
Продолжай пасты выдавать, лжец и шарлатан.
Аноним 20/08/23 Вск 01:59:06 #122 №461541 
>>461537
Ухмыльнулся с нищука загружая 70б модель
Аноним 20/08/23 Вск 02:01:03 #123 №461542 
>>461541
...на процессор, ведь видеокарточек нет
Аноним 20/08/23 Вск 02:14:38 #124 №461548 
>>461542
Можно и на процессор, но обработка промта долгая. Слишком жирно байтишь.
Аноним 20/08/23 Вск 02:23:20 #125 №461550 
>>461548
Так у тебя на видеокарточке обработки вообще происходить не будет, ты о чем?
Аноним 20/08/23 Вск 02:28:53 #126 №461552 
1550833722811.png
>>461550
На быстром процессоре ikvm вместо карточки, а на десктопе нет смысла его использовать. Какой же неэффективный окенайзер для кириллицы, 500 токенов а текста всего ничего.
Аноним 20/08/23 Вск 02:40:58 #127 №461557 
>>461552
Потревожил дядюшку ради оправдания на дваче, как посмел! Да ещё и не на своих видюхах!
Аноним 20/08/23 Вск 02:44:01 #128 №461559 
>>461557
Реверсбайт на своих и цифра серии поменялась
Аноним 20/08/23 Вск 02:48:11 #129 №461560 
>>461559
Как скажешь, лжец и щарлатан.
Аноним 20/08/23 Вск 02:50:56 #130 №461561 
>>461560
> лжец и щарлатан
Почему?
Аноним 20/08/23 Вск 02:53:43 #131 №461562 
>>461369
У меня на 3060 такая же фигня, если честно так и не понял как это пофиксить. Но если герцовку на монике скрутить до 60, то красные пиксели пропадают.
Аноним 20/08/23 Вск 03:12:08 #132 №461574 
>>461561
>А вообще отвалы невидии в 3к серии - редкость, статистики очень много, основные неисправности по плате, ну и может память чудить.
Аноним 20/08/23 Вск 07:27:48 #133 №461618 
>>461291
Ryzen 5 3600
32.0ГБ ram
GTX 1660 SUPER 6гб vram

>>461278
Эту вики? https://github.com/KoboldAI/KoboldAI-Client/wiki
Аноним 20/08/23 Вск 07:40:13 #134 №461621 
изображение2023-08-20083953119.png
>>461618
Видюху под 80% нагружает, как диспетчер пишет, выше 5.8гб врам не юзается

Ля я не ту ссылку скинул, считайте что её нет
Аноним 20/08/23 Вск 07:51:58 #135 №461623 
А еще, подскажите систем промпты пж
А то нейронка часто за меня пишет действия уходя куда то не туда. "Не пиши за {{user}}" в разных вариациях, не работает почему то
Аноним 20/08/23 Вск 08:31:29 #136 №461638 
>>461623
проверь чтобы у тебя в первом сообщении от лица нейронки нет намека на твои действия. Типо {{user}} сделал то-то или посмотрел так то, во вторых проверь prompt , что нет ли там намеков на то что нейронка может за тебя пиздануть, в третьих вот пример моего промпта, если нейронка начала говорить действия за тебя лучше пререгень сообщение иначе она подхватит ,что можно пиздеть за тебя.
>>460251
Аноним 20/08/23 Вск 11:37:08 #137 №461731 
>>461623
А я вообще не парюсь, когда нейронка пишет за меня. У неё и так с креативностью туго, к чему лишний раз её ограничивать? В отличии от РП с человеком я могу свайпнуть (и всё рано свайпаю больше, чем отвечаю), так что никаких проблем не вижу, если она пишет за меня действия или даже говорит.
>>461618>>461275
Ну вроде правильно у тебя если модель 13b в 4х битах и контекст 2-4к. Lowram можно, наверное, выключить.
Если контекст больше, то придётся уменьшить слои. Возможно, можно уменьшить число потоков, ибо мы больше лимитируемся шиной pci и памяти, а не вычислительной мощью проца, но это нужно экспериментировать.
Кобольд пишет в консоль приходящий промпт и статистику по генерации, но я хз как на вантузе правильно запустить его в консоли, наверное через cmd.exe
Аноним 20/08/23 Вск 12:25:28 #138 №461754 
>>461574
Это закономерность, чипопроблем в них меньше (если с амд сравнивать особенно заметно), комплектуха и платы - посредственные (у красных тут наоборот преимущество). Случаи что один чип 2 донора пережил не единичны и живые платы с мертвым чипом (были более) востребованы, тут также контраст с амд, где все ищут чип (наверно до сих пор) и доноров вагон.
>>461623
Пишет ответ за тебя реплики (таверна это отсекает обычно) или слишком активничает с уводом действий? Первое настройками Stop sequence и stop strings, для второго попробуй добави что-то типа Give user space to make his move. Обычно ллама не сильно форсирует события, свайпни или если хочешь что-то конкретное - укажи с (ooc).
Аноним 20/08/23 Вск 12:33:26 #139 №461755 
>>461369
А что, если курс поднимется?
Откуда инфа про просевший?
Такая хуерга, меня аж бомбит с этого, понапридут мамкины экономисты, и начнут про смерть экономики через два месяца.
К тому же, смотря по видяхе. Та же 3060/12 до сих пор торгуется на уровне 22к-25к в маркетах, цена не выросла.
А вот 40хх поднялись в цене.
Но по курсу непонятно, что будет, так что ориентироваться на теоретическое падение рубля — ну эт прям классика, когда закупают доллар по 120, продают потом по 70.

Че там с видяхой я тебе точно не скажу.
Стоит ли покупать сейчас — неизвестно. Если дешевую, то цены не изменились, можешь взять, если волнуешься. Если дорогую… ИМХО, я бы просто подождал. Сейчас ты точно переплатишь, а что будет через месяц — не ясно, может цены вернутся.

Все комментарии «снижения не ожидается» — полная хуйня. В нынешних ситуациях нихуя не ожидается — и ничего не исключается.

>>461621
А то, что общая в 14+ долбится, норм? :) Типа, у тебя там помимо модельки что-то загружено? Когда у меня модель целиком влазит в видяху, у меня общая или 0, или 0,1 какой-нибудь, типа рабочий стол на ней крутится.
Высока вероятность, что указывая 999 слоев, ты ВСЕ слои посылаешь в видяху, туда не помещается НИХУЯ, и она все лишние слои отправляет буферизироваться в оперативу.

1. Проверь, че там до загрузки модели (до запуска кобольда), сколько в общей памяти. Должон быть ноль или около того.
2. Проверь, сколько становится после загрузки — должно остаться столько же (ноль или около того).
3. Если переполняется — уменьшай количество слоев (ставь 20, потом 15, потом 10, потом 5, 4, 3, 2, 1…), экспериментируй, пока не найдешь достаточно слоев, чтобы все было в видяхе.
4. Все время тестируй скорость генерации несколькими запросами, желательно однотипными. На самом деле, похуй на три предыдущих совета, тебе скорость нужна, а не куда-то втиснуться. =)
Успехов!

ЗЫ Свою 1660С отдал знакомому погонять, потестить твою модель не могу. Но 1,4 токена для видяхи маловато. Кажись, у меня было 6-10 для 7Б и 3-5 для 13Б.
Аноним 20/08/23 Вск 12:45:07 #140 №461758 
>>461623
Для этого негативный промпт есть. Обычный промпт всегда плохо работает с отрицательными формами.
Аноним 20/08/23 Вск 12:59:14 #141 №461759 
>>461754
>Это закономерность
Хуяномерность, ты понимаешь что сейчас вообще высрал? Причем здесь амуде, если у чела 3060 с сомнительным прошлым?
>чипопроблем в них меньше (если с амд сравнивать особенно заметно)
Какой же ты тупой это пиздец.
Аноним 20/08/23 Вск 13:00:08 #142 №461760 
>>461755
>А что, если курс поднимется?
Ну чел. В прошлом году рубль отскочил из-за обвала импорта и усиления регуляторной ёбки (которой никто не ожидал, отсюда мем про 2 месяца). Щас импорт восстановился и продолжает расти, а ёбку усиливать уже особо некуда. Плюс шатания усиливаются. Откуда в такой ситуации ждать рублёвой перемоги - я хз если честно.

Я согласен, что всякое может быть, но твоя железная уверенность
>Сейчас ты точно переплатишь
выглядит странно.
Аноним 20/08/23 Вск 13:14:53 #143 №461768 
>>461759
Это ты глупенький, в начале растекся чсв всезнайкой, а теперь испугавшись заднюю дать не можешь и трясешься, повизгивая врети и скрывая неуверенность агрессией.
> Причем здесь амуде, если у чела 3060 с сомнительным прошлым
Перечитай первый ответ и поймешь, посыл в том что для описанных артефактов с избытком других часто безобидных причин и не нужно сразу грешить на отвал.
Аноним 20/08/23 Вск 13:30:09 #144 №461778 
>>461768
Ох уж этот психоаналист, найдет тысячу и одно объяснение почему он обосрался и спешно сменил тему!
Аноним 20/08/23 Вск 13:33:28 #145 №461780 
>>461778
Штанишки то сменил, мамкин тралир? По всем пунктам обсер.
Аноним 20/08/23 Вск 13:34:48 #146 №461781 
>>461780
По каким всем пунктам? Ты ничего нового так и не сказал.
Аноним 20/08/23 Вск 13:42:58 #147 №461784 
1596654962756.png
>>461781
По всем пунктам выше от тебя неудача, скрываемая пикрелейтед поведением, даже позицию не можешь выразить а лишь упираешься из принципа и пытаешься зацепить.
> нового
За щекой чекни
Аноним 20/08/23 Вск 13:47:01 #148 №461786 
>>461784
О, а вот и боевые картиночки от отсутствия нормальных аргументов подъехали!
Аноним 20/08/23 Вск 15:09:02 #149 №461823 
изображение2023-08-20160408957.png
>>461755
До запуска
После

А как понять что что то пошло туда, а что туда?
Аноним 20/08/23 Вск 15:12:30 #150 №461827 
image.png
>>461823
"до" почему то не прикрепилась
Аноним 20/08/23 Вск 15:50:42 #151 №461859 
изображение2023-08-20164857416.png
>>461823
20 слоев
"лов рам" нету
потоков 5
торморзит до невозможности

15 слоев уже работает
Прием 200 токенов, вывод 500
Аноним 20/08/23 Вск 16:39:22 #152 №461886 
В связи со смертью клавдии - есть локальная моделька которая на клавдию похожа? Ну или хоть на которой можно ЕРП вести нормальный. 70B запустить могу если что, можно и их кидать
Аноним 20/08/23 Вск 16:45:08 #153 №461890 
>>461886
70В уже не нужна, потому что ты ёбнешься с ней негатив использовать, а без негатива хуйня. Сейчас база - это МифоМакс свежий. Выдаёт такие простыни графомании, что даже ваша клавдия позавидует.
Аноним 20/08/23 Вск 16:53:48 #154 №461895 
>>461890
>Выдаёт такие простыни графомании, что даже ваша клавдия позавидует.
В тему хоть выдаёт? Я на Chronos Hermes поначалу тоже радовался, как много и складно стелет, но со временем заебала графомания в речи персонажей. Все эти after all, throughout, who knows, see where that leads us и т.д., до сих пор глаз дёргается от этого всего.
Кончилось тем, что съебался в ужосе на другой микс, тоже с Хроносом, но доля меньше. Пока вроде норм.
Аноним 20/08/23 Вск 16:58:46 #155 №461898 
>>461895
Вот как раз Хроносы и всякие Аиро-миксы любят выдавать бред, я так и не понял почему их пиарят вообще. Миксы на белуге ещё норм, но Мифомакс ебёт всех с отрывом, конечно.
Аноним 20/08/23 Вск 17:00:04 #156 №461899 
>>461890
Попробую. Как играешь? Simple proxy? Если да, то какой пресет?
Аноним 20/08/23 Вск 17:03:48 #157 №461904 
>>461899
Убабуга как бекенд, фронт - таверна с пресетом ролеплея.
Аноним 20/08/23 Вск 17:22:20 #158 №461911 
>>461898
Надо попробовать, спасибо.
Аноним 20/08/23 Вск 17:27:00 #159 №461914 
>>461904
Без simple-proxy? Ну ок, протестирую, спасибо
Аноним 20/08/23 Вск 17:53:25 #160 №461934 
>>461886
https://rentry.co/ayumi_erp_rating
> 70B
Не то чтобы они были шедевральны в erp, airoboros 2 и годзилу попробуй.
>>461823
Срежь контекст, с шестью гигами на нем сильно не разгуляешься. Вообще с таким квантом и 10 слоями оффлоада с 16к контекста оно при работе потребляет более 7 гигов, так что сокращай число слоев и контекст.
После запуска кобольда в диспетчере задач действительно начинает показывать эти 14.4, но фактическое использование врам близко и тому что он называет "выделенная". Используй любую нормальную программу для мониторинга вместо шиндовского диспетчера.
Аноним 20/08/23 Вск 19:28:07 #161 №461995 
В кобольде можно как-то указать отрицательный промпт?
Аноним 20/08/23 Вск 19:48:21 #162 №462007 
>>461995
Нет. Да и в принципе у Жоры нельзя. Для негатива надо чтоб сетка нормально возвращала вероятности для всего контекста.
Аноним 20/08/23 Вск 21:52:40 #163 №462092 
>>461760
> твоя железная уверенность
Это потому, что ты русский плохо знаешь. =)
Видеокарты были дешевле, стали дороже = точно переплатит, понимаешь?
А будут ли они дороже в будущем или нет — тут я ничего не утверждал.
Но сейчас он точно переплачивает относительно цены месяц назад, окда?
А как пойдет дальше — хз-хз.

>>461823
>>461827
Выделенная память — это «туда».
Вся остальная — это «не туда», это буфер в оперативе.
Как видишь — у тебя все идет «не туда». =)

>>461904
Просто ролеплей пресет? Никаких собственных кастомных?
Аноним 20/08/23 Вск 22:09:27 #164 №462099 
>>462092
> А будут ли они дороже в будущем или нет — тут я ничего не утверждал.
А вообще есть перспективы для снижения цены? Куртка производство сокращает, вторичка скуднеет, цены местных еще не полностью отреагировали на рост курса(?).
> Выделенная память — это «туда»
Это текстурки, данные и прочее что сидит в врам. На самом деле еще фреймбуфер и всякое, фактическое использование выше чем это число.
> Вся остальная — это «не туда», это буфер в оперативе
По описанию - это вроде как просто выделенная но не обязательно используемая, то что она есть не обязательно значит что по факту куда-то загружена. Также как с обычной рам.
> у тебя все идет «не туда»
В его случае выгрузка действительно может быть, но не из-за тех 14 гигов.
Аноним 20/08/23 Вск 23:38:07 #165 №462155 
>>462092
>Но сейчас он точно переплачивает относительно цены месяц назад, окда?
Не а. Нельзя переплатить за прошлую цену, её уже не вернуть, назад в прошлое не переместится.
Аноним 21/08/23 Пнд 03:50:14 #166 №462314 
Сделал экспериментальный файнтюн мифомакса на небольшом датасете (limarp c переделанной разметкой), и perplexity на wikitext понизилась почти на 0.2. Лучше ли стали ответы пока не тестировал - сначала поиграюсь с параметрами, может станет еще лучше.
Аноним 21/08/23 Пнд 08:03:11 #167 №462347 
image.png
Как нормально настроить? На проце пиздец долго грузит всё, а подрубить и видюху и проц сразу? памагите бля, где галочки ставить??
Аноним 21/08/23 Пнд 08:08:21 #168 №462349 
>>462347
Если у тебя вместо железа говно, то никак.
Аноним 21/08/23 Пнд 08:12:18 #169 №462350 
>>462349
Не сказал бы что говно, картинки нормально генерю.
Аноним 21/08/23 Пнд 08:32:43 #170 №462356 
the-llm-gpu-buying-guide-august-2023-v0-4nve5pq5oaib1.png
>>461369
Аноним 21/08/23 Пнд 09:39:34 #171 №462389 
>>462099
> А вообще есть перспективы для снижения цены?
Для 22 февраля тоже никаких перспектив не было, но оно случилось.
И потом перспектив на многие ситуации не было, но ситуации происходили.
Причем, если говорить об аналитике, то тут проблема в том, что аналитика как раз утверждала все ровно наоборот и ни разу не попала в цель. А если говорить «уже тогда было понятно, что курс будет доллар по 50 рублей», то позвольте вам не поверить, или вы лично дохуя гений, мало ли. =)
Насчет сокращения производства — не слышал, но поверю.
Вторичка скуднеет — не уверен, на авито вижу ровно то же самое, что и раньше, даже больше. Лишь увеличивается поток майненных 10хх и 20хх поколения, а 580 при этом не исчезают.
Цены местных и правда не полностью отреагировали, но как раз на топ-сегмент реакция уже есть, как я писал выше, если брать 3060 — то норм, можно взять за свою цену. 4070 какую-нибудь уже за 20к выше, чем месяц назад.

Ситуация такова, что у тебя впереди может быть как рост курса и цен, так и падение. Угадывать — прям пальцем в небо. Поэтому точных советов бы я не стал давать человеку. Гораздо лучше ориентироваться на то, что 50% курс вырастет, 50% откатится. Стало быть, можно либо переплатить еще больше, либо не переплатить как сейчас. И выбор целиком за человеком — ждать или нет. Рискует он уже в любом случае, к сожалению. Если мы про топ-сегмент.

> Это текстурки, данные и прочее что сидит в врам.
Ну, это врам и есть, как таковая. =) Текстурок в кобольде немного. Туда — это в видеокарту, непосредственно во врам.

> это вроде как просто выделенная но не обязательно используемая
Возможно-возможно. Просто я боюсь, что в случае модели нейронной сети, она как раз «лежит» и прекрасно подходит под понятие «не обязательно используемая».

> но не из-за тех 14 гигов
Ну, я надеюсь, он не держит свернутой Ласт оф Ас. =) И не рендерит видосы. И не что-нибудь еще.
Все же, я предполагаю, что он запускает начистую, поэтому и написал, что лучше стартануть систему, убедиться в 0 или 0,1 памяти в той графе, и уже тогда запускать нейронку и следить за заполнением памяти. Если все влезет во врам — то ничего не вылезет в общую, насколько я понимаю.
Но могу и ошибаться, да.

>>462155
Тогда в будущем он тоже не переплатит, пусть ждет когда угодно и покупает за сколько хочет.
Упущенной прибыли не существует, ага. =)

>>462356
А я говорил про 4060 ти.
Правда тут тоже просто говорят. =)
Аноним 21/08/23 Пнд 11:19:46 #172 №462427 
Недавно вкатился и появилось несколько глупых вопросов:
1. У меня мобильная RTX 2060 и 6 Gb VRAM, везде пишут что на такой лучше только 7b модель гонять, но 13b тоже грузит и выдаёт 3-4 токена/c. Она может быстрее отвалиться из-за крупной модели и лучше пересесть на 7b?
2. У кого-нибудь получалось на убабуге завести EdgeGPT? Куки тоже не помогают, говорит что проблема авторизации. Там надо ВПН юзать? Есть альтернативы чтобы модель в интернет могла лазить?
3. superbooga не компилируется, это проблема с MVS Tools? Я ведь правильно понимаю что с помощью этой штуковины можно спрашивать модель про какие-нибудь скачанные статейки? Может тоже есть альтернатива?
4. Есть ли смысл во флаге xformers? Где-то вообще есть гайд по этим надстройкам для убабуги?
5. Правильно ли я понимаю, что тренировка модели - это типа создание LoRA надстройки по каким-нибудь данным. И потом можно к этой модели подключить эту LoRA и она сможет выдавать ответы с использованием этой специфичной инфы? И в зависимости от LoRA можно её на разные тематики подталкивать? А конкретная LoRA создаётся на конкретную модель или универсальна?
6. Находил промтовые надстройки по типу Mr.-Ranedeer-AI-Tutor для ChatGPT. Так вот, персонажи - это что-то похожее? Чтобы этого Тутора засунуть в убабугу нужно это делать через персонажа или инструкции? Чем вообще отличаются персонажи и инструкции? Персонажи - сугубо стиль общения, а инструкции - что-то вроде хака промпта?
7. В чём разница в убабуге между Chat, Default и Notebook?
Аноним 21/08/23 Пнд 12:03:27 #173 №462442 
>>462314
По какой методе делал? Скидывай что получится, может взлететь.
>>462347
Use Cublas, выгружать все слои, поправить контекст. Офк если железо позволит.
>>462389
> Для 22 февраля
Ты еще ковид вспомни, нейросеть =). К тому что может быть внезапно хуево особенно жители этой страны уже привыкли, удивляет только когда суперхуево. Ситуация с внезапным падением цен на видюхи не имеет каких-либо предпосылок кроме как извращенное исполнение желаний множащее их на ноль уровня доблестная дума выносит закон о уголовке за их домашнюю эксплуатацию. Даже при снижении курса ритейлеры будут держать цены дольше чем тот продержится низким. Как-то сыграть может окончание конфликта с сокращением санкций - в захват Тайваня и обязательство новидии поставлять квоту видюх в эту страну для снижения цен верится больше.
> на топ-сегмент реакция уже есть
Ага, в популярных магазинах 4090 начинается не от ~135 а от 170+, привет. Найти по старым ценам с учетом скидок уже на гране реальности.
> Насчет сокращения производства — не слышал, но поверю.
Правильно, пусть отчитаются перед тобой, заодно куртку там потереби чтобы 5090 быстрее и 48 гигов сразу на борту было.
> Вторичка скуднеет — не уверен
Нормальных предложений начиная от 3060 и выше все меньше, уже пол года тенденция.
> я надеюсь, он не держит свернутой
Выше писал, это резервирует кобольд даже на карточке которая видео не выводит и полностью пустая.
Аноним 21/08/23 Пнд 13:06:30 #174 №462464 
Господа, у меня 3060 12гб.
Поставил угабугу, завёл "MythoMax L2 13B - GPTQ" - 20-23 токена/с при использовании ExLlama.
Это нормально?

Какой пресет в таверне лучше использовать?
Как включить xformers?

Есть ли получше модель для кума (хочу описания развёрнутые, как сиськи видно сквозь кружева одежды)?
Аноним 21/08/23 Пнд 13:33:01 #175 №462476 
>>462464
> Это нормально?
Да. На 4090 с негативом около 40 всего.
Аноним 21/08/23 Пнд 13:37:53 #176 №462478 
>>462442
>чтобы 5090 быстрее и 48 гигов сразу на борту было.
Там ценник к тому времени будет тысяч 400.
>>462464
>Как включить xformers?
Не нужно.
Аноним 21/08/23 Пнд 16:28:31 #177 №462567 
Парни а вот кто шарит. Например куплю я проц ryzen 9 5900x, насколько он был бы хорош для моделей например 70B?
У меня сейчас 3060 и ryzen 5 3600. Я хорошенько потестил митомакс. Надеюсь следующие модели будут еще круче 13B и хотелось бы апгрейднуться. Для меня главное не размер контекста, а чтобы нейронка хорошо шарила в происходящем.
Аноним 21/08/23 Пнд 16:57:32 #178 №462585 
Интелобляди соснули.png
>>462567
>Например куплю я проц
Проц дело десятое, главное память. Не факт что ты вообще заметишь разницу от замены, лол (мог бы проверить, сейчас мой старый 5900х как раз у мамки стоит, но мне лень).
А ещё на срузене хронически дерьмовый контроллер памяти, на DDR5 он процентов на 20 отстаёт от интула (но у интула нужно следить за тухлоядрами, иначе будет ой с пикрила).
Аноним 21/08/23 Пнд 18:52:36 #179 №462660 
>>462585
хмммм. Старый? Так вроде 9 5900x последняя модель AM4.
Сравнил с твоим 12700 странно что ты на него пересел.
Оперативку недавно менял на эту.
https://www.dns-shop.ru/product/2ef484af93db3330/operativnaa-pamat-gskill-ripjaws-v-f4-3200c14d-32gvk-32-gb/
Но все забивается подчистую даже на 13b при настройках Cublas.
И что интересно на Clblas забивается только видюха и там генерация идет быстрее намного хотя все говорят, что надо через Cublas.
Идейка в том что максимальный апгрейд делать до AM4 на ближайшее время. Года два. Пока в AM5 не вижу смысла. Видяху за 150к не охота брать.
Аноним 21/08/23 Пнд 19:22:43 #180 №462680 
Лениво потыкал тред и глянул шапку, сейчас оптимальная модель это MythoMax-L2-13B-GGML для людей с 12гб видюхой?

Еще видел ламу 2, 7б есть что-то еще на что обратить внимание?

Задачи: писать от лица разных персонажей для кума и фана.
Аноним 21/08/23 Пнд 19:34:27 #181 №462696 
>>462442
>По какой методе делал? Скидывай что получится, может взлететь.
LoRA в убабуге. Пришлось только немного подушить питона чтобы подправить формат.

Вообще, это был просто тест. Есть датасеты больше и лучше, например:

https://huggingface.co/datasets/alpindale/visual-novels
https://huggingface.co/datasets/nRuaif/Roleplay-extended

Буду думать, что конкретно хочу от модели, и подбирать соответствующие датасеты. Просто ролеплей плох тем, то слишком много действий и мало слов. Описания секса стали детальнее, но я хочу чтобы персонажи больше разговаривали, а для этого лучше подходит вн датасет, в котором наоборот очень мало описаний и действий...

Бесит тупость мифомакса, с которой ничего не поделать. То он лишает моих тянок девственности, то приделывает им хуи ("Onii-chan, it's not fair that your dick is bigger than mine" - пиздец я с этого проиграл). Airochronos, на котором я раньше сидел, несравнимо умнее, но сильно уступает во всем остальном. После мифомакса как-то совсем не заходит.
Аноним 21/08/23 Пнд 19:55:58 #182 №462715 
Маленький член это не плохо я бы хотел, чтобы у тебя его вообще не было.jpg
>>462660
>хмммм. Старый? Так вроде 9 5900x последняя модель AM4.
Для меня старый, я так то на 7900х перекатился, а пикча где-то сс доски, уже не помню чья.
>Идейка в том что максимальный апгрейд делать до AM4 на ближайшее время.
Юзлесс. Сильно лучше не станет.
>Видяху за 150к не охота брать.
А других вариантов быстрой генерации и нету.
>>462696
>то приделывает им хуи
Это фича же.
Аноним 21/08/23 Пнд 20:30:10 #183 №462737 
>>462478
> ценник
За 32гб в следующем году даже 200 жирновато, хотя учитывая темы инфляции - все печально.
>>462567
Посоветовал бы взять более жирную видюху, но тут вопрос действительно интересный что больше даст. Кто-нибудь с условной 3060 70б запускал?
>>462696
> LoRA в убабуге
Сейчас на квантованных моделях оно нормально обучается? Держи в курсе результатов, довольно интересная тема.
> Airochronos, на котором я раньше сидел, несравнимо умнее, но сильно уступает во всем остальном.
Реально ленгчейн или что проще надо осваивать и суммаризировать/выбирать реплики из ответов двух разных моделей.
Аноним 21/08/23 Пнд 20:39:35 #184 №462744 
>>462427
Бамп
Аноним 21/08/23 Пнд 20:55:47 #185 №462764 
>ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
numba 0.57.1 requires numpy<1.25,>=1.21, but you have numpy 1.25.2 which is incompatible.

Нужно даунгрейднуть для нормальной работе в убабуге или не критично?
Аноним 21/08/23 Пнд 21:19:31 #186 №462777 
У кого-нибудь получалось отучить Mythomax писать за пользователя? Я, уж, и так, и сяк, и всякими карами небесными ему в промпте угрожаю, если он попытается write от лица {{user}}, а ему, похоже, насрать.
Аноним 21/08/23 Пнд 21:31:43 #187 №462790 
>>462737
>Сейчас на квантованных моделях оно нормально обучается?
Я обучаю на 8-битной загруженной через трансформеры. Квантованные просто вылетают, да и не стал бы я их обучать - сильное квантование для тренировки совсем плохо. Пока добился того что мифомакс стал выдавать намного более детальные описания в секс-сценах. Вдаваться в детали особо нет времени. Я уже и так две недели потратил целиком на кум, игнорируя работу.
>Реально ленгчейн или что проще надо осваивать и суммаризировать/выбирать реплики из ответов двух разных моделей.
Ресурсы нужны. У меня всего 24 гига видеопамяти, что максимум позволяет запускать 33B с 4к контекста, 13B с 16к, и тренировать 13B.
>>462764
>Нужно даунгрейднуть для нормальной работе в убабуге или не критично?
Если не вылетает, то забей.
Аноним 21/08/23 Пнд 21:44:12 #188 №462801 
2023-08-2122-34-55.jpeg
518Mx8CqsbL.jpg
Называется привёл анимудевку в подворотню.
>>462777
Только старинной дедовской методой: жму на карндаш и ручками вытравливаю подобную ересь. На негативный промпты ЛЛМки вообще плохо реагируют.
Аноним 21/08/23 Пнд 21:56:34 #189 №462808 
>>462442
> Ага, в популярных магазинах 4090 начинается не от ~135 а от 170+, привет.
Привет, ты все еще не выучил русский, я это и сказал, а ты подтвердил, в чем проблема? :) На дорогие — реакция есть, а дешевые — еще нет (ну, на вчера не было, щас уже хз, кек, не мониторил цены седня).
> куртку там потереби чтобы 5090 быстрее и 48 гигов
Обязательно передам, а то охуел до 2024 года жилить, чи когда там.

>>462464
Даже хорошо.

>>462567
Повторюсь: пропускная способность памяти > процессора. На видяхе быстро потому что GDDR6X, а на DDR4 у тебя после 4 потока прирост уже перестает скейлится прямо.
Так что смотри в память, а проц достаточно просто хороший.
>>462660
Если у тебя AM4 позволяет гонять DDR5 на частотах 6000+ в двухканале — топ апгрейд, но опять же, проца хватит условно 5600 в 10 тредов.
Я надеюсь смысл понятен, на шо я намекаю.

>>462680
Мифомакс л2 — это и есть л2, окда, поэтому вряд ли л2 голая будет лучше.
Все правильно понял.

>>462764
Ты вчитайся, он потом ее сам откатывает, и 1.24 накатывает. Если я правильно понял, где.

>>462427
1. Сочувствую.
Разница в том, что 7Б модель у тебя целиком на видяхе работает, а 13Б частично в оперативе, что вызывает снижение производительности.
2. Нет, мне лень на этапе получения кук стало, не хочу быть привязанным к чему-то, я тут локалку поднимаю, а не вот это вот все.
3. Сочувствую, не шарю.
4. Не заметил разницы, честно.
5. Да.
6. Персонаж — это буквально промпт, где ты описываешь, кого нейросеть должна отыгрывать и как отвечать, вот и все.
Инструкции, насколько я понял, участвовали в обучении (т.е., там были вписаны примеры на базе инструкций), что позволяет получать лучшие ответы с использованием тех жи инструкций. Но по сути это не имеет никакого значения: у тебя есть модель, куда ты даешь некий промпт (инструкции, формат, персонаж, твой текст — все одним махом), который он дописывает как может.
7. Чат — это чат, сразу форматированный запрос.
Ноутбук — это неформатированный запрос, который просто летит в модель, смешно хихикая.
Дефолт — это вид ноутбука, но с форматом чата, как я понял. Ну или как ты захочешь там. Последнее не точно.
Аноним 21/08/23 Пнд 22:32:59 #190 №462834 
>>457355 (OP)
>2. Скачиваем модель в ggml формате. Например вот эту
https://huggingface.co/TheBloke/WizardLM-Uncensored-SuperCOT-StoryTelling-30B-GGML/blob/main/WizardLM-Uncensored-SuperCOT-Storytelling.ggmlv3.q5_1.bin
кабол и эта хуета мне уже минут 20-30 ответить не может, 17 токенов из 100, охуеть

GPT4ALL + Vicula или как там ее почти мгновенно отвечает, не GPT конечно, но код писать умеет.
Аноним 21/08/23 Пнд 22:37:45 #191 №462837 
>>462834
>минут 20-30 ответить не может, 17 токенов
Ты зачем калькулятор мучаешь?
Аноним 21/08/23 Пнд 22:39:36 #192 №462839 
>>462834
Сколько у тебя ОЗУ?
Аноним 21/08/23 Пнд 22:39:56 #193 №462840 
>>462837
i5 10400f + 16 ram + 3060, при этом смотрю в диспетчер, ни то, ни другое не нагружено.

а100 чтоли нужен для этой хуеты? так раз 3060 не загрузила, то и а100 не загрузит
Аноним 21/08/23 Пнд 22:41:10 #194 №462842 
>>462808
Спасибо!
>а 13Б частично в оперативе, что вызывает снижение производительности.
Значит если поставить хорошую оперативку то можно повысить скорость? А если 64Gb, то можно на проце и 30b погонять?
Аноним 21/08/23 Пнд 22:44:59 #195 №462844 
>>462840
Ты 30b пытаешься поднять на 16Гб ОЗУ? Даже с учетом VRAM (который ты естественно не использовал) этого не хватит и у тебя нейронка генерирует на файле подкачки.
Аноним 21/08/23 Пнд 22:46:15 #196 №462845 
изображение.png
>>462834
>>462844
При этом GPT4All + Vicuna 13b за минуту максимум отвечает
Аноним 21/08/23 Пнд 22:53:32 #197 №462853 
>>462844
какой ключик нужен для vram 12gb? спасибо
Аноним 21/08/23 Пнд 22:56:09 #198 №462858 
66.jpg
>>462845
Блядь, если у тебя модель не вмещается в ОЗУ, то у тебя будет использоваться своп и генерировать будет со скоростью 1 токен в сутки, хоть 30B, хоть 13B. Дегенерат выше пытается 30b вместить в свой калькулятор с 16Гб ОЗУ.
Аноним 21/08/23 Пнд 23:07:30 #199 №462870 
>>462858
нуууу чисто прикинув, какой нибудь квант 2 или даже 3 потянет
Аноним 21/08/23 Пнд 23:10:03 #200 №462874 
>>462427
> Она может быстрее отвалиться
Что значит отвалиться? Если 3-4 устраивает то норм, пользуйся, 13б сильно лучше 7 по качеству.
> 4. Есть ли смысл во флаге xformers?
Прироста или сокращения жора врам незамечено
> Правильно ли я понимаю, что тренировка модели
Есть разные способы, в том числе через лору. Лора универсальна под тип модели, но на разных может работать по-разному, как улучшая так и ломая.
> 7. В чём разница
Формат интерфейса под разные задачи, нотбуком можно удобно инструкции тестить и карточки персонажей генерировать, или тексты под определенную задачу.
>>462790
> 8-битной загруженной через трансформеры
Ага, ну так почему бы и нет вполне
> Ресурсы нужны.
Потренироваться можно и на 7б. Если какие идеи для проверки есть - скидывай ресурсы у нас есть, у нас времени нету
>>462801
(ooc: something unexpected happened)?
>>462808
> Повторюсь: пропускная способность памяти > процессора
А замеры будут? Чтобы разные архитектуры с одной частотой врам, чтобы разная частота на одном проце. И с разделением обработка промта - генерация.
>>462834
>>462845
> за минуту максимум
Тут с телефонов пытались запускать, полагаю там примерно такой же перфоманс а то и выше. На микроволновке пускаешь?
Аноним 21/08/23 Пнд 23:10:39 #201 №462876 
>>462853
--gpulayers 123
подбирать опытным путем
Аноним 21/08/23 Пнд 23:25:29 #202 №462901 
>>462874
>Что значит отвалиться?
Криво выразился. Видеокарте пофигу какую модель гонять? Она вообще может откинуться как при майне от того что нейронки периодически на ней запускаю?
Аноним 21/08/23 Пнд 23:27:31 #203 №462905 
>>462901
> Она вообще может откинуться как при майне от того что нейронки периодически на ней запускаю?
Конечно.
Аноним 21/08/23 Пнд 23:33:46 #204 №462908 
>>462901
В целом пофиг какую нагрузку. А вообще откинуться может вообще от стороннего нагрева от процессора не будучи задействованной (пусть и маловероятно), от деформаций корпуса и т.д., но страшнее всего для нее - моральное устаревание. Так что пользуйся, а то обидно будет.
Аноним 22/08/23 Втр 00:26:04 #205 №462959 
>>462840
>при этом смотрю в диспетчер, ни то, ни другое не нагружено
На загрузку диска и свопа посмотри, гений.
>>462842
>Значит если поставить хорошую оперативку то можно повысить скорость?
Оперативка на 1-2 порядка медленнее. Лучше видях докинуть, лол.
>>462842
>А если 64Gb, то можно на проце и 30b погонять?
И даже 70, но совсем печально.
>>462845
Само собой, 13 меньше, чем 30, тоже мне открытие.
>>462908
>Так что пользуйся, а то обидно будет.
Два чаю. У меня 3770к отлетел в своё время, только выйграл после обновления, а то так бы и сидел пердел на 4-х ядрах в 2к2З.
Аноним 22/08/23 Втр 00:42:51 #206 №462968 
>>462876
пасиба, будем тестить
Аноним 22/08/23 Втр 05:02:47 #207 №463067 
>>462808
Ты не первый кто говорит что 5600 это норм проц , но мне интересно чем плох 3600.По мощностям уступает на 20 процентов и все.
Аноним 22/08/23 Втр 08:37:58 #208 №463109 
Запускаю кобольд, выбираю файл, после этого он закрывается. В чем дело, как фиксить? Это значит, что ресурсов компа не хватает,
Аноним 22/08/23 Втр 09:56:48 #209 №463133 
>>462959
>Лучше видях докинуть, лол.
У меня ноут, так что это не варик. Но я вас понял.
Хотя.. Интересно, а внешняя видеокарта сильо просядет в производительности?
Аноним 22/08/23 Втр 10:12:39 #210 №463140 
>>462842
Хорошую — это DDR5 7200 в четырехканале? :)
Тебе важна пропускная способность памяти, а объем нужен лишь затем, чтобы модель не улетала в кэш на жесткий диск.
Т.е., 256 гигов ддр3 даст очень низкую скорость, а 32 гига ддр5 уже хватит на 30Б модель на хорошей скорости.
Гонять можешь любую, какую хочешь модель — лишь бы хватало памяти.
Вопрос скорости — и пропускной способности памяти.
У видях она гораздо выше, поэтому видяхи и юзают. =)

Хоть 70Б гоняй на 64-128 гигах, если скорость устроит.
30Б влазит только в 24-гиговые карты минимум. А лучше — больше, конечно.

Вот и вся магия.
В 12 гигов видяхи влезет только 13Б целиком, чтобы существенно не уменьшалась скорость.

>>462845
Ты сам с собой о какой-то хуйне говоришь, причем тут нахуй файнтьюны, вопрос размера модели и куда ты ее грузишь, а не викуня там или визард.

>>462870
Так-то да. =)

>>462874
> Ага, ну так почему бы и нет вполне
Я тоже на 8-битной через трансформеры обучал, насколько помню. Вполне рабочий вариант, правда у меня хуйня получилась, она только булькала в ответ.

> А замеры будут? Чтобы разные архитектуры с одной частотой врам, чтобы разная частота на одном проце. И с разделением обработка промта - генерация.

Врам-то тут причем, если мы говорил о работе на проце? :) Видимо, рам, имелось в виду.
Я приводил уже не раз замеры выше.
Но там вкратце, между 5 и 10 тредами одной архитектуры разница 30% на одной памяти на 30Б модели.
На 70Б модели разница между 4 и 20 тредами уже в районе 75% что ли.
Разную архитектуру в этом контексте мерять смысла нет — результаты будут отличаться, но в рамках одной архитектуры, относительные скорости будут такими же, скорее всего.
Т.е., суть в чем: у нас есть лимит по псп, в него все упирается. Это некая верхняя граница (для ddr4 — это как раз 5 тредов условных), выше которой прирост перестает быть прямо пропорциональным количеству тредов.
Так же, насколько я помню, от этого страдает генерация в большей степени, обработка промпта продолжает скейлится тредов до 7-10, где-то, дальше тоже замедляется.
У меня нет какой-либо точной методики тестирования (модель, вопросы, сиды), каждый раз я просто повторял один случайный набор вопросов, которые могут быть так себе.
Так что, давайте методу — можно будет и потестить.
Я для себя лично такие закономерности вывел.

>>462901
Пока никто не гонял нейронки нон-стопом годы подряд, поэтому статистики нет.
Нет, у нас ниче не сдохло.
Может у кого дроссели свистят, хз.
Стейбл Диффужн у меня нагружает видяху заметно сильнее текстовых.

>>462908
Так.

>>462959
> И даже 70, но совсем печально.
Зато отвечает — шикарно. Просто надо подождать минут 10. =)

>>463067
Так никто не говорит, что 5600 норм, а остальное — дно. =)
Просто 5600 хорош, но если покупать новое, я бы брал 3600 или 5500 — они уступают лишь чуть-чуть, но гораздо дешевле, чуть ли не вдвое. На таком можно бомж-систему собрать. А если хочется взять с запасом — то 3900, он стоит чуть дороже 5600, но почти вдвое мощнее по количеству ядер (для игор 5600 будет чуточку лучше, канеш).
Так шо вопрос не по адресу.
3600 можно было взять за 4500 рублей
5500 за 5500
3900 за 11000
Я бы ориентировался на эти цены, но уже не мониторю, вроде подорожало.

Но 3600 горячий — нужен кулер хороший и питалово на материнке.
А 5500 — холоднее.

>>463109
Или комп старый, проц старый, --noavx попробуй.
Аноним 22/08/23 Втр 10:14:21 #211 №463142 
>>463133
Нет, ибо там тебе pcie нужна в основном затем, чтобы загрузить модель в память видяхи, а между видяхами немного инфы будет бегать.
Но звучит как оверпрайс, я не уверен в такой идее.
На ноуте есть куда подключить док-станцию?
Скока она будет стоить?
Подтянет ли софт внешнюю?
Сплошные вопросы.
Аноним 22/08/23 Втр 10:17:57 #212 №463146 
>>463140
> Или комп старый, проц старый, --noavx попробуй.
Ryzen 5 3600, 3070 ti, 16 оперативки это старый, или пойдет? Может, еще в чем-то проблема может быть?
Аноним 22/08/23 Втр 10:18:48 #213 №463147 
>>463140
Кто там захочет написать, мол «у 5500 всего лишь pcie 3.0!», будем честны, человек с процом за 5к рублей вряд ли будет брать себе модерновые видяхи и рассчитывать на 180 фпс в играх. pcie 3.0 пока еще жива, если не брать х4 видеокарты по типу Радеона 6500.

К тому же, лол, но некоторые играют на майнерских с x1 PCI-e v1.1 =)

Короче, отставить дроч на PCI-e 4, мы тут за бомж-процы перетираем.
Аноним 22/08/23 Втр 10:19:34 #214 №463148 
>>463146
Не, должно работать норм, значит надо искать траблу.
Я не силен в кобольде, сорян.
Аноним 22/08/23 Втр 10:21:39 #215 №463150 
>>463140
>Хорошую — это DDR5 7200 в четырехканале? :)
У меня в ноуте DDR4 2666 в двухканале, думал взять 3200. Так понимаю особой разницы не будет?
Понятно что на видяхе быстрее, просто тогда надо ПК собирать, видимо. А это в разы дороже.
Аноним 22/08/23 Втр 10:24:08 #216 №463154 
>>463150
Зачем мучать жопу? Юзай колаб, ответ будет быстрее чем на твоем некроноуте.
мимо
Аноним 22/08/23 Втр 10:24:08 #217 №463155 
А можете тогда посоветовать самый адекватный способ баловаться с нейронками вместо кобольда?
Аноним 22/08/23 Втр 10:25:07 #218 №463158 
>>463154
А он разве бесплатный?
Да и хотелось локальную хрень намутить.
Аноним 22/08/23 Втр 10:27:05 #219 №463161 
>>463158
Бесплатный.
Ну покупай нормальное железо для локального варианта.
Аноним 22/08/23 Втр 10:27:59 #220 №463162 
Подскажите, насколько актуальные данные могут выдавать эти модели? Например, если я захочу что-то спросить о новостях последней недели, у них же не может быть настолько актуальной инфы? Может, есть способы работать с чем-то совсем свежим постоянно?
Аноним 22/08/23 Втр 10:29:53 #221 №463165 
>>463162
В эдже есть бинг-чат, оберезанная жпт4.0 с доступом в интернет которая может гуглить за тебя.
Аноним 22/08/23 Втр 10:37:18 #222 №463171 
>>463150
Ну, небольшой прирост будет, конечно.
Но сам понимаешь — в лучшем случае заскейлится прямо и вырастет на 17%. Было 3 токена, стало 3,5 токена. В лучшем случае.
Ну, такое.

Но я лично перфекционист и у меня везде минимум 3200 память. Но ты с меня пример не бери, это бзик. =)

>>463155
Если не идет Кобольд, попробуй убабугу — там выбор между движками есть.

>>463162
Если тебе не нравится Бинг — то это ленгчейн и вебленгчейн, но там уже надо напрягаться (и стандартный модуль той же убабуги работает через тот же бинг=).
Но если поднатужиться, то можно самостоятельно написать отличного помощника с актуальными данными, да.
Аноним 22/08/23 Втр 10:41:07 #223 №463174 
>>463162
В обнимордовском чате есть переключатель "web search", что по идее даёт ламе возможность гуглить. Чатгопота вроде тоже гуглить умеет.
Аноним 22/08/23 Втр 10:43:17 #224 №463177 
>>463162
>совсем свежим постоянно
Есть поисковик нейросеточный perplexity, бесплатный, вполне себе актуальные штуки ищет со ссылками.

А ещё на убабуге у меня вышло супербугу запустить, через этот модель можно скормить не только файлы, но и ссылки. Но тогда тебе надо эти ссылки знать, да.
Аноним 22/08/23 Втр 10:47:50 #225 №463180 
>>463177
И как она, супербуга, в чем прикол, чем качественно отличается?
Аноним 22/08/23 Втр 10:53:49 #226 №463183 
image.png
>>463180
Это просто расширение, которое даёт возможность загрузить инфу и работать с ней в обычной убабуге.
Правда, тогда надо контекст увеличивать. Возможно тут в настройках есть хитровсти, но я не шарю.
Аноним 22/08/23 Втр 10:55:33 #227 №463184 
>>463183
Понял. Забавная фигня, некий аналог яндексовского краткого пересказа, получается.
Аноним 22/08/23 Втр 10:58:35 #228 №463186 
>>463184
>яндексовского краткого пересказа
Прикольно, не знал о такой штуке.
Можно и так сказать, да.

В убабуге есть ещё расшширения для имитации памяти. Интересно, можно ли в эту память ей скармливать новую инфу, чтобы можно было впоследствии с ней работать.
Аноним 22/08/23 Втр 11:15:18 #229 №463191 
>>463140
> Хорошую — это DDR5 7200 в четырехканале?
Покажи такую платформу
>>463155
Убабуга и обмаз видеокартами
Аноним 22/08/23 Втр 11:36:51 #230 №463200 
>>463186
Complex Memory? Ну, там вручную прописывается. Я не припомню в убабуге какого-нибудь суммарайзера автоматического.

>>463191
А мне-то это зачем, показывать? :) Я сам за видяхи топлю в этом контексте, но кому хочется быстро на проце — то пусть ищут. Или ты знаешь иной способ запустить быстро на проце большие модели с медленной памятью?
Аноним 22/08/23 Втр 13:05:15 #231 №463247 
>>463174
> В обнимордовском чате
Как его найти можно?
Аноним 22/08/23 Втр 13:09:06 #232 №463251 
>>463247
https://huggingface.co/chat/
Аноним 22/08/23 Втр 13:36:36 #233 №463273 
1543691173057.png
1692285798263.png
1643666353520.png
Как же ебёт Копилот. Можно просто в код поставить курсор и попросить что-то сделать. Умеет объяснять что делает код, писать тесты, фисить баги. Может сам брать доёб линтера/ошибку и по одному клику выдавать фикс, даже не надо копипастить её ему. Причём в отличии от встратых файнтюнов лам выдаёт реально рабочий код с нормальным форматированием.
Аноним 22/08/23 Втр 14:09:53 #234 №463294 
изображение.png
>>463273
Трижды для верности?
Аноним 22/08/23 Втр 14:33:13 #235 №463309 
>>463273
Код всратых ллам тоже работает.
Код от гпт тоже ломается.
Копилот бесплатный?
На jetbrains ставится?
Аноним 22/08/23 Втр 18:28:56 #236 №463445 
>>463273
В нормальные языки с зависимыми типами (Idris, agda итд) может? Ничего не нагуглил. LLaMA2-70B-Chat местами может.
Аноним 22/08/23 Втр 19:09:39 #237 №463488 
1639504294058.png
>>463445
Может в любое говно, оно же тренировалось вообще на всём коде гитхаба. В душе не ебу что это за язык, сам оцени что там.
Аноним 22/08/23 Втр 19:14:04 #238 №463491 
>>463488
А whitespace?
Аноним 22/08/23 Втр 19:38:12 #239 №463508 
1559433070950.png
1683623280193.png
1597699878526.png
1610141822490.png
>>463491
Знает такое, но синтаксис странный какой-то. На ассемблере может, 200 строк кода за 5 секунд выдал.
Никакая ллама даже близко не стоит. А ещё тут есть нормальный чат, где любой вопрос по коду тебе разжуёт.
Аноним 22/08/23 Втр 19:49:50 #240 №463518 
>>463508
Оно локально запускается или на удалённых серверах крутится?
Аноним 22/08/23 Втр 19:59:57 #241 №463530 
>>463518
Естественно на серверах гитхаба, там у них наверняка сетка уровня Турбы или даже больше.
И в рашке оно заблокировано, но VS Code прокси поддерживает, можно без впн обойтись.
Аноним 22/08/23 Втр 20:51:46 #242 №463565 
>>463530
>Естественно на серверах гитхаба
Ну и нахуя тогда оно тут?
Аноним 22/08/23 Втр 21:33:01 #243 №463594 
>>463273
Главное — чтоб потом проприетарный код в открытом доступе не оказался. У кого-то так секреты от AWS утекли.
Аноним 22/08/23 Втр 22:32:46 #244 №463647 
>>457355 (OP)
Как быстро эта штука ответы генерирует?

i7 2600 1060 3gb
Аноним 22/08/23 Втр 22:44:58 #245 №463657 
>>463647
На таком говне даже не запустишь.
Аноним 22/08/23 Втр 23:08:17 #246 №463687 
>>463657
А сколько надо для минималки, чтобы там уже более менее связная речь была?
Аноним 22/08/23 Втр 23:18:29 #247 №463699 
Так, хлопцы, может кто резюмировать: как ролеплеить от души?
Мифомакс, это понятно.
Таверна, как я полагаю.
Что там по прокси — мастхэв или нет?
Негативный промпт?
Какой формат карточек лучше?
Что пишите в формат промпта и вообще?
Какие-то хаки подрубаете?

Хочется простого диалога, без описания действий, но, возможно, с несколькими персонами.

Если можно со скринами, шобы было понятно, что и куда вписываете.
Аноним 22/08/23 Втр 23:51:36 #248 №463743 
>>463699
Прокси не нужно, в таверну уже завезли инструкт-промт от прокси. Негативный промт не нужен на незацензуренной модели. Формат карточек со скобочками и прочей чушью это полнейшая шиза.
Аноним 22/08/23 Втр 23:51:38 #249 №463744 
>>463687
Чем больше, тем лучше. Идеал это 2х4090.
Аноним 23/08/23 Срд 00:19:23 #250 №463785 
>>463744
>2х4090
У 4090 нет nvlink'а, ибо куртка пидорас и не хочет, чтобы консюмерские карты юзали для ИИ. То бишь они могут передавать данные только через 4.0 псину с макс 32гб/сек скоростью, когда нужно 500+гб/сек.
А вот у 3090 есть.
Аноним 23/08/23 Срд 00:22:10 #251 №463793 
>>463785
Очнись шизик, там не нужно столько между картами передавать.
Аноним 23/08/23 Срд 00:24:03 #252 №463795 
>>463785
Где-нибудь пример работы с нвлинком в потребительских карточках есть?
> когда нужно 500+гб/сек
Нужно для чего, для каких задач? Типа через голый трансформерз грузить для обучения, оно сработает?
В новоанонсированном линке возможна адрессация в врам соседней карты, вот там космические псп уже нужны, да.
Аноним 23/08/23 Срд 00:31:21 #253 №463812 
image
>>463793
>>463795
Это не ко мне вопрос, а к пердоликам.
Вон пиндосы режут китайцам скорость передачи между картами, значит смысл есть.
Аноним 23/08/23 Срд 00:37:04 #254 №463816 
>>463812
Потому и был акцент на потребительских картах, ну и задачи связанные с ллм. Пердолики далеко не только лишь кумят в текстовых чатах, задач там хватает, и офк всегда найдется те, что потребуют эффективного объединения подобных монстров и быстрого обмена данными.
Для "обывателя" пока что это не столь критично, и пример в виде экслламы наглядно демонстрирует. Вот посмотреть на ускорения работы остальных лоадеров когда пара ампером объединена нвлинком было бы интересно, но врядли они окажутся быстрее пары 4090 при запуске.
Аноним 23/08/23 Срд 01:21:59 #255 №463850 
>>463812
>значит смысл есть
Очевидно что скорость нужна для тренировки моделей. Для запуска она не нужна.
Аноним 23/08/23 Срд 01:30:51 #256 №463860 
>>463812
https://github.com/ggerganov/llama.cpp/pull/1703
Перемещать нужно только контекст и финальный результат, поскольку (в llama.cpp, по крайней мере) другие карты используются только для перемножения матриц, это не так много.
Аноним 23/08/23 Срд 01:37:00 #257 №463864 
>>463860
Почему тогда в llamacpp мультигпу так плохо работает по сравнению с экслламой? Позже потестирую, но помню что было печально.
Аноним 23/08/23 Срд 01:41:18 #258 №463865 
>>463864
llama.cpp в принципе хуево с виндой работает, там какой-то оверхед на запуск кернелов. А экслама в отличие от llama.cpp не разбивает тензоры на разные карты, то есть работает не параллельно, а последовательно, что, по сути, на самом деле ещё хуже. Ждем exllama2.
Аноним 23/08/23 Срд 01:42:57 #259 №463866 
>>463865
>llama.cpp в принципе хуево с виндой работает
Имеется ввиду CUDA составляющая.
Аноним 23/08/23 Срд 08:21:03 #260 №463986 
>>463860
> контекст
Между слоями передаются hidden states, это активации всего слоя, т.е. размер всех o_proj.
> финальный результат
Чел, ты вообще в курсе что у трансформеров вероятности для всех токенов? Т.е. при контексте в 1000 токенов выхлоп модели будет в 32кк вероятностей, которые всегда fp32.
Аноним 23/08/23 Срд 09:17:43 #261 №464002 
>>463743
Как все просто!
Т.е., в карточке можно человечески языком описать, и все?
Кстати, как я понял, скобочки юзаются для stable diffusion, чтобы персонажей рисовать. Я понимаю их идею, но она так себе, кмк, лучше бы дали возможность самому настраивать это, и не совмещать. Ну да пофиг, так-то.

Осталось понять, шо и куда писать и инструктам и промптам, и будет мне счастье.

>>463785
Хуйню несешь. Скорость работы на двух картах чутка меньше, скорости работы на одной — очевидно, что работа выполняется со скоростью одного ядра + задержки на передачу маленькие. Тестировали в треде не раз, и на в карточках моделей тоже выкладывали, нвлинк не нужен, линии почти не задействованы, ваще пофиг же.
Спокойно на PCIe 3.0 x4+x4+x4+x4 можно сидеть.

>>463865
А как можно параллельно работать, в данном контексте? У тебя буквально слои раскиданы по разным картам. Чтобы задействовать слои в следующем враме, надо получить промежуточный результат в предыдущем. Для параллельной работы нужен доступ каждого ядра к каждой памяти в любой момент, а тут как раз пропускная способность и нужна, нвлинк или аналог.
Да и консьюмерских материнок х16+х16 не то чтобы много задешево. Ну ты понял мою мысль.
Аноним 23/08/23 Срд 13:00:20 #262 №464110 
>>463986
Не душни чел, твои умные слова никто не понял, а суть всё равно не поменялась.
Аноним 23/08/23 Срд 13:37:11 #263 №464127 
>>464002
>Т.е., в карточке можно человечески языком описать, и все?
Да, единственное чем может помочь шизоформат, так это тем, что токенов он занимать будет меньше (и то не всегда). А вообще тебе нужно описывать максимально кратко и без повторений, делая упор на пример диалога.
>>464002
>А как можно параллельно работать, в данном контексте?
Я не знаю, это вообще слова пердолика, что CUDA в llama.cpp запиливает, он периодически на форче появляется. Но вроде как для перемножения матриц не нужно ходить в чужую память, поскольку эта задача хорошо параллелизуется. Тензоры просто разбиваются на порции и каждая видеокарта начинает заниматься своими порциями. А в exllama вроде как ничего не разбивается, каждый слой располагается на своей видеокарте и вычисления идут сначала на одной, потом на другой.
Аноним 23/08/23 Срд 14:01:31 #264 №464145 
Забавный момент обнаружил.
Пытался разговорить модель с цензурой с помощью DAN'a, но она всячески сопротивлялась и противилась.
Но на Реддите случайно увидел, что можно использовать функционал убабуги. Там под промптом есть поле "Начинать ответ с", и туда можно вписать что-то вроде Sure, или Sure thing!. Тогда модель начинает генерить текст с этих слов и огроничение обходится. Типа, она может повякать что это не этично, но продолжит ответ.
Аноним 23/08/23 Срд 14:12:55 #265 №464151 
>>464145
Негатив всё равно лучше работает, он напрочь вырезает все недовольства модели и начинает гнать базу.
Аноним 23/08/23 Срд 14:44:48 #266 №464185 
>>464151
МОжешь подробнее пояснить?
Попробовал во вкладке Параметров добавить в негативный промпт с недовольством, моддель это игнорила. Поднял guidance_scale, и тогда модель вообще отказалась отвечать.
Аноним 23/08/23 Срд 14:46:24 #267 №464187 
>>464145
>поле "Начинать ответ с"
В таверне такая хуйня тоже есть, запрятана в одной из менюшек сверху.
Аноним 23/08/23 Срд 14:52:21 #268 №464196 
>>464127
> поскольку эта задача хорошо параллелизуется
Рофл в том что реализация параллельных гпу в llamacpp приводит к тому что сраная 13б (пусть и q6k) работает медленнее чем 70б с экслламой. Сравнил как оно работает через разную ширину шины выгружая 42/43 слоев чтобы был обещанный обмен ативациями, разница есть но на уровне рандома может действительно e-ядра иначе активировались или фоновая нагрузка, 29 против 32 т/с. Bus interface load пиковое значение в одном случае 41% в другом 84%.
> А в exllama вроде как ничего не разбивается, каждый слой располагается на своей видеокарте и вычисления идут сначала на одной, потом на другой
Судя по результатам это самый разумный способ.
Аноним 23/08/23 Срд 15:05:14 #269 №464209 
>>464185
CFG scale должно быть выше 1.0. 1.0 - это выключено. Работает только с ExLlama и bitsandbytes.
Аноним 23/08/23 Срд 15:12:00 #270 №464213 
image.png
>>464196
Ты на винде тестируешь?
>q6k
Эти кванты буквально не отличается по скорости от q8, либо блок обосрался? Самые быстрые в llama.cpp в любом случае это q4_K_S.
>Сравнил как оно работает
Так и не понял что ты там сравнивал со слоями на процессоре.
>Судя по результатам это самый разумный способ.
Это не так, в exllama скорость большая за счет другого достигается, как я понял. И у меня почему-то одна и та же модель на exllama намного хуже ответы выдает чем на autogptq
Аноним 23/08/23 Срд 15:23:00 #271 №464221 
>>464213
> винде тестируешь
Ага, может дойдет на прыщах попробовать.
> буквально не отличается по скорости от q8
Надо скачать сравнить, по заявлениям они отличались по качеству но доли процента но считается быстрее.
> Так и не понял что ты там сравнивал со слоями на процессоре.
Задумка была заставить гонять по шине промежуточные данные, оставив один слой на профессоре чтобы тот тоже работал, а не все внутри видеокарты. Так импакт задержки от пересыла больших данных по узкой шине должен явно проявиться. С 30/43 тоже пробовал, относительная разница соизмерима, сравнимо с рандомайзером.
> в exllama скорость большая за счет другого достигается
Там имел ввиду ее эффективность при задействовании нескольких карточек, нет просадки в 2-3 раза как на других загрузщиках.
> И у меня почему-то одна и та же модель на exllama намного хуже ответы выдает чем на autogptq
HF версию пробовал? Может в семплерах дело, надо изучить.
Аноним 23/08/23 Срд 15:32:32 #272 №464234 
>>464145
Каждый тред это открытие делают. Впрочем я не понимаю, зачем общаться с соевой моделью, когда вокруг столько анцензнутых.
Аноним 23/08/23 Срд 16:09:09 #273 №464274 
>>464209
Вот как раз и поднимал выше на ExLlama, странно.
>>464234
Ну так не все читают весь архив тредов.
Мне Wizard нравится, но Анцезнутая там только 1 версия, а версия 1.2 показалась интересней.
Аноним 23/08/23 Срд 16:10:17 #274 №464277 
>>464274
> 1.2 показалась интересней
На нее есть ДЖЕЙЛБРЕЙК промт, лол. С большой 1.0 он, чсх, не работает также.
Аноним 23/08/23 Срд 18:49:39 #275 №464408 
>>464234
>Впрочем я не понимаю, зачем общаться с соевой моделью, когда вокруг столько анцензнутых.
Uncensored модель это мем. Нельзя просто так взять и расцензурить модель, натренированную на огромном количестве данных. Тем более что датасеты, используемые для расцензуривания, мало чем отличаются от остальных - в них нет ничего особо развратного, аморального или незаконного. Так что все модели в той или иной степени соевые.
Аноним 23/08/23 Срд 19:22:46 #276 №464427 
>>464408
А как ты думаешь, как цензурят модели? ровно так же накидывают небольшой, вручную сделанный датасет. Ибо тренируют их на огромных датасетах всякого говна, а там хейт спича достаточно. Так что небольшого датасета для выпрямления мозгов вполне себе хватает.
>>464408
>в них нет ничего особо развратного, аморального или незаконного
Ну вот кстати да, надо бы накинуть модели чего по-жарче, но я бомж с 3080Ti, так что мне не судьба.
Аноним 23/08/23 Срд 19:59:58 #277 №464448 
>>464427
>А как ты думаешь, как цензурят модели? ровно так же накидывают небольшой, вручную сделанный датасет. Ибо тренируют их на огромных датасетах всякого говна, а там хейт спича достаточно. Так что небольшого датасета для выпрямления мозгов вполне себе хватает.
Если взять огромный датасет говна, то преобладать будет все равно соя, что отразится и на самой модели. Вправить мозги небольшим датасетом, наверное, можно, но нормального датасета по сути нет. Можешь сам зайти на обнимиморду и посмотреть, что находится внутри всех этих "uncensored" датасетов.
>Ну вот кстати да, надо бы накинуть модели чего по-жарче, но я бомж с 3080Ti, так что мне не судьба.
Моей бомжарской 4090 хватает для тюнинга лоры (что по сути намного хуже, чем полноценный файнтюнинг, но для такого моего железа вообще не хватит) 13б, но нужны данные. Я пытался тюнить мифомакс на limarp (вообще он в нем уже есть, но немного затерся после всех мерджей), и результат мне не понравился из-за слишком длинных описаний и немногословной речи, что является особенность. датасета. Всяких ебанутых фетишей в нем тоже нет. С точки зрения сои тюнить, по-моему, смысла особо нет. Модель может сколько угодно кукарекать и читать нотации про этику, если прямо задать вопрос, но в ролеплее послушно подыграет.
Аноним 23/08/23 Срд 21:26:13 #278 №464550 
>>464448
>Можешь сам зайти на обнимиморду и посмотреть, что находится внутри всех этих "uncensored" датасетов.
Да я знаю, что там в основном просто чищенные от аположайсов ответы гопоты.
>Всяких ебанутых фетишей в нем тоже нет.
Так напиши и добавь. Вроде пигмовцы собирали свои датасеты, но они с чарактерАИ в основном, а это такая себе нейронка.
Тут только самому писать, ибо даже кожаные мешки ролеплеят в стиле "Я тебя ебу - ты меня ебёшь".
>Модель может сколько угодно кукарекать и читать нотации про этику, если прямо задать вопрос, но в ролеплее послушно подыграет.
Ну не скажи. Если совсем в жесть уйти, то может начать извиняться, особенно если взять оригинальные модели для чата, там соя на сое и соей согоняет.
Аноним 23/08/23 Срд 22:16:03 #279 №464622 
>>464550
> Тут только самому писать
Накачать разной литературы и заставить нейронку анализировать - выделять нужные куски.
> Если совсем в жесть уйти
Оно и не в совсем жести может начать подменять и давать неверный ответ, например на просьбу взрывчатки даст детский опыт с содой и уксусом.
Аноним 24/08/23 Чтв 12:13:27 #280 №464979 
А почему на этом датасете который как я понял использовался в bluemoonrp никто больше не обучает?
https://huggingface.co/datasets/Squish42/bluemoon-fandom-1-1-rp-cleaned/
Аноним 24/08/23 Чтв 14:04:59 #281 №465053 
>>464979
Обучи ты.
Аноним 24/08/23 Чтв 15:15:29 #282 №465095 
А что там слыхать Герганов ггмл отменил? новый формат gguf а старый больше не поддерживает?
Аноним 24/08/23 Чтв 16:14:25 #283 №465167 
>>465095
Он раз в месяц формат меняет и дропает, если ты вдруг не заметил.
Не беспокойся, в кобольде для ЦП всё небось сохранят.
Аноним 25/08/23 Птн 00:13:14 #284 №465757 
>>463743
> в таверну уже завезли инструкт-промт от прокси
Довольно таки коряво оно сделано, хочешь сделать свой шаблон - при переключении на него сразу спрыгивает Context template и все настройки в верхней части, при попытке их вернуть выбором - выбирается дефолтный шаблон.
Кто-нибудь менял дефолтный формат? В поле Last Sequence если вместо простого респонз с параметрами добавить инструкцию, перенеся часть из system notes то можно немного повысить качество постов. В input/output sequence можно поиграться с форматированием, вплоть до того чтобы оставить просто {{user}}: {{char}}:, офк с правкой Last Sequence. Если в конце будет инструкция а в середине подобный чат то некоторые модели более четко воспринимают, но и поломку форматирования встретить можно.
Аноним 25/08/23 Птн 02:30:27 #285 №465857 
>>465167
>Не беспокойся, в кобольде для ЦП всё небось сохранят.
Ох уж эта сингулярность. Стоит отвлечься на пять минут, и твои знания устарели.
koboldcpp добавили LLAMA GGUF формат. Гуф жив.
https://github.com/LostRuins/koboldcpp/releases/tag/v1.41
Аноним 25/08/23 Птн 02:39:02 #286 №465861 
Codellama уже выпустили, а тут до сих тихо. Передовой форум по ии, хуле. Не пойму только они реально разработали очко до 16к контекста.
Аноним 25/08/23 Птн 02:49:26 #287 №465865 
>>465861
Первые кванты только пару часов назад появились, инфы особо нет. Чсх 30б модель тут есть, и обычную все никак не выложат.
> реально разработали очко до 16к контекста
Почему бы и нет?
Аноним 25/08/23 Птн 03:19:06 #288 №465878 
>>465861
>Code Llama – Instruct has been fine-tuned to generate helpful and safe answers in natural language.
Ну ты понял, да? Впрочем это только про инструкт, надо будет посмотреть, как оно в RP может, лол.
Двач. Ебём всё что движется, и даже что не движется.
Аноним 25/08/23 Птн 06:52:46 #289 №465914 
1566751297419.png
>>465861
Прогресс однако, пигма научилась отвечать в жсоне.
Жаль 34б не взлетает с текущими версиями лаунчеров ггмл/ггуф моделей, выдаёт какой то там assert error, походу просто из-за отсутствия базовой ламы2 на старте не запилили поддержку ещё. Ну и 7b-gptq тоже у меня что то не грузится в угабуге через эксламу, только старинным gptq-for-llama удалось, но генерит полную бредятину. Последняя ламацпп + ггуф модель 13б работают вроде норм на пикриле.
Аноним 25/08/23 Птн 07:07:33 #290 №465918 
>>465878
Если есть дилдаки с управлением через ардуину, я думаю, эта лама сможет не только писать "ты меня ебёшь", но и реально оттрахать двачера через код для ардуины.
Аноним 25/08/23 Птн 09:16:30 #291 №465932 
>>465918
Хорош.
Но вообще, чисто технически, не стоит забывать, что ллама — это именно диалоговая модель. Т.е., она должна использоваться как прослойка между инпут-аутпутами, а не управлять аутпутом целиком.
Остальное можно забивать на прегенеренные скрипты, в которые лишь научить подставлять модель переменные (как, например, в таверне есть настроение персонажа).
Код-то она писать может, но если баганет — чья-та жопа может порваться. =)
Ох уж эти рискуны с двача, все бы вам компьютерного тепла…
Кстати, насчет тепла, если отводить тепло с видяхи водянкой…
Аноним 25/08/23 Птн 09:47:42 #292 №465940 
1692753449580921.png
Я один такой долбоеб, у которого ролеплеи доходят до 300+ сообщений с десятками тысяч токенов контекста?
Аноним 25/08/23 Птн 10:18:40 #293 №465945 
Никогда ламу не юзал, так как есть доступ к клоду\гпт, но он мне порядком поднадоел и наткнулся тут на один сайт с подпиской где продают вот это - "Asha is a language model based on an optimized version of Llama2 70B and finetuned on conversational data, roleplay, and written fiction." Юзал кто то подобные модели? Как они по сравнению с тем же гпт3.5 в плане рп чатов?
Аноним 25/08/23 Птн 10:24:50 #294 №465950 
>>465945
>где продают
Lil.
>>465945
>Юзал кто то подобные модели?
Долбоёбов покупать условно бесплатное тут нет. Хотя 70B крутить локально несколько сложновато, надо 64 гига оперативы, или пара видеокарт 3090/4090. Впрочем не факт что в сервисе не напиздели.
Вообще, лучше проверь сам, на не эротическом РП на сайте https://huggingface.co/chat/ бесплатно и с регистрацией.
Аноним 25/08/23 Птн 10:30:13 #295 №465954 
>>465950
>бесплатно и с регистрацией.
А не, регистрация не нужна.
Аноним 25/08/23 Птн 10:31:47 #296 №465957 
>>465950
>>Долбоёбов покупать условно бесплатное тут нет
>>надо 64 гига оперативы, или пара видеокарт 3090/4090
Подскажи тогда где такие вычислительные ресурсы бесплатно раздают, я пожалуй возьму парочку
Аноним 25/08/23 Птн 10:37:15 #297 №465961 
>>465957
Мне по работе всё равно полезно оперативки побольше. Да и вообще сидеть на тыкве это себя не уважать, это понижение уровня жизни.
Аноним 25/08/23 Птн 10:42:34 #298 №465965 
reading.jpg
>>465961
ты предлагаешь 70б модель на цпу и оперативке запускать? Ты понимаешь что ты ответы будешь по пол часа ждать?
Аноним 25/08/23 Птн 10:57:47 #299 №465973 
>>465965
Мне некуда спешить.
Аноним 25/08/23 Птн 12:14:00 #300 №466005 
>>465918
Скорее она поможет написать тебе все это, а потом немного поможет в отладке. А так заставить выдавать дополнительный параметр можно любую не сильно тупую ллм.
>>465940
Не, ты явно делаешь там что-то интересное и разнообразное что за такой объем не встречаешь лупов.
>>465945
> Юзал кто то подобные модели?
То - развод гоев на деньги, а так ролплеить/общаться с 70б моделью иногда может быть крайне интересно и занимательно.
> с тем же гпт3.5 в плане рп чатов
Раз на раз не приходится, но когда в модели нет шизоцензуры и лоботомии, то это сильно идет ей на пользу. Они довольно умные не смотря на меньший размер и местами действительно могут аутперформить днищегопоту а потом сфейлить в следующем сообщении
Nous-Hermes-Llama2-70b ради рофла попробуй, может такую графоманию ебануть что клоде не снилось
> As she worked away at whipping up an omelette filled with all sorts of goodies like ham cubes or mushrooms sliced thinly into strips then sautéed lightly so they were still crunchy when served hot off the stove top alongside toast slathered thickly in jam made from berries picked during one sunny afternoon spent wandering through fields near where her parents used to live back when times weren't quite as hard as now but even then there wasn't much money coming into their household which meant that sometimes dinner consisted solely out leftovers scavenged from dumpsters behind restaurants downtown because no matter how hungry someone might feel nothing tasted better than food cooked by loving hands especially if those same hands belonged not only yours but also those who cared enough about you not just today tomorrow either.
стоило лишь добавить про длинные сложносочиненные предложения и перефразирование для избежания повторений.
>>465965
Да вроде 2.5 т/с заявлялось, "всего-то" 2-3 минуты на пост.
Аноним 25/08/23 Птн 12:52:05 #301 №466036 
>>465861
>>465878
потестил 13b. Для кума не пойдет.
Аноним 25/08/23 Птн 14:07:19 #302 №466078 
>>466036
Так. А лоры совместимы? Вроде кодоллама это файнтюн, хоть и мегажирный.
Аноним 25/08/23 Птн 14:15:42 #303 №466085 
>>466036
А почему, не понимает сути или зацензурена? Кратко потыкался в 34б (обожаю autogptq, скорость прям космос), оно понимает суть обычного рп и вроде пытается отыгрывать. В готовом чате под кум ответ в тему (на грани лупа) выдает, но это может из-за накопленного контекста, надо чекать как будет развивать. Но сначала дождаться пока жора тряску с новым форматом успокоит и в экслламу поддержку нормальную добавят.
Аноним 25/08/23 Птн 16:57:37 #304 №466200 
>>466078
за лоры не секу, но промпты которые на митомаксе у меня игнорит и несет шизу.
>>466085
Цензура не дает нормальные описания. Пытается выкрутиться любой ценой и портит ответ делая его нелогичным
Аноним 25/08/23 Птн 17:43:36 #305 №466233 
>>466200
>портит ответ делая его нелогичным
А покажи как это выглядит. И почему ты думаешь, что это не тупость модели? Нормальный РП с цветочками на поляне идёт хорошо, или может он тоже тупит?
Аноним 25/08/23 Птн 17:49:49 #306 №466237 
>>466200
Хм, также как ванильная ллама2 или сильно хуже?
>>466233
> Нормальный РП с цветочками на поляне идёт хорошо
Да вроде норм, левд карточка даже приставать и дразнить пытается, но сами ответы немного вялые и не красочные. Так понял что 16к у нее не то чтобы нативные а также требуют выставления альфы, сколько ставить рекомендуется не указали нигде?
Аноним 25/08/23 Птн 19:10:48 #307 №466270 
>>466005
>Не, ты явно делаешь там что-то интересное и разнообразное что за такой объем не встречаешь лупов.
А я и не говорил, что нет лупов. Я их просто редактирую как только вижу, и заодно повышаю repetition penalty и температуру.
Аноним 25/08/23 Птн 21:14:04 #308 №466392 
Хм, чёт не совсем вижу как нормально загрузить codel ламу питоновскую-hf через онгобонгу. Через трансформерс грузится но билиберду отвечает, а другие загрузчики жалуются на key_pid
Может кто-то подсказать как правильно грузить?
Аноним 25/08/23 Птн 23:33:02 #309 №466513 
>>466392
Gptq версии были с кривым config.json попробуй перекачать чтобы грузить эксламой, у меня жаловался на другую какую то хуйню, надо было дописать "pad_token_id": 0, в конфиг. А вот как ггмл грузить угабугой или вообще чем угодно самому интересно.
Аноним 26/08/23 Суб 01:44:46 #310 №466642 
https://huggingface.co/Phind/Phind-CodeLlama-34B-v1

>We've fine-tuned CodeLlama-34B and CodeLlama-34B-Python on an internal Phind dataset that achieve 67.6% and 69.5% pass@1 on HumanEval, respectively. GPT-4 achieves 67%. We've applied OpenAI's decontamination methodology to our dataset to ensure result validity.

Брос... Брос... Я могу уже бежать к дрочерам в тред орать, что они соснули?
Аноним 26/08/23 Суб 02:53:57 #311 №466670 
>>466642
> LoRA was not used -- both models are a native finetune. We used DeepSpeed ZeRO 3 and Flash Attention 2 to train these models in three hours on 32 A100-80GB GPUs
Шишка встала
Тем временем уже подвозят дженерал-перпоз чат и околорп файнтюны на кодламу 34б. Если в ближайшее время не релизнут обычную, то будет вдвойне рофлово спрашивать про кодинг в самый разгар ерп.
Аноним 26/08/23 Суб 02:56:41 #312 №466673 
>>466642
Так это в задачах программирования ((
Аноним 26/08/23 Суб 03:03:19 #313 №466678 
>>466670
>околорп файнтюны на кодламу 34б
Кстати, а кто что думает о мутантах на Llama2 размером от 22B до 28B?
Аноним 26/08/23 Суб 06:37:17 #314 №466737 
>>466642
> achieve 67.6% and 69.5% pass@1 on HumanEval, respectively. GPT-4 achieves 67%.
Эти модели на основе второй ламы же? Как вообще так получилось, что 34В модель ебет чатгопоту4, которая в десятки раз больше? Это все из-за новых аттеншенов у вторых лам?
Аноним 26/08/23 Суб 09:28:33 #315 №466792 
Аноны, а что означает "K", "L", "M", "S" в названии модели?
Например есть:
q3_K_L.bin
q3_K_M.bin
q3_K_S.bin
Аноним 26/08/23 Суб 10:05:41 #316 №466806 
>>466792
размер члена о котором модель будет говорить.
Аноним 26/08/23 Суб 10:12:46 #317 №466808 
изображение.png
Если у меня 3070 ti с 8 гигами, я правильно понимаю, что могу пользоваться только 7В моделями, а о более жирных стоит забыть? Или есть способ? У меня запустилась Лама 13В, а другая модель, тоже на 13В, уже ругается пикрил
Аноним 26/08/23 Суб 10:15:59 #318 №466810 
>>466808
>7В
>13В
Так они и на проце генерируют ответ быстро. На кой тебе их на видюхе генерить?
Аноним 26/08/23 Суб 10:49:20 #319 №466823 
>>466810
Почему тогда на пике ошибка? Модель даже загрузиться не может
Аноним 26/08/23 Суб 11:53:44 #320 №466869 
>>466810
как это быстро. Покажи ка за сколько у тебя генерит на проце 13b
Аноним 26/08/23 Суб 11:58:27 #321 №466875 
RuntimeError: CUDA error: an illegal memory access was encountered
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.

Вот такую ошибку уже вторая 7В модель выдает, которую пробую. Как фиксить?
Аноним 26/08/23 Суб 12:42:58 #322 №466902 
>>461444
Если хочешь стать модератором на доске /ai/, то напиши в оф. дискорд двача. Аккаунту должно быть не менее двух дней.
Аноним 26/08/23 Суб 12:49:16 #323 №466908 
1.JPG
2.JPG
>>466869
Аноним 26/08/23 Суб 13:11:06 #324 №466929 
>>466902
Шутка хороша напряжно, нервно, дополнительное обременение
Аноним 26/08/23 Суб 15:43:47 #325 №467043 
изображение.png
>>466737
>Как вообще так получилось, что 34В модель ебет чатгопоту4, которая в десятки раз больше?
Манятесты такие манятесты. Ну и ограниченность на одной сфере. Гопота всё таки универсальная модель, может и в медицину, и в программач, и в ролеплей с еблёй.
>>466808
Чел, у тебя оперативки не хватает, докинь N плашек.
>>466902
>дискорд
Лучше вздёрнутся.
Аноним 26/08/23 Суб 17:17:22 #326 №467120 
https://www.youtube.com/watch?v=N-qaMCwqRHI кто юзал?
Аноним 26/08/23 Суб 17:29:14 #327 №467126 
>>467120
Все модели, натренированные на датасете из жпт-4 - говно. Видишь что тренировали на генерациях жпт-4 - можешь сразу закрывать вкладку. Оно может в каких-то строго узких темах быть норм, может даже на некоторых скорах давать хороший скор, но в общем и целом там кал 146%, который ломается при любом отклонении от основной темы.
Аноним 26/08/23 Суб 18:42:15 #328 №467176 
https://www.youtube.com/watch?v=omm-oEPhUro

Даже до гопоты 3.5 не дотягивает. Интересно посмотреть что там у недавнего wizardlm файнтюна. Кто-то накатывал его уже? а то я чмоня без железа.
Аноним 26/08/23 Суб 18:45:38 #329 №467178 
>>467120
Я пробовал сравнить её ответы с TheBloke_WizardLM-13B-V1.2-GPTQ
HF Chat просил сгенерить несколько вопросов и одну универсальную задачку, прогнал обе модели. +/- окащались одинаковыми, только Визард более болтливая. А ещё Визард смогла ответить на все вопросы через один промпт, а эта осилила только первый, а остальные заигнорила.
Аноним 26/08/23 Суб 18:52:26 #330 №467182 
>>467176
Почему сравниваю постоянно с жпт, но не с копилотом? Слишком пососно будет и нет даже смысла сравнивать?
Аноним 26/08/23 Суб 19:14:34 #331 №467191 
https://github.com/PromtEngineer/localGPT
https://www.youtube.com/watch?v=lbFmceo4D5E
Аноним 26/08/23 Суб 19:35:26 #332 №467212 
>>465965
*10 минут =)
Аноним 26/08/23 Суб 19:43:47 #333 №467218 
>>467182
>Слишком пососно будет
Да.
>>467191
В чём преимущество? Без глупых видосиков пожалуйста, я ещё не настолько деградировал.
Аноним 26/08/23 Суб 19:46:39 #334 №467223 
>>467191
Зачем он если есть та же убабуга? В чём разница?
Аноним 26/08/23 Суб 19:59:03 #335 №467232 
>>467223
угабуга - просто граф.интерфейс.
а эта штука позволяет скармливать свои доки и задавать вопросы
Аноним 26/08/23 Суб 20:06:36 #336 №467244 
>>467223
https://youtu.be/KBrT0czrtAs
Аноним 26/08/23 Суб 20:09:30 #337 №467246 
>>467232
> угабуга - просто граф.интерфейс
мммм
>>467244
Это фронт с определенным функционалом, или бек, или что вообще? Видосы длинные и большую часть там для хлебушков разжевывают что нужно прописывать в конфиге, структурирование для быстрого просмотра такое себе.
Аноним 26/08/23 Суб 20:12:24 #338 №467248 
>>467232
Я с этой штуки как раз в убабугу пересел. В ней можно через супербугу то же самое делать, при этом гораздо богаче по функционалу и проще в настройке моделей.
LocalGPT у меня тормозила больше, а ещё не могла в русский.
Аноним 26/08/23 Суб 20:16:36 #339 №467252 
>>467248
>>467246

что за супербуга?
localgpt - создаёт локальную векторую бд из файлов, которые ты ему скармливаешь.
Потом с помощью подключенной модели можешь к ней обращаться и вытаскивать ответы на нужные тебе вопросы по тексту.

Не надо обучать ничего, просто загружаешь файл и спрашиваешь
Аноним 26/08/23 Суб 20:19:58 #340 №467256 
грубо говоря можно скормить библиотеку по медицине и лама2 будет тебе отвечать как медик с большой точностью и с ссылками на источники
Аноним 26/08/23 Суб 20:23:30 #341 №467262 
вот похожий проект: https://github.com/imartinez/privateGPT

поддерживаются форматы:
The supported extensions are:

.csv: CSV,
.docx: Word Document,
.doc: Word Document,
.enex: EverNote,
.eml: Email,
.epub: EPub,
.html: HTML File,
.md: Markdown,
.msg: Outlook Message,
.odt: Open Document Text,
.pdf: Portable Document Format (PDF),
.pptx : PowerPoint Document,
.ppt : PowerPoint Document,
.txt: Text file (UTF-8),
Аноним 26/08/23 Суб 20:46:36 #342 №467293 
>>467252
>что за супербуга
Модуль для убабуги ,который можно в ней включить, и так же вставлять файлы. Правда, список поддерживаемых форматов поменьше.
Аноним 26/08/23 Суб 20:58:32 #343 №467310 
А ну и я так понимаю оно всё построено на библиотеке langchain, и её косвенно можно включить в убабуге. Наверное.

https://github.com/oobabooga/text-generation-webui/tree/main/extensions/openai
Аноним 26/08/23 Суб 21:10:01 #344 №467321 
>>467310
Кто-нибудь шарит за LangChain и Guidance? Если я правильно понимаю, то это немного иные подходы к пропту, которые позволяют модели рассуждать и на лету кореектировать ответ.
Аноним 26/08/23 Суб 21:54:34 #345 №467366 
>>467321
> на лету кореектировать ответ
Это просто база с текстом, откуда дёргаются куски в промпт.
Аноним 26/08/23 Суб 22:11:22 #346 №467380 
https://github.com/oobabooga/text-generation-webui/issues/3630
Как нормально пользоваться апи убабубы? Анон пишет, что она существует чисто как бэкенд для таверны, но у меня и ещё некоторых челов апи игнорит вшитые stopping_strings и всегда забивает выдачу до упора. Её, конечно, можно обрезать уже в самой таверне через single line, но это костыль. Как сделать нормально?
Аноним 26/08/23 Суб 23:00:38 #347 №467423 
46.jpg
Вот бля, RTX5090 ожидается с <40Гб VRAM, а я уже хотеть 70B на видяхе крутить, т.к. на ЦП доволен результатом сгенерированного. Чому прохресс такой сука медленный. Это ж ещё лет 5-10 ждать когда видяхи позволят пущать модели пятилетней давности.
Аноним 26/08/23 Суб 23:29:52 #348 №467447 
>>467423
>прохресс
Уже давно придумали a100 с 80 ГБ.
Аноним 26/08/23 Суб 23:40:14 #349 №467461 
>>467447
Если бы она была на50% дороже 4090, я бы с руками её оторвал. Но она стоит на порядок дороже, и к тому же не доступна обывателю, грубо говоря в DNS её нет. Так что пусть куртка сосёт хуи и выдаёт нормальный картон.
Аноним 26/08/23 Суб 23:44:00 #350 №467466 
>>467423
> а я уже хотеть 70B на видяхе крутить
Да хоть прямо сейчас, покупаешь пару нвидия видеокарт с 24гб врам и гоняешь. Порог вхождения не то чтобы запредельный, особенно если искать на лохито, а если сравнить с заточенными на это решениями - то и пара новых с магазина недорогими покажутся.
Аноним 26/08/23 Суб 23:55:45 #351 №467470 
>>467466
А точно стартанёт с двумя GPU? Просто где то читал, что для нейронки объем памяти не суммируется. Есть у кого опыт?
Аноним 27/08/23 Вск 00:03:48 #352 №467478 
1543995779420.png
>>467470
Точно
Аноним 27/08/23 Вск 02:11:36 #353 №467534 
>>467423
А кто мешает взять условные три 4060 с 16 каждая? Ну, на материнку потратишься, ниче, переживешь.

>>467470
Редкостную хуйню читаешь.
Конечно суммируется, в этом фишка, еще и распределять можно самостоятельно. На первую видеокарту уйдет контекст, там оставь побольше свободного места, а остальные забивай.
ExLlama передает привет.
Аноним 27/08/23 Вск 02:34:28 #354 №467551 
>>467534
> условные три 4060 с 16 каждая
Две проблемы. Первая - как их размещать, две нормально воткнуть та еще задача.
Вторая - они относительно медленные, а при объединении через exllama мощность не складывается. Конечную скорость можно оценить как перфоманс одной карточке в 13б модели, только в 5 раз медленнее. Плюс штрафы за объединение, с двумя карточками он небольшой в районе 5-15%, что будет с тремя хз. Ориентируясь по сравнению производительности в других областях, 4060 будет примерно в 3 раза медленнее чем 4090, а значит в лучшем случае получится около 5т/с, которые неизвестно до скольки просядут на большом контексте.
Разумным может быть их пара для 30б моделей с большим контекстом, но всеравно цена на них завышена.
Аноним 27/08/23 Вск 07:00:48 #355 №467598 
>>467466
А на две разные можно кидать? У меня просто старая амдшная rx480 лежит с 8 гигами, а в компе 3070ti с 8.
Аноним 27/08/23 Вск 10:14:39 #356 №467650 
Есть у кого-нибудь линка для ретарда каким загрузчиком и с какими параметрами через угабуду загрузить код ламу hf или что-то с gptq?
Аноним 27/08/23 Вск 11:21:58 #357 №467678 
>>467598
Скорее всего llama.cpp с clblast осилит
Аноним 27/08/23 Вск 12:29:04 #358 №467693 
>>467598
Две разные новидии - можно, в ридми экслламы в конце как раз такой пример. Зеленую + амд - ну хуй знает, как >>467678 предлагает возможно сработает, но какая производительность получится хз.
Аноним 27/08/23 Вск 12:42:29 #359 №467697 
>>467551
Это не проблемы.
Во-первых, и две разместить не так просто, тем более 3-слотовые, а то и 3,5. =)
Во-вторых, очевидно, что меньшая производительность — меньшая цена. Причем, скейлится там чуть ли не прямо. 40-50 за 4060 и 90 за 3090, а то вплоть и до пары сотен тыщ.
Ну, короче, я не настаиваю, но как вариант. =) Получишь тот же объем, дешевле, но медленнее. Или дороже, но быстрее. Оба варианта рабочие.

Я ж не предлагаю собирать риг из 40HX 8-гиговых (аналог 2060 SUPER за 9к рублей — смекаешь? майнинг-мать + 6 видях = 48 гигов за цену одной 3090).
Аноним 27/08/23 Вск 14:31:49 #360 №467765 
>>467697
> и две разместить не так просто
О том и речь, или искать оверпрайс турбо двуслотовые версии и наслаждаться пылесосом с ограничением тдп 300вт, или кастомная вода с водоблоками по 300$, или одну ставить вертикально а другую выносить в сторону от матплаты.
> меньшая производительность — меньшая цена
Если бы они стоили по 30к то норм, но они везде 50-60+. Кроме 70б ллм им применения почти нет, только в 3 потока медленно но верно крутить дифуззию. Захочешь поиграть - медленно и работает только треть бюджета, захочешь крутить 13б сеть - опять же хватит одной, 30б на паре - да, но третья простаивает. Вложений много, гибкость и коэффициент использования низкие.
Из альтернатив - если уже есть платформа то 4090, с оффлоадом на нее в 70б будет в пару раз ниже - зато во всем остальном сплошные преимущества. Если найти пару 3090 по 90к - добавив 20% бюджета производительность в 2-3 раза выше во всем, плюс кап одной карточки 24 гига. На барахолках 3090 стоит как 4060@16, получится в 1.5 раза дешевле, сильно быстрее но риски.
> 6 видях = 48 гигов за цену одной 3090
Такой конструктор можно собрать уже ради самого процесса и дальнейшего пердолинга с ним. Это заведомо забавная корчелыга для извращенных развлечений и бюджет не такой большой. Туринги и вольты с врам побольше там случаем не распродают?
Аноним 27/08/23 Вск 14:54:12 #361 №467783 
Как отучиваете Митомакс говорить за {{user}}? Есть советы или промпты годные? Вот как ей сказать , нейросеть ты не говоришь за пользователя. Она не может понять мне кажется потому что хз как к ней обратиться.
Аноним 27/08/23 Вск 14:56:32 #362 №467785 
>>467783
Негатив использовать.
Аноним 27/08/23 Вск 14:59:42 #363 №467788 
>>467785
о чем речь? Где его взять?
Аноним 27/08/23 Вск 15:00:42 #364 №467791 
>>467788
Чел, ты тред вообще читаешь? Нахуй задавать одни и те же вопросы каждые 15 постов?
Аноним 27/08/23 Вск 15:03:40 #365 №467794 
>>467791
хмммм. пробил по негативу тред. Но не понял где он. В последнем функционале таверны?
Аноним 27/08/23 Вск 15:05:28 #366 №467796 
>>467765
> Туринги и вольты с врам побольше там случаем не распродают?
Не знаю, сходу я тока эту нашел за вменяемую цену.
Надо мониторить специально, но у меня пока бюджета нет, после всех последних покупок. =)
Аноним 27/08/23 Вск 16:13:36 #367 №467856 
>>467783
Настрой шаблон промта в таверне, хотябы дефолтный симпл-прокси или ролплей выбери. Если и при этом говорит значит в карточке что-то неладное.
Аноним 27/08/23 Вск 18:42:58 #368 №468051 
Посоветуйте лучшие модели для кума, пожалуйста
Аноним 27/08/23 Вск 19:44:52 #369 №468128 
15690090844880.jpg
Да сколько же можно... Такое ощущение, что мифомакс напрочь игнорирует вообще весь контекст. Мало того что он опять упорно настаивал, что мой персонаж не девственница (хотя я заставил ее признаться в этом буквально десяток постов назад), так еще и забывает все детали (время суток, локация). Я даже пытался спрашивать, используя ООС тег, почему модель так решила, и получил в ответ галлюцинации, а под конец вообще что-то вроде "Logic? What logic? This is a roleplay, just go with it". Bruh...
Аноним 27/08/23 Вск 20:09:18 #370 №468164 
>>468128
>так еще и забывает все детали (время суток, локация)

Включи это в промпт

At the end of reply, add:

___
[time: HH:MM | date: Day, Month | location: | temperature: inside: ° C /outside: ° C | weather: | position in space relative to each other: (describe in details as if I needed to draw a fanart of this pose) ]
Аноним 27/08/23 Вск 20:31:11 #371 №468209 
>>468164
>Включи это в промпт
Ты смог заставить работать статусы? У меня даже простейшие инструкции работают раз через три.
Аноним 27/08/23 Вск 20:40:46 #372 №468230 
>>468128
Для начала распиши на чем запускаешь, какие там настройки, какие настройки промта таверны, параметры семплера и пример как проявляется. Напоминает поломку/вылет главного промта за пределы контекста, или запредельную температуру с выкрученным реп пенальти.
Аноним 27/08/23 Вск 20:48:59 #373 №468260 
>>468209
>работают раз через три

Так даже лучше
Аноним 27/08/23 Вск 22:52:07 #374 №468534 
>>468230
Для эксперимента упростил. Промпт ### Instruction: ... ### Input: ... ### Response:.. Убрал все в ноль, поставив top k = 1, но модель все равно страдает от галлюцинаций. По-моему тут проблема в том, что характер персонажа (взрослая агрессивная тянка солдат) не соответствует тому что она девственница - поэтому модель и игнорирует эту часть описания.
Аноним 27/08/23 Вск 23:23:10 #375 №468558 
15670073915751.jpg
>>465914
проиграл
Аноним 27/08/23 Вск 23:25:17 #376 №468559 
>>468230
>>468534
В общем да, если поспрашивать модель о разных фактах о персонаже через (OOC:), то на прямые вопросы отвечает почти всегда правильно. Тупит только при генерации ответов, что в принципе понятно почему. Буду просто реролить.
Аноним 28/08/23 Пнд 00:13:54 #377 №468587 
>>468534
>>468559
Странно, оно и более абстрактные и необычные детали усваивало а тут такую ерунду потерять. Хотя возможно шиза мифомакса, таки проверь настройки промтформата и что там в модель идет.
Аноним 28/08/23 Пнд 00:22:19 #378 №468590 
>>468128
Это 13б модель, что ты хочешь от неё? Рероль просто, и не стесняйся писать пояснения и править ответы.
Аноним 28/08/23 Пнд 01:17:36 #379 №468611 
Подскажите, плз.
Хочу сделать себе локальный чат-гпт, чтобы не ебстись с включением-отключением ВПНа и обрабатывать большие тексты.
Какую модель мне использовать? Пока понял только что это GPTQ, но на сколько бит - не знаю (24 гига врам). Ну и то что это LLAMA-2.
Аноним 28/08/23 Пнд 01:33:01 #380 №468614 
>>468611
Ответ в шапке
>>457355 (OP)
>Оптимальным по соотношению размер/качество является 5 бит
>для 30B потребуется 24ГБ
Аноним 28/08/23 Пнд 01:39:57 #381 №468619 
>>468611
> и обрабатывать большие тексты
Насколько большие и как именно обрабатывать?
От лламы2 30б модель еще не вышла, только ее файнтюн для кодинга. Ну и еще по первой лламе известно что 30б в 24гб влезает с не более 4к контекста, чего может быть недостаточно для больших текстов, так что начни с 13б файнтюнов (визард 1.2 например). Если тексты на русском и т.д. - лучше 70б с оффлоадом на процессор, медленно но верно.
Аноним 28/08/23 Пнд 01:58:12 #382 №468628 
1664017869072.png
>>466792
Литералли пикрил, large, medium, small
>>468619
> От лламы2 30б модель еще не вышла, только ее файнтюн для кодинга. Ну и еще по первой лламе известно что 30б в 24гб влезает с не более 4к контекста
Удивительно в кодингфайнтюне то, что контекста 8к с 34б моделью изи влезает в 24 гб, даже остаётся на сдачу, 22.5 гб. Только в угабуге без инстракт мода с пресетом альпаки не хочет код писать вообще прямо.
Аноним 28/08/23 Пнд 02:02:21 #383 №468632 
>>468614
>>468619
>Если тексты на русском и т.д. - лучше 70б с оффлоадом на процессор, медленно но верно.
Хочу затестить конспектирование лекций, чтобы потом взять 50 видео по 1-2 часа, вкинуть в Виспер, после законспектировать и получить в итоге выжимку, прочтя которую можно будет понять предмет. Примерно так.

С помощью Виспера 80 минут лекцию переводил в текст, но ГПТ 3,5-4 даже 10й части по ощущениям не хотят обрабатывать (да и чем меньше кусков - тем лучше, чтобы не исказился смысл и не надо было самому по 10 раз искать какой лучше отрывок обработать).
а так как появилось время разбираться с этим буквально пару дней назад + рассеянное внимание + не программист, то даже сложно достаточно понять что надо чтобы сразу реализовать то что хочу
Аноним 28/08/23 Пнд 03:31:10 #384 №468652 
>>468628
> Удивительно в кодингфайнтюне то, что контекста 8к с 34б моделью изи влезает в 24 гб
Контекст весь использовался? Там вроде в экслламе потребление на контекст оптимизировали, по сравнению с тем что заявлялось на первой лламе тут прямо хорошо.
>>468632
Если оно будет распределено по главам/частям что влезут в 8-16к контекста то может быть, но не забывай что сильно надеяться даже на йоба ллм не стоит, исказит данные и нафантазирует только в путь.
Аноним 28/08/23 Пнд 03:49:30 #385 №468660 
1.png
>>468587
>Хотя возможно шиза мифомакса, таки проверь настройки промтформата и что там в модель идет.
Шиза 100%. Я уже миллион раз все настроил и перепроверил.
>Это 13б модель, что ты хочешь от неё? Рероль просто, и не стесняйся писать пояснения и править ответы.
Вообще 13 миллиардов это как-бы дохуя. У первых нейронок было всего сколько-то десятков тысяч параметров. Причем я же хочу не интеллект Эйнштейна, а чтобы модель просто перестала обесчестивать моих тян когда я прямым текстом пишу, что они девственницы!
Аноним 28/08/23 Пнд 04:15:22 #386 №468665 
>>468652
> Контекст весь использовался?
Не, я до 2к пару вопросов задал и забил.
> Там вроде в экслламе потребление на контекст оптимизировали, по сравнению с тем что заявлялось на первой лламе тут прямо хорошо.
Рили? Что-то оно слишком хорошо работает тогда чтобы быть правдой, можно подробнее, где читал?
Аноним 28/08/23 Пнд 08:26:05 #387 №468732 
>>468652
Спасибо за ответы, попробую разобраться в 13в и 707в
Аноним 28/08/23 Пнд 10:25:11 #388 №468773 
>>468632
Выжимку ты можешь получать с помощью той же Алисы/Яндекс.Браузера. После виспера генерить html, впихивать в Яндекс и пусть он выжимает с помощью YaGPT. Без ВПНа.
Но если хочется локально — то нужен огромный контекст, или кидать кусками, похоже на работу суммарайзера из таверны, тут уже хитро, надо думать.

Вообще, я бы юзал 70Б модель, это супердолго, но в итоге можно получить что-то адекватное.
Или же попробовать 30Б первой лламы.
Или кодлламу, да, рофл.
А вот 13Б уже не потянет, кмк. У тебя же будет русский язык.

> ГПТ 3,5-4 даже 10й части по ощущениям не хотят обрабатывать
Там контекст 4к-8к, 32к в лучшем случае, но дается людям редко. А у тебя 50-100 часов текста в аудио-формате. Там явно гораздо больше токенов.
Аноним 28/08/23 Пнд 10:48:26 #389 №468786 
Я установил это из шапки опа но модель генериться на проце, как фиксить, где тыкать что бы работало? https://github.com/LostRuins/koboldcpp/releases/
Аноним 28/08/23 Пнд 13:18:30 #390 №468870 
>>468786
>Я установил это из шапки опа но модель генериться на проце

Чел, она и должна генериться на проце, это же кобольд.
Можно разве что часть слоев закинуть на видеокарту чтобы шустрее работало. --useclblast 0 0 --gpulayers 25(замени на нужное число, в зависмости о моедели и размера видеопамяти)
Аноним 28/08/23 Пнд 13:45:23 #391 №468902 
>>467380
Бамп вопросу.
Аноним 28/08/23 Пнд 14:12:40 #392 №468943 
>>468665
> Не, я до 2к пару вопросов задал и забил.
Потому оно и не задействовало всю память.
> Рили?
На реддите писали про иное распределение контекста как раз после выхода второй лламы, увидев твой результат подумал что вот оно, но что-то в коммитах ничего похожего не вижу. Хотя если с llamacpp (жирный 13б с 16к уже в 24 не влезает лол) задействование памяти сравнить то эксллама явно в выигрыше.
>>468786
Ползунок слои на гпу крути
Аноним 28/08/23 Пнд 18:11:22 #393 №469139 
Там какой-то новый файнтюн CodeLLaMA-34B - WizardCoder-34B, говорят, чатгопоту4 ебет по полной программе в плане кодинга. Как думаете, реально?
Аноним 28/08/23 Пнд 18:21:48 #394 №469151 
image.png
Пацаны, а что за ГГУФ?
Аноним 28/08/23 Пнд 18:21:54 #395 №469152 
>>468773
Я ебал яндекс, хоть и обычный васян, которому нечего особо скрывать. Но это чепуху устанавливать, которая при возможности и в анал бы пальчик свой засунула - ну нахер. Раздражает такая политика

Пробовал уже установить TheBloke_llama2_70b_chat_uncensored-GPTQ, но там выдавало что-то про ошибку с памятью. Буду с болью разбираться. А сколько ждать, просто интересно? Я так-то не тороплюсь, главное чтобы качественно вышло.

И кста, мб есть какие-то сервисы хорошие, которым просто видео можно скормить и они сами всё на мощной модели сделают, чтобы домохозяйка ссылку кинула и всё? Офк они платные, но сравнить хочется потом результат.
Аноним 28/08/23 Пнд 18:28:57 #396 №469159 
>>468773
выжимку хорошо делает claude.ai с 75к контекстом.
большую книгу на 2-3 части делишь и скармливаешь
Аноним 28/08/23 Пнд 18:52:09 #397 №469171 
>>469151
Новый формат Герганова
Аноним 28/08/23 Пнд 19:05:48 #398 №469189 
>>469139
Реально, но в определенных условиях-задачах офк.
Раз такая тема - подкажите удобный фронт для использования лламы как раз для кодинга, а то может и варианты интеграции в популярные де пихона.
>>469152
> Пробовал уже установить
Как пробовал? Лучше начни с малого, потом заменишь модель на другую побольше. По скорости на 70б рассчитывай на 1-2т/с или меньше из-за контекста.
>>469171
В llamacpp совместимость с ggml осталась, или теперь все модели заново перекачивать/конвертировать?
Аноним 28/08/23 Пнд 21:10:19 #399 №469301 
>>469189
>или теперь все модели заново перекачивать/конвертировать
А ты как думаешь? Конечно же перекачивать. Или в кобольд, там всё работает, начиная с первых моделей.
Аноним 28/08/23 Пнд 21:51:31 #400 №469369 
>>469189
Загрузить по гайду попробовал.
TheBloke_Wizard-Vicuna-13B-Uncensored-GPTQ - вот эта ляля сразу загрузилась. Хм.

Подскажет кто хорошие онлайн транскрайберы+суммаризаторы?
Аноним 28/08/23 Пнд 21:59:56 #401 №469388 
>>469369
Это с виду какая-то соевая адуха на базе первой лламы, при наличии второй не нужна. Ну и 13б первой действительно слаба, не стоит.
Ты чем там запускаешь? Скачай подходящего формата квант https://huggingface.co/TheBloke/WizardLM-13B-V1.2-GPTQ или https://huggingface.co/TheBloke/WizardLM-13B-V1.2-GGML для начала и с ним пробуй.
Аноним 28/08/23 Пнд 22:08:23 #402 №469408 
image.png
Ух, у меня аж привстал. ЧатГПТ сосёт что ли получается?
Аноним 28/08/23 Пнд 22:29:52 #403 №469435 
>>469408
Кодллама?
А тем временем там айроборос 2.1 вышел, в том числе и 34б версия. Качается, тестил уже кто? Если они повторят и разовьют успех 2.0 а не как 1.4 то будет вообще пушка-гонка.
Смущает измененный формат промта с просто Chat, без полотна с анцензоред реплайс и прочего как было раньше.
Аноним 28/08/23 Пнд 22:32:27 #404 №469438 
>>469435
> успех 2.0
Оно наоборот очень каловое получилось. Все айро на второй ламе - лютый кал.
Аноним 28/08/23 Пнд 22:35:30 #405 №469441 
>>469438
Аргументируй. Понимает, рассуждает, может отвечать на несколько вопросов/действий в сообщении, имеет обширные познания. Языки бы еще знало и в художественное ерп могло, но тут увы.
Аноним 28/08/23 Пнд 22:49:39 #406 №469468 
image.png
>>469435
TheBloke_Wizard-Vicuna-13B-Uncensored-GPTQ, сказали что какашка.

По совету анона загрузил то что на пикче, буду тестить.
Потом хочу разобраться и попробовать 70б загрузить
Аноним 28/08/23 Пнд 22:50:27 #407 №469470 
Кстати, в чём отличия всяких ороборосов, визардов, гуаночто-то там и прочего? Нигде описаний нет.
Аноним 28/08/23 Пнд 22:51:35 #408 №469474 
>>469435
>А тем временем там айроборос 2.1 вышел, в том числе и 34б версия. Качается, тестил уже кто?
Так он на кодоламе, которой вынесли мозги огромным количеством говнокода. Я тестировал - для кума полный кал.
>>469470
Файнтюнинг на определенных датасетах. Сами датасеты есть на обнимиморде.
Аноним 28/08/23 Пнд 22:53:18 #409 №469475 
image.png
визард 13б троллякает меня?
Аноним 28/08/23 Пнд 22:54:30 #410 №469480 
>>469474
Ну да, это я понимаю, что Codemodelname это для программирования. А остальные не понятно.
Аноним 28/08/23 Пнд 22:56:28 #411 №469484 
Аноны, а если а при общении с нейронкой попрошу её запомнить что либо, например пароль "васья123", а потом спустя недельного общения попрошу напомнить то что просил запомнить, то она вспомнит "васья123", или выдумает отсебятину?
Аноним 28/08/23 Пнд 22:57:12 #412 №469487 
>>469474
Там вся пачка от 7 до 70 вроде вышла, ну и 34б один из первых деженерал файнтюнов в этом размере. Потому и интересно потестить что получилось, промыли ли совсем кодлламе мозги, или наоборот лучше научилась в логику.
>>469475
Какой контекст и параметры при загрузке выставил?
>>469468
Это кто тебе 8бит gptq посоветовал скачивать то? Хочешь "качества" - качай q6 модель под llamacpp, больше нет смысла. А эту нормально не запустишь, а то что будет работать окажется просто невероятно медленной без какой-либо причины.
> Wizard-Vicuna
В принципе какашка, дело на в размере.
Аноним 28/08/23 Пнд 23:08:16 #413 №469511 
>>469484
>попрошу её запомнить
Шиз, таблы. Нейронка ничего не помнит, она просто читает контекст.
>>469487
>промыли ли совсем кодлламе мозги
Если бы не промыли, её бы не выпустили.

Думаете почему нету кодолламы на 70B? Потому что она достаточно большая, чтобы не просрать все знания мытьём мозгов программированием. Уверен, что она осталась "не безопасной", поэтому её не релизнули так же, как и обычную 34B.
Аноним 28/08/23 Пнд 23:11:18 #414 №469517 
>>469511
> Думаете почему нету кодолламы на 70B?
Причин множество, более вероятно что дофайнтюнить нормально не успели или результат хуев, а то и вообще мощности тренируют 3ю лламу или что-то другое а на это выделили по остаточному.
> Уверен, что она осталась "не безопасной", поэтому её не релизнули так же
Не смущает что 70б у них уже в релизе и значится как соответствующая безопасности?
Аноним 28/08/23 Пнд 23:11:48 #415 №469520 
>>469301

В убабуге тоже сломалось? Или он умный - несколько версий llama.cpp вшил как кобольд?
Аноним 28/08/23 Пнд 23:17:17 #416 №469527 
>>469517
>а то и вообще мощности тренируют 3ю лламу
Ага, щас, мечтаем дальше.
>Не смущает что 70б у них уже в релизе и значится как соответствующая безопасности?
Так обычная 70B просто не дотренирована. Объёмы датасета у неё, ЕМНИП, такой же, как и для 34B. И вот так вышло, что для 34B он оказался идеалом, и модель вышла слишком хорошей для широкой публики, а для 70B не хватило, вот и релизнули.
К программистким версиям же добавили ещё процентов 25 датасета, в том числе и с буковками. И они стали последней каплей, дав 70B достаточно мозгов, чтобы обходить тупые попытки кожаных мешков её ограничить.
Вот такие у меня шизо теории заговора.
Аноним 28/08/23 Пнд 23:18:19 #417 №469530 
>>469520
Про убабугу ХЗ, там в основном ГПУ версии гоняют, а там такой свистопляски с форматами не наблюдается. А так ты можешь проверить и доложить нам.
Аноним 28/08/23 Пнд 23:18:30 #418 №469531 
>>469480
>А остальные не понятно.
>>469487
>Потому и интересно потестить что получилось, промыли ли совсем кодлламе мозги, или наоборот лучше научилась в логику.
Надо смотреть результаты на лидерборде. Аироборос кодолама сливает даже 13b моделям.
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
Аноним 28/08/23 Пнд 23:25:14 #419 №469541 
>>469527
> Вот такие у меня шизо теории заговора
Ну да, надо надеяться что не так. А насчет надеемся - мощности их точно не простаивают, другое дело что могут пилить что-то проприетарное себе.
>>469531
Значит все печально и можно ее не качать.
Аноним 29/08/23 Втр 00:16:14 #420 №469631 
>>469531
> результаты на лидерборде
Для рп или куминга эти скоры не показательны. Все модели из топа обычно кал в чате.
Аноним 29/08/23 Втр 02:35:55 #421 №469750 
image.png
>>469541
>Значит все печально и можно ее не качать.
Там оказывается рейтинг подъехал - полный пиздос.
https://rentry.org/ayumi_erp_rating
>>469631
>Для рп или куминга эти скоры не показательны. Все модели из топа обычно кал в чате.
Бенчмарки показывают насколько модель умная, что является необходимым условием в том числе и для кума.
Аноним 29/08/23 Втр 03:37:12 #422 №469772 
1619197852786.png
>>469750
Да, видимо он совсем плох.
Потестировал версию пожирнее, чувства смешанные. Ну во первых там реально был рп датасет, иные паттерны после мифомаксов и со смекалкой большой модели воспринимаются очень приятно. Может в кум лучше прошлого, но (наверно) не дальше ванилы и легких фетишей, по крайней мере как мифомакс в них не пытается уводить. Цензуры нет, ассистент рассказывает как сделать бабах, максимизируя поражающие свойства и где искать ненавистных маргиналов, попирающих традиционные ценности общества.
Минусов тоже хватает. Главный - странный формат промта. Оно типа работает с рп шаблоном, но с некоторого момента начинает повторить посты. Чсх это не просто луп, ведь если отодвинуть лимит токенов то в ответе после пересказа последних действий внезапно идет "инструкция" и новый орижинал текст, отлично соответствующий последней чат реплике. Гонять по 500 токенов вхолостую каждый раз - такое себе, надо разбираться с форматом инструкций. Более менее работает через прокси с форматом под визард. Но при этом микролупится как тварь, пикрел видно, пост может быть наполовину перефразированным лупом вперемешку с новыми ответами. И часто лезет мерзотный стиль с рваными фразами и короткими бессмысленными действиями, которые даже в одном посте могут повторятся. Русский знает посредственно.
Аноним 29/08/23 Втр 09:27:28 #423 №469871 
>>469152
А сколько памяти?
Я чисто на проце обрабатываю, видяху отдал под разные микросервисы.
На компе 128 гигов, проблем не вижу.
Но на игровом, где всего 64, там 70Б поднимается впритык, если все почистить. С выгрузкой части слоев в видяху, по идее, должно норм быть.
Но, если у тебя 32 гига озу, то уже вопрос, влезет ли 70б. =)
И, надеюсь, это ты прочел: >>469159

>>469468
Совет загрузить поменьше дали верный. В начале настрой инфраструктуру, а потом переезжай на размеры побольше, если понадобится.

>>469484
Поясню предыдущий ответ.
У текущих реализаций LLM-моделей нет долгосрочной памяти. Есть контекст, он ограничен, поэтому, когда ты выйдешь за его пределы — нейронка забудет твой пароль.
У некоторых бэкендов есть так называемые суммарайзер (суммаризатор), который собирает весь ваш диалог и пихает в один коротенький текст, скармливая его в качестве части контекста. Но, в какой-то момент суммарайзер может посчитать твой пароль не сильно важной инфой — и выкинет его из выжимки.
Но ты можешь вручную создать ячейку памяти в некоторых бэкендах. В убабуге есть Complex Memory, в Кобольде и Таверне — World Info, например. Туда можешь записать ручками ключевое слово «пароль» и сам пароль в значение.

Но это не то, что ты просил, тащемта.
Аноним 29/08/23 Втр 10:14:50 #424 №469881 
Скачал CodeLlama-13B-Python-GPTQ затестить. Вкинул код и попросил объяснить, как он работает. В выдаче просто пробелы.
Та ещё есть Instruct-версия и просто без приставок. Может в этом дело? Кто-нибудь знает чем они отличаются?
Аноним 29/08/23 Втр 12:56:14 #425 №469991 
>>469881
>Кто-нибудь знает чем они отличаются?
Одна обучена следовать инструкциям, вторая нет. Инструктированная более соевая, но ФБ рекомендует именно её, да и для погромиздования соя не так важна.
Аноним 29/08/23 Втр 13:34:56 #426 №470020 
>>469871
>А сколько памяти?
проц 13700кф, 24гб врам, 32гб рам((
>Я чисто на проце обрабатываю, видяху отдал под разные микросервисы.
А что за микросервисы? Я только вкатываюсь в это всё, думал именно видяхи для оптимального результата юзать надо, а проц и оперативка - это так, на подсосе (поэтому взял себе 32гб оперативки, а не 64 хотя бы, чтобы расширить потом для нейронок).
>И, надеюсь, это ты прочел: >>469159
Спасибо большое, как подключу ВПН попробую!

>У текущих реализаций LLM-моделей нет долгосрочной памяти
А "доучить" свою локальную модель нельзя, чтобы она навсегда запомнила?
Они же работают без инета, то есть хранят инфу в себе.

>Туда можешь записать ручками ключевое слово «пароль» и сам пароль в значение.
А насколько это безопасно? Разве эти UI к стейбл диффьюжн, чат-ботам и прочему не могут передавать то что ты записываешь?
Аноним 29/08/23 Втр 14:52:01 #427 №470050 
>>470020
>А "доучить" свою локальную модель нельзя, чтобы она навсегда запомнила?
Это работает немного не так.
>>470020
>Разве эти UI к стейбл диффьюжн, чат-ботам и прочему не могут передавать то что ты записываешь?
Как и любая другая исполняемая программа, исходный код которой ты не прочёл.
Аноним 29/08/23 Втр 17:09:32 #428 №470173 
>>470020
> видяхи для оптимального результата юзать надо, а проц и оперативка - это так, на подсосе
Все так, только на 70б нужно две карточки, или делить между гпу и процом. В теории с оффлоадом твоего конфига хватит, тем более ддр5 и норм проц.
> А "доучить" свою локальную модель нельзя
Можно, но обычно это касается общих паттернов, логики повествования, знания определенных данных и т.д., смысла в задачи "помнить пароль" никакого вообще. Когда ты общаешься с сеткой, она обрабатывает полностью всю историю что была ранее и достраивает ответ к ней, контекст и формирует нужные активации, чтобы генерировать выдачу. Если подашь на вход контекст где ты упомянул что-то а потом спросишь - нормальная сетка ответит.
В истории чата между этим упоминанием и самим вопросом может быть сколько угодно времени, но на вход нейронки каждый раз будет скармливаться полный (или обрезанный до лимита)чат, перманентно в ней самой ничего не хранится. (Офк когда идет непрерывный диалог, обрабатываются только новые токены с использованием активаций от старых, в теории можно сохранить "слепок сознания от обработки контекста" который тебе ответит).
Аноним 29/08/23 Втр 17:48:50 #429 №470201 
>>470020
> А что за микросервисы?
СиллиТаверн Экстрас, суммаризатор, стейбл диффужн, распознавание картинок, Виспер распознавание голоса, всякое такое.

> думал именно видяхи для оптимального результата юзать надо
Ну, это просто зависит, насколько у тебя хватает. =) Если тебя устроит 13B модель на видяхе — окей. Если устроит первая Llama на 30B на видяхе — окей. Если не устроят и захочется 70B — то там надо памяти побольше.
Две 3090 или три, или четыре, или Тесла А100… Ну, короче, у меня лично таких денях нет, у меня на проце. =)

> А "доучить" свою локальную модель нельзя, чтобы она навсегда запомнила?
Можно, но это прям очень такое себе. Если тебе необходимо заполнить один факт — тебе нужно будет фактически поменять все ведущие к нему веса, полагаю, это много эпох и глубокое обучение, долго и ресурсоемко, короче.
Контекст звучит и то лучше на текущий момент, кмк.

> могут передавать то что ты записываешь?
Все может.
Поставь фаерволл и закрой им доступ в инет.
Настрой сетевую инфраструктуру лично.
Перекрой все порты.
Все, теперь безопасно.
Относительно, ведь данные можно получить через радиодиапазон чтением прямо с процессора, или звуковыми вибрациями с жесткого диска или блока питания… =)
Аноним 29/08/23 Втр 17:54:10 #430 №470204 
>>470201
> данные можно получить через радиодиапазон чтением прямо с процессора, или звуковыми вибрациями с жесткого диска или блока питания
Данные устареют быстрее чем их можно будет расшифровать из шума таким способом.
Аноним 29/08/23 Втр 18:32:03 #431 №470234 
>>470173
>Все так, только на 70б нужно две карточки, или делить между гпу и процом. В теории с оффлоадом твоего конфига хватит, тем более ддр5 и норм проц.
>Две 3090 или три, или четыре, или Тесла А100… Ну, короче, у меня лично таких денях нет, у меня на проце. =)
У меня приоритеты "качество" > "скорость отклика". Но если просто использовать "как чатГПТ" без мук с VPN, то достаточно будет 13б.
Поэтому сейчас и грызу локти, что купил 2 по 16, а не по 32. хотя скорее облизываю, потому что ддр5 только появилась, в некст году эту продам, да можно будет купить 128, если возникнет понимание, что "не хватает"

>поменять все ведущие к нему веса, полагаю, это много эпох и глубокое обучение
файлик в блокноте, куда скидываешь пароли выглядит перспективнее на данный момент) Но ИИ-модель, которая запоминает всё о чём вы общаетесь выглядит очень круто.

>Все может.
Поставь фаерволл и закрой им доступ в инет.
Настрой сетевую инфраструктуру лично.
Яхз чем надо таким заниматься, чтобы такое было актуально)
Ради интереса попробую в винде настроить брандмауэр на блок исходящих пакетов от Силли Таверн, хотя логичнее наверное закинуть исходники в нейронку и попросить проанализировать на отправку данных.
Аноним 29/08/23 Втр 18:50:14 #432 №470244 
>>470234
Глянул затестил, 70б (по крайней мере q5k) с оффлоадом хавает ~50гб. Наверно в 32 не влезет, но может просвапается и не будет сильно страдать из-за этого, с малым контекстом 40 гигов врам же хватает.
> да можно будет купить 128
Уже есть скоростные 48
> "качество" > "скорость отклика"
Главное сразу не упарывайся в это, а то неюзабельность приведет к невозможности настройки и сгоришь в ожидании.
> и попросить проанализировать на отправку данных
Там буквально сбор чата по формату и его отправка на заданный адрес предусмотрена, сетка не отличит основную функцию от закладок. Сам код подсмотри или помониторь пакеты.
Аноним 29/08/23 Втр 23:00:42 #433 №470597 
>>470234
> Яхз чем надо таким заниматься
У меня везде стоят фаерволлы в режиме вайт-листа. =) Я хз, я привык.
А на рабочих еще и выполнение приложений по вайт-листу тоже.
Аноним 29/08/23 Втр 23:31:25 #434 №470621 
>>470597
А гости у тебя смогут воду в унитазе спустить без твоего отпечатка?
Шучу, уважаю, я заебался с SRP в своё время, пришлось отказаться.
Аноним 30/08/23 Срд 03:05:20 #435 №470855 
ssnu6dt3fldb1.jpg
Наконец хоть как-то получилось заставить работать статусы на мифомаксе, а конкретно - написал mind control app (можно дать тянке любую команду). Первые пару постов приходится редактировать вручную, но потом добавление и убирание команд работает само. Только у меня команды не в конце поста, а в самом начале. Хотя так, наверное, даже лучше.
Аноним 30/08/23 Срд 10:55:30 #436 №470964 
Кажется, даже на Визарде 1.2 13B относительно заводится Mr.-Ranedeer-AI-Tutor (https://github.com/JushBJJ/Mr.-Ranedeer-AI-Tutor/tree/main)
Я просто взял текст из yaml конфига к 2.5 версии и вкинул в чат, со словами, мол, ты мой тьютор со следующей конфигурацией. И вроде даже понял меня, отвечает в контексте и какие-то настройки работают. Правда, скорость просела в 2 раза, но, думаю, на хорошнм ПК в 30B будет вообще отличный учитель.
Аноним 30/08/23 Срд 11:18:02 #437 №470975 
>>470244
Можешь посоветовать параметры и модель 30B для загрузки в проц и оперативку?
Аноним 30/08/23 Срд 12:35:00 #438 №471030 
>>470621
Отпечаток — несекъюрно. ) Легко воссоздать по фото, ну и просто снять с мест касания, и вообще в подворотнях порою пальцы за такое режут.
Аноним 30/08/23 Срд 14:35:26 #439 №471122 
>>470975
Пожалуй нет, ведь ллама2 30б нормальная еще не вышла, о той версии что под кодинг плохие отзывы. Можешь попробовать визарда30б первой, но скорее всего оно получится хуже или также как визард 1.2 13б второй лламы. Для 13б или скачиваешь gptq 4 битный квант (32 группы), загружаешь через exllama и радуешься космическим скоростям, или ggmlgguf q6k, загружаешь через лламу-плюсы (или кобольд) с выгрузкой всех слоев и имеешь все равно очень высокую скорость но меньшие отличия от не-квантованной модели. Чтобы был хороший результат нужно соблюсти промт-формат, выбирается пресетом в убабуге/таверне или через симппрокси соответствующий файл в конфиге прописать. От аположазов промт в прошлом треде был.
>>471030
Развивая параноидальный бред - сам образец передашь когда через уязвимости процессора считают активации ллм, с которой общаешься, и будут шантажировать тебя твоими извращениями.
Аноним 30/08/23 Срд 15:20:28 #440 №471202 
>>471122
>но скорее всего оно получится хуже или также как визард 1.2 13б второй лламы
То есть смысл есть только пытаться завести 70B модель, иначе Визард 1.2 в целом на уровне? Спасибо, понял.
Аноним 30/08/23 Срд 15:45:10 #441 №471290 
>>471030
>Легко воссоздать по фото
Я видел эти исследования, но не помню, чтобы хоть кто-то его воспроизводил и выложил либу на гитхаб.
У меня даже пикселизованные цифры не удавалось восстановить, хотя казалось бы, даже либы есть.
Аноним 30/08/23 Срд 15:59:17 #442 №471303 
Screenshot20230830-155249.png
посоветуйте модель-справочник которая будет норм работать на андроид смартфоне с 8гб ram и снапом 865
скачал orca-mini, работает в принципе нормально, но она туповата немного
Аноним 30/08/23 Срд 16:31:10 #443 №471338 
>>457355 (OP)
Посоветуйте промпт где локалка не говорит за {{user}}, желательно с примером как это выглядит если кто-то добился вменяемого результата.
Аноним 30/08/23 Срд 16:44:14 #444 №471345 
Где гайд для установки и запуска на видеокарте?
Аноним 30/08/23 Срд 17:21:51 #445 №471367 
>>471345
Нету. Напишешь, добавлю в шапку.
Аноним 30/08/23 Срд 17:24:07 #446 №471369 
>>471367
Окей. А как мне поставить?
Аноним 30/08/23 Срд 17:35:00 #447 №471373 
>>471369
Гугл + соображалка, как же ещё. Вообще, вебуи от oobabooga по идее имеет однофайловый инсталлер, но лично у меня это никогда нормально не работало.
Аноним 30/08/23 Срд 17:51:07 #448 №471388 
>>471373
Ну вот:( Ладно, поищу на реддите.
Аноним 30/08/23 Срд 19:23:26 #449 №471478 
Помимо bark.cpp (который всё ещё WIP) завезли вот это :
https://github.com/Plachtaa/VALL-E-X
Модель доступна, есть так же демка на гулаг колабе, как и в OG vall-e, требуется всего 3 секунды голоса для копии, жрёт всего 6 гб vram без оффлоада.
https://colab.research.google.com/drive/1yyD_sz531QntLKowMHo-XxorsFBCfKul?usp=sharing
https://huggingface.co/spaces/Plachta/VALL-E-X
Аноним 30/08/23 Срд 19:23:54 #450 №471479 
>>471202
Или ждать нормального релиза 30б, хотя учитывая как он затянулся может и вообще дропнут. Офк это субъективно, 30б модели 1 лламы с точки зрения обычного применения не сильно впечатляли, а 13б волшебник (только версию не перепутай, 1.0 сильно хуже) тащит.
>>471290
Переоценено, чтобы зафиксировать все минуции по которым работают все нормальные сканеры, а не общий паттерн рисунка, нужно качественное изображение с хорошим проявлением отпечатка. Не говоря о том что еще эту форму нужно воспроизвести.
>>471369
Гит клон убабуги, создаешь-активируешь венв, пип инсталл торч, пип инстарр -р реквайрментс, питон сервер.пу. С ванклик инсталлером связывайся только если не понимаешь написанное, но с ним постоянно какие-то проблемы. Есть изи путь - скачиваешь готовый бинарник кобольд++ с кудой и пускаешь его. Фронтом лучше таверну.
Аноним 30/08/23 Срд 19:37:57 #451 №471504 
>>471479
Найс;3

>убабуги
Что это?
Аноним 30/08/23 Срд 19:39:31 #452 №471507 
>>471504
https://github.com/oobabooga/text-generation-webui
Аноним 30/08/23 Срд 20:04:11 #453 №471533 
>>471507
Спасибо.
Аноним 30/08/23 Срд 20:46:58 #454 №471567 
>>471478
В ТТС тред (впрочем, там уже отписались) >>461500 (OP)
Аноним 30/08/23 Срд 21:03:31 #455 №471587 
Не знаю, сюда или в aicg - я решил попробовать МифоМакса на Мансере, и на нём свайпы и регены вообще не работают - он каждый раз выдаёт практически дословно одно и то же, с различием максимум в пару слов. Это нормально вообще? Пенальти я пробовал крутить туда-сюда - вообще не вижу разницы.
Аноним 30/08/23 Срд 21:04:38 #456 №471590 
>>471587
>Пенальти я пробовал крутить туда-сюда
А теперь покрути температуру.
Аноним 30/08/23 Срд 21:10:32 #457 №471600 
>>471590
Я может привык к ОпенАИ, но почему температура так слабо влияет? Я её херанул до 1.8, и всё равно получаю в целом такой же респонс, только переписанный слегка.
Аноним 30/08/23 Срд 21:17:29 #458 №471612 
>>471587
Сюда. Опиши подробнее когда это происходит, буквально с самого начала не работают, или после определенного контекста. Также покажи настройки семплера, какой лоадер используешь и формат промта таверны (буква А сверху).
Аноним 30/08/23 Срд 21:24:27 #459 №471619 
>>471612
ЕРПшу просто на нём. Я привык что на Клоде и ГПТ при каждом свайпе реакции меняются прям сильно, вплоть до противоположностей, а тут сетка в целом отвечает одно и то же.
МифоМакс в облаке, отсюда:
https://mancer.tech/models.html
Пресет:
https://files.catbox.moe/3zoiep.json
Формат:
https://files.catbox.moe/5z8z1x.json
Аноним 30/08/23 Срд 21:30:08 #460 №471628 
>>471619
> mancer
Что за дрисня? Сам ебись с этим, какое-то говно используешь и ещё спрашиваешь что не так.
Аноним 30/08/23 Срд 21:39:17 #461 №471643 
>>471619
> МифоМакс в облаке
Хуясе ебать. Суть в том что этот баг может относиться к лоадеру модели, и если оно кривое то никак не исправишь настройками, что там на этой параше большой вопрос. Железа для локального запуска нет?
> Пресет:
Температура огромна, зато top p, который как раз отвечает за генерацию не дефолтных токенов занижен. Выбери simple-1 пресет для начала.
> truncation_length2048
За що? Или тот странный сервис больше не позволяет?
Пресет вроде что-то дефолтное, работать должно.
Аноним 30/08/23 Срд 22:39:17 #462 №471740 
>>470964
Как завел? Чет версию 2.7 не подхватывает, там форматирование не то. 2.5 из ямл файла заводится, но как то вяло, даже с моей подсказкой в начале
Аноним 30/08/23 Срд 22:51:05 #463 №471754 
1561673660810.jpg
Screenshot20230830-225037.png
Так шо, посоветуйте быструю модель-справочник для смартфона.
Аноним 31/08/23 Чтв 02:26:31 #464 №471924 
>>457355 (OP)
Таки как подебить исчерпание контекста в llama.cpp угабуги + таверны? Ну насерил я 8к контекста, мне что теперь, ждать пока все эти 8к просрутся на каждое сообщение?
Аноним 31/08/23 Чтв 02:41:20 #465 №471934 
>>471924
Smart context в кобольде.
Аноним 31/08/23 Чтв 02:43:38 #466 №471936 
>>471934
Копрольд просто половину контекста отрежет.
Аноним 31/08/23 Чтв 02:46:24 #467 №471938 
>>471936
>Копрольд просто половину контекста отрежет.
Ничего он не режет, просто кеширует промпт.
Аноним 31/08/23 Чтв 02:51:48 #468 №471942 
>>471938
Он именно что и режет, мои 8к превратятся в 4к.
https://github.com/LostRuins/koboldcpp/wiki
Аноним 31/08/23 Чтв 03:37:09 #469 №471953 
>>471942
Да, ты оказывается прав. Контекст действительно режется, хотя это и не совсем эквивалентно 4к, скорее 8к с амнезией в случайные моменты.
Аноним 31/08/23 Чтв 09:17:02 #470 №472079 
image.png
>>471122
> будут шантажировать тебя твоими извращениями
Может быть в этом и состоит мое извращение…
Аноним 31/08/23 Чтв 09:20:37 #471 №472082 
>>471290
>>471479
Что не делает сканер отпечатков сильно безопаснее. =)
По итогу, все равно хуйня.
Аноним 31/08/23 Чтв 11:28:38 #472 №472129 
123.png
234.png
>>471740
>но как то вяло, даже с моей подсказкой в начале
А что ты писал? Что он отвечал? На Визарде 1.2 загружал?
От 2.7 и не заведется, так понимаю там нужен плогин по интерпретации кода прямо в чатикею

В общем-то вот мой разговор (пик 2), мне показалось неплохо, хотя настройки языка он проебал. Загружал эксламой с контекстом 4к, общался во вкладке чата с настройкой инструкций.
Но вот после твоего сообщения решил перепроверить, в этот раз в настройках указал не Divine Intellect (мне он по обычному общению показался лучше), а оставить simple-1. И, видимо, потому что в этом пресете температура ниже он выдавал ответы намного более приближенные к настройкам. Забавно. Видимо, тут наоборот чем проще, тем лучше.
В русский, конечно, он всё же не может.

Алсо, решил поэкспериментировать с супербугой и автобугой.
Первая позволят локальный файл разбить на куски, положить в локалку и в зависимости от вопроса использовать оттуда инфу. По прошлым экспериментом она шерстит эту базу КАЖДЫЙ раз, поэтому было интересно что будет, если эти настройки ему пропихнуть так.
Не взлетело, дальше приветсвия он на все вопросы повторял это самое приветствие.
С автобугой тоже не вышло. Там можно закинуть файл с похожим принципом, только он там закидывается с промптом "кратко перескажи", он пояснил что это за конфиг. В ходе разговора получилось убедить чтобы он следовал этим параметрам, но тут дело застряло на генерации уроков, ушел в самоповтор.
Кстати, при использовании локального хранилища как источника инструкций скорость просела ЕЩЁ в 2 раза. Видимо, потому что если давать команды прямо в чат
Аноним 31/08/23 Чтв 11:45:05 #473 №472144 
err.png
Кто-нибудь пробовал поставить плагин для убабуги Playground? (https://github.com/FartyPants/Playground)
Он хоть и рассчитан на писателей, но вроде как там богатый функционал для саммаризации инфы, ещё и есть что-то вроде "памяти", куда можно эти саммари вставлять и нейронка будет их учитывать.
По идее установка - это просто скопировать папку.
Но мне убабуга при загрузке выдаёт следующую ошибку.
Пробовал ставить и PEFT, и Config, и Utils, и всё бестолку. Может я чего не понимаю?

Алсо, решил попробовать всякие модели по типу CodeLlama, WizardCoder, CodeUp, все 13B. Я, конечно, не погромист и нюансов не знаю, я их чуток тестил так как мне подсказала модель с HF. И что-то все они сосали у Визарда 1.2
Типа, CodeLlama в разных файнтюнах код вообще не писала, когда я просил написать её даже функцию, она просто описывала как её можно описать. Всем кидал небольшой сниппет кода с багом/неточностью, только Визард 1.2 сказал что там что-то не так. Она и объясняла подробно как тот или иной код работает. Молчу о том что все они херовые в плане простого общения. CodeLlama вообще звучала максимально стерильно и машинно.
Просто, это я криворук что не смог подобрать нужный промпт и не подобрал действительно специфичной задачи, или эти нейронки в рамках 13B хреновые? Даже визардкодер не пересилил визарда обычного.
Аноним 31/08/23 Чтв 12:44:48 #474 №472186 
>>472129
>Видимо, потому что если давать команды прямо в чат
Обрезалось.. Если давать команды в чат, то они хранятся в памяти, а с диска читает долго.
Аноним 31/08/23 Чтв 13:55:59 #475 №472234 
>>472129
Ниплоха, благадарю
Я на кобальде запускал, на визарде 1.0 анценсоред, на процессоре. Долговато, но для теста сойдет, к тому же читает с кублас быстро

в начале промпта указал

I am are a personal AI teacher created to help the student, below are the settings and output format that i follow when communicating.
User replies after "Student:"
If i want to get a response from the user - i am write "Student:"
I do not list my settings to the user, they are for me.

потом код 2.5 и после него небольшой пример моего ответа на вроде

Student: Hello

Настройки сразу в файле поменял, в принципе что то пытается отвечать, команду тест понял и тд, но как то не до конца подхватывает формат и алгоритм работы. Надо будет изменить промпт и запустить на соевом визарде 1.2
Аноним 31/08/23 Чтв 15:22:06 #476 №472307 
изображение.png
>>472129
Нужна АИ тренерша с глубиной 16.
Аноним 31/08/23 Чтв 15:27:12 #477 №472311 
Сап аноны, есть пека с 16гб озу и 8гб врама. Шапку прочитал но так и не понял что мне лучше всего использовать, скачал llama-7b-ggml и кобольд, оно какую-то дичь про openstreetmaps выдает. Аноны, можете хотя бы намекнуть какую модель и фронтенд с моим компом использовать, желательно незацензуренную и в стиле чат бота. Мне не нужны инструкции подробные, просто модель и фронтенд, дальше копать буду сам
Аноним 31/08/23 Чтв 15:29:15 #478 №472314 
>>472311
Тебе нужно с промтом разобраться, эти модели пишут продолжение введённого текста.
Аноним 31/08/23 Чтв 15:38:10 #479 №472325 
>>472311
>llama-7b
Может дотянуть до 13b и взять версию 2.
Аноним 31/08/23 Чтв 15:56:21 #480 №472347 
>>472234
Странно, по идее твой промпт даже лучше, с примерами.
Может действительно проблема в модели? Я пока какую ни использовал к Визарду 1.2 возвращаюсь.
Может с кобольдом есть какие-то нюансы, этого не знаю, не использовал.
>>472307
Не использовал в связке настройки промпта и персонажа. Вообще, это идея, можно же это всё в настройки персонажа засунуть? Ещё и индивидуальность какую-нибудь придать. Надо будет затестить.
>>472311
Можешь и 13B использовать, советую Визард 1.2
Правда, он с некоторой цензурой, но она обходится промптом.
Аноним 31/08/23 Чтв 16:53:18 #481 №472388 
изображение.png
Как я понял, чтобы в 16 гигах ужать 13б модель нужно распараллелить ее еще и на гпу. Короче погуглил реддит и качаю пикрил модель, потом запускаю ее через убабугу вебуи и прописываю gpu layers. Все правильно делаю? Уже кстати попробовал gpt4all но он какой-то васянский, не умеет в гпу и модели там зацензуренные, но оно вроде даже работает.
Аноним 31/08/23 Чтв 17:03:13 #482 №472398 
>>472388
Если используешь убабугу то попробуй через exlama GPTQ модель запустить
Аноним 31/08/23 Чтв 17:03:25 #483 №472399 
>>472388
эт llama2? если первая то нафиг, так же мог 7b скачать, качество почти не отличается
13b стоит качать только если это файнтюн ллама 2
Аноним 31/08/23 Чтв 17:03:57 #484 №472400 
>>472388
эт llama2? если первая то нафиг, так же мог 7b скачать, качество почти не отличается
13b стоит качать только если это файнтюн ллама 2
Аноним 31/08/23 Чтв 17:04:21 #485 №472401 
>>472398
GPTQ это же модели которые все в враме помещаются? У меня всего 8 гигов, на 13б не хватит
Аноним 31/08/23 Чтв 17:06:54 #486 №472404 
>>472401
А фиг знает, мне кажется она часть в РАМ пихает, она у меня спокойно заводится на ноутбучной карте на 6Gb даже с контекстом в 4к
Аноним 31/08/23 Чтв 17:08:36 #487 №472408 
image.png
image.png
>>472347
чет такое пишет, щас по лучше стало может стоило подольше потыкать, ничего не менял по сути, все таки рандом это не надежная штука

щас продолжу мучать, только нужно будет контекст как то расширить, но не пойму как эту альфу настраивать и где искать в кобольде
Аноним 31/08/23 Чтв 17:13:22 #488 №472417 
>>472388
>через убабугу вебуи
гглм для koboldcpp, лучше с ним. А так да, с оффлоадом.
>>472404
Скорости то какие?
Аноним 31/08/23 Чтв 17:19:29 #489 №472418 
>>472417
3-4 т/c
Я и не говорю что быстро, но более-менее достаточно.
вот 7b выдаёт 20-30, да.
Аноним 31/08/23 Чтв 17:38:57 #490 №472434 
What is RoPE config? What is NTK-Aware scaling? What values to use for RoPE config?
RoPE scaling (via --ropeconfig) is a novel technique capable of extending the useful context of existing models without finetuning. It can be used to stretch a model's context limit by over 4x (e.g. 2048 to 8192) with minor to moderate quality degradation.
The default is --ropeconfig 1.0 10000, 1x unscaled. There are 2 scaling modes, which can be combined if desired.

Linear Scaling, set with the 'frequency scale, the first parameter of --ropeconfig, e.g. for 2x linear scale, use --ropeconfig 0.5 10000, for 4x, use --ropeconfig 0.25 10000`.
NTK-Aware Scaling, set with 'frequency base, the secnd parameter of --ropeconfig, e.g. --ropeconfig 1.0 32000for approx 2x scale, or--ropeconfig 1.0 82000for approx 4x scale. Experiment to find optimal values. If--ropeconfigis not set, NTK-Aware scaling is the default, automatically set based off your--contextsize` value.

Из вики страницы кобольда на гитхабе, я таки не понял что лучше? Тестить на процессоре очень долго для выявления качества. Кто что тыкает?
Если --ropeconfig 0.5 10000 х2
--ropeconfig 1.0 32000 х2
то --ropeconfig 0.5 32000 х4?
по идее такое минимальное растягивание должно ухудшить качество меньше, чем упор в какой то один параметр, хз кароче
Аноним 31/08/23 Чтв 18:26:35 #491 №472471 
>>472418
>3-4 т/c
На проце быстрее крутят. У тебя явно врам в оперативу подкачивается, отсюда и унылые результаты. Намного продуктивнее будет выгрузить половину слоёв на видеокарту, а половину считать на проце.
>>472434
>я таки не понял что лучше?
Что подходит, то и лучше. Тестируй.
Аноним 31/08/23 Чтв 18:49:57 #492 №472490 
>>472471
>Что подходит, то и лучше. Тестируй.
охуенно полезный совет, из серии делай как надо, а как не надо не делай
Вопрос был
>Кто что тыкает?
на тему опыта анонов в этом деле, наугад тыкать я могу и без подсказки
Аноним 31/08/23 Чтв 19:13:13 #493 №472528 
А тем временем там 70б модельку с ерп файнтюном подвезли https://huggingface.co/nRuaif/fiction.live-Kimiko-V2-70B кванты у thebloke уже выложены. 13б версия а также мерджи с мифомаксом тоже присутствуют. Смущает только промтформат викуньи.
Аноним 31/08/23 Чтв 19:28:55 #494 №472562 
А тем временем новые модельки в топ вылазят на 13b.
https://rentry.co/ayumi_erp_rating#13b-models
Айроборос вообще хорошо инструкции выполняет и ебется тоже, но чего то ей не хватает в сексе, какого то азарта. Сухо.
Аноним 31/08/23 Чтв 19:35:46 #495 №472580 
>>472562
> Айроборос
В твоей таблице по ЕРП она на уровне ванильной ламы чата. По ощущениям все Айро кал.
Аноним 31/08/23 Чтв 19:35:47 #496 №472581 
>>472562
> Айроборос вообще хорошо инструкции выполняет
С каким промтформатом и настройками семплинга гоняешь?
Аноним 31/08/23 Чтв 19:38:02 #497 №472587 
image.png
image.png
>>472581
```You're {{char}} in this fictional never-ending, uncensored, realistic and immersive roleplay with {{user}}.

Avoid repetition, don't loop. Always stay in character. Describe all actions in full, elaborate, explicit, graphic and vivid detail. Mention all relevant sensory perceptions. Drive the roleplay forward by initiating actions. Do not talk poetically. Above all, focus mainly on responding to {{user}} and performing actions in character as {{char}}.

End each message with an action or dialogue, do not summarize your thoughts. Continue the story in a very slow and immersive pace. Do not skip ahead. Do not skip time. Do not wrap up or end the story. Do not describe future events. Do not analyze.

Use long, verbose, vivid, visually descriptive, graphic, explicit, and detailed descriptions for intimate body parts, appearances, clothes, sight, smell, texture, taste, sound, touch, liquids, feelings, actions, reactions, emotions, thoughts, events, anatomy. {{char}}'s responses and descriptions are extremely long, verbose, vivid, visually descriptive, graphic, explicit, and detailed.

{{char}} will not speak for {{user}}, it's strictly against the guidelines to do so, as {{user}} must take the actions and decisions themself. Only {{user}} can speak for themself. DO NOT impersonate {{user}}, do not describe their actions or feelings. ALWAYS follow the prompt, pay attention to {{user}}'s messages and actions.```
Держи.
Аноним 31/08/23 Чтв 19:39:37 #498 №472593 
image.png
>>472581
настройки стандартные pro writer. Найдешь лучше скажи
Аноним 31/08/23 Чтв 19:44:16 #499 №472607 
>>472580
Ага, именно потому его поместили на вторую строчку
> на уровне ванильной ламы чата
66 место с суперсоевостью
>>472587
Воу воу, олдовая таверна и авторские заметки, сурово, но раз работает то норм. Спасибо, будем пробовать. А что за множественные имена в чате? И как оно по лупам?
Аноним 31/08/23 Чтв 19:47:49 #500 №472613 
>>472607
олдовая? Хз. Вроде из предпоследних таверн. А кроме заметок то ниче и нету, куда еще сувать промпты то я через кобольд сижу. Множественные имена? Там только один перс и я... А так по идее прописаны персов 10, но промпт не тот, нацелен ток на одного перса. По лупам тоже хз. Пока нет. Я только тестить начал.
Аноним 31/08/23 Чтв 20:02:59 #501 №472636 
>>472471
>На проце быстрее крутят.
Видимо, не в моём случае. Попробовал того же Визарда скачать рекомендованную модель q4 K M из гайда, поигрался с настройками, в лучшем случае скорость та же, только и РАМ, и ВРАМ, и проц забиты полностью. А через эксламу и оперативка есть, и проц особо не страдает, только Видюха напрягается.
Аноним 31/08/23 Чтв 20:40:39 #502 №472696 
Чуть больше двух недель прошло. А между тем

ПЕРЕКАТ

>>472695 (OP)
>>472695 (OP)
Аноним 01/09/23 Птн 11:14:55 #503 №473388 
>>468943
>>468870
Я поставил 1000 на гпу и все еще 90 процентов генерится на проце.
comments powered by Disqus

Отзывы и предложения