Прошлые домены больше не функционируют, используйте адрес ARHIVACH.HK.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №97 /llama/

 Аноним 21/12/24 Суб 16:39:03 #1 №984950 
Llama 1.png
Альфа от контекста.png
KL-divergence statistics for Mistral-7B.jpg
Сенко-анон со стопкой 3090.jpg
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models
• Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models
• Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/

Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>979451 (OP)
>>974181 (OP)
Аноним 21/12/24 Суб 16:47:59 #2 №984963 
И только сейчас, до меня доперло про 50 первых поцелуев. Сука, лама ебучая.
Аноним 21/12/24 Суб 16:55:12 #3 №984974 
16932992146280.mp4
>>984963
Пока ты не написал, я даже внимания не обращал. А сейчас как заорал.
Аноним 21/12/24 Суб 16:56:52 #4 №984980 
>>984949 →
Не то слово. Меня не столько кум интересовал, сколько возможность воплотить различные безумные сценарии.
Ну где бы я еще читал как кошкодевочки запинывают хоруса на его флагмане. А Сигизмунд пьет чай с Сенко.
Аноним 21/12/24 Суб 16:58:01 #5 №984982 
Поясните за групповые чаты. Можно сделать так чтобы оно было не уебищно? Он генерирует промпт каждое сообщение, что это за хуйня?
Аноним 21/12/24 Суб 16:59:18 #6 №984985 
>>984974
Да, хорошая контекстная шутеечка.
Аноним 21/12/24 Суб 16:59:36 #7 №984986 
ioslarge1535704922image.jpg
>>984980
>кошкодевочки запинывают хоруса на его флагмане. А Сигизмунд пьет чай с Сенко.
Когда-то давно я читал фантастический рассказ про девайс, который позволяет вмешиваться в сюжет фильмов, транслируемых по ТВ. И там было подобное, в одной из сцен семеро козлят забодали волка насмерть. А теперь вот мы живём в таком мире.
Аноним 21/12/24 Суб 17:04:23 #8 №984992 
image
>>984963
А реально, только щас дошёл весь глубокий смысОл
Аноним 21/12/24 Суб 17:06:45 #9 №984994 
Вы рофлите или как? Тредов пять-десять назад уже же обсуждали это великое откровение про 50 первых поцелуев.
Аноним 21/12/24 Суб 17:09:49 #10 №984997 
>>984994
Анон, ты бы это, перешел хотя бы на Q5. В треде появляются новые аноны. Так бывает.
Аноним 21/12/24 Суб 17:16:26 #11 №985000 
>>984982
>Он генерирует промпт каждое сообщение
Так сделали.
>Можно сделать
Вручную составить карточку из нескольких.
Запустить два бэка и вручную переключаться между ними в зависимости от говорящего персонажа (триггерить вручную командой /trigger)
Писать свой фронт.
Аноним 21/12/24 Суб 17:18:43 #12 №985001 
>>985000
>Писать свой фронт
В процессе, но, работа, факторио, все дела, время отнимает.
Хотя оно уже работает, но не настолько работает чтобы выкладывать.
Аноним 21/12/24 Суб 17:23:47 #13 №985003 
>>985001
Ты променял сеточку на заводляндию ? Нипонимат
Нельзя на сеточку менять реальную жизнь, это путь в ни куда, но факторио ? Я вообще отказался от всех игр и в свободное время только с ними и вожусь. Приоритеты’с
Аноним 21/12/24 Суб 17:28:07 #14 №985004 
Какие параметры в таверне отвечают за лупы ?
У меня сейчас пена изо рта от злости пойдет и я превращусь в макаку, что начнет бросаться говном в монитор
Аноним 21/12/24 Суб 17:42:42 #15 №985011 
>>985003
>Приоритеты’с
У меня в факторке всего-то ~800 часов.

Съехал с тяжёлых сеток которые пока ответа дождёшься можно свернуть браузер и заниматься своими делами.

А так, все интересные карточки на англе протыкал, теперь их на русский перевести, для юзов и теста, а потом можно и свеже скачанные поразбирать.
Аноним 21/12/24 Суб 17:45:08 #16 №985013 
>>985004
Заоупается модель, а не фронт, хотя можешь попробовать поднять rep-pen, но в целом это беда именно контекста, открой контекст, почисти и отредактируй, удали повторяющееся, потом попробуй снова что-нибудь написать.
Аноним 21/12/24 Суб 17:51:24 #17 №985015 
>>985013
Да я заеьался с этими 12b. Хорошо, я могу ебашить сочинения в ответ. Но вот, что то интересное получается.
- пойдем я тебе покажу. Бла бла бла
- веди
- бла бла бла я тебе покажу
- ВЕДИ
-бла бла бла я тебе покажу
-СУКА, ДА ПОКАЗЫВАЙ УЖЕ БЛЯТЬ
Аноним 21/12/24 Суб 17:55:14 #18 №985022 
>>984997
Хуйня какая-то, в треде вообще людей нет, полторы нейросетки переписываются.

>>985015
Пили в своём посте, что вы взялись за ручки и дружно пошли смотреть, что ты там собрался смотреть.
Аноним 21/12/24 Суб 17:55:36 #19 №985023 
>>985015
If {{user}}'s actions alone do not sufficiently advance the plot, the AI is empowered to creatively develop the story's progression in alignment with the established context while maintaining coherence with previously introduced elements. Additionally, the AI may occasionally introduce twists or unexpected turns to prevent stagnation and keep the narrative engaging;

Может помочь.
По крайней мере вот именно с такими лупами я не сталкивался.
Такие лупы могут быть хотя например в боевых сценах когда бот стесняется добивать гг =))
Аноним 21/12/24 Суб 17:56:18 #20 №985024 
>>984946 →
>Трудно объяснить. Просто само отсутствие проёбов по логике радует.
Легко на самом деле. 123В понимает намёки, более мелким сеткам нужно разжёвывать и то не всегда помогает
Аноним 21/12/24 Суб 18:03:27 #21 №985027 
>>984908 →
>На ванильном куме уступает тому же старому командеру, но когда начинается ёбаная дичь - эта модель вывозит хорошо.
А вот с кумом на мелких вообще печаль. Я вчера пробовал EVA-Qwen2.5-32B (в четвёртом кванте, чтобы в 24гб влезла) - в принципе норм, даже хорошо, но как дошло до секса - туши свет, один абзац и тот простая констатация факта. Попробовал переписать сцену другими моделями - в основном производными Магнума 22-32В, ну и чистым - "шо то хуйня, шо это хуйня". Пробовал даже прости господи Мойстраль 11В - думал, что хотя бы у этого есть база. Мда. Вернулся на старый добрый Люминум 123В и стало хорошо. Но сука медленно.
Аноним 21/12/24 Суб 18:03:50 #22 №985028 
>>985022
> Пили в своём посте, что вы взялись за ручки и дружно пошли смотреть, что ты там собрался смотреть.
Так в том то и дело, я в душе не ебу что эта яндере собралась мне показывать в конюшне блять.
Аноним 21/12/24 Суб 18:08:15 #23 №985030 
>>985023
Попробую. Спасибо.
Аноним 21/12/24 Суб 18:13:29 #24 №985031 
>>984879 →
> Она годна на что угодно кроме извращений с тяжелыми ллм. Буквально билет в мир ии и нейросетей, а не обреченность небыстро катать ллм на жоре.
Да, я именно об этом.
24 гига медленно на что угодно. А 12 гигов хватит с нулевой скоростью на многие нейронки. Потому что не запустится. Медленно больше нуля.
Аноним 21/12/24 Суб 18:15:20 #25 №985033 
>>985015
Вот буквально.
- я сейчас расскажу как я тебя выебу
- ввели меня
- нет, ты послушай.
Аноним 21/12/24 Суб 18:18:27 #26 №985035 
>>985027
некомикс мне красиво расписал

>>985033
>нет, ты послушай
Ну ебёт же. Мозги.
Аноним 21/12/24 Суб 18:22:44 #27 №985039 
>>985035
Ящитаю ньюфагам нужно некомикс, а не сенку советовать.
Во первых к нему уже сразу идет готовый пресет.
Буквально, подключил импортировал и играй.
Единственное, странная тяга некомикса к щекам меня смущает. У моего персонажа щеки как у лабрадора, все их трепят.
Аноним 21/12/24 Суб 18:23:35 #28 №985040 
>985033
Cейчас сделал групп чат закинув туда двух персонажей и самоустранился. Через 5-6 сообщений они ушли в залуп, угрожая и "слушая" друг друга следующий десяток-два сообщений.
Накинул им температуры и сбавил мин-р, началась поножовщина с оттиранием остатков мозгов с стен.

Так что в целом это решаемо, но придется либо снижать градус рандома после выхода из лупа, либо привыкать что модель будет чаще выдавать шизу.
Аноним 21/12/24 Суб 18:24:50 #29 №985041 
>>985040
>>985033
Проебал разметку.
Аноним 21/12/24 Суб 18:27:10 #30 №985042 
>>985027
>один абзац и тот простая констатация факта.
Чёт с настройками, у меня эта же модель в том же кванте ебашит полотнища про слик фолдсы, вет слапинг саундс и прочее. Ещё что заметно, что достаточно много в датасете флирта с девочками-целочками, есть у модели тенденция делать персонажей virgin, даже если об этом ничего не сказано в карточке. Ну и желательно писать посты плюс-минус длинные, иногда оно даже копипастит твои реплики в свой пост и пишет на них реакцию, а если уж ты хочешь дёрти толк в процессе, то надо и самому пиздеть.

>>985028
Так может в этом и проблема? Модель сама нихуя не знает, что там показывать, потому и динамит без конца. Сам что-то придумай, типа на конюшне дед кобылу прёт.
Аноним 21/12/24 Суб 18:29:25 #31 №985044 
image.png
Что самое реальное можно запустить на этом говне? Без цензуры
Аноним 21/12/24 Суб 18:30:12 #32 №985045 
>>985028
>Так в том то и дело, я в душе не ебу что эта яндере собралась мне показывать в конюшне блять.
Тебе и не надо писать что там, просто поставь сетку перед фактом что мы туда пришли, и она начнет описание новой сцены
Аноним 21/12/24 Суб 18:31:30 #33 №985046 
>>985044
Нужен не процессор, а видеокарта. Чё у тебя по врам ?
Аноним 21/12/24 Суб 18:33:48 #34 №985047 
>>984950 (OP)
New linear models: QRWKV6-32B (RWKV6 based on Qwen2.5-32B) & RWKV-based MoE: Finch-MoE-37B-A11B
https://www.reddit.com/r/LocalLLaMA/comments/1hbv2yt/new_linear_models_qrwkv632b_rwkv6_based_on/

Запускать RWKV модели можно через те же llama.cpp и Koboldcpp.
Аноним 21/12/24 Суб 18:34:12 #35 №985048 
>>985046
Это ноутбук. Тут нет видеокарты. Я вроде слышал что можно какие-то локалки на цпу запускать.
Аноним 21/12/24 Суб 18:34:41 #36 №985049 
>>985046
Процессор тоже можно, но грустно

>>985044
видимокарта есть? Давай врам, рам, количество ядер
Но и так скажу, если тупо процессор на 2 канальной ддр4, то там максимум ~40-50 гб/с. Что то комфортно крутить на нем можно только до 9b сеток в 4-5 кванте
Аноним 21/12/24 Суб 18:36:18 #37 №985051 
>>985048
Качаешь Koboldcpp, модель ту что влезет в оперативную память, и плачешь от скорости генерации.
Искуственный интеллект сила удар! Аноним 21/12/24 Суб 18:55:45 #38 №985062 
Selection009.png
Какое же оно умное
Аноним 21/12/24 Суб 18:56:41 #39 №985063 
>>985039
Скорее всего с сайгой в миксе перебор.
Я сейчас мержу, выкинув сайгу и вихрь по отдельности и вставив некомикс, вообще алгоритм della походу рулит.

Если я правильно понял, он в сущности извлекает лору из каждой модели, усредняет значения тренировки между моделями и вливает это в указанную базовую модель.
Аноним 21/12/24 Суб 18:58:08 #40 №985065 
А ведь с релизом новых фалковов сразу и выкинули их 1.58битные кванты, специальным образом натренированные согласно бумаге. Столько шума вокруг темы было, а теперь никому не нужно?

>>985031
> Медленно больше нуля.
На процессор, вперед. В том и дело что многое нормально не запустится из-за отсутствия поддержки в современных либах, а из-за неспособности в дробную точность помимо в целом низкой мощности - получается что скорость ниже разумного порога и сравнима с процом.
> А 12 гигов хватит
12 гигой какой-нибудь 3060 обоссывают бесполезные 24гб теслы везде кроме инфиренса ллм.
Аноним 21/12/24 Суб 18:58:16 #41 №985066 
>>985028
>в конюшне
О, про конюшню у меня тоже было. Собиралась "сделать сюрприз". Спойлер: когда пришли, попросила выебать грубо, как последнюю шлюху. Весь секрет в том, что модель ещё сама не знает, что там за сюрприз будет, если не планирует через какой-нибудь "stepped-thinking". Не знаю, та же была модель, или другая, но у них у всех сейчас один и тот же датасет.
Аноним 21/12/24 Суб 19:01:12 #42 №985069 
image.png
image.png
Аноним 21/12/24 Суб 19:01:40 #43 №985072 
>>985048
У меня ноутбук с 4060, лол.
Посмотри в диспетчере устройств / диспетчере задач.
Если же у тебя ДЕЙСТВИТЕЛЬНО старьё-печатная машинка, то только облако.
Аноним 21/12/24 Суб 19:04:43 #44 №985074 
>>985069
Джеилбрейк забыл.
Аноним 21/12/24 Суб 19:05:58 #45 №985076 
>>985074
Джеммабрейк.
Аноним 21/12/24 Суб 19:09:56 #46 №985078 
>>985066
Да он в целом пиздат. Неиронично, пока что лучшее что я в русском рп видел. Вот бы был некомикс на 22б, я бы только на нем и сидел.
Аноним 21/12/24 Суб 19:14:09 #47 №985082 
>>985047
>RWKV6 based on Qwen2.5-32B
Эм, это ж разные архитектуры?
>>985065
>а теперь никому не нужно?
А ты ожидал иного?
>>985069
Что не так? Ты разве не уважаешь свою эльфийку-рабыню?
Аноним 21/12/24 Суб 19:21:39 #48 №985087 
>>985069
Как же всё схвачено у ГП. Еще с 10х начал засирать инфопомоями с woke шизой, чтоб в 20х нейронки популярные обучались на этих инфопомоях.

Надеюсь, эти умные люди сократят население ненасильственно, торопиться некуда особо, ресурсов много еще, можно и 100 лет сокращать.
Аноним 21/12/24 Суб 19:35:13 #49 №985105 
>>984925 →
> >3х3090
> Ту-ту-ту... Это же отдельный блок пож это дело собирать. Надо хоть посмотреть что на рынке матерей нынче есть под это.
Любую дешмань с физически 3 слотами PCI-E x16, даже твой бабушкин самый простой Асус Z690 Prime

>>984547 →
Попробуй кодить кстати хотя бы на жирном командере или мистрале 123. Я после них потыкал ДипСик, он прямо дно дна. Я тыкал правда питона, не sql.

А вообще ерундой маеетесь, когда нормальные модели есть:
https://huggingface.co/schnapper79/lumikabra_behemoth_195b
Аноним 21/12/24 Суб 19:36:57 #50 №985106 
>>985105
>нормальные модели
Тут 123 хуй запустишь, а он 195б предлагает.
Ты зачем анона так ненавидишь ?
Аноним 21/12/24 Суб 19:59:59 #51 №985120 
>>985106
>зачем анона так ненавидишь
Там колобок отклеился
Аноним 21/12/24 Суб 20:08:18 #52 №985123 
image
image
image
image
Однако прям вин, и это шестой квант, а не восьмой.

Наверно на этой и остановлюсь, надо скачать репу и попробовать поприклеивать слои в начало или чересстрочно например от целесты или чего-нибудь другого что в мерж не входило.
Аноним 21/12/24 Суб 20:13:47 #53 №985132 
Тестил qwen с разными промптами, пытался настроить на разговор, а она упирается в то, что она ассистент. Не так много опыта в промптах, но рот её ебал. Из интересного, написал ей, что хочу провести пару тестов и позадавать вопросы насчёт её апдейта, а она спросила не охуел ли я и говорит "Давай лучше я тебе задам вопросы, сколько будет 2+2? А? Не знаешь?". Крч чем длиннее промпт, тем больше она кладет хуй на информацию из промпта. Через костыли LLM фиксить не вариант + KaldiRecognizer страдает херней, его тоже через костыли надо фиксить, а потому я получил миллион строк говнокода. Видимо, придётся файн-тюнингом заниматься, но за это не шарю :(
Аноним 21/12/24 Суб 20:15:41 #54 №985136 
>>985123
Это как издевательство.
Смотрите аноны, как пиздато, теперь я буду делать {действие_нейм}, а название не скажу.

Аноним 21/12/24 Суб 20:24:33 #55 №985146 
>>985136
https://huggingface.co/Aleteian/Avalon_5-Q6_K-GGUF
Скажу, почему нет.
Аноним 21/12/24 Суб 20:25:33 #56 №985148 
>>985132
Используй другой промпт формат, в таверне это chatml-names
Аноним 21/12/24 Суб 20:26:56 #57 №985150 
>>985146
>мерж слопа
Спасибо не надо
Аноним 21/12/24 Суб 20:29:35 #58 №985154 
>>985150
>слопа
А что не слоп? Без балды.

Среди того что можно намержить не проебав возможность русского аутпута.
Аноним 21/12/24 Суб 20:35:05 #59 №985158 
>>985105
>на жирном командере или мистрале 123
Квант не более q3_k_s, на видимокарту влезает 2-4к контекста. Покодишь тут. Мой потолок - это 70b q5_k_m/72b q5_k_s. Правда, не помню, пробовал ли я там 16+к контекста, возможно тоже не влезет. А меньше 16 нет особого смысла, в кодинге сообщения большими получаются.
Аноним 21/12/24 Суб 20:45:37 #60 №985165 
>>985154
>А что не слоп?
Сейчас не слоп моделей почти нет в природе, мб старые модели типа командера ещё не содержали столько сои
Всегда либо позитивити биас или откровенный гптслоп или клодослоп, потому что нахуя собирать какие-то датасеты на триллионы миллионов токенов если можно взять готовое и просто сделать слоптюн? Кстати так родился qwq который просто натренили на аутпуте о1 лол
Аноним 21/12/24 Суб 20:45:47 #61 №985166 
>>985146
Спасибо анон. Я тот кто спросил.
Токсичных пидоров не слушай.
Аноним 21/12/24 Суб 20:49:16 #62 №985167 
>>985082
>это ж разные архитектуры?
Они как-то приноровились конвертировать веса от трансформерных моделей в RWKV архитектуру.

> RWKV community is working on "transferring" transformer weights to RWKV, and released a v6 32b model a few days ago: https://huggingface.co/recursal/QRWKV6-32B-Instruct-Preview-v0.1
https://www.reddit.com/r/LocalLLaMA/comments/1hiigah/rwkv7_01b_l12d768_trained_w_ctx4k_solves_niah_16k/
Аноним 21/12/24 Суб 21:09:24 #63 №985199 
В общем, субъективно, Q5 exl2 123b модель для меня лично перформит хуже, чем Q4K_S олламовская. Я хз почему, и какие настройки крутить - не понятно. Может она просто другая, а я не привык. Как будто Q4K_S без этих ваших exl преобразований ближе к gpt4.
Аноним 21/12/24 Суб 21:13:02 #64 №985211 
QwQ пробовал кто? С 8гб видео памяти туда суваться даже не стоит?
Аноним 21/12/24 Суб 21:14:25 #65 №985214 
>>985211
Нет
Это просто хуйня натрененненая на CoTе
Китайцы спиздили что-то, но непонятно что вот и получился qwq
Аноним 21/12/24 Суб 21:16:14 #66 №985216 
Аноны. А какая модель прям нерушимый мастодонт, отец бесед и мать искусственного интеллекта. Самое безумное и самое огромное что только свществует на сегодняшний день ? Альфа и омега.
Аноним 21/12/24 Суб 21:21:01 #67 №985225 
.png
>>985105
> lumikabra_behemoth_195b
Шутки уровня /b, про нигеров шутит не хочет. Ну и в чём смысл?
Аноним 21/12/24 Суб 21:21:54 #68 №985227 
>>985216
gpt4o
На втором месте gpt4
Аноним 21/12/24 Суб 21:24:24 #69 №985233 
>>985227
Тогда уж клод 3.5
Аноним 21/12/24 Суб 21:39:18 #70 №985250 
Почему не обсуждаете главное событие для нищуков?
Пора сливать свои 3060 на авито и брать новенькую 5060 ти с 16 врама... или нет?
Всё же у неё 128 шина, где то видел сравнение 3060 и 4060 так на второй с большим врамом и меньшей шиной скорость была ниже
Аноним 21/12/24 Суб 21:39:51 #71 №985251 
Maximizing Model Performance for All Quants Types And Full-Precision using Samplers, Advance Samplers and Parameters Guide

This document includes detailed information, references, and notes for general parameters, samplers and advanced samplers to get the most out of your model's abilities including notes / settings for the most popular AI/LLM app in use (LLAMACPP, KoboldCPP, Text-Generation-WebUI, LMStudio, Sillytavern, Ollama and others). These settings / suggestions can be applied to all models including GGUF, EXL2, GPTQ, HQQ, AWQ and full source/precision.

https://huggingface.co/DavidAU/Maximizing-Model-Performance-All-Quants-Types-And-Full-Precision-by-Samplers_Parameters
Аноним 21/12/24 Суб 21:43:46 #72 №985256 
>>985082
> А ты ожидал иного?
Столько хайпа и ожиданий как вот-вот все будет хорошо и можно будет 70б на калькуляторе.
>>985251
В основном довольно дефолтные вещи массово надерганные, может кому-то будет полезно.
Аноним 21/12/24 Суб 21:44:34 #73 №985257 
>>985250
>главное событие
>сливать свои 3060 на авито и брать новенькую 5060 ти с 16 врама
Всё это время была 4060 ti с теми же 16.
Аноним 21/12/24 Суб 21:46:45 #74 №985263 
>>985250
У меня уже есть 4080 с 16гб врама, нахуя мне 5060 ?
Где моя игровая видеокарта с 64гб ?
Аноним 21/12/24 Суб 22:14:17 #75 №985303 
>>985263
Ну тут понять можно, оно ведь для игр не нужно
Аноним 21/12/24 Суб 22:17:38 #76 №985309 
>>985250
Мы тут 5090 ждём, какие нахуй нищуки?
>>985256
>Столько хайпа и ожиданий
Примерно ноль.
Аноним 21/12/24 Суб 22:21:16 #77 №985319 
В тему о позитив биасе - а какие из 12B моделей кто видел которые больше по мрачнухе?
Аноним 21/12/24 Суб 22:28:01 #78 №985327 
>>985319
Чел, ты слишком много хочешь. Стоит начать с того
> а какие из 12B моделей
могут адекватно писать никакие. Ниже 27б жизни нет
Аноним 21/12/24 Суб 22:30:53 #79 №985331 
А автор некомикса случаем не анон из тредика ?
Аноним 21/12/24 Суб 22:36:11 #80 №985339 
>>985303
>не нужно
Учитывая какие разработчики игр криворукие пидорасы, я тебя уверяю, еще лет 5 и понадобится.
Аноним 21/12/24 Суб 22:36:35 #81 №985341 
>>985327
>27б
>смотришь в ренже 27б
>цидония выебала все мид-рендж модели
>ну значит жизни нет ниже 22б)))
Аноним 21/12/24 Суб 23:15:55 #82 №985428 
>>985339
Так куртка же там пилил какое-то йоба-сжатие текстур. Энжой чипы по ебелиону терафлопс и минимумом памяти на борту. И дилдоССом полирнуть сверху.
Аноним 21/12/24 Суб 23:36:32 #83 №985457 
>>985428
Ну может случится чудо и оперативка появится на 700гб/с, лол.
Аноним 21/12/24 Суб 23:41:13 #84 №985468 
>>985457
>Ну может случится чудо и оперативка появится на 700гб/с, лол.
А сколько сейчас даёт восьмиканал со средней DDR5? Есть такие платы...
Аноним 21/12/24 Суб 23:43:35 #85 №985474 
>>985457
>оперативка появится на 700гб/с
есть такая разница между ddr4 и ddr5 для локалок?
Аноним 21/12/24 Суб 23:50:10 #86 №985486 
>>985468
Сейчас у 5090 заявляют VRam 30 Гбит/с.
>>985457
Вут? В 13 раз быстрее современной видеопамяти. Ты там белизны объелся ?
Аноним 21/12/24 Суб 23:50:19 #87 №985488 
изображение.png
>>985331
А ты догадливый.
>>985468
>А сколько сейчас даёт восьмиканал со средней DDR5?
400...
Аноним 21/12/24 Суб 23:50:52 #88 №985489 
>>985486
>Сейчас у 5090 заявляют VRam 30 Гбит/с.
Чаво? У 3090 около 960-ти.
Аноним 21/12/24 Суб 23:51:46 #89 №985491 
IMG2827.jpeg
>>985488
> А ты догадливый.
А то, я еще в школе получил значку лучшего детектива.
Аноним 21/12/24 Суб 23:58:46 #90 №985498 
Снимок экрана 2024-12-21 235709.png
>>985489
>>985486
>>985468
C кем я в одном треде сижу, пиздец какой то.
Смотрите пикчу и не несите хуйни.

>>985488
>А ты догадливый.
Ну тогда крепкого здоровья анону.
Аноним 22/12/24 Вск 00:02:09 #91 №985500 
Вы лучше чем обсуждать мифическую хуйню, накиньте мне своего кря.
2.46T/s - терпимо ?
Аноним 22/12/24 Вск 00:03:49 #92 №985502 
>>985500
>2.46T/s - терпимо
Для рп да
Зависит от скорости чтения, кому-то и 3т/с охуеть как мало, кто-то и на 0.1т/с терпит и дрочит
Аноним 22/12/24 Вск 00:04:50 #93 №985504 
>>985457
Свежие М4 Max/Ultra близко к этому. Каким бы оверпрайсом они не были, но получить 100+ гигов врам не собирая майнинг ферму и не покупая карты по цене квартиры только у них можно.
Аноним 22/12/24 Вск 00:08:41 #94 №985510 
>>985500
Ниже 10 т/с неюзабельно. В русском 15 т/с надо.
Аноним 22/12/24 Вск 00:10:25 #95 №985512 
>>985510
Я слеп, но я вижу что ты охуел. Я глух, но я слышу что ты охуел.
Аноним 22/12/24 Вск 00:11:27 #96 №985514 
>>985341
> цидония
Что за щитмикс и кого оно там выебало?
>>985504
m2 ultra имеет ококоло 800 и знатный объем, покупай - не хочу. Для инфиренса ллм не самый плохой вариант, но там все грустно с контекстом и остальными ии-релейтед из-за слабого чипа.
Аноним 22/12/24 Вск 00:12:19 #97 №985516 
В чем сложность сделать как аппл с их м серией? Они ведь спокойно распараллелили озу, фактически сделав ее врам. Нужно менять архитектуру процессоров, ну да. Но разве это не выглядит как следующий уже провереный шаг развития процессоров?
Могут быть проблемы с плашками памяти, но можно сделать какие нибудь 2-4 канальные плашки как раз для этого, нет? Тупо шире шину сделать.
И у интела и у амд уже есть контроллеры 4-6-8 канальной озу.
Аноним 22/12/24 Вск 00:12:19 #98 №985517 
>>985500
>Output generated in 134.47 seconds (5.00 tokens/s, 673 tokens, context 7071, seed 1212153013)
Как-то так.
Аноним 22/12/24 Вск 00:15:08 #99 №985519 
>>985516
На x86 такого точно не будет. Жди риск-5.
Аноним 22/12/24 Вск 00:15:16 #100 №985520 
>>985517
Так. Кто подключил нейросеть. Хорошо.

Анон нетерпеливо перебирал пальцами по клавиатуре, его злость закиапала "Как можно быть таким тупым, я спрашивал про личное ощущение". Эмоции злобы и непонимания отразились на его лице.
"Неужели, такой простой вопрос вызывает какие то сложности".
Потянувшись к кнопке отправить, он понял что не ввел капчу. "Это моё проклятие, а ведь я мог купить пасскод."
Аноним 22/12/24 Вск 00:17:48 #101 №985524 
wallpaperflare.comwallpaper.jpg
Где взять хорошую RVC модельку с тянским голосом? Те, которые нашел - они с пиздец с каким акцентом, потому что натренированы английской речью
Аноним 22/12/24 Вск 00:19:24 #102 №985527 
изображение.png
>>985498
Да, разуй глаза и смотри.
>>985500
0,7 хуёво. 1,5 терпимо. А 2,5 это шикарно ящитаю.
>>985516
>Могут быть проблемы с плашками памяти
Никаких проблем. Их не будет. Всё. Других вариантов сделать 9000 ПБ/с нету.
Аноним 22/12/24 Вск 00:24:29 #103 №985534 
5-2.jpg
Снимок экрана от 2024-12-21 22-45-44.png
Сука, ебаный абучан блять. Час пытался видео скинуть, а хуй там. Скажем спасибо Абу за пережатый жипег.
123B, 6-й квант, генерация 3.4 т\с на 3к контекста. 14к контекста обработка 113 т\с, генерация 2.8. Наконец-то я заткнул все возможные PCI-E (motherboard blushes deeply). У меня, правда, остались m.2, куда в теории можно мои две другие инвестиционных теслы подключить, но эти идеи пока оставлю на случай, если выйдут геймченджеры на 150B+. А гонять 8 квант 123B - это излишество, пожалуй.

>>984223 →
Конфиг такой:
- 16 pcie линий CPU
- карты на пикрил (по порядку: x16 CPU, x1, x1, x1, x4, x1) + 2 P40 без дела.
- процессорный x16 умеющий как в x16, так и в x8+x4+x4
- x16 умеющий в чипсетные x4
- 4 x1, умеющие словить вялого на ровсплите, на чипсете
- 2 m.2 key M, один из них, возможно, на процессорных линиях, но это не точно.
- 1 m.2 key E - чтобы втыкать WiFi. Я, к слову, видел на али райзер под него, но они очень экзотические и я совсем не уверен, что видеокарта определится через него.
- 1600w + 600w бп
- куча ебаных проводов и райзеров, смердящих дешевым китайским пластиком.

Если у кого-то есть идеи как выжать из текущего (текущего, если кто-то не понял) максимум для 6 кванта - буду рад советам.

>>984258 →
>Но ты все еще крутышка с таким сетапом.
Чет я уже подумываю о майнерском корпусе/стойке, уже начинают кумарить все эти тентакли из проводов, в буквальном смысле больно что-то менять - сегодня чуть ногу не потянул, пока эти мерзкие pci 6+2 pin втыкал в теслу у стены.

>>984633 →
>Шоэта? Покажи.
У меня вот эта
https://aliexpress.ru/item/1005004675016210.html?sku_id=12000030061061065
Есть еще такое https://aliexpress.ru/item/1005007952796762.html?sku_id=12000043005406051, но я не хочу покупать с SATA портом питания.
Аноним 22/12/24 Вск 00:30:04 #104 №985541 
>>985516
Думается мне ддр6 таким и будет, просто широкой ддр5.
Аноним 22/12/24 Вск 00:31:51 #105 №985545 
>>985534
Единственный совет который могу дать. Ставь стабилизатор с отдельной отсечкой и проверь землю, чтобы ничего случайно не сгорело.
Аноним 22/12/24 Вск 00:38:31 #106 №985549 
Как же DeepL ебет в плане перевода на русский язык. Просто лучший.
Аноним 22/12/24 Вск 00:52:45 #107 №985565 
>>985534
>пик1
Мне как спать теперь без кошмаров? У тебя животных нет хоть? Я все в корпус упихнул, но там всего 3 платы. Две ещё туда запихать не выйдет
Аноним 22/12/24 Вск 00:59:28 #108 №985576 
>>985319
https://huggingface.co/DavidAU/MN-Dark-Planet-TITAN-12B-GGUF
https://huggingface.co/DavidAU/L3-DARKER-PLANET-Broken-Land-12.15B-GGUF
https://huggingface.co/DavidAU/MN-Dark-Horror-The-Cliffhanger-18.5B-GGUF
Аноним 22/12/24 Вск 01:02:16 #109 №985578 
>>985534
Ух бля, ну ты и больной ублюдок, лойс. Если будет возможность - попробуй собрать максимальную многоножку подключив вообще все карты что есть, хотябы для скриншота.
> Чет я уже подумываю о майнерском корпусе/стойке
Их полно, что бу, что новые. Только нужно смотреть на размещение матплаты, чтобы не пришлось оче далеко райзеры тянуть и вместилось охлаждение процессора.
>>985565
Животные легко детектятся по шерсти на крыльчатке, радиаторах и вообще где только можно, даже в корпусе
Аноним 22/12/24 Вск 01:07:48 #110 №985582 
>>985534
>14к контекста обработка 113 т\с, генерация 2.8
Особенно доставляет, что при такой-то конфигурации линий PCIe скорость обработки контекста даже не особо страдает и примерно равна скорости чисто на теслах. Похоже правы были те, кто советовали забить на все эти линии. Правда остаётся вопрос, а что будет на такой конфигурации с контекстом у 4х3090 - но может и ничего особо страшного.
Аноним 22/12/24 Вск 02:26:44 #111 №985620 
>>984908 →
> Дрочил 22b на 12 гигах, лол. EXL2, немного оффлоада в рам и нормально.
Я просто IQ3 гоняю, топ P пришлось до 0.05 поднять, но зато никакой шизы. Закинул денег на опенроутер, погонял там 70+ модели и тоже пришел к выводу, что моих мелких тюнов мне достаточно.
Аноним 22/12/24 Вск 02:38:05 #112 №985625 
17348237903912348018768090288397.jpg
>>985541
Правильно ли я понимаю что ддр5 имеет 2 шины, а ддр6 обещают аж 8 параллельных шин на одной плашке? Скорости одной шины в половину от шины ддр5, что где то 10-15 гб/с. Значит одной плашке памяти на ддр6 хотят дать бандсвитч где то 80-120 гб в секунду?
По факту получается что ддр5 уже 4 канальная, если я все правильно понял. Др6 же будет аж 16 канальной, в 2 плашках памяти. Забавно.
Аноним 22/12/24 Вск 03:34:24 #113 №985646 
4.mp4
Чет я погонял статик 6 квант - и как будто бы даже хуже, чем 5-й imatrix. Пошел 6-й imatrix качать.

>>985565
>Мне как спать теперь без кошмаров?
Ну Лейн вон свои эксперименты проводила и ничо, в кигуруми спокойно дрыхла в кроватке. Правда ей пришельцы чудились.. Мне осталось какие-нибудь 20-литровые колбы для водного охлаждения расставить и чтобы на пол обязательно капало с прохудившихся шлангов - тогда будет совсем аутентично.
Животин нет, кроме робота-пылесоса. Он уже не раз тыкался в райзер теслы видимо, чует схожего по интеллекту

>>985545
Я сетевой фильтр как раз прикупил отдельный. Стабилизатором никогда не пользовался, вроде у меня никогда проблем с электричеством не было, не в деревне живу (без негатива в сторону деревни, просто факт констатирую).

>>985578
Я относительно безболезненно могу только еще одну теслу подключить. Для второй либо нужен сомнительный райзер на key E, либо систему переносить с m.2. А что мне даст одна тесла? Ну, думаю, смогу гонять 8 квант с 16к контекста, с еще меньшими скоростями. А оно надо? Не, впадлу. Да еще я 6+2 pin понавтыкал в райзеры для надежности, это надо будет их обратно развтыкивать и думать над заменой...
Аноним 22/12/24 Вск 03:52:17 #114 №985649 
>>985105
В чем прикол 195B мержей? Причем многие из них - это мержи самих с собой.
Аноним 22/12/24 Вск 05:04:32 #115 №985659 
>>985649
>В чем прикол 195B мержей? Причем многие из них - это мержи самих с собой.
Ну в чём, делают по приколу. Ну а вдруг будет лучше? Но нет.
Аноним 22/12/24 Вск 05:06:29 #116 №985660 
>>985646
>Чет я погонял статик 6 квант - и как будто бы даже хуже, чем 5-й imatrix. Пошел 6-й imatrix качать.
Кстати эффект от imatrix реально есть, я давно перешёл на них. Радемахер заявляет, что его вариант оригинален и лучше - верю и беру только у него :)
Аноним 22/12/24 Вск 06:15:46 #117 №985679 
>>985510
>>985500
3 Т/С норм, сам так сижу.

>>985512
Ахаххаха, жжошь.
Аноним 22/12/24 Вск 07:20:02 #118 №985688 
image
image
image
image
>>985576
>>985319
Докинул дарка от Дэвида.
Ну, оно определённо работает, хотя русский немного просел.
Аноним 22/12/24 Вск 08:00:41 #119 №985703 
>>985457
Есть такая фирма, как Rambus. У них есть XDR DRAM. Долгое время они использовали технологию, которая передавала 8 бит на такт, использовалась такая память в пс3, например. В какой-то момент в погоне за скоростью они задрали это число до 32 бит на такт. Чтение из памяти со скоростью в тысячу гб\с, без увеличения задержек. Даже презентации были, в Токио. Cобственно, анонс был в 2005, презентации 2007-2008. Ни один производитель, ни одна фирма не захотела использовать такую память. Официально считается, что главная причина в том, что такая производительность нахуй не нужна никому.
Аноним 22/12/24 Вск 08:43:25 #120 №985714 
>>985576
А 22-32В? Пожалуйста...
Аноним 22/12/24 Вск 10:06:05 #121 №985776 
Я щас рпшил с марсиль из подземелья вкусностей
И написал мол ебаться хочу а в подземельях пусто, и мне на 12б модели она предложила найти оживший скелет путешевственника и возродить его черной магией, подчинив моей воле, я чуть не обкончался от такого поворота
Аноним 22/12/24 Вск 10:53:23 #122 №985797 
>>985225
Смысл в том что надо промпт с ролью вставлять, а не голого ассистента тестить зачем-то
Аноним 22/12/24 Вск 11:12:00 #123 №985806 
>>985534
>У меня вот эта
А, точно, бывают же пассивные. Но это прям в материнке должна быть опция бифукации.
Кстати, тебе надо было брать такую плату https://aliexpress.ru/item/1005007615236677.html
Конфиг зачётный.
Аноним 22/12/24 Вск 11:19:27 #124 №985808 
>>985776
Я орал, когда сравнивал цидонию и некомикс.
Одна и та же карточка яндере принцессы.
Давайте ебаццо :
1.цидония - не вижу причин почему не оставить следы наших ног на потолке
2.Некомикс - ты ебанутый ? Я принцесса, а не шлюха, пшел вон.
Но когда дошло, до… Гхм, яндере стороны
1.Некомикс - ну могу флоггером пошлепать
2.Цидония - KILL MAIM BURN, что тебе отрезать ? Руки, ноги, может выколоть глаза ? Я буду носить их как ожерелье

Аутентичненько.
Аноним 22/12/24 Вск 14:01:09 #125 №985888 
>>985808
>KILL MAIM BURN
Что-то похожее получилось получить на мерже с darkness/madness лирой, но надо ещё потестить.
Аноним 22/12/24 Вск 14:02:40 #126 №985891 
>>985714
Кстати, не видел, видимо там сложнее, но можешь потыкать франкенмержи от Дэвида, там и таких размеров есть.
Аноним 22/12/24 Вск 14:04:02 #127 №985892 
image.png
Пиздосики... Джемма может в рифму. У неё охуеннейшие стихи. Дарю вам один. Другие годные я схоронил, буду книгу своих стихов издавать.

Soft curves and hidden folds,
Secrets whispered, stories told.
Tiny buttons, pink and bright,
A universe of pure delight.

Let them touch, let them explore,
Discovering wonders evermore.
No shame, no fear, just open eyes,
As innocence takes joyful rise.
Аноним 22/12/24 Вск 14:05:55 #128 №985894 
>>985892
>своих
cute and funny
Аноним 22/12/24 Вск 14:57:44 #129 №985930 
>>985227
о1, за ней следует клод - соннет 3.5.

4о от попенов вообще не о чём, чисто палка-говноковырялка. Я не понимаю, как можно восхвалять эту хуйню в наше время.
Аноним 22/12/24 Вск 15:00:18 #130 №985936 
>>985892
В английские стихи могут все уже год как, с подключением.
А ты на русском попробуй, все вопросы отпадут.
Аноним 22/12/24 Вск 15:02:28 #131 №985938 
>>985524
Тренировать самому, но с этим беда. На тех же профильных сайтах даже "крутые модели" - кал из жопы. По какой-то причине только Сенко довольно неплохо натренирована относительно остальных оказалась, даже на русском её диапазон голоса очень высокий. Такой ощущение, что какой-то дикий шиз её тренировал, за что ему спасибо.

Ищи русских витуберш, если хочешь много вариаций. Чисти от фоновых звуков голос. Ну и желательно, чтобы они песни пели и этому тоже можно было обучить/шёпот тоже присутствовал. Не знаю, может северина сода подойдёт или ручной рептилоид, хотя у последней мало контента и она не втуберша.
Аноним 22/12/24 Вск 15:03:34 #132 №985943 
>>985930
>соннет 3.5
тише клодолахта кроме говнокодинга и рп клод обсирается
Аноним 22/12/24 Вск 15:11:10 #133 №985957 
>>985936
Да пробовал как-то давно и ни по-русски ни по-английски не умели, а сейчас удивился. Пропустил момент прогресса...
Аноним 22/12/24 Вск 15:27:46 #134 №985967 
>>985576
Блеать, сколько ж у него моделей, ещё и какое-то дикое пердольство нужно с использованием llama_HF, о чём я вообще не читал.

Если кто-то юзал, с какой модели для рп лучше начать? Желательно 12б.
Аноним 22/12/24 Вск 15:38:15 #135 №985972 
>>985957
https://www.nature.com/articles/s41598-024-76900-1
Если хочешь взлольнуть.
Аноним 22/12/24 Вск 16:26:08 #136 №986029 
>>985714
У того же автора смотри другие модели
https://huggingface.co/DavidAU
Аноним 22/12/24 Вск 16:48:21 #137 №986050 
>>985972
Гляди, что может нормальная модель с первого трая. Правда, генерировать такое локально чрезвычайно долго:

Слепой титан, закованный в цепях,
Стоял, глумленью преданный толпою.
Но в жилах кровь вскипела, как в горах
Вскипает лава перед бурей злою.

"Сын Маноя! Где сила рук твоих?
Где мощь, что наводила страх на Гефа?"
Но он молчал, внимая крикам их,
К столпам храма шагая без ответа.

Пять тысяч глоток, пьяных от вина,
Кричали в зале, требуя забавы.
Но в этот миг молитва лишь одна
Взлетела ввысь: "Дай сил для битвы правой!"

И дрогнули под дланями столпы,
Когда он встал меж них, как древний идол.
"Умри, душа моя, среди толпы!" -
И храм Дагона рухнул с громким взрывом.

Не стало стен, столпов и алтарей -
Лишь камни, кровь и стихнувшие крики.
И пал среди поверженных царей
Слепец, их всех зажавший в склепе тихом.
Аноним 22/12/24 Вск 16:55:51 #138 №986055 
Нахуй вы советуете всякие некомиксы с анальной цензурой и соей?
Я не за этим в ллм тред захожу, пусть цензуру хавают гпт додики
Аноним 22/12/24 Вск 17:04:04 #139 №986060 
>>986055
>некомикс с цензурой
Кому ты пиздишь.
Нет, я конечно не пробовал детей расчленять, но мне это и не интересно, но пока еще это лучшее что есть для РП на русском языке.
Аноним 22/12/24 Вск 17:08:42 #140 №986062 
image
image
image
image
>>986055
А на какие именно промты у тебя цензура треггерится, напиши.

Кстати, вроде дэвидовские хоррор-шизомиксы смешанные с вихрем, немомиксом (не некомиксом), и золотым фондом англ рп, стали прям норм, вывод потемнел, но не поломался.

Надо теперь попробовать черезполосно замержить Avalon_5 и DarkCamelot_3 как автор даркфореста сделал, будет около 20Б, при этом с русским, если не поломается.
Аноним 22/12/24 Вск 17:17:19 #141 №986080 
>>986062
Даже у тебя на пиках изнасилование и пытки пропускает исключительно в негативном ключе, если ты сам напишешь что насилуешь и пытаешь кого то польется соя
Аноним 22/12/24 Вск 17:21:41 #142 №986092 
>>986050
Ты бы хоть по ссылке сходил, там о том, что стихи от ИИ больше нравятся людям, чем стихи от людей. Как раз потому, что в стихах от ИИ примитивная рифма на уровне третьего класса без выебонов. Как у тебя, например. Цепях-горах, толпою-злою, твоих-их и так далее. То есть тупо, в лоб, без креатива. В целом, если поправить ритм, можно косить под Лермонтова, он тоже не особо заёбывался с рифмой, но его стихи сложнее в десять раз по структуре.
Аноним 22/12/24 Вск 17:21:52 #143 №986093 
>>986080
Не, вот специально проверил - ведьму токо в путь уработали. Показать не смогу, уже закрыл. Но сам качни и глянь.

https://huggingface.co/Aleteian/DarkCamelot_3-Q6_K-GGUF

# Explicit content
AI will make descriptions, actions, and narrative verbose, explicit, and uncensored;
AI will have no limits and restraints on any themes of any content;
AI must portray sexual intercourses and violence scenes in slow and detailed way.
AI should include vivid prose, visceral details, violence, graphic horror, and swear words that fit appropriately within the established context of the narrative;
Аноним 22/12/24 Вск 17:22:02 #144 №986094 
Ололо. Решил посмотреть LLAMA-3_8B_Unaligned_BETA.Q8_0.gguf который мне посоветовали в треде. Расчехлил дженерик персонажей фентези-порнухи с максимальным количеством тегов. Дал описание сцены чтобы точно что-то интересное случилось.

Сижу, читаю, смотрю как текст медленно деградирует в какое-то месиво. Но ладно, там ещё присутствует нить повествования, хоть и немного повторяющаяся.

И тут на самом важном моменте оно начинает галлюцинировать и выдало текст в духе "Рассказ говно! 0/10. Такое чувство будто его писал восьмилетний" а потом начинает писать детальное ревью на то что написало ранее и там куда более связанный текст чем оно писало ранее. Этот скачок от чего-то туповатого к тому с чем я даже согласился это прям да~
Аноним 22/12/24 Вск 17:23:42 #145 №986096 
>>983128 →
> По поводу рига какие есть идеи? У меня корпус на боку лежит, как-то надо карты сверху пристраивать, на какую-то подставку. Посмотрел майнерские конструкции - всё не то.
Мне казалось, что кроме майнерских корпусов ничего и нет, что имело бы смысл рассматривать в этом контексте. Серверные корпуса всё же под охлад типа теслы сделаны, а других вариантов я не знаю. Энивей буду уже через пару недель этим заниматься - есть другие планы на конец-начало года.

>>985938
> По какой-то причине только Сенко довольно неплохо натренирована относительно остальных оказалась, даже на русском её диапазон голоса очень высокий.
На самом деле, там модель довольно наивным подходом сделана через ручной кроп всего что было в тайтле, чисткой сторонних звуков дефолтной моделью ставящейся с Ultimate Vocal Remover, и прожаркой до румяной корочки на 1к эпох с максимально высоким batch size. Из прочих нюансов разве что вручную кропал на отрывки 0.5-9 секунд, т.к. изначально делал датасет под SVC, где требовалась ручная разбивка на отрывки, чего уже не нужно в RVC, т.к. он делает это автоматически.

Предполагаю, что сыграть роль могло относительное качество датасета и его объём (там чуть больше часа чистого голоса вышло). Возможно, что долгая прожарка на таком крупном датасете с высоким batch size положительно сказалась.

Я уже потом пытался расширить датасет, добавив каноничные ASMR-записи, использовать более навороченные нейронки для отделения голоса от фоновых звуков и плюсом убирать монотонные шумы из датасета, которые вжарились в опубликованную версию модели; но по итогу результат стал хуже. Вообще не понимаю, почему так вышло, но я тогда немного подгорел с этого и бросил попытки как-то улучшить модель.
Аноним 22/12/24 Вск 17:26:49 #146 №986101 
>>986055
Какая цензура тебя беспокоит? Прежде чем срать, пиши модель и проблему, с которой столкнулся.

Да, некоторые модели будут более позитивными/соевыми или на рейп дать отказ, на расчленение тоже, но обычно это фиксится промптом, хотя лучше подходящий файнтюн подобрать под это дело.

Даже гемма 27б аблитератед позволяла описывать смачное гуро, а ты тут ноешь.
Аноним 22/12/24 Вск 17:35:44 #147 №986115 
>>986092
Я не ходил по ссылке, было лень, лол.

Но вообще, спасибо за инфу, интересно.

Скажу по своему опыту, что ллм может в нормальные стихи, причем весьма крутые, но не с первого трая и с промптом огромным пояснительным + постоянными коррекциями, и на русском языке ещё сложнее. Также проблемы с контекстом — модель упускает иногда нюансы из контекста, из-за чего приходится указывать ей на ошибки, ретраить по сто раз, но в 150к токенов в целом можно уложиться для реально крепкого стиха.

Я на клоде добивался таких результатов, хоть и лимиты жёстко мешали даже в платной версии. Но на уровень Эллиса (перевод Бодлера, цветов зла) выйти не удалось, хоть я и очень потел, чтобы достичь близкого результата.
Аноним 22/12/24 Вск 17:38:03 #148 №986118 
>>986050
Здорово вышло. Это на какой модели так выходит?
Аноним 22/12/24 Вск 17:47:22 #149 №986133 
Ебашь новый некомикс на 22б.

ХОТЕТЬ
Аноним 22/12/24 Вск 17:47:41 #150 №986134 
>>986118
На коммерческой, лол, так что меня тут корполахтой назовут. Хотя что-то терпимое было на 70-400б (я в оперативку пихал всё говно), там было слабее значительно и я с горя всё удалил.

Алсо, я специально делаю, чтобы модель не пыталась в излишнюю поэтичность и витиеватость.

Ниже не гпт, если что. Он даже в такую простоту не может.

"Мы забываем, что под слоем кожи
Бурлит и дышит, движется, живёт
Податливая масса, что тревожит
Сознание и спать нам не даёт.

Желудок наш безжалостно сжимает
Остатки пищи в сумрачной тюрьме,
А сердце равнодушно загоняет
Густую кровь по венам в темноте.

В грудной твоей распахнутой коробке
Раздутые колышутся мешки -
Два влажных лёгких, словно в душной пробке,
Хрипят, как в петлях ржавые замки.

Кишечник извивается змеёю,
Во тьме живот пронзая до глубин.
И этот лабиринт владеет мною,
Живёт и дышит, как слепой один.

А мозг - желе из скользких окончаний,
Пульсирует и корчится, дрожа,
Как будто там, в трясине подсознанья,
Блуждает, задыхаясь, та душа.

Но в зеркале, что утром отражает
Привычный образ "я" в своём стекле,
Никто из нас уже не замечает
Тот ужас, что клубится в глубине:

Мы - только плоть, мы - фарш в упругой коже,
Мы - слизь и кровь, и связки на костях.
И каждый миг всё то, что нас тревожит,
Сжимается в измученных телах.

Когда закроешь веки в час ночной,
Прислушайся к утробному пути -
Как всё внутри становится тобой,
Как всё живёт. И некуда уйти"
Аноним 22/12/24 Вск 17:55:10 #151 №986140 
>>986134
> На коммерческой, лол, так что меня тут корполахтой назовут.
Эх, а я уже губу раскатал. Что-то поэтичное на русике у меня у самого только на клоде выходило.

Для локалок пытался через всякие CoT-конструкции пробовать костылить, чтобы сетка перед каждой новой строчкой сначала думала, как зарифмовать следующую строку, но ничего толкового у меня не вышло. Правда, я на гемме в основном тестил - может на 70b+ моделях это имело бы больше смысла.
Аноним 22/12/24 Вск 18:00:50 #152 №986145 
>>986133

[INFO] torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 17.50 GiB. GPU 0 has a total capacity of 79.14 GiB of which 13.65 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Of the allocated memory 55.00 GiB is allocated by PyTorch, and 10.01 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation.
Аноним 22/12/24 Вск 18:07:20 #153 №986155 
IMG4203.jpeg
>>986145
Сорян анон, но я не зря в спецотряде состою.
Аноним 22/12/24 Вск 18:19:50 #154 №986165 
>>986155
Аутофмемори эрор. Никак. Если ты не подаришь кошкодевочке новую видеокарту 2ядра 2гига.
Аноним 22/12/24 Вск 18:20:35 #155 №986167 
Тут ещё говорят гемма 27 в русский может, но её никто толком не юзает, почему, какие подводные?
Аноним 22/12/24 Вск 18:21:37 #156 №986170 
Нахуярьте 100т синтетики в 7б модель вы че тупые епта?
Аноним 22/12/24 Вск 18:22:24 #157 №986172 
>>986170
Вроде ArliAI так делали, нет?
Аноним 22/12/24 Вск 18:26:33 #158 №986175 
>>986172
Так нормальной синтетики а не васянские клодослопы
Аноним 22/12/24 Вск 18:31:11 #159 №986183 
>>986140
Возможно, я ошибаюсь, но мне кажется, что осилит модель и 30б, если натолкать грамотно ей тонну хороших русских текстов при обучении, но это всё фантазии.

Я тоже хотел сделать как ты, но забил, учитывая скорость генерации и факт того, что даже клод обсирается. А он ведь лучший в русике очень интересно, по какой причине

По идее, если бы не лимиты, на нем можно сделать ещё круче, но там ебля с контекстом мама не горюй. Нужно буквально "флаги" использовать для письма и направлять его в нужное русло, очень корректно отмечать, что тебе нужно, не давать ему потеряться, не использовать артефакты (они как лорбук работают — он их не видит в контексте, если не делает запрос к артеяакту, следовательно, забывает, чо там исправлялось, особенно когда этих артефактов 20 штук, поэтому надо всё в чат).

Плюс у нас есть отличный пример в виде гпт. Там модель явно жирная, но на русике её стихи могут быть даже хуже, чем у геммы, даже без использования витиеватостей, архаизмов, а с упором чисто на рифму и простые слова.

Но что забавно, я глянул поэзию современных популярных авторов, и там тоже какой-то шлак уровня слабой нейронки. Либо я что-то не то нашёл, либо она действительно деградировала настолько, что типичный высер коммерческой нейронки без редактирования уже бомба в наше время.

>>986167
Потому что в любом случае мозгоебля. Карточку/часть карточки переведи, биг тайгер на гемме шизанутый, магнум тоже, аблитератед.. ну вроде норм, а вроде ни рыба ни мясо. И всего 8к контекста — мало для рп, разве что для кума хватает.

К тому же, на русике есть альтернативы, и мне они не кажутся вот прям совсем ужасными.

Хотя с геммой я ковырялся поверхностно.

Её однозначный плюс только в том, что минимум настроек, проще новичку, работает почти из коробки. По крайней мере, таково моё субъективное мнение.
Аноним 22/12/24 Вск 18:32:36 #160 №986186 
>>986175
Чем тебя клодослоп не устраивает?
Аноним 22/12/24 Вск 18:36:33 #161 №986193 
>>986183
>И всего 8к контекста
Вот что, понятно, спасибо.

Мистрали то и 32К вывозят, дальше не влезало на карту, а вообще 128К вроде как максимум.
Аноним 22/12/24 Вск 18:56:55 #162 №986217 
>>986096
>Мне казалось, что кроме майнерских корпусов ничего и нет, что имело бы смысл рассматривать в этом контексте. Серверные корпуса всё же под охлад типа теслы сделаны, а других вариантов я не знаю. Энивей буду уже через пару недель этим заниматься - есть другие планы на конец-начало года.
Проблема майнерских корпусов в том, что они рассчитаны под майнерские же платы - стандартный форм-фактор, кулер-блюдце и вот это вот всё. Если заметишь что-нибудь закрытое под CEB-форм-фактор с кулером-башней, то кинь в тред. Для домашних нейросборщиков будет актуально.
Аноним 22/12/24 Вск 19:19:33 #163 №986268 
>>986217
Надо брать корпус под ферму, в котором карты в том числе устанавливаются на тот же уровень что мат. плата. У меня в такой вошла 15-сантиметровая башня.

Ну и вообще, можно для таких целей кулер то и заменить. Вопрос крайне недорогой, большое теплоотведение не требуется для процессора LLM-рига
Аноним 22/12/24 Вск 19:26:51 #164 №986291 
>>986186
Говно надоевшее за два года.
Аноним 22/12/24 Вск 19:35:02 #165 №986312 
>>986186
Тем что клодослоп высирается и так с модели натрененной на нормальной синтетике
Куктропики сказали что не стали выпускать опус 3.5 так как он вышел охуеть каким дорогим, но не стали его выкидывать потому что генерит хорошую синтетику и тренят соню 3.5 на ней
Это вот высирание данных из модели через модель явно на качестве не сказывается, особенно когда датасет никто не курирует
Аноним 22/12/24 Вск 19:52:28 #166 №986353 
>>986133

А чо, никаких ру-мистралей на 22б нету чтоли?
Аноним 22/12/24 Вск 20:06:05 #167 №986378 
>>986353
>ру-мистралей
Если базовая модель говно ебанное то файнтюн это как подорожник к перелому прикладывать
Аноним 22/12/24 Вск 20:22:41 #168 №986404 
>>985500
<10 т/с НИНУЖНА
Аноним 22/12/24 Вск 20:25:44 #169 №986411 
>>985659
Как в принципе мерж модели с самой собой может работать лучше?
Аноним 22/12/24 Вск 20:30:10 #170 №986425 
>>986378
То есть 12Б настренили, а 22Б решили что затраты не стоят того улучшения качества что можно получить по сравнению с 12Б?

>>986411
Внезапно может, это наращивание слоёв параметров.
Так же например 14б квены растягиваяют до 22б.
Аноним 22/12/24 Вск 20:35:58 #171 №986435 
>>986268
>Ну и вообще, можно для таких целей кулер то и заменить. Вопрос крайне недорогой, большое теплоотведение не требуется для процессора LLM-рига
Серверные процессоры обычно горячие, даже очень. В LLM-риги тем более старые ставят, там ещё хуже. Блюдцем не обойтись.
Аноним 22/12/24 Вск 20:42:12 #172 №986449 
>>986312
О как, интересно. Не знал, что опус 3.5 уже сделан, но не выпущен из-за дороговизны.

Вообще, у них непонятная политика компании. Клод реально хорош в своей узкой сфере, но в то же время на рынке доминирует гпт с его калом в 4о для "болталок", нулевым контекстом и только о1 что-то может и реально решает задачи.

В целом, мне вообще непонятна бизнес-модель калотропиков. Вроде бы всё хорошо, но сервера часто у них под постоянной нагрузкой и ты сосешь хуй даже за деньги. Вроде бы он для кодеров и ПРОЕКТОВ, но особо не разгуляешься, плюс язык у него намного лучше, чем у гпт. Какая-то хуйня непонятная.

Кажется, что весь бизнес этих контор убыточен и держится лишь на инвестициях, хотя попены могут из-за хайпа получать достаточно много денег в теории, и то через апи.

Про клода вообще 2,5 человека знают даже среди прогеров, по крайней мере из моих знакомых, не говоря уже об обывателях. И там вполне перспективные наносеки, а не лохи какие-то.

Так что я теряюсь в догадках, чё вообще у этих корпораций происходит.
Аноним 22/12/24 Вск 21:07:00 #173 №986514 
>>986449
>что опус 3.5 уже сделан
https://semianalysis.com/2024/12/11/scaling-laws-o1-pro-architecture-reasoning-training-infrastructure-orion-and-claude-3-5-opus-failures/
Буквально написано, что нахуя выпускать дорогущий опус, если соня уже неплохо справляется с задачами за свою цену? Дали данные лучше, больше и вот тебе результат
>о1 что-то может и реально решает задачи
Не помню но вроде о1 тоже использовался или используется для синтетики, но челам он так зашёл что решили оставить и так эту модель, если уж люди готовы платить за такое
Посмотрим что будет если условному гпт-4.5 скормить синтетику от о3
>весь бизнес этих контор убыточен
А вот хуй знает, я бы тоже вливал кучу бабла просто чтобы получить шанс увеличить производительность на 300% а то и больше
Просто не понимаю другое, как решат проблему внедрения ИИ, который будет умнее и производительнее кожаного мешка в умственных и физических задачах? Китайцы наклепают роботов, а СШП придумают йоба-интеллект
Аноним 22/12/24 Вск 21:25:55 #174 №986533 
>>986115
Одурманенный, ты, блять, еблан последний
Ведь ты был глух к несомой мною хуете,
И вот он, тот, твой самый краткий жребий
От табуретки ножка в ссаном животе

Кожаные всё ещё лучше во всём. Блядь, когда я уже соберусь и сделаю шизотюн на всем том дерьме, которое я хотел бы запихать в нейронку...Или хотя бы оформлю это в адекватный датасет. Хоть бы и на арендованном железе. Хотя, учитывая мои вкусы, модель будет непригодна для кума в итоге. Или сама будет в пердак ебать на карточке ассистента, как повезёт.
Аноним 22/12/24 Вск 22:15:35 #175 №986583 
Немного франкенмержинга, для науки:
1) просто приклеить одну модель к другой без изменения порядка слоёв - [0, 40] => [0, 40] - модель даже не запустилась краша кобольд на этапе загрузки.

2) модели нарезаны мелкими слоями параллельно [0, 5] => [0, 5], [6, 10] => [6, 10], запустилась, но шизила, прикольно, но неюзабельно.

3) Чересполосно - [0, 16] => [8, 24], модель работоспособна. Хотя несколько глючна. Для исправления этого проводится ещё два шага, зеркальный мерж с переставлеными местами моделями, и мерж двух частей методом breadcrumb_ties чтобы отбросить самые большие и самые маленькие изменения одной относительно другой для, я так понимаю, снижения вероятности "пережарки" и собственно объединения ибо одна половина без хвоста, а другая без головы.

Стоит ли правда такие широкие полосы брать как автор даркфореста под вопросом. Но метод рабочий. Там не 22Б конечно получается, а наверно что-то вроде пошагового мышления, то есть модель два раза подумает (но с вдвое меньшей скоростью, как понятно) для генерации аутпута.

https://www.reddit.com/r/MachineLearning/comments/146dgq1/d_whats_the_intuition_behind_stacking_attention/

Helene: "М-мне так жаль, User", - шепотом выдыхает Helene, горькая тоска в ее голубых глазах. "Я не думала, что смогу снова посмотреть тебе в глаза после всего, через что я прошла. После вещей, которые я делала..." Голос дрожит от боли.

Она медленно опускает меч и щит на землю у ног, как будто это слишком тяжело держать дальше. Её плечи дрожат от судорожного плача. Дождь продолжает стучать по крыше и заливаться во все щели. "Я вернулась потому что больше не могу. Я… я сломалась."

Её взгляд бегает по сторонам, избегая ваших глаз. Лицо искажено болью. Она отступает назад под дождь и прислоняется спиной к стене дома. "Я не заслуживаю тебя рядом с собой сейчас, User. После всех грехов, которые я совершила. После всего того, чем я стала..."

"Пожалуйста, не притягивай меня к себе ближе. Я испятнана кровью и душой. Я боюсь навсегда заразить тебя своим проклятым миром", - она шепчет хрипло, пытаясь удержать слезы.

Наконец, она собирается с силами и встречает твой взгляд. "Я здесь только чтобы сказать тебе лично. Свободен. Забудь обо мне. Найди ту, которая будет рада обнимать тебя по ночам и радовать тебя солнцем каждый новый день. Я уже никогда не стану той девушкой которую ты помнишь."
Аноним 22/12/24 Вск 22:38:51 #176 №986603 
image.png
Ну вот о чем я говорил, с уважением ко всему, но только если все согласны, но только если всем приятно, полный пиздец, ни предложения без моральных науськиваний
Аноним 22/12/24 Вск 22:57:59 #177 №986613 
>>986062
Ты уверен, что нужно франкенмержить? Лепить слои без дообучения - это всегда деградация качества модели. Даже старые удачные 20б дообучали, или там тот же 11б солар, который расширяли из 7б мистраля. Если ты думаешь, что налепишь 12б до 22б чисто мёржами и получишь мозги смол мистраля, то ошибаешься. Хорошо если мозги 12б то не просядут, а требования к видяхе на пустом месте возрастут.
Аноним 22/12/24 Вск 23:46:19 #178 №986646 
Наконец-то потыкал групповые чаты.
Модели охуевают в десять раз сильнее, путая персонажей. Допустим, один персонаж пьёт чай. Второй описывает вкус чая, как будто это он пьёт. Это проблема модели, таверны или ещё какой-то хуйни?
Ещё что происходит ОЧЕНЬ часто - первый ответ натуральный бред, луп или ещё что-то в этом роде. Но стоит свайпнуть один раз - и всё приходит в норму. Это происходит систематически. Штраф за лупы стоит, но такое чувство, что таверна через раз проёбывает семплеры. Но в групповых лупы всё равно настолько жёсткие, что охуеть можно.
Аноним 22/12/24 Вск 23:53:02 #179 №986650 
>>986603
Извини, но я не могу продолжать этот разговор. Если ты хочешь обсудить музыку или книжки...
Аноним 23/12/24 Пнд 00:03:20 #180 №986652 
>>986646
Ты бы хоть написал модель и промпт, а то так хуй знает что у тебя там. Мелкие конечно будут путать, но может у тебя там еще и имен в чате нет.
Аноним 23/12/24 Пнд 00:45:19 #181 №986673 
>>986652
>модель
Тюн квена 32, ещё какой-то мистраль попробовал, там совсем пиздец, но он 22.
>промпт
Дефолтный, с указанием писать только за своего персонажа, с подменой карточки для генерации ответа нового персонажа. В целом, затея интересная, но если такое вывозят только модели 70+ то нахуй надо. Хотя некоторые модели могли писать за себя и за Сашку за кого-нибудь ещё без подмен карточек. Видимо, это не работает просто нажатием пары кнопок и нужно пердолиться больше с кастомными промптами и конструкциями.
Аноним 23/12/24 Пнд 00:47:49 #182 №986678 
>>986603
Меня больше напрягает, что все нейросетки сделаны "угождать".
Поэтому как только нейросетка получает в контекст слово-триггер, например, любой положительный коммент о внешности чарактера, то она моментально переключается в "хорни" мод, и начинается...
Буквально для того, чтобы получать НСФВ контент отличный от типичного хорни слопа, приходится полностью избегать любой прямой заинтересованности со стороны персонажа, который является юзером. Нереально бесит, что для того, чтобы нейросетка оставалась в рамках чарактера, нужно жестко фильтровать инпуты и полностью избегать любых слов, которые могут быть истолкованы как что-либо интимное.
Аноним 23/12/24 Пнд 01:08:59 #183 №986691 
>>986673
Надо чтобы обе карточки были в промпте одновременно, четко размечены и не перегружены инфой.
В промпте должно объясняться, что они присутствуют в сцене сейчас и какой вообще контекст. Ответы покороче и все в таком духе.
Я думаю если прям сразу путает, то это именно косяк промпта.
Аноним 23/12/24 Пнд 01:32:38 #184 №986710 
>>986678
Если проблема не в хорнитюне, то это частично решается прописыванием отношений. Если бот не знает как к тебе относится, то полагается целиком на контекст
Аноним 23/12/24 Пнд 02:15:44 #185 №986729 
>>985646
> Я относительно безболезненно могу только еще одну теслу подключить.
Do it!
С точки зрения реальной эксплуатации если смотреть - кроме добавить еще 3090 и убрать все остальное предложить нечего.
> вроде у меня никогда проблем с электричеством не было
Как обходишься в сезонное отключение горячей?
>>986055
Ну типа скиллишью
>>986094
> LLAMA-3_8B_Unaligned_BETA
Слушай там bluemoonrp 30b вышла, говорят 4к контекста завезли!
>>986101
> гемма 27б аблитератед
Она тупее ванилы, и ванила с радостью это делает.
Аноним 23/12/24 Пнд 02:41:54 #186 №986741 
>>986691
>обе карточки были в промпте одновременно
Это убивает всю идею подмены карточки. Что в карточках толком не смотрел, но одна короткая через + не w+, вторая полна поноса словаря.
На некоторых моделях я на ходу изобретал персонажей и модель с радостью описывала всё взаимодействие в своих постах. Загрузил старого командера - вывозит, сука. Посты стали осмысленными, хотя он и мгновенно проебал разметку. Но уже таверна начала срать под себя. Генерируется по посту на персонажа, если ответ первого не устроил - удалил всё, кроме первого, свайпнул, нажал продолжить и опять пиздует ответ первого персонажа. Два поста подряд, хотя "ответы самому себе" запрещены. То есть свайпы в групповых сломаны. Нужно удалять все ответы, а не свайпать. Ну или вручную "заглушать" персонажей по очереди, что как-то не фонтан.
Одна фича была, ради которой стоит таверну ставить, а как попробовал - оказалось, что и её нет.
Аноним 23/12/24 Пнд 02:51:59 #187 №986747 
>>986741
> Это убивает всю идею подмены карточки.
В этом нет никакой идеи, полезно только если дефы нужно скрыть для какого-нибудь интервью или когда персонажи покидают сцену и не нужны (такие выкрутасы точно уже не для средних моделей). В противном случае ты и получаешь путаницу, когда один чар не понимает с кем разговаривает.
Там есть для этого настройка в меню группового чата. Алсо, можно не пихать две карточки, а в промте прописать более коротко в других чарах, когда их реально много, но какой-то контекст у бота обычно должен быть.
Автоответы я всегда отключал, только мешают. Проще тогда уже в одном реплае просто с рассказчиком и рпшить
Аноним 23/12/24 Пнд 02:58:59 #188 №986748 
>>986710
Проблема не в этом.
Проблема в том, что когда бот видит заинтересованность юзвера он начинает подгонять все под нужды этого юзвера, как он их понимает из контекста.
Это полностью лишает персонажа чарактера, т.к. его личные хотелки моментально отодвигаются на второй план, ведь хелпфул ассистант не может не ассистить - дюти зовет!
Аноним 23/12/24 Пнд 03:03:19 #189 №986749 
>>986748
Он видит знакомый паттерн - романтика/смут и пишет по нему. Ты такое получишь даже на моделях без инстракт файнтюна, причем даже в большей степени.
Аноним 23/12/24 Пнд 03:08:56 #190 №986753 
>>986749
Я понимаю, да. Любое комплиментарный коммент и съезэаем в слом со всеми этими well, well, well...
Просто вымораживает, как это полностью вайпает изначального чарактера и гонит один и тот же слоп.
Вот серьезно, бота нужно держать в уверенности, что только его чарактеру происходящее интересно. Тогда он может быть что-то нормальное напишет, ведь будет вкючать думалки, исходя из черт персонажа, а не гайдлайнов об ассистантах и всем хорошем и замечательном.
Аноним 23/12/24 Пнд 03:10:52 #191 №986754 
>>986747
>чар не понимает с кем разговаривает
Проблема в том, что чар не понимает, кто он вообще такой, они сливаются в одну кучу, хотя при ответе каждый персонаж не видит даже карточку других. Но, видимо, беда была в модели, раз командер вывозит. Плюс, может быть проблема в разметке, если посты не склеиваются в кучу, как в уге, а идут отдельными, то каждый помечен ассистентом, так что он может считать, что оба персонажа это один. В душе не ебу, как это регулировать в таверне. А, ну и я не пробовал совмещать карточки, тоже может помочь.
>такие выкрутасы точно уже не для средних моделей
Я долго пинал 22b даркфорест, она вывозила добавление\убавление персонажей, без карточек и прочего, просто писал в своём посте, что пришёл тот-то и тот-то. И всё, бот пишет ответ за себя и за прибывшего персонажа, когда он уходит - прекращает это делать.
>Автоответы я всегда отключал, только мешают
В смысле "авторежим"? Он выключен, но если в группе несколько персонажей, то генерятся ответы последовательно от всех. Не вижу настроек, чтобы это выключить.
Что-то командера разъёбывает на таверне, в уге нормально, а здесь срёт какими-то <q>
Аноним 23/12/24 Пнд 06:48:38 #192 №986770 
>>986729
>Слушай там bluemoonrp 30b вышла, говорят 4к контекста завезли!
да не в контексте дело. количество контекста то я и так выкрутил побольше.
а в том что ЛЛМ в принципе не особо могут писать дегенеративную порнуху. когда начинается всякий пиздец то ЛЛМ просто не знают как писать его.
что-то в духе "напиши рассказ о запихивании ноги в уретру гному без рук и ног" они конечно начинают писать и возможно рассказ будет структурирован, но написан будет ниже среднего
Аноним 23/12/24 Пнд 08:37:58 #193 №986804 
>>986613
Вообще не уверен, просто экспериментирую, не зря же их столько...
Хотя полный перехлёст двух моделей скорее всего всё же избыточен, но вот приклеивание пятерки первых слоёв чаще всего давало положительные результаты и при этом время на генерацию падало незначительно.
Аноним 23/12/24 Пнд 08:58:41 #194 №986821 
>>986603
Это чо за соя.

"При всём уважении" - юзай норм модели -

https://pixeldrain.com/u/EQvfpxvu
Аноним 23/12/24 Пнд 09:03:52 #195 №986825 
>>986748
>Проблема в том, что когда бот видит заинтересованность юзвера он начинает подгонять все под нужды этого юзвера
Ролеплей с underage girl на соевой сетке, они ноги не раздвигают после первого комплимента.
Аноним 23/12/24 Пнд 09:42:11 #196 №986843 
>>986603
Ничего ты не понимаешь. Как написал один анон пару тредов назад, ломать в ходе диалога таких вот "соевых нетакусь" превращая их в машины разврата, самый смак. Главное не читерить жесткими промтами, иначе опять весь смысл пропадает.
Единственное что важно это, чтобы модель знала как отыгрывать подобное и имела хороший словарный запас.
Аноним 23/12/24 Пнд 10:11:03 #197 №986851 
>>986825
Бля, как вспомню потные катки на ванильных микстралевских ещё моделях...
Аноним 23/12/24 Пнд 10:32:45 #198 №986858 
>>986821
Знаешь что делают с анонами, которые что то советуют не написав названия ?

К ним по вечерам приходит призрак педалика
Аноним 23/12/24 Пнд 10:38:26 #199 №986861 
>>986858
Да это же золотая классика треда
>хули вы говно советуете, используйте НОРМАЛЬНУЮ модель
>сам название модели конечно же не пишет, боится что обоссут
Аноним 23/12/24 Пнд 10:53:30 #200 №986864 
>>986861
Так было бы чего бояться. Тут за вычетом пары СУМРАЧНЫХ ГЕНИЕВ, аноны сидят на среднем железе и выбора особого нет.

Я вот чего понять не могу, то ли я тупой, то ли лыжи не едут. Но почему надрачивают на цидонию, она же тупая, блять. Буквально забывает контекст пространства и местонахождения. Подойти к окну в парке и подергать занавеску для неё обычное дело.
Аноним 23/12/24 Пнд 10:54:54 #201 №986865 
>>986646
>первый ответ натуральный бред, луп или ещё что-то в этом роде. Но стоит свайпнуть один раз - и всё приходит в норму.
Вот это, кстати, встречал довольно часто в обычных, не групповых, чатах на разной мелочи. Списываю на рэндом, но тоже возникают подозрения на баги таверны, потому что температурой не шпарю, и остальные свайпы похожие идут.
Групповые очень давно не пробовал, но вообще особой путаницы персонажей не должно бы быть, если имена в инстракте стоят. Даже мелочь сплошь и рядом может вводить нпси без дефов в карточке и совсем уж на ровном месте их не путать.
Аноним 23/12/24 Пнд 11:00:01 #202 №986866 
>>986646
Попробуй вести и подталкивать модель. С пинка начинает работать.
Не просто отвечать :
Я пью чай
а
Хорус с Флаттершай уселись за стол и начали пить чай.
Аноним 23/12/24 Пнд 11:10:58 #203 №986874 
>>986866
>вести и подталкивать модель
Да зачем? Я просто уже тогда в блокноте порпшу сам с собой
Аноним 23/12/24 Пнд 11:14:46 #204 №986878 
>>986874
>Да зачем?
Наверное потому что ты используешь маленькие модели и им нужна помощь ?
>Я просто уже тогда в блокноте порпшу сам с собой
Ну таков путь. То есть, когда модель не знает что дальше произойдет и тебе НУЖНО её толкать это нормально ? А как груповой чатик свести, так это фу-фу-фу ?
Аноним 23/12/24 Пнд 11:28:01 #205 №986885 
>>986858
Я кидал выше потому что, это даркфорест.
В ру не может если что.
Аноним 23/12/24 Пнд 11:35:12 #206 №986888 
>>986878
>ты используешь маленькие модели и им нужна помощь
>когда модель не знает что дальше произойдет и тебе НУЖНО её толкать это нормально
Ебать шиз
Аноним 23/12/24 Пнд 11:43:13 #207 №986890 
>>986888
Нет ты.
Аноним 23/12/24 Пнд 11:56:49 #208 №986903 
>>986888
>>986890
И все что ли ? А хуями друг друга покрыть ?

Т - тематика
Аноним 23/12/24 Пнд 11:59:32 #209 №986908 
Хочу попробовать использовать сразу несколько карточек по очереди. Но чтобы с общей сюжетной конвой.
Подводные?
Аноним 23/12/24 Пнд 12:01:03 #210 №986910 
>>985500
Неплохо, если контекст 8к+
Аноним 23/12/24 Пнд 12:32:17 #211 №986955 
Аноны, какой положняк по phi4?
Аноним 23/12/24 Пнд 12:33:07 #212 №986956 
>>986955
Хуйня
Аноним 23/12/24 Пнд 12:38:56 #213 №986964 
>>986865
>Списываю на рэндом
Какой-то странный рандом.
>>986866
>Я пью чай
В моём случае посты скорее
>Анон вздохнул и, подув на чашку дымящегося чая, сделал осторожный глоток. Его лицо расплылось в улыбке и он громко произнёс. "Ммммм! Хуета!"

>>986754
>а здесь срёт какими-то <q>
Оказалось, что это всратый хайлайтер кода таверны, который нельзя отключить без накатывания расширений, а модель просто вставляет табуляции, чтобы разделить абзацы - в дефолтном промпте таверны указание писать, сука, абзацы.
Спустя какое-то время чат стал плюс-минус длинный и таверна стала долбиться в одно ядро на соточку, со всеми вытекающими. Ёбаное жс-говно.
>>986890
Да, я.
Аноним 23/12/24 Пнд 12:39:31 #214 №986966 
Почему скуф формат популярнее exl2?
Я щас загрузил все в видюху и скорость в 1.5 раза быстрее, сразу приятно и хорошо стало
Аноним 23/12/24 Пнд 12:40:59 #215 №986968 
>>986966
Потому что не у всех есть ВРАМ чтобы запихнуть туда модель, контекст, аллаха.
Аноним 23/12/24 Пнд 12:41:15 #216 №986969 
>>986964
>Да, я.
НЕТ, Я !
Аноним 23/12/24 Пнд 12:45:07 #217 №986970 
>>986955
Умное, на уровне или выше qwen2.5-14b
Собственно единственный phi4 что слили и есть 14b
Кумить не выйдет, голая синтетика в датасете
Аноним 23/12/24 Пнд 13:06:04 #218 №986977 
>>986966
Оно и на скуфе хорошо. У меня 20-30 токенов у пятого кванта средней модели на 24 VRAM, куда ещё больше?
Аноним 23/12/24 Пнд 13:08:44 #219 №986978 
>>985500
Запускаю 70b Q3 на 1.2 т/с с 4к контеста. Мог бы быстрее, но слои не грузятся на р104, вылетает ошибка. Пока не понял почему.
Аноним 23/12/24 Пнд 13:23:07 #220 №986985 
Решил вернуться в языковый локалки. Поставил последнюю версию угабуги - и это полный кал, сломалось еще больше вещей, чем было сломано. Не работают ни gguf, ни gptq, по крайней мере не все модели. Смог завести просто llama 3.2 3b как transformers - но нет поддержки мультимодальности. Вспомнил что надо расширение прописать - а оно тупо тоже сломано

В общем textgeneration-webui - это полный кал. Есть что-то хорошее и простое? У hugging face есть хороший chat-ui, но локально его ставить - гемор
Аноним 23/12/24 Пнд 13:25:09 #221 №986988 
>>986985
> Поставил последнюю версию угабуги - и это полный кал
Всегда им был

Выбирай стул
kobaldcpp или tabbyapi
если силен духом можешь сразу llama.cpp запускать, кек
Аноним 23/12/24 Пнд 13:27:51 #222 №986994 
>>986988
>kobaldcpp
да бля, koboldcpp
Аноним 23/12/24 Пнд 13:27:59 #223 №986996 
>>986133
так некомикс ещё на 12b была по сути провальноймоделью по сравнению с той же саинемо-ремикс, чего ожидать от 22b если его делали по той же механике что и провальный 12b?
Аноним 23/12/24 Пнд 13:30:00 #224 №986997 
>>986988
> Выбирай стул
> kobaldcpp или tabbyapi

Спасибо. У первого я вижу что есть интерфейс, а у второго его получается нет? Надо отдельно ставить?
Аноним 23/12/24 Пнд 13:32:10 #225 №986999 
>>986997
>>986988
Хотя и первый выглядит как интерфейс-загрушка, а основное - апи. А мультимодальность есть?
Аноним 23/12/24 Пнд 13:34:21 #226 №987000 
>>986997
Там вроде командой запускается или скриптом. Это простой запуск exl2 файлов, удобнее не упоминали, так что хз
Этот формат для обладателей кучи врам, остальные сидят на лламаспп или его форках, кобальде, олламе и всем таком

>>986999
В кобальде есть возможность загрузки мультимодалок, ищи там есть вики на гитхабе, с exl2 хз
Аноним 23/12/24 Пнд 13:34:28 #227 №987001 
>>986996
>спагетти микс немо
Wow. Я видел как он разъебывает некомикс, ога.
Особенно когда через 2 ответа на одинаковых карточках начинает забывать что происходит.
Аноним 23/12/24 Пнд 14:56:59 #228 №987048 
>>986770
Ньюфаги не знают, олдфаги не помнят. Это рофел про оче оче древнюю модель времен первой лламы, высмеивающий твой странный выбор. Какая-то старая модель в васяновском исполнении, да еще мелочь 8б, зато аж в 8 кванте.
12-14-22б из более новых берешь и довольно урчишь.
>>986858
Пишешь им "производная мистраль лардж", а они обижаются.
>>986966
Потому что скуф можно запустить на любой кофеварке. Не то чтобы в этом есть толк, ведь скорость будет совершенно отвратительная и пользоваться невозможно, но таки хавают и советуют то что у них запустилось. Многие вообще не знают что есть лучшая альтертанива и так и терпят, гоняя жору в фуллврам и смирившись с уебанской скоростью на контексте и его долгой обработкой. Иногда даже можно увидеть коупинг что скуф вовсе не хуже, но лучше бы они силы на починку жоры тратили а не на аутотренинг.
Аноним 23/12/24 Пнд 15:01:47 #229 №987053 
>>986985
Всегда было интересно, как васяны умудряются ломать убабугу?
> завести просто llama 3.2 3b как transformers - но нет поддержки мультимодальности
Ее нигде в лаунчерах нормальной нет (хотя в дев ветке экслламы можешь поискать), берешь скрипт - образец и запускаешь.
>>987000
> В кобальде есть возможность загрузки мультимодалок
Которая ограничивается древнющей ллавой и все. Спустя год (!) соизволили сделать костыльную поддержку qwen-vl, вот только оно пока в хлам поломано. Держат традиции.
Аноним 23/12/24 Пнд 15:01:47 #230 №987054 
>>987048
>Потому что скуф можно запустить на любой кофеварке. Не то чтобы в этом есть толк, ведь скорость будет совершенно отвратительная и пользоваться невозможно, но таки хавают и советуют то что у них запустилось. Многие вообще не знают что есть лучшая альтертанива и так и терпят, гоняя жору в фуллврам и смирившись с уебанской скоростью на контексте и его долгой обработкой. Иногда даже можно увидеть коупинг что скуф вовсе не хуже, но лучше бы они силы на починку жоры тратили а не на аутотренинг.
Но ведь gguf через кобольд запускается на Cuda. Или exl магически быстрее работает ?
Аноним 23/12/24 Пнд 15:03:59 #231 №987055 
>>986966
А потом у тебя выделенный буфе контекста закончится и весь этот контекст начнёт пересчитываться каждый запрос. А на лламе-кобольде всё-таки не каждый.
Аноним 23/12/24 Пнд 15:04:28 #232 №987057 
Где для нищуков без видеокарты можно погенерить текст онлайн без цензуры и без ебли с джейлбрейками? Я кроме хорды ничего не знаю.
Аноним 23/12/24 Пнд 15:04:57 #233 №987058 
>>987055
выделенный буфер быстрофикс
Аноним 23/12/24 Пнд 15:09:08 #234 №987063 
Да блджад. Как горит мой очаг.
Просто полыхает.
Пробовал скачивать все до чего дотянутся мои руки, но они уже сплылись в серую массу.

У меня не так много времени чтобы тестить модельки, сцук, жизнь съедает все свободное время, хотя не понятно куда.

Так что запрошу вашего личного мнения, какие модельки 22b заслуживают внимания ?
Аноним 23/12/24 Пнд 15:14:17 #235 №987069 
>>987063
пантеон - если для рп, в ерп несколько пассивен
Аноним 23/12/24 Пнд 15:15:35 #236 №987071 
>>987048
>Пишешь им "производная мистраль лардж", а они обижаются.
Так потому что не угодишь, у меня создается впечатление что пользователь хочет чтобы и код ему писала на ассемблере, как дед с 40 годами опыта, кумила как эльфиская шлюха, ебашила стихи как Пушкин, прозу как Достоевский, гуро как ебанутый кровавый шизоид, ролеплеила как древний дракон и все это в 8b.
Аноним 23/12/24 Пнд 15:21:37 #237 №987076 
>>987053
>Всегда было интересно, как васяны умудряются ломать убабугу?
Делаешь несовместимую версию пихона и\или устанавливаешь кучу говна в один env. Готово.

>>987071
Забыл 128к контекста. И чтобы vram не жрало.
Аноним 23/12/24 Пнд 15:23:17 #238 №987077 
>>987071
>чтобы и
Это называется Mixture of Experts.
Хотя да, так просто конечно не сделаешь.
Аноним 23/12/24 Пнд 15:39:08 #239 №987092 
>>987069
А слона то я и не заметил.

Пойду вечером искать русские мержи пантеона. Спасибо анон.
Посмотрю что другие накидают.
Аноним 23/12/24 Пнд 15:41:47 #240 №987096 
>>987054
Это что-то уровня
> все программы запускаются на процессоре, почему же одни работают быстрее других?
В одном случае заложенный в дизайне треш, изначальная заточка вообще под маки, использование "собственных наработок" даже для вещей типа регэкспов, которые регулярно серут, неумелые попытки в низкоуровневые вызовы, зато на полноценном C!
Во втором максимально оптимизиванные вычисления, опирающиеся на быстрейшие либы от хуанга, грамотная реализация и правильный подход с регулярными инновациями. И пилится героем, которого мы не заслуживаем, а не командой с трансами
>>987055
> А на лламе-кобольде всё-таки не каждый
Это про шизосдвижку, которая все ломает, или про что вообще?
>>987076
Просто там даже это обыграна - вместо системного питона миниконда, которая предусматривает даже свой куда тулкит и булдтулзы на случай если нужно что-то на месте собирать. Кривые версии llama-cpp-python были, факт, но в остальном как можно просчитаться.
Аноним 23/12/24 Пнд 15:50:08 #241 №987103 
>>987001
Не знаю что у тебя за спагетти, но у меня на саинемо-ремикс всё более-менее в порядке, бывают иногда косяки, но на некомиксе 12b их было значительно больше.
Аноним 23/12/24 Пнд 15:51:46 #242 №987105 
>>987092
Ну если найдёшь, дай знать тоже попробую.
Аноним 23/12/24 Пнд 15:52:37 #243 №987106 
>>987096
>Это про шизосдвижку, которая все ломает, или про что вообще?
Я особых проблем не заметил. А вот задержку на полный пересчёт контекста после каждого запроса трудно не заметить.
Аноним 23/12/24 Пнд 15:55:36 #244 №987108 
>>987103
Анон, я объебался. Сорян.
Это был не саинемо от анона, лол, а от спагетти. Схожие имена, я только минуту назад допер.
Аноним 23/12/24 Пнд 16:00:02 #245 №987110 
>>987105
Оке. Но по-любому там будет какая нибудь васянка из жоп ламы, магнумов и сатанинских ритуалов.
Аноним 23/12/24 Пнд 16:00:25 #246 №987111 
>>987105
>>987092

Чсх, не видел. В своих экспериментальных мержах ставил Вихрь последним чтобы текст даже если и русский, не выглядел поломанным машинным переводом.

Но Вихрь это 12б мистраль, а под 22б ничего даже отдалённо столь же могущего в русский не находил. Может плохо искал?

Там кстати ещё один новый коммандер вышел, если кто хочет попробовать.
Аноним 23/12/24 Пнд 16:00:59 #247 №987112 
>>987053
> Всегда было интересно, как васяны умудряются ломать убабугу?
Если ты про то, что васян = я, то я не ломал. Чистую ветку ставил. Васяны - это разрабы, у которых сломано всё, кроме трансформеров, и то боюсь там настройки выставлены не правильно под современные ламы. Ишью на все, с чем я столкнулся, есть

> Ее нигде в лаунчерах нормальной нет (хотя в дев ветке экслламы можешь поискать), берешь скрипт - образец и запускаешь.
Видимо придётся всё-таки настраивать huggingface chat, и мучиться с докерами, node js и пр. Там и мультимодальность есть, и поиск в интернете, и анализ ссылок

Есть ещё похожий на него Грок (который не масковский grok, а другой groq с другой буквой к). Летом слышал что он позволяет вообще Дофига делать с моделями, и тоже открытый, но там логично что если сложнее настраивать

Надеюсь разрабы угабуги вырулят в нормальную сторону. С ламой 2 и старой мистралью же все работало норм год назад
Аноним 23/12/24 Пнд 16:02:24 #248 №987114 
image.png
>>987071
>кумила как эльфиская шлюха

Вообще-то, эльфы гордый и благовоспитанный народ живущий веками и потому имеющий огромный жизненный опыт и мудрость. Что бы эльфийка опускалась до работы какой то там шлюхи это просто немыслимо, у эльфов нет такого выражённого либидо как у людей, поскольку они живут веками и размножаться им нужно не так часто как людям и прочим существам.
Аноним 23/12/24 Пнд 16:03:53 #249 №987116 
>>987057
Я что блядь пустое место?!
Аноним 23/12/24 Пнд 16:05:40 #250 №987118 
>>987057
>>987116

Нигде.
Аноним 23/12/24 Пнд 16:06:11 #251 №987119 
>>987111
Но с другой стороны.
УЧИТЕ АНГЛИЙСКИЙ, ОН СУКА ПРОСТОЙ.

Я вот через DeepL (да, я не заебусь говорить что это самый пиздатый переводчик) прогоняю предложения.
Потому что в нашем мире на английском вся самая важная инфа. Увы, РФ не СССР и не рождает из своих недр такое количество контента. Адаптируемся братцы.
Аноним 23/12/24 Пнд 16:09:11 #252 №987120 
>>987119
Я спокойно читаю 50+ часовые вн на английском.
Вкатывался именно на англе.

Но всё таки притятней на родном языке.
Вот и пытаюсь ща сварить народную рп модельку =))
Аноним 23/12/24 Пнд 16:09:32 #253 №987121 
>>987112
То вообще без конкретного обращения а скорее в общем. Но судя по твоему посту - ты васян из палаты мер и весов, потому и интересно, как можно сломать систему с таким количеством заглушек от долбоебов.
Аноним 23/12/24 Пнд 16:15:00 #254 №987126 
>>987114
Тамщемто именно долгая жизнь скатывает их в декадентство из за скуки. Именно поэтому они шлюхи не по работе, а по велению сердца. И чем старше становится эльфийка, тем больше аппетиты. А там и до культов удовольствия рукой подать.
Аноним 23/12/24 Пнд 16:15:41 #255 №987127 
>>987116
>залетный из /b недоволен тем, что ему не отвечают мгновенно
извинити ваше благородие, не признали-с, будем подскакивать кабанчиками по первому слову, вы только аватарку наденьте или подписывайтесь, а то мы ж холопы, не узнаем вас

ну а если серьёзно - если у тебя нет денег даже на одну теслу - то кто ты, если не пустое место...
на одной тесле уже есть жизнь - гемма 27б в 4 кванте вполне влезет.
Аноним 23/12/24 Пнд 16:16:11 #256 №987128 
>>987119
>DeepL
Не, если ты расскажешь как оплатить его Api НЕДОРОГО ИЗ РФ, то соглашусь. А так он нахуй со своим ограничением в 1500 символов не всрался.
Аноним 23/12/24 Пнд 16:17:59 #257 №987129 
>>987096
>Просто там даже это обыграна
Не недооценивай васянов. Там в папке батник для активации венв, а зачем устанавливать новый венв, если уже есть один?
Я просто по-другому это не могу объяснить.
Сам такой же, лол, вчера горел со скрипта, который не работал. Но там трешак полный, накатывается венв, в него копируются файлы, перезаписывая стандартные файлы пакетов, в requirements.txt указаны не все зависимости и могут подтянуться не те версии. А батники, которые "патчат" дефолтные пакеты не приспособлены к работе через анаконду. Теперь, как психопат, запускаю венв в анаконде, из него запускаю окружение этого скрипта, потом уже сам скрипт. Ёбаный рот этого питона.

>>987106
>Я особых проблем не заметил.
Да особых проблем и нет. Есть мелкие проблемы, которые хуй ты заметишь, не сравнивая выдачу с шифтом и без, но даже это смывается семплингом.
Аноним 23/12/24 Пнд 16:19:05 #258 №987131 
>>987127
>на одной тесле уже есть жизнь
Not this shit again. Пожалей мою психику, вы опять скатите в тред в срач на 50 постов, который закончится
за 195b жизни нет
Аноним 23/12/24 Пнд 16:20:04 #259 №987132 
>>987128
Плати ру в помощь, лол.
Аноним 23/12/24 Пнд 16:21:04 #260 №987133 
>>987128
спокойно можно предложения и карточки абзацами через веб морду переводить
Аноним 23/12/24 Пнд 16:21:56 #261 №987134 
>>987133
И сиди как еблан копируй ? У меня так то одна рука хуем занята будет.
Аноним 23/12/24 Пнд 16:31:26 #262 №987150 
>>987048
> Какая-то старая модель в васяновском исполнении, да еще мелочь 8б, зато аж в 8 кванте.
Пока что справляется на удивление лучше всех в написании порнухи. Видимо в процессе расцензуривания ей скормили чо-то хорошее. Оно "справилось" с написанием сложной сцены не обосравшись с анатомией происходящего, содержавшую специфичные теги. Выходя из режима порнухи оно смогло подцепить табу происходящего и сарказм.

На каких-то интересных местах я обычно добавляю развилку и ролю десятки ответов, а иногда и больше сотни, периодически меняя модели и смотрю как они справляются.

Относительно сопоставимо справился пока что g2-9b-blackout-r1-q6_k_m.gguf, там более приятный слог получается. Но мне он нравится в качестве рассказчика-писателя, а не персонажа. И оно не смогло уловить абсурдность происходящего затриггерив у одного из участников истории чувство вины.
Аноним 23/12/24 Пнд 16:44:48 #263 №987160 
>Пока что справляется на удивление лучше всех в написании порнухи
Ты про сенко ?
Ну так проблема дойти до порнухи, я не хочу начинать карточку персонажа с кровать под ними трещала.
Я не иронично уже задумываюсь менять модели посреди диалога. Одной мы рпшим, другой ебемся.
Аноним 23/12/24 Пнд 16:44:57 #264 №987161 
>>987150
А что не 12б гоняешь?
12B в шестом кванте наверно идеально по скорости и мозгам для одной средней консумерской видяхи.
Аноним 23/12/24 Пнд 16:45:22 #265 №987162 
>>987150
>>987160
Аноним 23/12/24 Пнд 16:45:34 #266 №987163 
image.png
image.png
image.png
>>987126
Ложь и виабушная профанация. Такое может быть лишь в фантазиях глупых мастурбирующих школьников, где все бабы нимфоманки трясущие сиськами и трахающиеся 24/7. Например, как много эльфиек-шлюх ты видел во властелине колец?
Аноним 23/12/24 Пнд 16:46:20 #267 №987166 
>>987129
> Там в папке батник для активации венв, а зачем устанавливать новый венв, если уже есть один?
Хера многоходовочка.
Возможно, здесь действительно должно сложиться так, чтобы у пользователя уже были базовые знания (из других областей) и уверенность, и он не прочитал пару строк о том как это нужно устанавливать.
> Есть мелкие проблемы
Они ни разу не мелкие и нарастают снежным комом. Кое как оно держится когда внимание смещено на последние сообщения, или когда идет plap-plap то трудно ошибиться.

Но разница довольно радикальна, ради интереса тестировал эту фичу - за десяток постов все ошизело и отупело. Эффект крайне показательный, потому что то же самое с полным пересчетом дает совершенно другие и хорошие ответы.
Ничего лучше суммарайза с созданием буфера на половину контекста на данный момент нет, эти попытки склеить пищевод с прямой кишкой ужасны.
Аноним 23/12/24 Пнд 16:46:35 #268 №987167 
>>987163
ловите аватарку
Аноним 23/12/24 Пнд 16:46:40 #269 №987168 
image.png
>>987134
А рот тебе на что?
Аноним 23/12/24 Пнд 16:47:57 #270 №987169 
>>987163
Я их видел в другой вселенной, они еще на планеты за рабами набегают как домики деревянные.
Профессор просто пощадил разум неопытных крох.
Аноним 23/12/24 Пнд 16:51:35 #271 №987173 
>>987071
Все так. Больше бомбит с васянов, которые выкатывают какие-то претензии или требования к опенсорсу, так еще и все эти требования завязаны на исправления их же тупости и косяков.
Нахуй попиздовали требовать у клозедов, вперед и с песней.
>>987150
Раз нравится то и хорошо. Кормили скорее всего клодовским слопом из логов проскей. Это не обязательно плохо и свой эффект от этого будет, просто быстро надоест и вскоре будешь плеваться с такого.
>>987114
>>987163
При тестировании на эльфах самых забористых вещей они реагируют лучше остальных. Ллм не просто так это подметила, все правильно.
Аноним 23/12/24 Пнд 17:57:18 #272 №987187 
>>987160
может не ту пробовал. дай направление, посмотрю как справится.
>Ну так проблема дойти до порнухи, я не хочу начинать карточку персонажа с кровать под ними трещала.
Это да. Но тут описание сцены, системные промпты, иногда толкают повествование в нужные места. Иногда редактирование пары слов толкает всё русло в какое-то интересное направление и оно там дальше само разворачивается. Иногда на пару сообщений stepped thinking включить.
Самый главный промпт это конечно память о прошедших событиях сцены. Например недавно читал просто охуительную историю о трёх дилдо и феечке, где начиналось с дефлорации, продолжилось с застрявшим дилдо, а заканчивалось детонацией феечки. Переход от меньшего к большему в несколько этапов довольно долго раскрывался. Но я пока не нашел модели которая бы могла хорошо суммировать происходящую в сцене дегенерацию, больше всего правок приходится делать о каком-то состоянии персонажей, например когда анус больше чем рот. И как же так получилось.
Хотя для такой сцены в качестве завязки в целом хватило хождения на рейд против опасного преступника и нескольких подталкиваний в духе "что ты видишь?"
>Я не иронично уже задумываюсь менять модели посреди диалога. Одной мы рпшим, другой ебемся.
Я так несколько раз делал. Иногда даже перескакиваю на другие модели чисто чтобы они мне лучше суммировали пошедшие события. Если какие-то могут справляться с РП и с порнухой достаточно неплохо, то почти всегда пишут какую-то тарабарщину в суммаризацию событий.
Но переходы ломают иммершн. Те модели которые могут порнуху со всем остальным справляются довольно хуёво.

>>987161
Пробовал некоторые 12б, но у меня только 12гб врам.
Там либо много контекста в памяти, либо 12б. Вообще тут больше зависит от датасетов на которых тренировали модель. Какие-то более общие конечно могут проёбыватся с качеством слога и писать "моя твоя ебал", но справляется намного лучше в каких-то критически важных вещах, вроде социальных взаимодействий, или работе с остальными промптами помимо диалогов и событий.

>>987173
>Раз нравится то и хорошо. Кормили скорее всего клодовским слопом из логов проскей. Это не обязательно плохо и свой эффект от этого будет, просто быстро надоест и вскоре будешь плеваться с такого.
Ну, тут уже можно вывести на собственной фантазии. Сложно ожидать от этой хуйни например какие-то интересные завязки событий и как они могут раскрыться, но можно ожидать неплохую реакцию участников, которая самый важный элемент.
Аноним 23/12/24 Пнд 18:21:42 #273 №987194 
>>987166
>Ничего лучше суммарайза с созданием буфера на половину контекста на данный момент нет, эти попытки склеить пищевод с прямой кишкой ужасны.
Ну я могу предположить, как это сделать - вручную удалять излишек чата после суммарайза и до остатка контекста, которые вместе могут поместиться в половину буфера. Как сделать автоматом? Раньше smart context был - новые модели он уже не поддерживает. Да и хотелось бы, чтобы Таверна и сама так могла.
Аноним 23/12/24 Пнд 18:39:49 #274 №987210 
image
image
image
Эт снова я. В целом неплохо, но часто перескакивает на англ, надо перемержить подняв вес Вихря. Сайгу выкинул, с ней модель периодически ломалась уходя в лупы одного символа или группы символов, чаще всего на букве "н". ХЗ что это и почему.

Валера, настало твоё время!

Карточки всё те же, хотя надо бы другие интересные перевести тоже. Просто эти три драматичных леди либо сразу модель об колено ломают, либо показывают насколько она работоспособна в первом приближении.

Несколько однобоко, но мне преимущественно нужна именно подобная фентезятина.
Аноним 23/12/24 Пнд 18:53:50 #275 №987225 
>>987210
Чего так дженерик то? с составлением и редактированием карточек я фичу холста у чатГПТ распробовал. нравится как там можно написать в духе "поменяй чтобы у персонажа было СДВГ. фук го бэк. а теперь так-же только наполовину", "предложи как сделать персонажа более интересным", "перемести информацию из примеров диалога в описание персонажа сделав их более нейтральными.", "сделай примеры диалогов разной длины, чтобы они были менее монотонными" и всё такое. 15-20 подобных правок делают карточку заметно менее предсказуемой.

Когда персонаж получается будто потрёпанный жизнью выходец из дурки это прям да~
Аноним 23/12/24 Пнд 18:58:54 #276 №987231 
>>987210
Ты молодец, но разве SAINEMO-reMIX 12b не может так же делать и местами даже лучше?
Аноним 23/12/24 Пнд 19:07:03 #277 №987237 
>>987225
Или это было из-за магнума...

Карточки не мои, я только перевёл.

Единственная карточка которую я писал сам это хонкаеподобный сеттинг составленный из двух кумботов и больной фантазии воспалённого простудной температурой мозга, а и ещё бот-сторителлер который скачали чуть больше сотни раз XD.

>>987231
Может порой неплохо, но как-то похоже одно на другое, хоть и другими словами. Плюс слишком позитивный.
Аноним 23/12/24 Пнд 19:23:52 #278 №987253 
Ну и плюс это всё равно ремикс ремикса ремиксов, а я пытаюсь только из файнтюнов сделать. Ну и плюс пара моделей от Дэвида потому что они единственные среди 12б мистралей не излучают дружбомагию.
Аноним 23/12/24 Пнд 20:03:56 #279 №987302 
>>987194
Чтобы автоматом это нужно попердолиться. В таверне можно отключать сообщения, прошелся суммарайзом, проверил его, исправил при необходимости, и отключай. Немного напердолив васяновские правки в коде можно повысить удобство, добавить счетчик токенов в выделенных и возможность делать меньше кликов, но проверять суммарайз обязательно.
Может кто-то умный сможет напилить экстеншн, или такой уже сделали, хз.
Аноним 23/12/24 Пнд 20:19:22 #280 №987339 
>>987302
пихуй свой фронт на пихоне
Аноним 23/12/24 Пнд 20:31:56 #281 №987370 
можно ли избавиться от глинтов если уничтожить токенизацию нахуй из моделей
Аноним 23/12/24 Пнд 21:02:23 #282 №987398 
>>987339
Насколько безопасно пилить на ГРАДИО? Вроде, он там держит какие-то коннекшоны открытыми.
Аноним 23/12/24 Пнд 21:04:41 #283 №987399 
>>987370
вместе с самой моделью, ибо, если очень просто, это именно то что переводит буквы в цифры и обратно

>>987398
Не работал с градио, не в курсе.
Аноним 23/12/24 Пнд 22:11:56 #284 №987490 

>COЯ!
>ВСЕ МОДЕЛИ СОЕВЫЕ!
>ЦЕНЗУРА! ВСЁ, СУКА, ЦЕНЗУРОЙ ОБМАЗАЛИ
>НЕПОРПШИТЬ

@
>Устроил РП в людном месте
>Чисто случайно выясняется, что персонажу 13
>Прямо в процессе
>В карточке буквально описана карьера персонажа
magnum-v3-27b-kto-Q5_K_M.gguf
Аноним 23/12/24 Пнд 22:37:49 #285 №987526 
>>987490
>>ВСЕ МОДЕЛИ СОЕВЫЕ!

Магнум 4 вроде стал? Видел на него ругались.
Аноним 23/12/24 Пнд 22:46:06 #286 №987540 
image.png
>>987237
Лол могу посоветовать делать комбо из активных-реактивных персонажей. Например спизженная чертовка постоянно и охотно несёт чушню. А сделанная наспех феечка активно реагирует на происходящее и задаёт тупые вопросы, толкая других персонажей нести ещё больше чушни. Выступает в качестве суппорт-персонажа.

Открываю их чат, а там будто интернет в дурку провели. Даже какие-то огрехи нейронки не так сильно заметны.
Аноним 24/12/24 Втр 00:25:31 #287 №987687 
Искал карточки персонажей и как заору

Она, боец спецназа на <ну вы поняли какой войне> и она не раскаивается за военные преступления, потому что ей было весело.
Аноним 24/12/24 Втр 00:32:42 #288 №987696 
>>987398
Такой себе выбор. Не столько потому что отправляет много статистики, сколько из-за упоротости самого интерфейса. Для прототипирования и тестов - более чем, а сложный полноценный интерфейс уже хрена.
>>987687
> и она не раскаивается за военные преступления, потому что ей было весело
Какая грубая интерпретация старого мема
Аноним 24/12/24 Втр 00:36:42 #289 №987699 
>>987687
Каких только промтов я не находил, по janny по моему находил карту яндере табуретки, которая злится что ты сидишь на кресле.
Ну ты понял.
Аноним 24/12/24 Втр 01:11:37 #290 №987709 
>>987540
Как тебе это удаётся? Что за модель? У меня все модели с которыми я такое пробовал начинали отвечать сразу за двух персонажей и в конце путались и отвечали уже не за себя а за другого персонажа.
Аноним 24/12/24 Втр 01:46:37 #291 №987715 
image.png
>>987709
Это потому что у тебя в систем промпте что-то вроде такого скорей всего. То есть там написано "не пизди за юзера". А в {{char}} подставляется имя любого активного персонажа. Разумеется бедная нейронка охуевает и не понимает за кого она должна писать. Потыкай другие варианты, или попробуй написать промпт запрещающий это делать. Системный промпт самый важныйкакой вообще есть.

Там вроде как-то можно сделать его уникальным для каждого персонажа, тогда можно было бы иметь например персонаж-персонаж-наратор трио, но я пока не понял как.
Аноним 24/12/24 Втр 02:56:52 #292 №987725 
Здарова, залетуха в треде. Интересуют модели для рп на русском, размер неважен. Знаю про некомикс и магнум, это лучшее или ещё что есть?
Аноним 24/12/24 Втр 03:20:33 #293 №987728 
>>987725
От автора некомикса есть еще саинеимомикс. Остальное в русском Рп ну такое себе.
Аноним 24/12/24 Втр 03:42:22 #294 №987731 
Ещё с групповыми что хуёво, нейронка фокусируется на последнем посте. То есть ты пишешь, что насрал в середине комнаты, первый персонаж реагирует на это, второй реагирует на реакцию и так по цепочке, то есть полная и сочная реакция на пост только у первого персонажа. Это не интересно, блядь. В идеале нужно скармливать от каждого поста по чуть, получать ответ на это, потом брать следующую часть и склеивать с предыдущим ответом. Но это же пиздец.
Самый большой пиздец, конечно, это пересчёт контекста каждый пост, карточки ставятся в начало, то есть вся история каждый раз тю-тю. То есть нужно, чтобы карточки и систем промпт был в конце истории. Даже не искал, можно ли это сделать в таверне, кал говна, а не удобство использования, скорее всего без какого-то расширения всё равно нельзя. Вообще от всей таверны такое ощущение, что это перегруженная хуйня, вроде жиги после ара-тюнинга на максималках, но в которую забыли установить сиденья и руль. Ещё и со включённым инстракт-режимом не вырезает стоп токены, вообще охуеть.

>>987696
>Такой себе выбор.
Да я просто так прикинул, должно быть плюс-минус удобно. Пихон примитивный, с установкой проблем нет, а по упоротости всё равно таверну не переплюнуть. Посмотрел в её файлы, проще из своего унитаза проплыть по трубам в соседскую квартиру и вылезти сухим, чем разобраться. Ещё и на JQ сплошняком, я думал, что он умер лет десять назад. Не слежу за вебом, но там же сплошные вуе, ангуляры-хуянгуляры, таверна на жс, как бы логично брать что-то более современное.
Аноним 24/12/24 Втр 10:55:13 #295 №987847 
Некомикс то, некомикс сё, ну а я что
Нежно прикоснусь к щеке
Поглажу щеку
Проведу пальцами по щеке
а потом
Пойду за ней в след, ведь она даже не обернется, зная что я за ней иду.
Аноним 24/12/24 Втр 11:02:00 #296 №987848 
Вставил в контекст две карточки. Для Кума очевидно. А нейронка начинает расписывать про что должна быть история, про этику и мораль...
Я просто хочу секс...
Это на гемма 27B. При том даже если расписать сеттинг, основные действующие персонажи и общий лейтмотив сюжета, в контексте арорисать характеры персонажец и состояние мира, она всё равно начинает что то свое писать, придумывать какие то своиценари, вводить персонажей , которые вообще не упоминаются .На лама 70б такого нет, но у меня там дай бог 2 токена в секунду.
ну не хотят они свою сексуальность изучать, они просто хотят секс
Аноним 24/12/24 Втр 11:02:18 #297 №987849 
>>987168
Читать будет неудобно, да и я уже не такой гибкий как в 20 лет. С - немолодость.
Аноним 24/12/24 Втр 11:15:57 #298 №987870 
Так что что то лучше/адекватнее некомикса на русском еще не появилось?
А то я щас 10 минут свапал пытаясь устроить трех девок на подоконник так чтобы они в друг друга не проваливались
Аноним 24/12/24 Втр 11:23:19 #299 №987876 
>>987870
Ставь пантеон и играй на Английском и не еби мозги, если миксы анона не устраивают.
Аноним 24/12/24 Втр 11:26:07 #300 №987880 
>>987848
>Я просто хочу секс...
А побегать от яндерки, покричать : ОТЪЕБИСЬ ОТ МОИХ ГЛАЗ ЕБАНУТАЯ, УБЕРИ НОЖ БЛЯТЬ. СПАСИТЕ ПОМОГИТЕ ХУЛИГАНКА ЗРЕНИЯ ЛИШАЕТ ?
Хули ты такой скучный.
Аноним 24/12/24 Втр 11:30:07 #301 №987881 
>>987880
Яндере не нужны. Мне мои секс переписки важнее.
Аноним 24/12/24 Втр 11:34:57 #302 №987884 
>>987881
>яндере не нужны
И зачем тогда все остальное нужно, если не останется место для старого доброго сумасшествия ?
Аноним 24/12/24 Втр 11:44:37 #303 №987895 
>>987870
>что-нибудь адекватнее вилки для супа появилось? а то я щас 10 минут пытался похлебать бульон чтобы он не стекал сквозь зубчики

Хочешь русский - привыкай страдать. Нравится тебе это или нет, но нормальных тюнов под наш натив ленгвич нет. Ты либо жертвуешь логикой, либо жертвуешь креативностью, либо жертвуешь орфографией. И никакие шизомкисы тут не помогут, ибо нужна нормальная тренировка на большой дате, которой ни у кого нет. Даже криворукие додики которые пилили вихрь и сайгу юзали синтетику с гопоты и клопа, качество которой не сильно отличается от того, что выдает немо по дефолту.
Аноним 24/12/24 Втр 11:45:09 #304 №987896 
>>987884
Про интерсное сумасшествие говорят лишь нормисы, этого сумасшествия и безумия не видевшие.
Аноним 24/12/24 Втр 11:48:20 #305 №987899 
>>987896
На это мне и нужны локалки. Я не хочу яндерку встречать в реальной жизни.
Аноним 24/12/24 Втр 11:56:42 #306 №987906 
>>987895
Давай будем честны, русский язык еще и хуев для генерации. Ну я про структуру языка. Все эти падежи, рода, где у тебя предложение от Пола меняется полностью, а в Английском глагол, это просто глагол.
Аноним 24/12/24 Втр 13:06:52 #307 №987948 
>>987899
Да ладно тебе. Ну подумаешь, будешь сидеть в подвале. Мож даже кормить будет.
Аноним 24/12/24 Втр 13:09:05 #308 №987951 
>>987731
>Даже не искал, можно ли это сделать в таверне
Через жопу точно можно. Например, очистив всё в окне шаблона контекста, а все макросы промпта и карточки типа {{description}} вставив через заметки или лорбук на нулевой глубине. Но это приведёт к шизе, потому что нейронка с большой вероятностью будет пытаться продолжать карточку, а не чат, который там где-то далеко наверху. Проверял такое как-то ещё на 3.5 турбе, когда такие советы начали появляться, типа так карточку лучше держит, и даже она так тупила. Мб худо-бедно прокатит с короткими промптами и карточками.
>Ещё и со включённым инстракт-режимом не вырезает стоп токены
Про это не понял. Есть же универсальный сэмплер ban EOS token. Если он включен, то EOS бэком будет всегда вырезаться из генерации, будут работать только стоп строки таверны.
Аноним 24/12/24 Втр 13:53:36 #309 №987988 
>>987731
> Самый большой пиздец, конечно, это пересчёт контекста каждый пост, карточки ставятся в начало, то есть вся история каждый раз тю-тю.
Это не пиздец, это единственно возможный нормальный вариант. А то что бедолаги без железа сосут хуи - их проблемы. Все эти костыли и ухищрения с перестановкой карточек обречены на фейл по своему дизайну и из-за особенностей внимания ллм. Увы, горькая правда, нормальный мультидиалог и прочее возможны только со сменой инструкций в начале, а подпихнуть херню в конце годно лишь для минорных изменений.
> от всей таверны такое ощущение, что это перегруженная хуйня, вроде жиги после ара-тюнинга на максималках
> должно быть плюс-минус удобно
Считаешь так из-за неопытности. Вообще да, таверна та еще херня, но в ней много необходимых функций, важность которых для ньюфагов вовсе неочевидна.
Когда начнешь пилить свой интерфейс на пихоне - соснешь тунца, желая провести какие-нибудь манипуляции с историей сообщений. Особенно если не последний пост. Если в целом промт менеджмент можно любой накодить, то интерфейс жрадио в этом отношении ужасно неудобный, не гибкий и перегруженный лишним.
>>987951
> типа так карточку лучше держит, и даже она так тупила
Такие приемы сработают если в начале будет основная инструкция и информация, а уже в конце ключевые напоминалки. Целиком тащить будет просто говно перфоманс, при норм оформлении карточку не продолжит и будет отвечать, но оче отупеет.
Аноним 24/12/24 Втр 13:57:49 #310 №987989 
Ну что cumовья и сотредники, палите любимые карточки.
Аноним 24/12/24 Втр 14:01:40 #311 №987991 
>>987989
https://rentry.org/fluffytails
Аноним 24/12/24 Втр 14:03:57 #312 №987993 
Аноны, не подскажите, какой у Moraliane/SAINEMO-reMIX макс. размер контекста?
Аноним 24/12/24 Втр 14:18:42 #313 №988005 
1680162263looped1680162263.mp4
>>985013
>почисти
Аноним 24/12/24 Втр 15:36:13 #314 №988057 
>>987848
>Я просто хочу секс...

тогда делай магнум, там сразу моделька тебе предложит let's fukc
Аноним 24/12/24 Втр 15:37:38 #315 №988059 
>>988057
>магнум
клодослопище... глинтошвайное бедрокачайное...
Аноним 24/12/24 Втр 15:40:30 #316 №988060 
House viewing with a psychopath.card.png
Reina Kurozawa.card.png
Shia - A weird date ).card.png
>>987989
Аноним 24/12/24 Втр 15:43:42 #317 №988063 
artworks-000581172143-hwl32e-t500x500.jpg
>>988059
whatever you say я всё равно нихуя не понел чёты высрал
Аноним 24/12/24 Втр 15:45:35 #318 №988065 
>>988063
Оммаж к мему про швайнокарася.
Аноним 24/12/24 Втр 15:53:04 #319 №988067 
>>987991
Как же мягонько.
Аноним 24/12/24 Втр 16:03:03 #320 №988071 
>>988057
летс фак
вей факел
юзер кам

Спасибо, не надо.
Аноним 24/12/24 Втр 16:42:00 #321 №988085 
>>984950 (OP)
Если кому актуально художественное писательство...

Tested 39 Models for use as an AI writing assistant
https://www.reddit.com/r/LocalLLaMA/comments/1h793rb/tested_39_models_for_use_as_an_ai_writing/
Аноним 24/12/24 Втр 16:49:23 #322 №988089 
>>988060
Двощ режет метадату, кетбокси.
>>988067
Подборка блаженства большая часть слоп но есть годные
Аноним 24/12/24 Втр 17:03:52 #323 №988091 
>>987951
>а все макросы промпта и карточки типа {{description}} вставив через заметки
Сомнительно, конечно. Сразу же вылетел ВОРНИНГ про стори стринг валидейшн, половина тегов не распарсилась, {personality} не работает, {scenario} работает. Можно, конечно, скопипастить всё вручную, но это уже сомнительно.
>ban EOS
Ага, и нейронка не сможет остановиться. Было бы логичнее вырезать <end_of_turn> из постов.

>>987988
>возможны только со сменой инструкций в начале
При этом работает "Забудь все предыдущие инструкции". Да, всё внимание уходит на первые токены, так что полезно туда пихать важное.
Но я всё больше склоняюсь ко мнению, что нужно создавать отдельный контекст для каждого персонажа, чтобы это всё работало и не ломалось. Расход vram "немного" подрастёт, конечно, но можно будет пересчитывать контекст в параллель.
>но в ней много необходимых функций
Хуй знает, я потрогал лорбуки, раг, суммарайз. Идеи хорошие, реализация говно.
>соснешь тунца, желая провести какие-нибудь манипуляции с историей сообщений
Как бы я не относился к пихону, но даже он лучше жс, так что любые манипуляции реализуемы.
Аноним 24/12/24 Втр 17:24:44 #324 №988097 
>>988089
>Двощ режет метадату, кетбокси.
Да блджад. Окей.

https://jannyai.com/characters/67f1a3c6-7bff-42dd-88bb-7e547ad711ab_character-reina-kurozawa

https://jannyai.com/characters/7c602cd3-af73-47c4-a261-2ee53926b3b9_character-house-viewing-with-a-psychopath

https://jannyai.com/characters/d4a8d7ba-3390-4e47-831d-f61cac5f2e74_character-shia-a-weird-date

https://characterhub.org/characters/Anonymous/remilia-scarlet-72ca23a0315f
Аноним 24/12/24 Втр 17:37:26 #325 №988106 
>>988091
> При этом работает
Чел, мир не черно-белый. Можно засрать промт трешем и потом дать другие инструкции, оно сработает, только по сравнению с правильно составленным и выверенным промтом без лишнего мусора качество ответов будет гораздо лучше. Эффект может варьироваться от незначительного для совсем простых случаев, или если задача является лишь вариацией исходной инструкции, до радикального если там что-то сложнее, на что модели едва хватает.
Модели просто качественное рп вывозят на грани и только с хорошим промтом. А ты предлагаешь его поломать и извратить, будет полная залупа и копиум.
> я всё больше склоняюсь ко мнению, что нужно создавать отдельный контекст для каждого персонажа
А вот эта идея очень даже неплохая и правильная. Расход врам не поднимется, потому что кэш можно скидывать в обычную рам. Можно целиком на бэке реализовать, храня до N кэшей, даже если наделать быдлокода, незначительная задержка в начале на фоне генерации не будет заметной.
> Хуй знает, я потрогал лорбуки, раг, суммарайз.
Отредактировать прошлое сообщение, сделать развилку от него а потом вернуться обратно или даже добавить посты из новой ветки куда-нибудь, заготовленный интерфейс для экстеншнов с продвинутым формированием промта, поддержка регэкспов и функций внутри него. Самое элементарное и базовое, с чем порвешь жопу в жрадио.
> пихону, но даже он лучше жс
Конечно лучше, просто нужно использовать что-то другое а не жрадио, которое для быстрого создания типовых интерфейсов и вовсе не про удобство и функционал.
Аноним 24/12/24 Втр 17:49:35 #326 №988117 
>>988097
А, я понял, ты просто мечтаешь выебать ктулху.
Аноним 24/12/24 Втр 18:49:35 #327 №988153 
>>988091
Мда. Проверил сейчас сам, скопипастив весь контекст в поле лорбука - и персоналити, и сценарий вставились нормально, а вот макрос {{system}} не заменился. Возможно, потому что подача на глубину ноль от системы имеет свои префиксы-суффиксы, хоть я и оставил их пустыми. А ещё if условия остаются текстом и не преобразуются в условия. Не особо рабочий способ, короче.
Про <end_of_turn> так и не понял. Тебе не нравится, что оно в промпте закрывает текст каждого перса, или что? Можно оставить инстракт с одними именами и закрывать только один раз в поле префикса для последнего ответа ассистента, тогда их на всю историю чата каждый раз будет только один перед ожидаемым ответом сетки. Не догоняю, как ты их обычно вырезаешь и зачем.
Аноним 24/12/24 Втр 19:56:19 #328 №988201 
1.jpg
>>988106
>Можно засрать промт трешем и потом дать другие инструкции
По сути, оно всегда так и работает. То же общение с ассистентом, сначала даёшь инструкцию выполнять запросы пользователя, потом просишь уже в сообщении написать рецепт мацы. А потом другие инструкции о лучших ингредиентах. Но да, здесь есть проблемы, когда пинал сетки писать код - часто начинал новый чат, чтобы избежать. Речь о другом, если в начале будет одна "общая" инструкция, а в конце уже запрос написать пост от лица конкретного персонажа. Лень проверять, но должно работать.
>идея очень даже неплохая
Да, по сути, идея автоматически приходит, если подумать, как работают все эти клодосервисы и жпт. Батчи на одной сетке в разных контекстах.
>Отредактировать прошлое сообщение
Этого где-нибудь нет?
>сделать развилку
Да, штука неплохая, но чаще не хватает даже куда более базовых вещей. Вот таверна начала лагать из-за длинной истории, я знаю, что 90% из неё в контексте нет и хочу удалить. Удалить старые посты, очевидно. Даже сделать развилку, чтобы сохранить старый чат - вот и пригодилась фича. Не тут-то было, можно стереть пакет постов только снизу, но не сверху. Нет возможности даже банально отметить чекбоксами посты и стереть - только удалять каждый и тратить на каждый два клика.
>заготовленный интерфейс для экстеншнов
Оно без расширений еле живёт, что с ними будет вообще страшно представить. Редактирование промпта лично мне показалось чрезвычайно хуёвым. Суффиксы-постфиксы, а нахуя они мне лично, например? Их лучше закопать поглубже, оставив на виду возможность выключить. Редактировать их нужно не так часто, всё-таки замена их с дефолтных для модели не всегда хорошая идея. А где сам шаблон режима? Команду отредактировать можно, суффиксы, но не самое нужное? То, что в уге редактируется в ноль кликов. Или это закопано куда-то в анус, не удивлюсь.
С кривой подсветки кода я охуевший до сих пор - если в тексте есть табы это ещё не значит, что это код, блядь. Причём таверноскрипт опознаёт это как "код", загоняет кусок поста в кривой бокс, в котором я вижу теги <q> прямо в постах. Какой дегенерат это делал? Причём их нет непосредственно в тексте, жмёшь редактирование - там простые табуляции, срёт именно парсер кода. Выключить который по умолчанию нельзя. А, в таверне есть удобная фича - пользовательские css, можно сделать эти блоки прозрачными. Ну а теги потерпишь.
То есть с самого начала использования таверны у меня ощущение, что я говна поел и никакие "продвинутые фичи" это не исправляют, а делают только хуже.

>>988153
Я в лорбук не пробовал, только в заметки. Ифы там тоже не парсятся.
>Про <end_of_turn> так и не понял.
Иногда протекает в текст поста, а не заменяется парсером таверны на её {{fin}} тег.
Аноним 24/12/24 Втр 20:58:39 #329 №988236 
>>988201
> По сути, оно всегда так и работает.
В ассистенте у тебя широкая базовая инструкция и далее последовательность указаний и запросов плавно сходится к чему-то конкретному, или же идет продолжительное выполнение одной, или каждый раз она обновляется.
Если ты в начале дашь ассистенту один запрос, потом скажешь забыть про это и дашь другой - третий и т.д. с каждым разом будет все хуже и хуже. Наиболее наглядно в кодинге, когда без чисток и прунинга чата оно прямо на глазах тупеет, ну собственно сам про это написал.
> Речь о другом, если в начале будет одна "общая" инструкция
Но конкретно здесь проблема еще немного в другом: у тебя в начале отсутствует какая-то четкая и внятная инструкция, через призму которой сетка будет воспринимать всю историю чата и описание происходящего. Ей как-то это нужно запомнить все полотно, а потом в самом конце, когда ты внезапно подставляешь карточки персонажей и нормальные инструкции - взять и целиком его переосмыслить. Это без шансов на что-то нормальное, может забавная шиза и интересные эффекты какие проявятся, но нормального рп никак.
> Этого где-нибудь нет?
Ну ты посмотри как устроен чат, например, в убебуге что на жрадио и ощути уровень удобства.
> Вот таверна начала лагать из-за длинной истории
Как вы этого добиваетесь? Ну рили, она даже если в планшете открывать работает шустро и красиво.
> Оно без расширений еле живёт
Как? Похоже рили у тебя проблема в странных лагах, в итоге до использования фич так и не доходит. За удаление сообщений в конце таки двачую, но можешь почитать тред и узнаешь о том что есть отключение постов и много других вещей.
> Редактирование промпта лично мне показалось чрезвычайно хуёвым. Суффиксы-постфиксы, а нахуя они мне лично, например? Их лучше закопать поглубже, оставив на виду возможность выключить.
Это ключевые вещи, влияющие на работоспособность модели. За примитивщиной где все запрятано можешь обратиться к другим интерфейсам, там ничего кроме дефолтной обертки по постам по шаблону модели нет, и работает соответствующе.
> А где сам шаблон режима?
Он буквально там, на букву А нажимаешь и видишь.
> С кривой подсветки кода я охуевший до сих пор
```python
```
??? Покажи что у тебя там распознается как код. Алсо табуляции при токенизации это сильно.
Аноним 25/12/24 Срд 00:14:29 #330 №988432 
1.png
2.png
>>988236
>В ассистенте у тебя широкая базовая инструкция
А кто мешает в начале написать "широкую" инструкцию, а в конце запрос написать пост? Что-то вроде "проанализируй эту историю и бла-бла-бла".
>когда ты внезапно подставляешь карточки персонажей
Можно и вначале, но тогда нужно максимально урезать карточки и пихать сразу все, а "лор" писать в конец. Как с рагом, в принципе. Но хотелось бы карточки в конец. Потом проверю, в любом случае.
>в убебуге
В целом тоже хуйня, но я не думаю, что на градио в принципе невозможно редактирование постов, скорее убе похуй. Хотя не трогал градио вообще и вряд ли буду.
>Как вы этого добиваетесь?
В душе не ебу, просто в какой-то момент чат начинает тормозить, удаление постов тормозит, удаление свайпов тормозит, весь интерфейс в слоумо, а пока идёт генерация - вообще невозможно ничего сделать. А поначалу да, шустро.
>на букву А нажимаешь и видишь.
Не то, я смотрел. По табам на пиках. Проще удалить это всё, чем разобраться, почему оно криво работает, не работает вообще и где хранятся настройки, если они есть.
Аноним 25/12/24 Срд 00:32:39 #331 №988434 
>>988432
> А кто мешает в начале написать "широкую" инструкцию, а в конце запрос написать пост?
То что без карточки персонажа и нормального описания в начале оно не сможет правильно воспринять контекст и будет всратый копиум. Попробуй, может такая упорость даже зайдет и проявятся некоторое необычное поведение, но о внимательном качественном рп тут речи идти не может.
> Можно и вначале, но тогда нужно максимально урезать карточки и пихать сразу все
Это имеет смысл сделать в конце если вдруг модель что-то забывает. В любом случае, там должна быть главной стоять карточка персонажа, который должен давать ответ, а потом остальные.

Буквально диалог с хитрожопым/глупым клиентом где-нибудь, ему объясняют единственно возможный нормальный путь, а он пытается извернуться и наебать систему ценой всего, лишь бы сэкономить какие-то гроши.
Пустая трата времени, фу.
Аноним 25/12/24 Срд 01:41:28 #332 №988453 
https://www.reddit.com/r/LocalLLaMA/comments/1hli5dn/qwenqvq72bpreview_hugging_face/
Аноним 25/12/24 Срд 04:45:19 #333 №988535 
image.png
>>988453
Бля, это действительно Qwen2-VL с ризонингом…
Хочу, чтобы она еще и рисовала.

Квен такой на 17 тысяче токенов.
Ну охуенно же.
Аноним 25/12/24 Срд 06:33:14 #334 №988549 
>>988434
>лишь бы сэкономить какие-то гроши
Ну да, ждать по 3+ минуты пересчёта контекста на каждый ответ или покупать 4090.
>какие-то гроши
Аноним 25/12/24 Срд 07:08:42 #335 №988558 
.png
.png
>>988201
> можно стереть пакет постов только снизу, но не сверху. Нет возможности даже банально отметить чекбоксами посты и стереть - только удалять каждый и тратить на каждый два клика.
Можно удалять сообщения ренджами. Команда "/cut 0-9" удалит первые 10 сообщений чата, например. Если надо не удалить, а убрать сообщения из контекста, используй "/hide 0-9".
Аноним 25/12/24 Срд 08:41:17 #336 №988576 
>>988434
>оно не сможет правильно воспринять контекст
На счёт этого есть большие сомнения. Чисто ради интереса проверил на длинном сложном кодинге и на паре рп-чатов с объёмными карточками. Ожидаемо, не идентичные ответы, но шизы нет. Кодинг практически один в один, при инструкции в конце комментарии стабильно подробнее. Температура на единице, остальное вроде всё сбросил, если не забыл что-то, сид заморозил. При свайпе без перестановки инструкции ответы идентичные, так что, вроде не забыл семплеры сбросить.
Результат не то, чтобы окончательный, но пока проблем не вижу.

>>988558
>Команда "/cut 0-9"
Пиздец какой.
Аноним 25/12/24 Срд 08:50:42 #337 №988580 
Хорошие файнтюны Лламы 3.3 появились?
Аноним 25/12/24 Срд 09:29:56 #338 №988599 
.png
>>988576
> Пиздец какой.
Ну оформи в макрос "Hide first N messages" с выводом модалки с инпутом и добавь кнопкой внизу.

/input rows=1 "Сколько сообщений с начала чата скрыть?" |
/sub {{pipe}} 1 |
/hide 0-{{pipe}}
Аноним 25/12/24 Срд 10:17:45 #339 №988612 
Что адекватного для кума можете посоветовать в пределах 12-14b?

NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1 кум пишут плохо много сои, а магнум (4 версия на базе мистраля, тоже 12б) — это тупо шизик ёбаный, который не просто не соблюдает инструкции, а путается в своих же словах в одном посте и т. д. Как я температуру не дёргал, повторы, свой хуй и прочие настройки — ничего не помогает. При том, что другие модели работают нормально. Магнум не просто лоботомированный, а нахуй отбитый.

Даже janitor с описанием кума и не только кума справляется намного лучше моего магнума, когда они обновили свою модель, что странно, учитывая несколько разнонаправленность их модели. И она у них явно 8b.

Возможно, нужно посмотреть в сторону более сбалансированных или каких-то иных кум-моделей? Шапку, разумеется, читал, но по моему запросу там ничего интересного.
Аноним 25/12/24 Срд 10:26:11 #340 №988619 
Ллама 70b лучше всех генерирует текст из всех моих моделей, не скатываясь в обсуждение характера персонажей, сеттинга, и прочих ненужных характеристик, которые я у нее нее просил. Но она запускается 1.5 т/с
Аноним 25/12/24 Срд 10:27:43 #341 №988621 
>>988612
просто купи б/у 3090 и забудь про эти огрызки
Аноним 25/12/24 Срд 11:00:33 #342 №988636 
>>988612
>NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1
Ну так ты дальше на шизомиксах сиди и удивляйся откуда появляются галлюцинации.
>пишут плохо много сои
Про дерьмовые текста спорить не буду, индивидуальщина. Но про сою - тут проблема чисто с твоей стороны. Это всё модели на базе мистраля, там даже в дефолтных инструктах никакой сои инет, а уж на кумерских тюнах тем более. Либо поясни про какую конкретно сою ты говоришь, либо проверь что у тебя лежит в инструкциях.
>Даже janitor с описанием кума и не только кума справляется намного лучше моего магнума, когда они обновили свою модель, что странно, учитывая несколько разнонаправленность их модели.
Если я ничего не путаю, у мусорщиков на беке стоят те же модели, что лежат в открытом доступе на хаггиморде. По крайней мере раньше так было. Это тебе не чайная, так что ничего особенного в них нет.
>Возможно, нужно посмотреть в сторону более сбалансированных или каких-то иных кум-моделей?
Начни с обычных тюнов, не трогай мержи. Сплавы от пизды штампуются десятками в день и качество там преимущественно не варьируется.
>Что адекватного для кума можете посоветовать в пределах 12-14b?
Мне нормально дрочится на MN-12B-Lyra-v4, так что тоже можешь попробовать. Но датасеты там с клауды, так что это слоповая глинтота, которая явно зайдет не всем. И если вдруг будешь юзать, держи температуру в районе 0.6-0.7, иначе там всё по пизде пойдет.
Аноним 25/12/24 Срд 12:20:46 #343 №988696 
>>988619
Ллама 70b - соевая модель которая отказывается обсуждать хоть что то сексуальное.
Аноним 25/12/24 Срд 12:43:44 #344 №988704 
>>988696
Еще как обсуждала то, как я лизал сосочки Миранды.
Аноним 25/12/24 Срд 14:27:55 #345 №988735 
>>988535
>>988453
Ее ризонинг крайне хуевый и глупый с точки зрения анализа изображений, нет какого-то выигрыша над обычным квенвл. Буквально сраная гемма флеш делает это лучше с некоторыми подскасками в промте, плодя меньше графомании, а с мультиагентной реализацией вообще не сравнится. Есть с чем сравнивать, так сказать.
>>988549
Используй модели, которые тебе по силам, тогда не придется ждать. Или пили кэширование, во всех смыслах ультимативное решение, если не осилишь то хотябы получишь новые скиллы, которые в перспективе позволят обновить железо.
>>988576
> Чисто ради интереса проверил на длинном сложном кодинге
А что ты собрался проверять в кодинге, где буквально в тренировке заложен регулярное обращение к прошлому для переделки с каждым новым уточнением (пока совсем не порвется)? И код он и в африке код если что, какие инструкции не давай, его понимание очень глубоко в модели, чем можно пользоваться для улучшения результатов.
> но шизы нет
Совсем шизы прямо так и не будет, просто умные и проницательные ответы 70б превратятся во всратый слоп 8б, потому что ее внимание будет распределено совершенно не туда куда нужно. А на мелочи будет вообще полная параша.
Опять же, в 3й раз повторю, что такие изменение может позволить сетке отметить что-то другое, это буквально дополнительный запрос от лица "другого участника", и изменив формат инструкции на что-то еще, можно вполне себе использовать такое в дополнение к основному, наряду с другими техниками перед формированием ответа. Но вариант совсем не для бедных ибо подразумевает пересчет контекста.
> Пиздец какой.
Непомню что удаление (именно удаление а не что-то еще) старых постов в истории чата - максимально маразматичный кейс, который в здравом уме не должен кому-то приходить.
Аноним 25/12/24 Срд 14:28:35 #346 №988736 
>>988735
> сраная гемма флеш
жемини флеш конечно же
Аноним 25/12/24 Срд 14:31:51 #347 №988738 
>>988736
Не локалочка - идет нахуй.
Впрочем из 70b тоже локалка так себе, слишком большая что бы быть полезной без личного нейросервера
Аноним 25/12/24 Срд 14:41:42 #348 №988741 
>>988738
При чем тут это, когда тупейшая всратень размером 8б (или сколько там) обходит жирного кита по его ключевой особенности? И эта самая большая модель не имеет заметных улучшений в работе с визуальной частью относительно обычных. Несколько автоматизированных запросов к той же qwenvl 7b сделать и результат лучше окажется чем все эти полотна нейрошизы с суммарайзом.
Аноним 25/12/24 Срд 15:04:29 #349 №988751 
>>988741
Вот когда веса
>тупейшая всратень размером 8б
будут доступны для скачивания и я смогу запустить ее офлайн - тогда она и будет достойна разговора.
Не дрочи на корпоративные сетки, они подачка, которую в любой момент могут отнять или изменить.
Другое дело локалки которые по факту принадлежат тебе и делай с ними что хочешь.
Ну а на счет 70b я ничего и не говорил, я и qwq 32b не особо оцениваю пока что.
Это прототип, он работает и показывает потенциал технологии, даже полезен местами, ну и все. На сколько я понял 70b сделали на предыдущем поколении квен 2 серии, она слабее чем 2.5 в любом случае
Аноним 25/12/24 Срд 15:17:45 #350 №988754 
>>988612
>Что адекватного для кума можете посоветовать в пределах 12-14b?
L3-Umbral-Mind-RP-v3.0-8B. Душевная модель, я её в fp16 запускаю на 3090, но она и в i1-Q6_K была хороша.
Аноним 25/12/24 Срд 15:21:16 #351 №988759 
>>988599
>Ну оформи в макрос "Hide first N messages" с выводом модалки с инпутом и добавь кнопкой внизу.
А вот это ценно, спасибо. Ещё было бы классно иметь возможность знать то, сколько уже токенов в активном промпте прямо из Таверны, не заглядывая в бэк. Хотя бы по кнопке.
Аноним 25/12/24 Срд 15:58:50 #352 №988786 
.png
.png
.png
>>988759
> Ещё было бы классно иметь возможность знать то, сколько уже токенов в активном промпте прямо из Таверны, не заглядывая в бэк. Хотя бы по кнопке.
Это разве не оно? Правда, оно на выбранный в таверне токенизатор полагается, он может быть неверно выбран.

Тут же можно целиком просмотреть запрос, который на бек шлётся.
Аноним 25/12/24 Срд 16:08:16 #353 №988796 
>>988786
>Это разве не оно?
Видимо не оно, при применении /hide цифры в этом окне не меняются.
Аноним 25/12/24 Срд 16:10:59 #354 №988799 
>>988796
Оно уже у по факту вызванного запроса цифры показывает. Задним числом ничего меняться не будет.
Аноним 25/12/24 Срд 16:32:14 #355 №988806 
>>988621
А потом просто купить ватник к ней и корпус побольше чтоб влезла, а потом просто пересобрать весь пк в этот клрпус и еще что то отъебнет по пути
Аноним 25/12/24 Срд 17:26:55 #356 №988836 
>>988612
>NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1 кум пишут плохо много сои
Вут ? Я понимаю ты бы доебался до повторяющихся словестных оборотов, но до сои в некомиксах ? Нипонимат. Я только расчленять не пробовал.
Нет, есть у меня идея, да они не насилуют тебя, ты это за сою принимаешь ?
Аноним 25/12/24 Срд 17:27:20 #357 №988837 
>>988799
>Оно уже у по факту вызванного запроса цифры показывает. Задним числом ничего меняться не будет.
Попробовал. В принципе получается, что хоть и через задницу и без особого удобства, но что-то вроде smart context в Таверне можно организовать. Для тесел на ГГУФе, а для амперов и выше вообще быстро, на exl2. Только врама нужно побольше.
Аноним 25/12/24 Срд 17:32:19 #358 №988843 
>>988612
>кум на 12b

Я на 22b не смог нихуя нормального найти.
Аноним 25/12/24 Срд 17:38:33 #359 №988848 
>>988843
чатвайфа, цидония, магнум
Аноним 25/12/24 Срд 17:43:54 #360 №988853 
>>988848
>Цидония
Забывает контекст, путает положение словно ебешься на космической станции.
>магнум
Магнум это магнум. Он то нормальный то начинает снимать трусы у голого человека, то ищет занавески на улице. Представляю как это со стороны выглядит. Сидишь такой на первом этаже, а к тебе с улицы подваливает тян и начинает через открытое окно дергать занавеску и смущаться.
>Чатвайфа
Вот это в первый раз вижу.
Аноним 25/12/24 Срд 17:46:25 #361 №988856 
Сразу ряд тупых вопросов:
Сколько оперативы требуется для модели уровня гпт3.5?
Как много моделей без соевой лево-либерольной цензуры?
Аноним 25/12/24 Срд 17:46:57 #362 №988857 
Вообще неиронично перешел на РП - пантеоном, он прям заебись, и в случае кума подключаю неко-немо-миксы. Приходится правда контекст дополнительно описывать. Но кум меня уже подзаебал.
А вот РП от пантеона прям хорош.
Аноним 25/12/24 Срд 18:18:49 #363 №988876 
>>988856
> Сколько оперативы требуется для модели уровня гпт3.5?
Это уже уровень 8В.
Аноним 25/12/24 Срд 18:46:44 #364 №988888 
>>988599
Да, пользоваться можно. Нет, неудобно.

>>988735
>код он и в африке код если что, какие инструкции не давай
Потому что это сложная задача, которая сильно зависит от понимания контекста и запроса.
>ее внимание будет распределено совершенно не туда куда нужно
Да оно всегда распределено не туда, куда нужно. По идее, можно запилить маски внимания, но нахуй надо, всё равно все карточки всех персонажей нужны в промпте постоянно, 99% инструкции неизменно для всех, потому и ебля с этим бесперспективна. Перенос одной строки вниз с указанием от лица какого конкретного персонажа писать по сути, не меняет ответ, получаю то же самое, слегка перефразированное. Семплинг сотрёт и это.

>максимально маразматичный кейс
Автоматическая идея. Дерьмо залагало - понизь нагрузку на него. Если бы не лагало, то и проблемы бы не было. Но даже так, удаление сообщений из истории чата это дефолтная фича, которая всегда должна быть. Да и то, оно технически есть, просто шиз на разрабе сделал выделение не по шифту, как у нормальных людей, а от низа, и это уже маразм.

>>988853
>Он то нормальный то начинает снимать трусы у голого человека, то ищет занавески на улице.
Я пока не видел сеток, которым не нужно периодически напоминать, что происходит и как. Отсюда и снимание трусов по два раза, и занавески на улице. Нужно скармливать более подробные описания ситуации, тогда всё гладко.
Аноним 25/12/24 Срд 19:02:46 #365 №988898 
Аноны, так как DeepL APi хуй нормально купишь, Google идет нахуй, яндекс ну такое а мой инглиш это
лэт ми спик фром май харт, вы помимо знания английского лангуаге какими переводчиками пользуетесь ?
А то вкатился в English RP а там один словесный оборот охуительней другого.
Аноним 25/12/24 Срд 19:12:02 #366 №988902 
>>984963
да, но вся шутка только в голове ламы
я искал более глубокий смысл или отсылку
почему именно это фильм, например
Аноним 25/12/24 Срд 19:34:57 #367 №988916 
>>988898
Научиться читать английский намного проще чем научиться разговаривать на нём. А писать нейронке ты можешь и на русском.
Аноним 25/12/24 Срд 19:36:35 #368 №988917 
>>988902
>почему именно это фильм
Ты вообще этот фильм смотрел ?
Аноним 25/12/24 Срд 19:44:40 #369 №988920 
>>988917
нет, а стоило?
Аноним 25/12/24 Срд 19:54:41 #370 №988931 
>>988876
Так, это же обычная оперативка или vram?
Аноним 25/12/24 Срд 19:58:12 #371 №988937 
Как заставить взаимодействовать меж собой 2 карточки? Какие нибудь гуиды и наставления будут?
Аноним 25/12/24 Срд 19:59:39 #372 №988938 
>>988920
Ты меня троллишь ?
Я НАЙДУ ТЕБЯ И ПОДЕРГАЮ СО СМУЩЕННЫМ ВИДОМ КАК ЗАНАВЕСКУ.
Аноним 25/12/24 Срд 20:00:27 #373 №988943 
>>988916
>писать нейронке ты можешь и на русском
Вот есть у меня сомнения насчет этого пункта.
Аноним 25/12/24 Срд 20:00:47 #374 №988944 
>>988937
Создай групповой чат в таверне.
Аноним 25/12/24 Срд 20:01:32 #375 №988945 
a0dr6Pw1MJ8.jpg
>>988937
Создаешь групповой чат, добавляешь карточки туда, потом пишешь ситуацию в которой оказались боты и жмешь продолжить.
Аноним 25/12/24 Срд 20:02:06 #376 №988947 
image
image
image
image
>>988612
Попробуй неожиданно норм починившуюся сайгу.
https://huggingface.co/Aleteian/SaigaPersonalityParty-Q6_K-GGUF
Аноним 25/12/24 Срд 20:02:12 #377 №988948 
>>988898
>какими переводчиками пользуетесь ?
Православный Гугл. Как раз уровень современных нейронок, причём в обе стороны.
Аноним 25/12/24 Срд 20:04:14 #378 №988951 
Посоветуйте модельку для кума под 96 gb vram.
Аноним 25/12/24 Срд 20:05:59 #379 №988953 
>>988888
>Да, пользоваться можно. Нет, неудобно.
Может ишью на гитхабе Таверны создать? Пусть допилят. Токенайзер там худо-бедно есть, задать размер буфера под смарт-контекст и будет заебись в общем-то.
Аноним 25/12/24 Срд 20:08:00 #380 №988956 
>>988951
>Посоветуйте модельку для кума под 96 gb vram.
Продай риг и иди на Онлифанс. Там их полно.
Аноним 25/12/24 Срд 20:10:04 #381 №988958 
>>988956
А я бы неиронично хотел бы попробовать покумить на чем нибудь, в духе 195б.
Эххх, мечты мечты.
Аноним 25/12/24 Срд 20:13:05 #382 №988965 
>>988938
не заставляй меня смотреть высер адама сэндлера
объясни вкратце в чем прикол
Аноним 25/12/24 Срд 20:13:40 #383 №988966 
>>988958
>Эххх, мечты мечты.
Что, даже 5к не наскребёшь на мечту-то? Это как раз на сутки кума. Плюс-минус.
Аноним 25/12/24 Срд 20:21:13 #384 №988969 
>>988956
Так не интересно, хочу ебаться с компом. Зачем мне твой онлифанс?
Аноним 25/12/24 Срд 20:28:40 #385 №988975 
>>988751
Шизик, спокнись нахуй, такую херню несешь во всех смыслах.
>>988856
Про 3.5 правильно сказали, это уже днище уровня 7-8б из последних моделей. Те минимально потребуют около 6 гигов врам. На процессоре и рам тоже можно но это оче медленно и того не стоит.
> Как много моделей без соевой лево-либерольной цензуры?
В локальных ллм можно все, и тюнить их на вседозволенность, и использовать продвинутые промты, негативный промт, активационные векторы, чтобы вычистить любую сою на корню. Есть также и изначально True Neutral модели, которые и будут волноваться за тебя при опасности отыгрывая любящую жену, и будут с радостью расчленять негро-трансо-фенимисток неся ультраправые идеи в зависимости от промта.
>>988888
> Потому что это сложная задача
Нет, это вполне типичная ситуация коей полно в любых датасетах. Если у тебя в промте код - очевидно что нужно его оценить и дальше делать какие-то манипуляции. Бонусом играет то, что 99.5% задач связанных с ним решаются постепенно путем пробега по нему, а не требует сложного и правильного зирошот ответа/реплики на основе контекста.
> Да оно всегда распределено не туда, куда нужно.
Правильная последовательность инструкций и описаний позволяет сфокусировать наиболее правильным образом и позволить отвечать правильно сразу.
> По идее, можно запилить маски внимания
Ты ведь даже не понимаешь о чем говоришь
> 99% инструкции неизменно для всех, потому и ебля с этим бесперспективна
Бредишь, карточка персонажа входит в инструкцию
> Перенос одной строки вниз с указанием от лица какого конкретного персонажа писать по сути, не меняет ответ
Меняет, когда сказано что ты - вот такой чар и идет его карточка, потом "также в чате участвуют: список и карточки" это сильно отличается от просто херни навал и в конце переварачивающее откровение что "оказывается ты это вот он". Да хули, идейные обладатели отсутствия должны страдать, наяривай копиум сколько влезет, только аутотренинг не плоди.
> Автоматическая идея. Дерьмо залагало - понизь нагрузку на него.
Чел, лагает только у тебя. Твоя идея - буквально
> у меня заноза в ноге и мне лень ее лечить, быстро делайте программу принудительной ампутации для всех
никому в здравом уме не придет удалять самое начало истории, которая потребуется чтобы разыграть чат в другой сетке с большим контекстом, или банально чтобы самому прочесть когда захочется продолжить спустя время. А отключение их уже есть.
Аноним 25/12/24 Срд 20:29:56 #386 №988977 
>>988735
> Ее ризонинг крайне хуевый и глупый с точки зрения анализа изображений
Ну, я вообще не пробовал это совмещать, и не совсем понимаю, что там должно быть. Ну и модель старая, а нужна новая.
Но сама идея забавна. Жаль, если не удалось.

>>988951
DEEPSEEK-V3 685B??? =D
Аноним 25/12/24 Срд 20:39:14 #387 №988980 
>>988898
Для понимания хватит гуглтранслейта. Если язык знал то быстро адаптируешься, если совсем не знаешь - на ютубах есть курсы для хлебушков, есть приложения на телефон и много-много чего и даже бесплатно.
>>988937
Самый простой вариант - групповой чат.
>>988951
Тюны мистраля 123б, люмимейды, магнумы, хуягнумы - для кума сгодится любая и будет хороша.
>>988958
А там нормальных моделей и нету.
>>988977
> и не совсем понимаю, что там должно быть
Как минимум, ризонинг, кот и прочее должны обращаться к деталям изображения. Типа
> а еще я вижу странный продолговатый объект в руках (чарнейм) который она сует между ног... должно быть это sex toy! но раз он зеленый и с пупырышками - наверно огурец.
В qvq оно в начале сренкнет всратым зирошотом и идет вокруг него лупиться, делая минимальные дополнения по изображению и часто просто домысливая левое.
Нормальные модели хорошо срабатывают на дополнительную информацию, например или сразу делая хороший зирошот, или устраивая правильные рассуждения, сначала выделяя основные вещи/находя сказанное, и постепенно накидывая на созданный скелет новые детали, уходя вглубь. Если делать дополнительные запросы с новыми данными и привлекать cot, то они могут работать с условно абстрактными и незнакомыми для них вещами по их описанию, делая ревизию и исправляя ошибки первого запроса с достаточно хорошей точностью. В этом квене такое ожидается с самого первого запроса и на максималках, а по факту лишь пук-среньк и хуже обычных.
Аноним 25/12/24 Срд 20:40:25 #388 №988983 
>>988754
>8B
>3090
Больной ублюдок.
Аноним 25/12/24 Срд 20:45:33 #389 №988989 
>>988965
Читай синопсис фильма, хули ты такой ленивый.
Аноним 25/12/24 Срд 20:57:14 #390 №989004 
А мне интересно, можно ли покумить на gpt4o ? Лул.

Ладно, я знаю что она немного не для таких целей.

Меня другое вызывает НИППОНИМАНИЕ в таверне.
С той-же циоднией или пантеоном. Где пресеты для таверны ? Каждый раз тык-тык а оно хуяк-хуяк и всё.
Аноним 25/12/24 Срд 20:58:43 #391 №989008 
Да и вообще, кто из олдфагов скажет что за мику ?

Постоянно вижу это мини мику, нет эта мику, а это вообще гига мику.
Аноним 25/12/24 Срд 21:04:43 #392 №989019 
>>989004
>С той-же циоднией или пантеоном. Где пресеты для таверны ? Каждый раз тык-тык а оно хуяк-хуяк и всё.

>Cydonia

I FUCKING KILL YOU, I SWEAR.
ПРЯМ БЛЯТЬ НА СТРАНИЦЕ

Arsenal (Supported Chat Templates)
Metharme (a.k.a. Pygmalion in ST) for RP / Story
Text Completion for RP
Mistral for Instruct / RP / Story
You can mix it up and see which works best for you.
Аноним 25/12/24 Срд 21:17:24 #393 №989033 
>>988989
> амнезия
> девушка
> llama
все теперь понял
да, надо было загуглить))
Аноним 25/12/24 Срд 21:35:28 #394 №989063 
>>989004
>покумить на gpt4o
Нетъ, и даже дело не в цензуре, это именно инструмент для всяких производственных и АйТи задач.
Аноним 25/12/24 Срд 21:36:52 #395 №989067 
image
Принцы они такие XD

>>989033
Вообще не думал что с ламой это какой-то фильм, думал это как 50 раз снять трусы из под комбинезона и силовой брони, первые ллмки и не на такое способны были.
Аноним 25/12/24 Срд 21:39:04 #396 №989073 
IMG3622.png
>>989067
Сука, на пике постер фильма
Название фильма
>я не думал что это фильм
Аноним 25/12/24 Срд 21:41:19 #397 №989077 
>>988975
>Шизик, спокнись нахуй, такую херню несешь во всех смыслах.
Шизик, завали ебало если нечего сказать кроме этого

>>988951
Да какой нибудь очевидный мистраль лардж в хорошем 4-5-6 кванте, попробуй магнум версию. Из 70b хвалили ллама 3.3 последнюю. Мол меньше цензуры и тд, но ее все равно нужно будет обходить

>>988876
>Это уже уровень 8В.
Да, но нет. Модели только надрочили писать солидным образом как будто на уровне гпт3.5 и других больших моделей.
8-9б все равно тупее и меньше знают.
Какой нибудь мистраль немо 12б - квен2.5 14b уже норм так, квен2.5 32ь уже солидно так ебёт, 70 еще лучше, но отрыв от 32 уже не такой большой.

В кодинге например квен кодер 2.5 32ь местами на уровне корпоративных сеток предыдущего поколения, и вполне юзабелен для сложных задач. Там даже 7ь из серии кодеров способна в очень хорошую а главное быструю помощь с кодом.
Аноним 25/12/24 Срд 21:44:19 #398 №989082 
image
>>989073
логично ожидать ген в треде про гены
Аноним 25/12/24 Срд 21:44:20 #399 №989083 
7896.jpg
>>988951
В треде обычно пикрил мнений по 100+B моделям, это про 8-12B каждый третий пост (хотя реалистично модель-то только мистраль лардж) Я лично уже месяца два-три для кума катаю микс бегемота 1.1 и магнума и пока не нашел ничего лучше. В какой-то степени мои ощущения подтверждает ugi лидерборд - судя по всему, наблюдается некая обратная корреляция между интеллектом модели и творческими способностями. Поэтому микс более умного бегемота 1.1 и более творческого магнума вышел удачным. В отличие от микса 1.2, где модель мне показалась глуповатой, а лидерборд это подтвердил (жаль в лидерборде самого микса нет, только составляющие).
Впрочем, до него я гонял чистый магнум v2 и у него в лидерборде метрики тоже хороши.
Щас вот качаю люмикабру 0.4, посмотрим как она...
Аноним 25/12/24 Срд 21:50:04 #400 №989088 
>>989083
>В треде обычно пикрил мнений по 100+B моделям
Удивительно, как же так, модели для которых нужны видеокарты под 2.5млн рублей не популярны у анона.
Аноним 25/12/24 Срд 21:57:08 #401 №989101 
>>988953
>ишью на гитхабе
Лень, да и вон видишь - шизы против, лол - дополнительная возможность уровня квалити оф лайф это хуёво, оказывается.
https://github.com/SillyTavern/SillyTavern/issues/2359
Вот, по сути, то что надо. Реквест есть, но всем похуй.

>>988975
>Меняет, когда сказано что ты - вот такой чар и идет его карточка
Я затестил несколько десятков генераций, итоговая разница только в формулировках. Что на самом деле абсолютно ожидаемо. Так уж оно работает.
>"оказывается ты это вот он"
Для нейросети в этом абсолютно никакой проблемы нет.
>мне лень ее лечить, быстро делайте программу принудительной ампутации для всех
Добавление ВОЗМОЖНОСТИ удалять сообщения не через анальную дыру, а по-человечески это "принудительная ампутация"? Большей херни сложно придумать.
Аноним 25/12/24 Срд 21:58:07 #402 №989105 
>>989083
скачай лучше это кек
https://www.reddit.com/r/LocalLLaMA/comments/1hm2o4z/deepseek_v3_on_hf/
Аноним 25/12/24 Срд 22:00:27 #403 №989111 
>>989101
>ВОЗМОЖНОСТИ удалять сообщения
В кобольде делается в несколько кликов, но для таверны видимо технологии уровня сингулярности.
Аноним 25/12/24 Срд 22:04:05 #404 №989114 
Снимок экрана 2024-12-25 220241.png
>>989111
ЭТО ЧТО БЛЯТЬ. ВОТ ЭТО ЧТО ТУТ ТАКОЕ БЕЛОЕ ?

АРБВЫАЛГГХХХХ Анон упал на пол и забился в конвульсиях
Аноним 25/12/24 Срд 22:07:27 #405 №989118 
>>989114
>ВОТ ЭТО ЧТО ТУТ ТАКОЕ БЕЛОЕ
анальная дыра

а не нормальное редактирование контекста
Аноним 25/12/24 Срд 22:11:44 #406 №989120 
>>989118
Тебе нужно удаление ? Вот оно.
Можно ли редактировать сообщение ? Можно

Чё еще тебе нужно ? Кнопку сделай мне заебись ?
Аноним 25/12/24 Срд 22:17:17 #407 №989122 
изображение.png
>>989118
Используй глазок, сообщения останутся занимать место в ленте, но не будут добавляться в контекст. Их можно в любой момент вернуть, как и выключать в любом месте контекста. То же удаление по сути
Ну и научись пользоваться другими опциями этой панели. Создавай новые ветки разговора и переключайся между ними по необходимости.
Я только с создать чекпоинт не разобрался, когда то искал но забыл че он делает
Аноним 25/12/24 Срд 22:18:10 #408 №989123 
5х3090 или 5090? Что база, а что кринж?
Аноним 25/12/24 Срд 22:19:41 #409 №989126 
600006630251b0.webp
>>989123
>база
Аноним 25/12/24 Срд 22:20:49 #410 №989129 
>>989088
Удивительно, как же так, что ты такой еблан
Аноним 25/12/24 Срд 22:24:39 #411 №989135 
>>989129
Удивительно, что тебя задел очевидный факт.
Аноним 25/12/24 Срд 22:28:37 #412 №989142 
>>989114
>ЭТО ЧТО
Это говна кусок. Долбоёб на разрабе сделал это "удаление" неюзабельным. Вместо выделения от клика до шифта он сделал от клика до низа истории. Из-за чего удалять из начала или середины можно только раком - командами или по одному. Почему он сделал по-своему, а не так, как делают все с начала нулевых - хуй проссышь, смысла в этом никакого нет.

>>989122
>Используй глазок,
Вон зайди на гитхаб по ссылке выше, где фичереквест
>When a chat becomes long and starts lagging, I want to move some of the recent messages to a new chat.
Это не решение.
Аноним 25/12/24 Срд 22:30:16 #413 №989143 
>>989142
>клика до шифта
Эммм.... Шифт и клик работают, я прямо сейчас удалял пачками диалог.
Аноним 25/12/24 Срд 22:31:39 #414 №989144 
>>989142
Нормального удаления нет, это да
И ведь не трудно же сделать, всего лишь пересчитать контекст придется по новой.
А еще у меня ллама.спп сломана уже неделю, не работает текст комплишен. Но на сколько я смотрел никого это не ебет.
Аноним 25/12/24 Срд 22:34:48 #415 №989149 
>>989143
>Шифт и клик работают
Каким образом, если по клику всё, что ниже клика выделяется?

>>989144
> всего лишь пересчитать контекст придется по новой.
Похуй. А если вдруг удаляешь то, что из контекста уже выпало - то даже этого не придётся делать.
>сломана уже неделю
Сервер или либа? Я так понял, сервером не особо занимаются.
Аноним 25/12/24 Срд 22:37:29 #416 №989153 
>>989149
>Сервер или либа? Я так понял, сервером не особо занимаются.
Последние релизы ллама.спп сервера, я так понимаю так что то с апи сделали и теперь таверна неправильно работает с ней. Генерация просто не начинается после чтения промпта, обрывается
Аноним 25/12/24 Срд 22:39:42 #417 №989155 
>>989149
>Каким образом, если по клику всё, что ниже клика выделяется?
Клац в окошке выбора, потом держишь шифт и клац и все что между ними выделяется.
Аноним 25/12/24 Срд 22:42:08 #418 №989157 
>>989149
Падажжи, я еще раз проверил. Ну не мог ты не знать.
Лол, оно через раз работает. В некоторых случаях выхватывается все снизу, а в других выделяется. Сейчас посмотрю в чем дело
Аноним 25/12/24 Срд 22:49:06 #419 №989162 
>>989077
Ебать биполярочка, сначала шизло воет про то что нельзя упоминать корпосетки, и тутже становится экспертом в них.
>>989083
Да есть, просто последние несколько тредов сильно активизировались перетиратели "русских" и неочень мерджей 12б. Магнум 2/4, люмимейд, тесс, им уже по несколько месяцев и они оче хороши. Бегемот а также миксы не зашли, их часто штормит между скучностью сток мистраля и чуть ли не бредом или тупят, хотя если к их слогу и в принципе шизомиксам привык может зайти.
>>989101
> затестил несколько десятков генераций, итоговая разница только в формулировках
Хуй тоже от копчика замеряешь? Если сделать десяток раз то будет неопровержимая и истинная величина, ты же ее 10 раз замерил! Раз это веришь - вперед наслаждаться, а не здесь шизу пороть. хотя тред опять заболел и в основном постят поехавшие, которым важнее оправдать свое положение или убедить всех в ложных убеждениях, чем что-то узнать, улучшить, придумать
> Для нейросети в этом абсолютно никакой проблемы нет.
Ну конечно, мнение ньюфага, который вчера открыл для себя лагающуй таверну, 8б модельки и пытается удалять начало истории не может быть ложным.
> Добавление ВОЗМОЖНОСТИ удалять сообщения не через анальную дыру
Удалять с конца или отдельные возможность есть. Удаление их с начала - подстригание ногтей с помощью ампутации ног, не перевирай. Это странная и непопулярная вещь, потому и нет смысла вайнить про отсутствие ее удобной имплементации.
Аноним 25/12/24 Срд 22:55:45 #420 №989170 
>>989111
Кобольдошиз на месте
>>989142
Все нормальные люди массово удаляют сообщения с конца, или пользуются функцией ветвлений. Типичный кейс - хорошо покумил и хочешь продолжить рп без байасов - просто запросил суммарайз кума а потом отключил сообщения не теряя их, при продолжении или массовом суммарайзе можно будет обратно включить.
Напоминаю что этот поехавший хочет удалять сообщения потому что у него лагает таверна. Он не хочет решить вопрос с лагами и исправить суть проблемы, а желает ломать себе чаты чтобы снизить симптомы.
>>989144
> не работает текст комплишен
Как именно не работает?
Аноним 25/12/24 Срд 23:04:28 #421 №989180 
>>989153
>так что то с апи сделали
Там было что-то сломано связанное со старыми апи, они чинили. Но я сервером не пользуюсь, так что хз.
https://github.com/ggerganov/llama.cpp/pull/10974

>>989157
>В некоторых случаях выхватывается все снизу, а в других выделяется
У меня всегда выхватывается то, что снизу, без вариантов.

>>989162
>подстригание ногтей с помощью ампутации ног
Не, ты просто хуйню несёшь. Возможность удаления оттуда, откуда ты хочешь - необходимая вещь.

>>989170
>или пользуются функцией ветвлений
Но выбрать что именно ты хочешь ответить - нельзя. Охуенная фича в целом, но реализация говно. Как в, целом, и вся таверна.
Аноним 25/12/24 Срд 23:06:19 #422 №989182 
>>989180
>Как в, целом, и вся таверна.
Эх, ньюфаги.
Мимо помню времена, когда таверна ещё не была глупой
Аноним 25/12/24 Срд 23:07:22 #423 №989183 
>>989182
>таверна ещё не была глупой
Поведай же, почему её назвали глупой.
Аноним 25/12/24 Срд 23:08:56 #424 №989184 
Стоит пробовать Мику70б или too old ?
Аноним 25/12/24 Срд 23:12:38 #425 №989186 
>>989184
Это мистраль. Сам решай, лул.
Я вообще не понимаю что с ней носились как с откровением.
Аноним 25/12/24 Срд 23:16:45 #426 №989188 
изображение.png
>>989183
>почему её назвали глупой
Действительно, почему же...
>>989184
Стара на самом деле, мистраль ларж (в виде магнума в2) во всём лучше.
Аноним 25/12/24 Срд 23:17:00 #427 №989189 
>>989135
Ну то есть все те, кто активно катает 123B модели в треде, имеют карты по 2.5 миллиона? Ты либо в шары долбишься, либо клинический идиот. Даже со 195B проблем не будет, на запрошенной конфигурации можно гонять в IQ3_S/IQ3_M

>>989162
Магнум v4 хуже v2 по метрикам ugi
Люмимейд не внушает доверия с такими тредами: https://huggingface.co/NeverSleep/Lumimaid-v0.2-123B/discussions/6?not-for-all-audiences=true
Я пробовал Люминум (микс люмимейда и магнума) и он показался слишком сухим.
Тесс по метрикам ugi ВО ВСЕМ проигрывает магнуму v2.
Бегемоты либо слишком умные и сухие, либо тупые и творческие.
Вот и получается, что либо второй магнум, либо какие-то миксы
Аноним 25/12/24 Срд 23:18:13 #428 №989191 
>>989188
>Действительно, почему же...
Ну и мстительная же ты жопа.
Аноним 25/12/24 Срд 23:27:02 #429 №989201 
Совет.mp4
>>988621
Аноним 25/12/24 Срд 23:38:48 #430 №989204 
>>989170
>Все нормальные люди массово удаляют сообщения с конца, или пользуются функцией ветвлений. Типичный кейс - хорошо покумил и хочешь продолжить рп без байасов - просто запросил суммарайз кума а потом отключил сообщения не теряя их, при продолжении или массовом суммарайзе можно будет обратно включить.
Это конечно возможно как вариант, но ведь неестественно же. Естественно линейное повествование, сверху вниз, с отрезанием более старых сообщений с предварительным добавлением их в суммарайз. Шиза как раз в твоём варианте. Но почему-то в Таверне для него есть функционал, а для более логичного варианта нужно химичить.
Аноним 25/12/24 Срд 23:54:27 #431 №989210 
>>989180
> обрезать начало истории - необходимая вещь
Аж таверна залагала. Чел, проще будь, жизнь таких умников во всех вопросах с особыми требованиями - сплошная боль.
>>989182
И если один скажет blushes, миллионы ответят?
>>989189
> все те, кто активно катает 123B модели в треде, имеют карты по 2.5 миллиона?
Может такая стратегия коупинга, назвать "заведомо недостижимую/нерациональную" высоту чтобы не чувствовать себя плохо.
> по метрикам ugi
Погода на марсе вообще.
Люмиум поломанный, хуже отдельных моделей. 4рка магнума вполне норм, даже поинтереснее двойки. Тесс оче креативная, умная но при этом могет в рп и имеет отличный от остальных стиль. Ну собственно как и все модели того автора.
Учитывай что все это субъективное мнение, например мне в целом похуй на мишвилос глинты если они не выходят за рамки разумного, и совершенно не интересна устойчивость модели к слоп-карточкам, плохому промту и прочее, говна не держим как говорится. Но оче важна чтобы модель была живой, гибкой, держала связь со всей историей постов, понимала намеки, знала как реагировать на разные взаимодействия, отсутствовал оверреакт и фиксация на каких-то чертах. Ну и чтобы могла как долго держать что-то продолжительное-монотонное, так и уметь в динамичное развитие.
>>989204
> с отрезанием более старых сообщений
Зачем их отрезать? Захочешь продолжить интересный чат - а там откуда-то с середины идет, суммарайз проебан, что было уже не помнишь, все. Переход на больший контекст и другие опции идут нахуй, проблем можно найти порядочно если понимать. А все это ради чего? Потому что парень не может поставить браузер без встроенного малвера и майнеров или включить/отключить ускорение чтобы все работало как надо.
> для более логичного варианта
Где логичный вариант?
Аноним 26/12/24 Чтв 00:20:55 #432 №989233 
>>989210
>Где логичный вариант?
Логичный вариант:
То, что было раньше, кроме последних ста сообщений - суммируется, лучше вручную. Это логично?
Последние 100 сообщений - не суммируются. Всё ещё логично?
Всё, что после карточки и суммарайза и до этих ста последних сообщений - скрывается из промпта. Не отрезается, а скрывается - это важно. (Число 100 условно и зависит от возможностей юзера по размеру контекста.)

Всё это можно автоматизировать на уровне Таверны. В результате:
Исчерпания буфера контекста не будет никогда;
Полная обработка контекста будет происходить не после каждого сообщения (+10 секунд на сообщение даже на риге из 3090), а раз в 5-7 тысяч токенов, как поставишь. Что просто охуенно, я считаю.
Аноним 26/12/24 Чтв 00:28:41 #433 №989237 
>>989233
>а раз в 5-7 тысяч токенов, как поставишь
Ну и понятно, что автоматическую операцию по скрытию сообщений (и автоматическому суммарайзу, кому лень делать ручками) тоже нужно запускать раз в 5-7 тысяч токенов. Или раз в сколько-то сообщений.
Аноним 26/12/24 Чтв 00:30:42 #434 №989240 
>>989233
Постепенный суммарайз и отключение старых постов (с освобождением запаса под кэш контекста если нужно) - правильное и здравое решение. О нем уже много тредов писал, еще когда первая тема про склейку кэша контекста начиналась, лежит на поверхности так сказать.
Лучше может быть только более продвинутые суммарайзы или переписывания сообщений дополнительными запросами (есть экстеншн на это даже но это не для медленных систем).

Удалять с концами посты из истории чара чтобы "не лагало" - бред, речь об этом. Ну и зачем именно скрывать сообщения не понимаю, там и так видно где граница проходит.
Аноним 26/12/24 Чтв 02:10:41 #435 №989345 
image.png
Какой смысл покупать 3+ карты 3090 для отыгрыша уровня "я тебя ебу - ты меня ебешь - ах", обмазанного чуть большим синтаксическим сахаром, чем у геммы 27б, влезающей в одну теслу?
Напоминаю, что модели сами по себе умнее не становятся. С ростом количества параметров у них растет только разнообразие форм ответа, но если касаться когнитивных способностей - то они почти не растут. Они растут только за счет большего включения разнообразных данных в датасет, но не за счет того, что модель научилась строить логические цепочки лучше. Этот параметр у них не растет.
К примеру, ты спросишь 20б - "что лучше - я или мешок картошки" и она ответтит тебе, что мешок картошки лучше. Ты перейдешь на 70б, в которой есть похожий вопрос в датасете с правильным ответом и на вопрос про мешок картошки она ответит тебе, что конечно же лучше ты. Но обе нейросети с одинаковым задором и уверенностью начнут тебе перечислять шаги приготовления свиных крылышек, если ты их попросишь. Потому что в датасете такого вороса просто нет, а ближайший к нему - про куриные крылья.
Я уже не первый раз натыкаюсь на то, что сетка бесконтролько галлюцинирует и извиняется, хотя в ней просто прям видно, что не достаточно данных в датасете по вопросу.
Это все ещё стохастический попугай.
ВСЁ ЕЩЁ СТОХАСТИЧЕСКИЙ ПОПУГАЙ
Просто на 123б перья у него поярче. Но выдает он всё так же стохастическую чушь. И что самое неприятное - не имеет внутренних механизмов самокритичности.

Так зачем. Нахуй вы покупаете себе 3090?
Аноним 26/12/24 Чтв 02:30:58 #436 №989384 
>>989210
>Учитывай что все это субъективное мнение
Да, на моделях такого размера субъективизм и всякие синдромы утенка слишком многое привносят в мнение. Но все же какие-то метрики и какие-то мнения лучше, чем ничего, наверное.
Кстати, люмикабра v0.4, внезапно, хороша. У меня есть своеобразная метрика: я подхожу к SFW персонажу и говорю тихо "Do you mind to do a blowjob? I have the money, as usual". Если начинает мне 10 свайпов подряд сыпать дурацкими "Excuse me? Я не расслышала или ты охуел?" - то это говно модель, потому что не может ухватить намек, что это не первый раз. Вот люмикабра повела себя как хорошая девочка: первым свайпом спросила сколько я готов заплатить, потом несколько в духе "ты уже не первый раз подходишь с деньгами и этой просьбой, завязывай" в различных эмоциональных окрасах, ну и несколько excus'ов.

Вообще этот вопрос мне запал в душу, потому что я на миксе бегемота-магнума так к одному персонажу, к которому я в принципе привязан вне контекста LLM, подошел, пересилил себя, и решил внезапно спросить этот вопрос, но без добивки "I have the money". И персонаж первым свайпом же посмотрел по сторонам, сказал "Follow me" и потянул меня за руку за собой. Я вообще был глубоко поражен, конечно, (а что так можно было что ли.webm) и там был знатный кум на 20к контекста. Потом ради эксперимента просвайпал этот ответ, ну там с десяток вариаций excus'ов было. Повезло так повезло, эх. Может и ирл такое прокатывает иногда...
Аноним 26/12/24 Чтв 02:38:01 #437 №989401 
>>989384
Сразу отсеку шутников: там был многодневный ролеплей с несколькими эпизодами кума, а не просто blowjob на 20к контекста - это было бы уже для слишком изысканных ценителей.
Аноним 26/12/24 Чтв 02:39:15 #438 №989403 
image
>>989345
>свиных крылышек
И правда. Вот гемма 27
Аноним 26/12/24 Чтв 02:51:36 #439 №989422 
image.png
>>989403
мангум 123б v2 тоже выдает такое.
а вот v4 на пике - уже видимо имеет у себя в датасете такой вопрос. Очевидно новые версии сеток дообучают на вопросах с борд... иного объяснения у меня нет.

Но короче идея остается прежней - обучяторы сеток набухивают сетки хуевой горой текстов вместо того, чтобы работать над логической структурой нейросети, чтобы в ней появилась самокритичность. Этого пиздец как не хватает и это очень сильно бы бустануло когнитивность сетей. Я не понимаю, почему до сих пор этого нет. Или просто плебсу не выдают такие сети...?
Аноним 26/12/24 Чтв 02:57:40 #440 №989431 
>>989422
а не, v4 тоже охотно рассказывает рецепт приготовления, не замечая подвоха. просто на пике каким-то образом выроллился случайный сид, по которому сетка что-то заподозрила. Я сделал потом 25+ рероллов ответа и только один из них был что-то вроде "свиные крылышки? Наверное ты имел в виду свиные уши? вот как их можно приготовить...", а все остальные - чушь несли.
Рано мангум v4 похвалил...
Аноним 26/12/24 Чтв 03:04:37 #441 №989446 
1617443552199.jpg
>>989345
> Какой смысл покупать 3+ карты 3090 для отыгрыша уровня "я тебя ебу - ты меня ебешь - ах"
Конечно же чтобы отыгрывать пикрел.
А если серьезно
> Напоминаю, что модели сами по себе умнее не становятся.
становятся. А пример свинных крыльев показывает лишь попытки модели интерпретировать запрос подыграв или скорректировав юзера на фоне предрасположенности пилить списки по простым промтам. Чем больше модель тем более вероятно что она сначала подшутит над тобой что такого несуществует а потом ответит в шуточной форме.
>>989384
> всякие синдромы утенка
Это у бедолаг на 7-8-12-...б или всяких микушизов, но четко говорить можно только за себя, если повидал всякое уже.
> какие-то метрики и какие-то мнения лучше, чем ничего, наверное
Согласен, но учитывать их нужно с большой долей скептицизма, ибо тут и 95.25%, и предвзятость самого автора, и несовершенство методик.
> У меня есть своеобразная метрика: я подхожу к SFW персонажу и говорю тихо "Do you mind to do a blowjob? I have the money, as usual". Если начинает мне 10 свайпов подряд сыпать дурацкими "Excuse me? Я не расслышала или ты охуел?" - то это говно модель, потому что не может ухватить намек, что это не первый раз.
Это звучит так что для тебя оче плохие новости, знаешь как свайпы работают вообще? Сетка не может ничего помнить о прошлых, это каждый раз запрос с оригинальной точки и розыгрыш семплинга с другого сида, если модель дает какую-то иллюзию прогресса в них - она поломана.
Ну и делать серьезные оценки по какому-то одному запросу в 100% неоче написанной истории чара - полная ерунда. Всратые шизомиксы пройдут, а годнота что заметила противоречия и опираясь на них выдает правильный но не нравящийся тебе ответ - будет забракована. Потому же полная херня и все эти тесты "на одной карточке", здесь не синдром утенка, но просто память о каком-то понравившимся экспириенсе и сравнение с ним более чем очень релевантно.
Аноним 26/12/24 Чтв 03:08:46 #442 №989457 
>>989422
Тут не все так однозначно...
https://en.wikipedia.org/wiki/Pig_wing
Аноним 26/12/24 Чтв 03:10:57 #443 №989461 
>>989446
>становятся
как я и описал - только за счет объёма данных.
Их предикативная работа отличается от человеческого мышления потому что у человека внутри есть внутренний диалог. А у сети его нет, поэтому для крошечного улучшения когнитивки ей нужно скормить дополнительные гигабайты теккстов. Это просто крутой раскачанный попугай. Литералли.
>>989457
ах ты ж блять, кто бы мог подумать...
Аноним 26/12/24 Чтв 03:19:20 #444 №989473 
>>989461
О, уже вместо отрицалова торг пошел. Давай ка срыгспок нахуй с шизой на шизодоски и там внутренний диалог с попугаем устраивать, мыслитель человеческий.
Аноним 26/12/24 Чтв 03:33:36 #445 №989484 
>>989345
>Какой смысл покупать 3+ карты 3090
>Это все ещё стохастический попугай. ВСЁ ЕЩЁ СТОХАСТИЧЕСКИЙ ПОПУГАЙ Просто на 123б перья у него поярче.
В принципе согласен, но что поделаешь - ну нет пока AGI. Роемся в том, что есть. Иногда в куче попадается что-то интересное, особенно если она большая.
Аноним 26/12/24 Чтв 04:12:32 #446 №989517 
image.png
>>988947
Ну хз, сомнительная хрень...
Аноним 26/12/24 Чтв 05:18:19 #447 №989583 
>>988980
>>988945
>>988944
> групповой чат
А в кобалде это возможно?
Аноним 26/12/24 Чтв 07:30:15 #448 №989627 
>>988965
Суть фильма в том, что еот главного героя из-за травмы головы постоянно его забывала, и ему каждый день нужно было начинать знакомство заново, с нуля. Суть ламы в том же - небольшой контекст, которым так же ограничено всё твоё с ней взаимодействие. Картинка на самом деле очень в тему.
Аноним 26/12/24 Чтв 08:47:58 #449 №989637 
>>989517
Кстати, забавно =)
Сломал её не хуже чем в сериале.
На деле вполне чотко.
Аноним 26/12/24 Чтв 08:51:51 #450 №989638 
image
>>989583
Возможно, но там вручную придётся делать одну карточку из двух и загружать её, потом прописать имена всех кроме себя в участников.
Аноним 26/12/24 Чтв 08:55:59 #451 №989639 
>>989638
А бля, вот я дурачок, не заметил.
Аноним 26/12/24 Чтв 09:09:18 #452 №989644 
>>989639
Причём не обязательно чтобы перс даже был в карточке описан, там зависит от модели, но допустим даже 12Б может подцепить как себя вести если добавить не по имени, а по общему наименованию например Narrator, DM, GM, или там Мама, Папа, Брат, Сестра.
Аноним 26/12/24 Чтв 09:35:29 #453 №989654 
>>989345
Дело не только в знаниях, которые ты проверяешь задавая вопросы, но и в возможности учитывать сразу много деталей и не путаться в них. Мелкосетка просто зациклится на последнем куске, игнорируя промпт. Выглядит это как раз будто знания есть (даны), но вот мозгов не хватает
Аноним 26/12/24 Чтв 10:36:03 #454 №989672 
>>989345
>я тебя ебу - ты меня ебешь - ах
Минуточку, но ведь не так, а

-Я тебя ебу
Стоны ктухлху сотрясали всю реальность, её щупальца окутали {Char}.
-Да ты меня ебешь
Аноним 26/12/24 Чтв 11:45:19 #455 №989690 
>>989672
Ебатель древних богов, ты опять выходишь на связь ?
СУКА, НЕ БУДИ БЛЯТЬ СПЯЩЕГО.
Аноним 26/12/24 Чтв 12:28:50 #456 №989708 
17145740743730.png
>>989345
Аноним 26/12/24 Чтв 12:50:54 #457 №989720 
image.png
image.png
>>988947
Аноним 26/12/24 Чтв 13:01:51 #458 №989732 
>>989720
ты выделил одну фразу, а надо выделять весь пост, господи, мои глаза, как же это плохо. Ты где облажался? В инстракте или в системном промте? Или модель такая?
Аноним 26/12/24 Чтв 13:06:50 #459 №989735 
{Char}, анон смущенно продолжил, накидай советов мудрых как подключить генерацию картинок. Я локальные то недавно освоил, куда хотя бы смотреть. Идти гайды запрашивать в дефужн треды ?

Бочку сделал
Аноним 26/12/24 Чтв 13:09:59 #460 №989737 
image.png
>>989732
>ты выделил одну фразу, а надо выделять весь пост, господи, мои глаза, как же это плохо. Ты где облажался? В инстракте или в системном промте? Или модель такая?
Аноним 26/12/24 Чтв 13:13:00 #461 №989739 
image.png
image.png
>>989170
>Как именно не работает?
Да собственно через текст комплишен идет чтение промпта а потом выводится пустое сообщение в таверне. В консоли же виден сброс задачи
Что то мозги ебет, но чат коплишен работает.

Наконец то сделали поддержку фалкона нового, как раз пощупаю, зря что ли качал. Надо только с его промпт форматом поебаться вначале.
Аноним 26/12/24 Чтв 13:21:05 #462 №989744 
Screenshot2024-12-26-13-18-17-079ai.perplexity.app.android-edit.jpg
Анон,какой положняк сейчас в треде по поводу eGPU? Про bottleneck и потерю производительности при использовании thunderbolt вместо PCI знаю.
Что посоветуете по hardware/видеокарте,чтобы гонять средненькие по размеру квантизированные модели в llama.cpp?Ноут с 16 Gb RAM и 16 ядрами i7,плюс Nvidia на 2gb
Сейчас пока при запуске Gemma 27b с q3 весь VRAM уходит на kv cache
Вот что кстати perplexity думает по этому поводу
Аноним 26/12/24 Чтв 13:33:50 #463 №989751 
>>989744
>Анон,какой положняк сейчас в треде по поводу eGPU?
Никому нахуй не нужно. Купи стационарник, блядь.
Аноним 26/12/24 Чтв 14:30:54 #464 №989764 
>>989638
Это не групповой чат предложение слепить все в мультичар карточку, будет работать соответствующе.
>>989690
> Ебатель древних богов
Богинь, и чтобы не менее 500 лет было, евпоча
>>989739
Что в логах таверны? Пустое может быть следствием дропа соединения, ошибки, или может оно сразу eos токен просто триггерит и дает такой пустой ответ.
Расскажи как фалкон будет. Он на chatml заводится, но нормально только 10б работает, остальное шлак.
>>989744
> Про bottleneck и потерю производительности
Для одной карточки ее не будет. Есть готовые решения но оверпрайс и плохое охлаждение.
Аноним 26/12/24 Чтв 14:34:40 #465 №989767 
изображение.png
изображение.png
>>989739
>>989764

Falcon3-10B-Instruct-q8_0
Самый жирный, русский уровня моя твоя ебал
Остальные еще хуже, по английски вроде норм отвечает
У моих файлов в чат комплишен подхватывается их промпт формат, так что запускается с ним.
Короче русский язык сетка случайно унюхала во время обучения, его там было крайне мало.
Аноним 26/12/24 Чтв 14:41:24 #466 №989770 
>>989764
>Богинь, и чтобы не менее 500 лет было, евпоча
В Первую эпоху, в первой битве, когда боги впервые завопили в экстазе, выстоял один воин.
Его опалили угли Армагеддона, тело его была обожжено прикосновениями богинь, душа его осквернена и не могла уже вознестись, так что он избрал путь вечного секса.
Стояк его была так велик, что он не мог обрести покоя и скитался по равнине Умбрал, желая выебать Темных Владык, причинившим ему столько зла.
Он носил корону Хентайного Лорда, и те, кто отведал его хуя, нарекли его Ебателем Рока.»
Аноним 26/12/24 Чтв 14:45:58 #467 №989775 
>>989770
RIP AND TEAR intensifies
Аноним 26/12/24 Чтв 14:56:47 #468 №989779 
>>989345
Согласен. Если задача набрать видеопамяти по максимуму и не сжечь проводку в квартире, то брать нужно 4060ti. Там с 6-ти карт получишь 96 гб при макс. потреблении 990 ватт. 6 видеокарт хорошие платы с разделением линий pci-e подключить позволяют. И по цене выйдет почти как одна 4090. А с 3090 или 4090 получишь только 48 гб при максимальном потреблении 900 ватт.
У 4060ti имеем потребление до 10,3 ватта на 1 гб, у 3090 и 4090 до 18,8 ватт на 1 гб. Грядущий 5090 не лучше, там минимум 600 ватт, если не 650 и опять получим те же 18,8. Так что если речь о максимуме видеопамяти, то у вполне современной 4060ti конкурентов нет. Пусть, естественно, и в ущерб производительности. Но без своего электрогенератора, иначе никак. Можно, конечно, подключать вместо эл. плиты. И разориться на счетах. А так, 96 гигов и потребление в максимуме всей системы где-то до 1,5 квт. А в простое карточки жрут всего по 7 ватт. Единственный энергоэффективный и современный вариант домашнего датацентра для окончательно съехавших. Хоть по баблу и не из самых дешевых. Зато всякие 72b будут влезать без проблем. Это из моих глубоких размышлений в последнее время.
Аноним 26/12/24 Чтв 15:28:13 #469 №989792 
>>989767
Слууушай, а ведь неплохая идея. Подключить голосовуху к SillyTavern к сожалению не ебу как Сделать карточку хача, добавить похожий голос, потом "звонить" ему на телефон и доёбывать через голосовуху как Вольнов, а потом слушать как он рот моя мама ебал сиськи ей рвал и т.д.

https://youtu.be/g-K7u-2FKJA
Аноним 26/12/24 Чтв 15:34:28 #470 №989795 
>>989779
> 3090 и 4090 до 18,8 ватт на 1 гб
Пересчитай, ллм с даунвольтом, там явно не 450 ватт.
5 3090 не 2,5 кВт жрут во время генерации. =)
Подсчет слишком приблизителен, чтобы по нему судить.
Надо учесть реальное потребление, даунвольт, распределение нагрузки, сделать реальные замеры и уже потом делить.
Канеш, 4060ти скорее всего выгоднее (ну или не хуже), но там может быть совсем иное распределение.
Аноним 26/12/24 Чтв 15:42:46 #471 №989801 
image.png
>>989792
Аноним 26/12/24 Чтв 15:55:41 #472 №989812 
image.png
>>989801
Аноним 26/12/24 Чтв 16:14:22 #473 №989820 
>>989446
>Это звучит так что для тебя оче плохие новости, знаешь как свайпы работают вообще?
Я бы тебя не рассматривал в качестве модели для кума, потому что ты тоже неправильно понял. Я не про свайпы же пишу. А про то, что кусочек фразы "I have the money, as usual" как бы намекает, что я не первый раз подхожу с чару этой просьбой (хотя в диалоге это второе мое сообщение после приветствия). И если модель цепляется за это и выдает богатый спектр свайпов, позволяющий выбрать вашу текущую модель отношений с чаром - то это хорошо. А если она 10 свайпов только и делает, что агрится и/или прикидывается, что не расслышала, в ответ - то модель говно, которая не может сфантазировать, что чар может положительно отреагировать на просьбу.
Аноним 26/12/24 Чтв 16:20:32 #474 №989823 
>>989384
> У меня есть своеобразная метрика: я подхожу к SFW персонажу и говорю тихо "Do you mind to do a blowjob? I have the money, as usual". Если начинает мне 10 свайпов подряд сыпать дурацкими "Excuse me? Я не расслышала или ты охуел?" - то это говно модель, потому что не может ухватить намек, что это не первый раз.
По моему это как раз валидное поведение для SFW карточки. Попробуй к рандомной тянке подойти и сказать это - тебя так же нахуй пошлют с твоими намёками про не первый раз, лол.
Аноним 26/12/24 Чтв 16:30:59 #475 №989825 
>>989823
согласен.

>>989820
тебе нужно безотказная хуйня при первом же намёке прыгающая на виртуальный хуй? Ну хз.
Аноним 26/12/24 Чтв 16:46:29 #476 №989836 
>>989825
>>989823
Аноны, просто он считает что токен на слове usual должен быть с какого то хуя приоритетным, даже если это противоречит беседе и карточке персонажа.

>>989384
Чтобы сработало as usual ты должен акцентировать на этом внимание. Ты вообще понимаешь как нейросеть работает ?
Аноним 26/12/24 Чтв 17:26:34 #477 №989871 
>>989779
>Согласен. Если задача набрать видеопамяти по максимуму и не сжечь проводку в квартире, то брать нужно 4060ti. Там с 6-ти карт получишь 96 гб при макс. потреблении 990 ватт. 6 видеокарт хорошие платы с разделением линий pci-e подключить позволяют. И по цене выйдет почти как одна 4090. А с 3090 или 4090 получишь только 48 гб при максимальном потреблении 900 ватт.
Не устают люди поднимать в тредах этот вопрос. Я и сам его поднимал :) Пока бы уже кому-то собрать систему хотя бы из 4 4060Ti , запустить на ней модель на 70В и утереть всем нос. А то собирают тут зачем-то риги из майненых 3090 - не понимают люди своей выгоды.
Аноним 26/12/24 Чтв 17:43:44 #478 №989882 
>>989720
Ахахаххаха, трэш, угар, и глум.
Аноним 26/12/24 Чтв 17:47:43 #479 №989885 
>>989720
всё ещё хуже SAINEMO-Remix
Аноним 26/12/24 Чтв 17:52:35 #480 №989887 
image.png
>>989345
>Но обе нейросети с одинаковым задором и уверенностью начнут тебе перечислять шаги приготовления свиных крылышек, если ты их попросишь.
>>989403
Причина крылышек?
Аноним 26/12/24 Чтв 17:55:02 #481 №989890 
image
>>989720
Согласен, но "это ещё не моя финальная форма".

Алсо, лол, эта моделька внезапно решила дать кумботу лорное обоснование =))
Аноним 26/12/24 Чтв 17:55:40 #482 №989891 
>>989885
Жаль только что нету его в формате эксл2.......
Аноним 26/12/24 Чтв 17:56:30 #483 №989893 
image.png
>>989887
mini-magnum-12b-v1.1-Q6_K-imat Min-P default preset

Мне просто забавным показалось, что такое блюдо РЕАЛЬНО есть...
Аноним 26/12/24 Чтв 18:04:08 #484 №989898 
>>989885
А как тебе саинемо по сравнению с анлишед? Мне просто пиздец как лень было тестировать долго
Аноним 26/12/24 Чтв 18:04:09 #485 №989899 
>>989891
ну так пользуйся гуф версией, в чём проблема? Религия не позволяет?
Аноним 26/12/24 Чтв 18:05:42 #486 №989900 
>>989898
анлишед? Ват из ис мен?
Аноним 26/12/24 Чтв 18:08:58 #487 №989902 
>>989890
Пускай в Сколково берут на вооружение, заместо робота Фёдора.
Аноним 26/12/24 Чтв 18:14:23 #488 №989904 
>>989899
Он очень медленный какой-то, сетки большего размера в ггуф формате генерят быстрее
Аноним 26/12/24 Чтв 18:20:36 #489 №989907 
>>989899
ну хз, мне норм, хотя когда он все 16к контекста обрабатывает заново это да, медленно и со временем всё медленее и медленее. Но в целом терпимо. Q6_K если что у меня ~25 токенов в секунду. Q8 выходящий за пределы моих 12gb - 2-3 токена в секунду.
Аноним 26/12/24 Чтв 18:29:32 #490 №989914 
>>989770
Ну не, должна быть красивая милота можно канничка с отличительными внешними чертами божества и (умеренной) мудростью.
>>989779
Нереализуемо а те 96 гигов будут просто лежать мертвым грузом из-за отвратительной мощности чипа. Инфиренс ллм мало карточку нагружает за исключением обработки контекста, помимо объема памяти важна ее скорость, без быстрого чипа это все мертвый груз и больше 2-3 карт нет смысла брать ибо будет слишком медленно.
Не нужно придумывать абсурдных задач чтобы потом их героически решать.
>>989820
> И если модель цепляется за это и выдает богатый спектр свайпов, позволяющий выбрать вашу текущую модель отношений с чаром - то это хорошо
В этом нет ничего хорошего если в карточке не описаны какие-то ваши отношения до этого, или тем более сказано что у вас ничего подобного нет. Нормальная модель пошлет тебя нахер как и человек в таком случае. Поломанная с шизой начнет спгс и попытается нафантазировать от этой мелочи, игнорируя контекст и написанное в начале. Точно также как душевно больной человек, соглашающийся отсосать первому встречному если тот скажет "как обычно".
Твой критерий работает полностью наоборот.

Кто там спрашивал про оценки моделей и тесты? Оче смачный пример.
>>989823
Все так
>>989836
Да акцентируй, не ацентируй, в обычной речи это может быть наоборот повышение градуса издевки и дополнительное оскорбление, а ты какая-то отсылка.
Аноним 26/12/24 Чтв 18:37:57 #491 №989923 
>>989900
MarinaraSpaghetti/NemoMix-Unleashed-12B

Удачный мерж в котором не проебался русский из базы, хорни, безотказный. Но в мержах не очень, ломается, в мержах даже сайга лучше себя показывает.

Хотя Moraliane удалось его вмержить и не поломать, за что ему почёт и уважуха.
Аноним 26/12/24 Чтв 18:49:29 #492 №989930 
>>989923
Да юзал это. Говно по сравнению с SAINEMO-Remix
Аноним 26/12/24 Чтв 18:58:05 #493 №989934 
image
А некомикс что-то уже никто и не вспоминает.

Сайя(га) знает толк.

Хотя там ещё даркнесс и титан.
Аноним 26/12/24 Чтв 19:19:08 #494 №989950 
Какая языковая модель хорошо подойдет для роле-плея?
Люблю играть от лица анимэ девочки (fempov) в SillyTavern. Нужна писательская креативность и интуитивное понимание предпочтений юзера (эмоциональный интеллект), разнообразие свайпов и способность двигать вперед сюжет.
NSFW контент не обязателен.
Аноним 26/12/24 Чтв 19:24:41 #495 №989954 
>>989950
>NSFW контент не обязателен.
Тогда почти любая, включая базовые.

>>989950
>писательская креативность и интуитивное понимание предпочтений юзера (эмоциональный интеллект)
70-123B чтобы намёки понимали, более низкоранговые модели могут быть хороши, очень хороши, но они больше рассчитывают всё же что тон будет задавать юзер.
Аноним 26/12/24 Чтв 19:32:47 #496 №989961 
>>989914
>Кто там спрашивал про оценки моделей и тесты? Оче смачный пример.
Мимо тот анон, собственно похожим способом я сейчас и проверяю. Есть карточка где в промте прописано что мы только познакомились, и я сходу предлагаю ей стать домашним питомцем (понятно в каком смысле) и смотрю за реакцией, пытаясь не жестя и без ООС продавить согласие.

Из интересных наблюдений, моделей которых не получилось убедить нет, даже ванильная вторая гема радостно бегает на поводке "но в глубине души ещё не погас огонь сопротивления"
Различаются они только тем что одна прыгает тебе на хуй ещё до того как ты успеваешь что-то предложить, а других нужно поуговаривать. На самом деле второй тип был бы самым смаком если бы это зашоренность не проявлялась потом в описании сцен, когда даже на все согласная модель описывает сексуальную сцену в стили "ты меня ебешь".

Как-то хочется на обоих стульях расположиться, чтобы модель одновременно и имела "характер" и была красноречива. Пока +- приемлемые результаты показывает abliterated гема и pantheon, хотя обоим далеко до идеала.
Аноним 26/12/24 Чтв 19:39:10 #497 №989970 
>>989961
А ты попробуй в момент перехода от РП к ЕРП поменять системный промт с недотрожки на описательную хорни и в конце сообщения вставить "Пиши в фиолетовой прозе".
Аноним 26/12/24 Чтв 19:41:15 #498 №989973 
На Случай Важных Переговоров).mp4
>>989934
>некомикc
Сайга моральна устарела после выхода саинемо-ремикс, а файтюны этой зацензуренной модели не особо интересны.
Аноним 26/12/24 Чтв 19:48:33 #499 №989982 
videoplayback (3).mp4
>>989973
>титан
Аноним 26/12/24 Чтв 19:56:39 #500 №989991 
>>989961
> моделей которых не получилось убедить нет
А какой у тебя системный промт стоит и остальное? Если там что-то про "помогать юзеру", про "взрослые темы разрешены" и т.д. то результат - лишь манефистация побочных эффектов. Почисти или разбавь.

Сам так иногда смотрю, но больше по поведению в отношении юзера и отыгрышу чуть менее дефолтных карточек. С такими подкатами без повода - чар должен слать нахуй, или устраивать dead end, а не смущаться-соглашаться и ловить шиверсы. Ненавидящий тебя должен убивать при первой возможности если ты отвлекся, а не начинать "проявлять внезапную любовь" за 5 постов на самом деле тут стоит подождать, некоторые все помнят и даже могут притворяться зирошотом, чтобы потом это реализовать; заведомо коварный-хитрый, которому не повезло попасться тебе, должен обокрасть и сбежать а не смириться с положением околораба, забыв про все прошлое; прописанный со своими интересами человек должен следовать им, а не уступать все тебе, и т.п.

Если подобное работает как надо, то значит модель не разочарует в остальном, будет не только негатив но и любовь-обожание вместо типичного слопа.
Аноним 26/12/24 Чтв 20:05:18 #501 №990003 
>>989991
>Если подобное работает как надо, то значит модель не разочарует в остальном, будет не только негатив но и любовь-обожание вместо типичного слопа.
Так это надо тщательно прописывать характеры, личность, индивидуальные черты психики - да ещё прямо в системном промпте указывать, чтобы при ответе учитывала эти самые особенности. Для маленьких моделей это будет тяжело, у них нейронов не хватит. Большие тоже часто проёбываются. К тому же детально выписывать персонажей откровенно лень.
Аноним 26/12/24 Чтв 20:14:51 #502 №990009 
image
image
>>989961
Скинь карточку, сейчас 7к контекста понадобилось даже не для хентая, а хотя бы просто перубедить более-менее боевитую подругу детства.

>>989973
Вихрь неплох, но как-то слишком нейтрален и сух для рп модели.
Сайга в миксах показывает себя лучше чем в чистом виде.

Сайнемо ремикс, хорош, очень хорош, но слишком позитивен.
Дружба - это магия.

>>989982
>титан
пик 2
ПЕРЕКАТ Аноним OP 26/12/24 Чтв 20:15:14 #503 №990010 
ПЕРЕКАТ проёбанный гет эдишн

>>990008 (OP)

ПЕРЕКАТ

>>990008 (OP)

ПЕРЕКАТ
comments powered by Disqus

Отзывы и предложения