24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Mistral, DeepSeek и прочие №109 /llama/

 Аноним 15/02/25 Суб 15:41:59 #1 №1054330 
Llama 1.png
Альфа от контекста.png
KL-divergence statistics for Mistral-7B.jpg
17394932775891.jpg
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models
• Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Moraliane и https://huggingface.co/Aleteian
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1050631 (OP)
>>1046761 (OP)
Аноним 15/02/25 Суб 15:43:12 #2 №1054334 
В этот раз даже вовремя =))
Аноним 15/02/25 Суб 16:19:02 #3 №1054362 
>>1054272 →
Температура обычно один (0,8-1,2). Штраф за повтор 1,05. Иногда dry включаю — может сделать как лучше, так и хуже, иногда прям можно выкрутить его как мразь и получить годные посты. Всё остальное стандартно и максимум лайтово, чтобы не ужимать модель, потому что чревато не только поломкой, но и потерей русика. То есть мин и топ 0,95/0,5 (или в обратном порядке — не помню). Больше ничего не трогал. Сейчас с телефона, поэтому не могу скрин сделать.

Контекст и инстракт мистраль в7. Может это и не совсем верно, но похуй, ведь всё норм работает. Если работает, в гайды не лезу.

Если будет тестить более жирные кванты, обязательно отпиши по поводу русика, особенно если ебанешься и решишь проверить на чём-то сложном. Хотя всё равно интересно, как он на англе ебашит в длительной сессии.

Но прям 10/10 не жди, это не файнтюн. Супер-красочно точно не будет. Я в первую очередь из-за русика заинтересовался, так как 32б в него не могут, кроме геммы, нормально. Но у геммы контекст.
Аноним 15/02/25 Суб 16:20:53 #4 №1054363 
>>1054362
>0,5
если действительно 0.5 то причина в этом, если 0.05, то это база
Аноним 15/02/25 Суб 16:21:56 #5 №1054364 
https://rentry.co/p6yn9767 для вихря немо 12В промтик
Аноним 15/02/25 Суб 16:25:12 #6 №1054368 
да тут и бегемот обосрётся
Аноним 15/02/25 Суб 16:41:18 #7 №1054377 
.png
>>1054364
В голосину! Это у каких-то корпов наших крутится где-то, лол?
Аноним 15/02/25 Суб 17:05:09 #8 №1054384 
>>1053085 →
Бамп
Аноним 15/02/25 Суб 17:18:11 #9 №1054392 
>>1053085 →
>>1054204 →
Аноним 15/02/25 Суб 17:19:20 #10 №1054393 
>>1054384
бонк
Аноним 15/02/25 Суб 19:11:24 #11 №1054561 
Пацаны, какие варианты запустить R1 хотя бы в 4 кванте?
Полюбому это будет возможно только в оперативке, потому что сервер по цене хаты в дс с восемью A100 я не могу себе позволить.
Кажется, что достаточно 512 гб оперативной памяти. Как думаете, если взять эпик - насколько это всё будет медленно?

Если взять например что-то вроде этого https://aliexpress.ru/item/1005007265691619.html
и поставить в 8 слотов планки по 64 Гб - то в сумме получится 512 гб рам.
Вполне достаточно чтобы дипсик загрузить.
Насколько медленно эта хуйня будет работать?
Аноним 15/02/25 Суб 19:28:56 #12 №1054580 
>>1054561
3 т/с будет, не больше. Лучше карты в аренду бери. Или API у китайцев, если совсем нищета, они почти бесплатно дают его.
Аноним 15/02/25 Суб 19:34:08 #13 №1054587 
>>1054561
одна планка на 64 гб - окобо 20к стоит. 8 штук - 160к. Проц amd epyc - можно найти за 16к. ну а мать наверное около 50-70 будет стоить. Еще опционально nvme быстрых накинуть.
В сумме 512 гб рама за 250-350к можно собрать.
Цена одной 4090, но в 21 раз больше памяти.

вон как шпарит, смотрите
https://www.youtube.com/watch?v=wKZHoGlllu4
может игра стоит свеч...?
Аноним 15/02/25 Суб 19:43:44 #14 №1054607 
owari-da-fking-hell.png
owari-da.jpg
1657168345MUAH-Ryan-G-BR-TRL-114.jpg
Аноним 15/02/25 Суб 20:01:33 #15 №1054620 
>>1053942 →
> упирается в 3060
Нет, если раскидывать одинаковое количество слоев то получится средняя производительность. А так - итоговый перфоманс = сумме произведений перфоманса отдельной карты на долю весов модели на ней. Ничего там не упирается, вполне рабочий вариант.
>>1054587
> Цена одной 4090
2-3 если смотреть когда они по удачным ценам были.
Вместо полноценного рига лишь заготовку, которая по 6 по 20 минут будет мариновать шизу как в видео.
Аноним 15/02/25 Суб 20:07:56 #16 №1054627 
>>1054363
Да, 00,5. Половина была бы слишком жирной, лол.
Аноним 15/02/25 Суб 20:35:08 #17 №1054649 
>>1054364
>>1054377
Да ну нахуй. Серьёзно? Есть какие-то пруфы? Я понимаю, что каждый дрочит как хочет, но 12b такое не потянет. Я сомневаюсь, что это потянет 120b, если говорить о реальной работе всего промпта, тем более на русском и без серьезных ошибок. Там же ещё контекст огромный нужен.

Да и вообще, нахер оно им надо?

Текст настолько странный, что поставил меня в небольшой ступор. Какая-то варм плейфул милфа С ПОЛНЫМ ПОГРУЖЕНИЕМ.

Я скорее поверю, что они кошко-девочками из Blue Archive на 3к токенов вместо систем промпта балуются. От такого даже бровью бы не повёл. А тут... Стыдоба.
Аноним 15/02/25 Суб 20:37:33 #18 №1054654 
>>1054607
А, был похожий сценарий, бездомная цундере-кицуне застрявшая на первом хвосте, и отрастившая второй в момент воистину взрывного оргазма после помывки в душе с целью согреться... согрелись, чо, лол... а после на кухне был похожий текст. И это была 12б на английском, правда какая не помню.
Аноним 15/02/25 Суб 20:59:30 #19 №1054689 
>>1054607
Ёб-бушки воробушки!
Нахрена такие простыни-полотна, я обычно ограничиваю вывод до 300-400 токенов, а дальше сам придумываю и пишу что-нибудь в ответ.
Аноним 15/02/25 Суб 21:02:32 #20 №1054693 
>>1054689
>такие простыни-полотна
ты ещё не видел еблуш которые пишут
>ай кум
и требуют аутпут в 4к токенов
Аноним 15/02/25 Суб 21:05:40 #21 №1054700 
>>1054689
Надо будет попробовать, у меня опыт двое суток, а эта хуёвина похожа на церковный орган, с кучей крутилок и педалей. Я просто вхерачил 'Kobold (Godlike)' и забыл.
Аноним 15/02/25 Суб 21:06:36 #22 №1054702 
>>1054689
Стоит "Response (tokens)" в 350, кстати.
Аноним 15/02/25 Суб 21:19:03 #23 №1054726 
>>1053616 →
> Ты точно про 5090?
Точно.
От 340.
Видимо, плохо искал.
Но я бы и не искал покамесь.
Там ведь даже проблема не в том, что «тоннюсенькие 12 проводов», хотя и толщина тоже проблема. Там проблема в том, что основное питание идет по одному из 12 проводов, а остальные по 2 амперf через себя пускают. Ну, типа, эту хуйню 100% надо фиксить, раскидать нагрузку нормально.
Сорян, прям ориг не стал искать, но вот например: https://overclockers.ru/blog/New_Intel_Raptor_ES/show/208030/Geforce-RTX-5090-der8auer-schitaet-razem-12VHPWR-krajne-somnitel-nym

> Я ещё помню времена, когда считали в двойной точности (64 бита)
Хе-хе, ну вот так и к FP4 придем. =)

>>1053906 →
Без отзывов, справедливости ради надо сказать.

>>1053922 →
> А какие там проблемы?
+

>>1053923 →
С таким железом тебе можно брать майнерские материнки, тоже 8 гигов, зато v3 х8 линии и их 5-9 штук. =)

>>1053950 →
Ты не правильно считаешь.

У тебя 24 ГБ модели прогоняется со скоростью 935,8, а 12 прогоняется со скоростью 360. И это последовательное действие, его некорректно просто опускать до нижней скорости.
Нам надо сравнить 36 (ГБ)/935 (ГБ/сек) и 24/935 + 12/360. В первом случае мы получаем 0,0385 сек на пробег, во втором — 0,02567 сек пробегает 3090 и 0,03333 сек пробегает свою часть 3060, суммарно — 0,059, т.е. разница 53%.
Плюс еще контекст, если он в 3090, то ее часть еще меньше, а разница — еще больше. =)
В таком случае ты теряешь не 25% скорости, а где-то 70%.

Ради интереса можешь взять модель поменьше и пораскидывать ее разными частями в разные видеокарты. Целиком в 3090, целиком в 3060, 1:3, 2:2, 3:1, и посмотреть.
Когда я тестил, моя математика работала.

Но вот если ты держишь контекст на 3060… А большую часть модели на 3090… Там ты свои 25% потери скорости (за счет потери скорости обработки контекста, но она будет несравнимо быстрее проца один хуй) получить уже сможешь.

Если что, менять видяхи физически не надо, им можно указать порядок в софте.

>>1053968 →
> 3060+3090
В таком порядке звучат лучше. )
Ну и не забывай, что можно даунвольтнуть почти без потерь, и 400 ватт тебе нахуй не нужно на 3090.

>>1054250 →
>>1054267 →
Да, можно конечно. Даже куча софтин для этого, я помню минимум штуки три.
Нет, никто не заебывался, всем похую. Есть подозриение, что контекст там будет обрабатываться не супер-быстро и вообще.
Ищи Petals и аналоги.

>>1054561
Пролистай пару тредов, поищи ссылки на x.com, там был пост чела и расчет по деньгам.
Нашел за тебя: >>1043681 →
Вот тебе сразу хабр: https://habr.com/ru/articles/877832/
6-8 токенов в секунду.
Все для тебя, родной!
1кк у нас стоит примерно.

>>1054580
IQ1 на DDR4 3200 (стандартные 50 псп) работает 1,5 токена/сек, а чел предлагает 8-канал. Явно не 3 токена, быстрее.

>>1054620
> сумме произведений перфоманса отдельной карты на долю весов модели на ней
Именно так, а не по количеству проходов. =)
Аноним 15/02/25 Суб 21:34:23 #24 №1054739 
>>1054726
> IQ1 на DDR4 3200 (стандартные 50 псп) работает 1,5 токена/сек, а чел предлагает 8-канал. Явно не 3 токена, быстрее.
Ну у него будет модель в 3 раза больше, а скорости 250 гб/с. 3 т/с и будет.
Аноним 15/02/25 Суб 21:54:02 #25 №1054760 
Есть же всякие моды где к играм ии присобачивают
Почему никто до сих пор не сделал ии для симс это же имба, вместо мычания реальные диалоги можно строить
Аноним 15/02/25 Суб 22:20:52 #26 №1054861 
>>1054760
потому что тут думаешь как бы лишний косарь контекста вкорячить, а тут ещё и игра половину врам отожрёт
Аноним 15/02/25 Суб 22:30:45 #27 №1054903 
Аноны как вы организуете в групповых чатах таверны взаимодействия между персонажами?
Например информация о внешности персонажа находится внутри его карточки, но должна быть доступна всем. Или например информация о взаимоотношениях между персонажами. ЛЛМ может подхватить часть из суммари, или истории, но не делает это особо стабильно.
Аноним 15/02/25 Суб 22:33:09 #28 №1054913 
>>1054861
Какой нибудь майнкрафт или другая игра нетребовательная к видимокарте И с возможностью модов, чтоб легче ии вкорячить
В тот же майн видел пытаются всунуть уже год энтузиасты
Аноним 15/02/25 Суб 22:59:07 #29 №1054974 
>>1054726
> что основное питание идет по одному из 12 проводов, а остальные по 2 амперf через себя пускают
Это ерунда, линии что в самом бп, что в видеокарте объединяются, а то как там пойдет распределение нагрузки - зависит от сопротивлений кабелей и разъемов, та штука достижима если у всех кроме одного пина контакт плохой.
Ситуация не отличается от имеющихся разъемов, там тоже бывают подгары вполне, просто здесь ток на контакт получается выше и из-за дизайна можно недовоткнуть.
> Именно так, а не по количеству проходов. =)
Если принять скорость инфиренса как размер модели отнесенный к псп врам - это будет тождественно твоим описаниям, а так ближе к реальности. Справедливо и для обработки контекста и прочих явлений.
>>1054903
Там в контексте карточки всех чаров идут. Но это несколько топорно, потому что сетка видит там лишнее, в идеале нужно делить карточку на две части, одна из которых относится к внешности и известным фактам, а вторая - уже его непубличная внутрянка. Но это все таверну перелопачивать придется.
>>1054913
https://www.youtube.com/watch?v=pjtIWPu-aTw
https://www.youtube.com/watch?v=Zgw6pdS2SH4
Аноним 15/02/25 Суб 23:03:30 #30 №1054978 
Вобще так подумать мод для майнкрафта сделать изейше. С мудьтимодалками пока не задалось, можно работать с текстовыми или голосовыми запросами, по тому что можно вытащить из игры и вики.
Спрашиваешь как скрафтить хуйнянейм, сетка делает внутриигровой запрос, находит обьект, находит дерево крафта к нему и рассказывает его.
Причем ей ведь можно давать доступ ко всем обьектам в инвентаре и сундуках так же давая ей списком, текущие сетки переварят.
Если заморочится то она может даже найти что и как скрафтить и чего не хватает.
А есть еще вариант работы с вики, или внутриигровой книгой вики как в топовых модах.
Если отсылать сетке статус игрока и его окружения можно генерировать уникальные голосовые предупреждения по типу бортового ии.
Вобщем в будущем будет весело, уверен такое уже пилят если уже не запилили. И это без анализа картинки, с ней все может стать еще интересней.
Что то видел в презентациях от невидима на эту тему.
Аноним 15/02/25 Суб 23:17:52 #31 №1055019 
>>1054974
Напарник в игре да видел, но это не то. Текущие сетки неосиливают. Нет непрерывности восприятия или даже просто скорости реакции в реальном времени. Нету памяти, только контекст. В итоге путается, не обучается и не запоминает, еле ориентируется в игре. Передвижение и действия текстовыми запросами вместе с речью.
Аноним 15/02/25 Суб 23:22:07 #32 №1055025 
>>1054974
>Там в контексте карточки всех чаров идут. Но это несколько топорно, потому что сетка видит там лишнее, в идеале нужно делить карточку на две части, одна из которых относится к внешности и известным фактам, а вторая - уже его непубличная внутрянка. Но это все таверну перелопачивать придется.
Я просто в лорбуке сделал запись с внешностью персонажа которая триггерится по его имени, сделал её прилипающей на 3 сообщения и исключил её из собственно самого персонажа, чтобы она не дублировалась.

Но там уже лорбук как помойка выглядит. Его даже не организовать никак особо.
Аноним 15/02/25 Суб 23:56:27 #33 №1055052 
.png
.png
.png
Из хорошего: ну, оно работает.

Из минусов: но чёт это не юзабельно по скорости. Я надеялся, что лучше будет. Затык в ддр4, видимо, куда оффлоадятся часть слоёв и контекст. Если сделать наоборот, и контекст забрать в видяхи, а слоев взять меньше - становится ещё медленнее. FP16 тоже отключить нельзя, ллама валится на несоответствии размеров.

Остаёмся на 70б имитаторе дистиляте
Аноним 15/02/25 Суб 23:57:56 #34 №1055053 
>>1055019
> Текущие сетки неосиливают
Увы, это больше мемогенератор для терпеливых. Успешное применение может быть если это хорошо отшлифовано и из игры все качественно проецируется сетке в отлаженном пайплайне. И действия - этакая комбинация классического и функционального бота, которому ллм просто отдает указания.
Надеюсь, будем больше видеть такого в будущем.
>>1055025
> в лорбуке
Вот это хорошая идея. Наверно, желательно ставить описанием в начало чтобы было всегда, заодно помимо внешности прописав основные "известные" черты, а карточки остальных тогда исключить.
Аноним 16/02/25 Вск 00:12:44 #35 №1055064 
https://www.reddit.com/r/LocalLLaMA/comments/1iq6ngx/ktransformers_21_and_llamacpp_comparison_with/
тесты скорости р1
Аноним 16/02/25 Вск 00:17:56 #36 №1055071 
>>1055052
>IQ_1_S
А что по качеству генерации на таком низком кванте? Для такой большой модели ощутимо хуево или лучше чем 70б?
Аноним 16/02/25 Вск 00:37:19 #37 №1055087 
>>1055071
По быстрому впечатлению - точно не хуже 70б. Там же Унслот описал, что хитро квантовал, важным слоям дал больше битности.
Аноним 16/02/25 Вск 01:00:28 #38 №1055102 
>>1055087
> важным слоям дал больше битности
Это ведь i-квант, так и должно быть. Но конкретно квантование мое - тот еще темный лес. Например, эксллама даже на обширном датасете дает варнинги, что количество активаций некоторых экспертов было слишком низким и точность их оценки может быть неоче. От подобных квантов можно ожидать больше проявлений синдрома туретта и всякой шизы, хотя в типичных кейсах оно будет выдавать приличные ответы.

Расскажи впечатления если пробовал его в рп.
Аноним 16/02/25 Вск 01:03:47 #39 №1055103 
А вы для рп используете своё имя? Я что-то кринжую.
Аноним 16/02/25 Вск 01:05:42 #40 №1055104 
>>1055103
Сейм. Я использую Анон.
Аноним 16/02/25 Вск 01:06:02 #41 №1055105 
>>1055103
Евлампий, ты?
Аноним 16/02/25 Вск 01:33:21 #42 №1055120 
>>1055103
Назовись Джон Смит, Джонатан Джостар, Кошачий Чай, как >>1055105 предлагает или придумай что-нибудь благозвучное. Только если часто будешь менять имена, будь осторожен с архивными чатами, автоизменение имени может пройти не полностью.
Аноним 16/02/25 Вск 01:38:52 #43 №1055126 
>>1055102
> в рп
Я боюсь поседеть инб уже пока он будет КОТ-простыню рожать на мое: "Привет, чарнейм!"

Дистилят пробовал, как-то выбивающим из рп показались эти рассуждения. Да и не нужна там такая точность.
Аноним 16/02/25 Вск 01:57:42 #44 №1055137 
>>1055104
База. Это позволяет выкладывать скрины и даже логи в тред без дополнительного редактирования и риска спалить своё имя.
>>1055126
>Да и не нужна там такая точность.
Нужна. Точность нужна везде и всегда (как и лучи RTX нужны, просто карты сейчас не тянут). Просто она стоит слишком много, и поэтому не оправдана.
Аноним 16/02/25 Вск 02:12:54 #45 №1055146 
>>1055064
Вывод тот же — ждем, когда в лламу.спп завезут загрузку нужных экспертов в видяху, и мы поимеем 2х буст.
Сам подход поможет юзать даже небольшую видеокарту в случае мелких квантов.
Аноним 16/02/25 Вск 02:31:38 #46 №1055154 
swear.jpg
wtf4.jpg
ugrozi.jpg
>>1053392 →
Посмотрел я Omnino-Obscoenum-Opus-Magnum-MN-12B
Ну в целом интересно, единственная проблема пока что с женскими персонажами. Модель им упорно приделывает член или два. В итоге пришлось прописывать не просто gender:female но и указывать что члена нет. Затем она начала трахать клитором, пришлось дописывать что и это нельзя. Потом начала вагиной как на пике, я пиздец ржал как конь временами. Еще матерится прикольно.
Персонажа, который не умеет говорить, отыграла отлично, даже попыток не было что-то спиздануть, в отличии от легенды ветров. И она даже и речь моего персонажа не понимала, только жесты.
В общем модель любопытная, мне понравилась, тупки многовато правда в остальном, но многого от 12B и не ждешь.
Аноним 16/02/25 Вск 02:46:32 #47 №1055159 
>>1055154
А, ну и почитатели членодевок, бегом качать. Мне кажется к описанию внешки персонажа можно просто дописать dominant female в карточке и ебырь-террорист готов.
Аноним 16/02/25 Вск 04:11:59 #48 №1055174 
>>1055154
>тупки многовато правда в остальном, но многого от 12B и не ждешь.
Ты не представляешь, как для меня это дико звучит. Может быть для вас я застрял в прошлом веке, но для меня это просто охуитительный верх мастерства.

Я, как бы понимаю, что это просто очень сильно навороченный конечный автомат, где есть состояние - контекст, и он пытается сгенерировать новый выходной символ - это ответ. И никакого устойчивого внутреннего состояния, как у человека, у него нет, всё делается костылями, через саммари, stepped thinking и плагин для памяти в таверне.

Собственно по этому меня нейронки как путь к AGI никогда и не привлекали: это потребует охуитительных ресурсов, и какой-то навороченной архитектуры. Типа когда я первый раз увидел LSTM моей реакцией было "Чё искусственные нейронки таки настолько тупые, что вы низвели их в ранг блока/инструмента, и теперь просто конструируете сложные дифференцируемые функции"?
А когда такое сделают - вдруг окажется, что тренировочный корпус настолько огромен, что внутрь протекла какая-то параша. И Юдковский жид окажется таки прав.

>>1055159
>А, ну и почитатели членодевок, бегом качать.
Да, да я. И я уже. Альма выше через неё "поговорена".
Кстати, членодевок ещё не пробовал.
Аноним 16/02/25 Вск 04:15:44 #49 №1055175 
>>1055154
А как она для fempov? Люблю такой ролеплей чтоб именно от лица тян.
Аноним 16/02/25 Вск 04:44:23 #50 №1055185 
image
>>1055154
Второй скрин - ржаль как конь, это прям так и отбрило, не редактировал?
Аноним 16/02/25 Вск 05:01:30 #51 №1055190 
.jpg
.png
>>1053165 →
> по два коннектора на хвосте цепочкой
Да, сомнительное решение, переделал. Блок майнерский на 16 PCI-E портов, где 8 кабелей с двумя коннекторами на каждом. Карты две штуки от MSI с 3 портами, и одна Gigabite с 2 портами, то есть 8 портов. Так что кабелей как раз хватило чтобы на каждый порт независимый кабель использовать.

> А по картам конфиг оптимальный, лучше только с 4090 + 2х3090, чтобы картиночки быстрее были.
4090 на основной пеке осталась. Да и, честно говоря, не особо понимаю, как можно было бы удобно сразу 3 гпу утилизировать для картинко-гена, если только не генерации по вайлдкардам на ночь ставить. Вроде для комфи нет нод чтобы несколько карт для батчей использовать и похоже в нём такое сложно сделать by design, иначе такая нода уже наверняка была бы; но может я плохо искал просто. Остаётся только в три окна на разных портах запускать и дублировать все настройки UI.

Вот гонять в несколько потоков YuE или Hunyuan Video было бы интересно, т.к. там время генерации очень длительное, так что тут имело бы смысл в три потока всё это дело поднимать.

>>1053237 →
> Я не спец в майнинге, это что за ОС, че-то на х?.., с ней все ок работает, накатывал для линухи софт?
Там убунту обычная. А интерфейс так необычно похоже из-за RDP выглядит - поставил на риг Xrdp и дефолтным RDP-клиентом с винды подключаюсь. Оно похоже какую-то облегчённую оболочку рабочего стола показывает, т.к. если подключаться как обычно через HDMI к монику, то выглядит всё как дефолтный интерфейс убунты.

Поставил к риг-тян ещё вентиляторы и оставил на балконе живу в регионе где почти не бывает минусовой температуры зимой. В простое сейчас около 10 градусов так что закрыл окно чтобы риг-тян совсем не замёрзла, а если грузить LLM то греется до 50.
Аноним 16/02/25 Вск 07:39:03 #52 №1055241 
>>1055175
>А как она для fempov? Люблю такой ролеплей чтоб именно от лица тян.
Не знаю, пока не пробовал от лица тян ничего, но думаю проблем быть не должно. Весит немного, я шестой квант использовал. https://huggingface.co/mradermacher/Omnino-Obscoenum-Opus-Magnum-MN-12B-GGUF

>>1055185
>Второй скрин - ржаль как конь, это прям так и отбрило, не редактировал?
Я не редачил текст, только имена замазал на скринах. Временами выдает невероятную дичь, что хоть стой хоть падай. Но мне больше всего зашло как она матерится.

Кстати например на Пантеоне эта баба-оборотень почти сразу сжирает по кускам, даже без секса и провокаций, откусывает пиструн и прочее, там надо постараться чтоб выжить. А на этой модели давали и второй и третий шанс (конкретно на этой карточке). В общем и целом это как Магнум в мире ру РП.
Аноним 16/02/25 Вск 08:56:22 #53 №1055269 
1000029681.jpg
>>1055103
Я использую Дио. Сначала выбирал его ради рофла и отыгрывал именно Дио, но затем меня заебало быть надменным вампирским муднем, и теперь я отыгрываю себя, но к персонажу уже прикипел. Ставить своё имя даже не пытался - слишком кринжово.
Возможно, олды ещё помнят демона Мишу.
Аноним 16/02/25 Вск 09:15:24 #54 №1055274 
>>1055190
Красавец!
Аноним 16/02/25 Вск 09:19:33 #55 №1055280 
>>1055241
>В общем и целом это как Магнум в мире ру РП
"Как вы яхту назвёте, так она и поплывёт."
Аноним 16/02/25 Вск 09:20:51 #56 №1055281 
Тоже добавлю впечатлений про
>>1055154
> Omnino-Obscoenum-Opus-Magnum-MN-12B
Понравилась меньше Ветров. Отвечала то сухо, то тонны текста за себя, за меня, за того парня, и за систему. Q8, настройки ветров/сайнемо/мистрая7 без изменений, сиспромт - та простыня, что из треда в тред ходит.

Вопрос к автору: со стороны кажется (я понимаю, что кажется), что буквально берется рэндом_число рэндом_нейм моделей и рэндомным способом мержатся. А можно взять рецепт из наиболее удачных и их дорабатывать, меняя по 1 составляющей, чтобы был виден конкретный эффект конкретного изменения? Ну да, я всё надеюсь доработку базы сайнемо, но не полное ее изменение.
Аноним 16/02/25 Вск 09:29:09 #57 №1055285 
>>1055281
>А можно взять рецепт из наиболее удачных и их дорабатывать, меняя по 1 составляющей, чтобы был виден конкретный эффект конкретного изменения?
Проблема в том что с большиством моделей так и было, но всё равно малопонятно, как говорится "слышишь звон, да не знаешь где он".

"Абсолютно Непристойное Деяние" - это чисто по рофлу замержил.
Но надо попробовать сделать её так сказать более управляемой.

>>1055281
>сайнемо
В сайнемо входит вихрь, а у вихря биас, рефузы и аполоджайзы прямо в датасете, то есть всё равно протекут и подгадят. Поэтому чисто в базу его брать не стоит, но как "один среди" может и не сильно напакостит.
Аноним 16/02/25 Вск 11:37:38 #58 №1055372 
>>1055126
Про точность имелись ввиду все эти рассуждения, рефлекция и шизолупы?
Хз, на рп нормально не ложится и все только портит. Не то чтобы их невозможно подружить, но для подобного потребуется серьезная работа и аккуратная тренировка.
>>1055154
Неистово проорал. В первом что не прогибается под юзера - вполне неплохо.
>>1055190
> как можно было бы удобно сразу 3 гпу утилизировать для картинко-гена
Генерируют всегда батчами, поэтому можно просто параллельно генерить в N раз быстрее. Есть даже аддон для такого https://github.com/papuSpartan/stable-diffusion-webui-distributed автоматизирует, раскидывая батчи пропорционально мощности разных карт, и потом собирает все в одном интерфейсе. Правда не все обилие костылей и новых параметров поддерживает.
Для комфи есть сразу штуки чтобы параллельно генерить.
Но в целом, никто не мешает просто открыть несколько окон и в каждом генерить что-то свое, какие-нибудь вариации и т.д. Если потом практикуется крупный апскейл, который занимает время, то это можно даже назвать удобным.
>>1055285
> Проблема в том что с большиством моделей так и было, но всё равно малопонятно, как говорится "слышишь звон, да не знаешь где он".
Все так, эти мерджи - алхимия без стойких закономерностей и еще со сложной оценкой результата. На визуальных сетках все проще, однако все равно подавляющее большинство мерджей - лишь накладывание и преумножение проблем отдельных чекпоинтов, с небольшим смешиванием признаков. Возможно усугубляется еще тем, что реально тренированных единицы и все они сильно отличаются друг от друга.
Аноним 16/02/25 Вск 12:06:52 #59 №1055392 
>>1055190
>Вот гонять в несколько потоков YuE или Hunyuan Video было бы интересно
Для хуйняна есть мод, который раскидывает текстовый энкодер и дифузор по разным картам. Поднимает скорость генерации, ибо нет дроча с выгрузкой/загрузкой.
Аноним 16/02/25 Вск 12:25:49 #60 №1055418 
>>1055190
> Вот гонять в несколько потоков YuE или Hunyuan Video было бы интересно
Лучей добра!

> Там убунту обычная. А интерфейс так необычно похоже из-за RDP выглядит - поставил на риг Xrdp и дефолтным RDP-клиентом с винды подключаюсь.
О, буду знать! А то все руки не доходят до xrdp, хотя советовали. Спасибо.
Аноним 16/02/25 Вск 13:46:21 #61 №1055464 
image
image
image
image
https://huggingface.co/Aleteian/Omnino-Obscoenum-Opus-Magnum-2-MN-12B-Q8_0-GGUF/tree/main

По первичным тестам выглядит более стабильной.
Хотя изредка протекает англ. Скрины на неё.

Альтернативная версия с другим порядком моделей:
https://huggingface.co/Aleteian/Omnino-Obscoenum-Opus-Magnum-2-alt-MN-12B-Q8_0-GGUF/tree/main
Прочитал что порядок указания моделей в некоторых методах влияет на результат.

Модели:

- model: anthracite-org/magnum-v2.5-12b-kto <== это база
- model: LatitudeGames/Wayfarer-12B <== рп, адвенчура, негатив биас
- model: PocketDoc/Dans-DangerousWinds-V1.1.0-12b <== Как Wayfarer, но только ещё жОще
- model: PygmalionAI/Pygmalion-3-12B <== по заявкам зрителей
- model: Moraliane/SAINEMO-reMIX <== по заявкам зрителей, русик, кум

Самые удачные из собственных, просто для относительного веса, иначе сплошь англ вывод
- model: Aleteian/Instrumentality-2-MN-12B-RP
- model: Aleteian/Way-to-Unseen-Horizon-MN-12B
- model: Aleteian/On-the-Strange-Lands-MN-12B
- model: Aleteian/To-the-end-of-this-earth-MN-12B
Аноним 16/02/25 Вск 14:00:03 #62 №1055473 
>>1055190
>риг-тян
А сколько 3090 потребляет с андервольтингом при инференсе в экссламе? Там вроде потребление максимальное, так как из карты выжимается всё. В лламаспп поменьше, но с таким конфигом там не интересно.
Аноним 16/02/25 Вск 14:03:03 #63 №1055476 
>>1055473
200-250, и то недолго.
мимокрок
Аноним 16/02/25 Вск 14:04:18 #64 №1055477 
>>1055476
> и то недолго
Пооому что сгорает?
Аноним 16/02/25 Вск 14:06:29 #65 №1055478 
>>1055477
Шутник. Год уж не горят
Аноним 16/02/25 Вск 14:38:10 #66 №1055500 
>>1055476
>200-250, и то недолго.
А значит на платиновом 1200 ватт БП 4 штуки можно запитать? :)

Неохота просто два БП соединять, есть Кугар 1200 с 8 PCIe-хвостами. Вот думаю - андервольтинг, может ещё power limit чуток подужать...
Аноним 16/02/25 Вск 14:59:25 #67 №1055521 
>>1055500
> платиновом 1200 ватт БП 4 штуки можно запитать
А ты как думаешь, зачем я брал PX100P?

>андервольтинг, может ещё power limi
PL75 и вполне норм должно быть.

Сам бы проверил, да просто некуда уже вставлять в корпус, колхозить не хочется.
Аноним 16/02/25 Вск 14:59:58 #68 №1055524 
>>1055521
> PX1200P
fxd
Аноним 16/02/25 Вск 15:35:14 #69 №1055579 
>>1055464
Что заметил - на температуре 1.0 всё путём.
Но уже с 1.3 может мешать в одном слове русские и английские буквы, хотя сам вывод и построение остаётся когерентным.
Аноним 16/02/25 Вск 16:05:24 #70 №1055634 
image
Интересно, от какой модели такой эффект? Вроде прямо сторителлеров не было.
Но это явно влияние гутенбергоподобного датасета.
На старой версии такого не наблюдалось, но вообще как будто поумнела, это ваша "душа пигмалиона" ? Предположительно что он потому что в первой версии внесто не был шизотитан от Давида.
Брасс (Латунь) - в карточке отсутствует, введён и описан по мере диалога в баре.
Аноним 16/02/25 Вск 16:16:33 #71 №1055649 
Никто не замечал, что отыгрывать девочку как в рамках кума, так и обычного РП, обычно интересней и ИЗИМОДНЕЙ?

Я таким впервые балуюсь, поэтому у меня нет статистики и мнение может быть ошибочным, но как-то странно всё это выглядит.

Разумеется, я говорю о том, что ваша персона, как мужская и женская, хоть сколько-нибудь вменяемо описана.
Аноним 16/02/25 Вск 16:18:00 #72 №1055653 
>>1055464
Будет 6-ой квант, потестирую.
Аноним 16/02/25 Вск 16:20:52 #73 №1055659 
Почему ее еще никто не зафайнтюнил на (е)рп? Даже квантов нет
https://huggingface.co/yandex/yalm-100b
Аноним 16/02/25 Вск 16:21:35 #74 №1055661 
>>1055649
>ИЗИМОДНЕЙ
Хаха, этот что-то начал замечать. Высылайте ударный отряд, адрес, зарегистиррованный на этот IP, будет скоро идентифицирован.

Изимод начинается и заканчивается в головах людей, в нарративах. Люди считают тяночек ценным ресурсом, который надо беречь и за который надо бороться. Мы как-то забыли выкинуть эти нарративы из голов, когда тяночкам давали равные права. И получили... получили изимод, конечно же.
Аноним 16/02/25 Вск 16:31:24 #75 №1055671 
>>1055653
>потестирую
Наджо было сразу сделать =)
https://huggingface.co/Aleteian/Omnino-Obscoenum-Opus-Magnum-2-alt-MN-12B-Q6_K-GGUF

версия >>1055634 которая на этом скриншоте
Аноним 16/02/25 Вск 16:32:48 #76 №1055673 
>>1055659
Нахуя? Это GPT-2 по архитектуре, датасет мелкий. Вангую хуже квена 14В.
Аноним 16/02/25 Вск 16:34:40 #77 №1055676 
>>1055653

Если раньше некоторые модели ломались до полной поломки вывода, начиная спамить одним знаком или сочетаниями, или вооще ничем, или даже крашили кобольд при старте, то теперь в целом мержи остаются работоспособными... но оценивать насколько, стало сложнее.

https://huggingface.co/Aleteian/Omnino-Obscoenum-Opus-Magnum-2-MN-12B-Q6_K-GGUF

версия отсюда >>1055464
Аноним 16/02/25 Вск 16:54:35 #78 №1055698 
>>1055473
На фулл тдп во время обработки контекста (меньше если с линиями совсем беда или андервольт), примерно 1/N от полного тдп где N - число карт во время генерации. С тензорсплитом уже больше офк.
>>1055500
Норм бп 10-20% перегрузку держит если что, так что там даже без андервольта можно.
Аноним 16/02/25 Вск 17:03:11 #79 №1055714 
>>1055673
А какие архитектуры современные? И вроде 100B параметров там
Аноним 16/02/25 Вск 17:10:26 #80 №1055723 
>>1055103
Да использовал, но не имя а ник который обычно везде стоит. Потом когда опять решу пороллить наверное придумаю другой, а то не очень безопасно скрины в тред кидать.
Сука, целый месяц роллил, как же было хорошо, даже менталку как будто похилил, хотя если бы мне кто - то сказал до этого что можно своё душевное здоровье вылечить общаясь с ботом, я бы посмеялся ему в лицо.
Аноним 16/02/25 Вск 17:19:22 #81 №1055739 
>>1055649
Доброе пожаловать, снова. Ветеран тысяч ролевок про махосёдзь итт. Часто переключаю местами роли в карточке, когда интересно становится. Тем более что в любом случае ты за обоих играешь и правишь посты. Просто чуть меняется перспектива.
Аноним 16/02/25 Вск 17:42:37 #82 №1055812 
почему не обсуждаете R1 дистилляты на квен/ламу?
Аноним 16/02/25 Вск 17:42:52 #83 №1055814 
image
>>1055723
> душевное здоровье вылечить общаясь с ботом
Можно, можно, только чтобы до этого докатиться должно быть ПИЗДЕЦ как херово и началось размытие границ сознания.

Слышал такие истории и ранее.
Аноним 16/02/25 Вск 17:48:47 #84 №1055828 
>>1055814
Ты очень сильно всё утрируешь. Ощущение скорее как от очень, доброй, хорошей книги, которую ты писал сам и она повлияла на тебя с хорошей стороны. Но с другой возможно ты и прав, я слишком сильно сопереживаю персонажам, мни иногда их жалко как реальных людей.
Аноним 16/02/25 Вск 17:57:13 #85 №1055849 
https://huggingface.co/NousResearch/DeepHermes-3-Llama-3-8B-Preview

Где можнл взять API?
Аноним 16/02/25 Вск 17:58:14 #86 №1055854 
>>1055673
Она хуже современных 1,5B, лол.
>>1055714
>А какие архитектуры современные?
В шапке перечислены.
>И вроде 100B параметров там
И что?
Аноним 16/02/25 Вск 17:58:27 #87 №1055855 
>>1055849
гачимучи с апи ябуцца в другом блоке
Аноним 16/02/25 Вск 17:58:38 #88 №1055856 
>>1055649
Всегда так делаю, но мне интересней реакции бота.
Аноним 16/02/25 Вск 17:59:36 #89 №1055857 
>>1055855
Щта? Пишу с телефона, мне надо эту модель или подобную ей, для UI на телефоне...
Аноним 16/02/25 Вск 18:00:25 #90 №1055859 
>>1055812
Потому что обсудили и пришли к выводу, что говно.
Аноним 16/02/25 Вск 18:01:01 #91 №1055860 
изображение.png
>>1055857
>Пишу с телефона
Аноним 16/02/25 Вск 18:03:19 #92 №1055865 
>>1055860
Это не про API. Да и модель эта Deephermes, телефон бюджетный Huawei Honor...
Аноним 16/02/25 Вск 18:04:34 #93 №1055867 
>>1055865
>Это не про API.
Будет там апи.
>Да и модель эта Deephermes
Любую сможешь, а не то, какую даст барен.
>телефон бюджетный
Сойдёт. Попробуй, понравится.
Аноним 16/02/25 Вск 18:22:13 #94 №1055914 
>>1055867
Ты серьезно? Это ARM проц.
Там же 40GB VRAM минимум требуется (без кванта 100GB), ты больной какой-то. Еще клода предложи поднять.
Аноним 16/02/25 Вск 18:31:43 #95 №1055945 
>>1055914
Там ссылка на 8b модель. Ее даже на 6 гигах можно попытаться запустить
Аноним 16/02/25 Вск 18:33:32 #96 №1055952 
>>1055723
> если бы мне кто - то сказал до этого что можно своё душевное здоровье вылечить общаясь с ботом, я бы посмеялся ему в лицо
А что удивительного? Реализуешь то, чего стеснялся или не получалось в обычной жизни, переосмысливаешь, расслабляешься, испытываешь эмоции в которых нуждался. Если оно еще работает прилично то реально можно запилить карточку, которая будет тебя успокаивать, анализировать и предлагать взглянуть со стороны.
Главное не упарываться всякими особо извращенными девиациями и шизой как единственным способом самореализации, станешь как бедолаги из соседнего треда.
Аноним 16/02/25 Вск 18:35:45 #97 №1055959 
.jpg
Как же заебал дипписек со своим "The server is busy. Please try again later."
Аноним 16/02/25 Вск 18:36:39 #98 №1055964 
>>1055959
Пользуйся API, оно сейчас стабильно работает.
Аноним 16/02/25 Вск 18:48:36 #99 №1055993 
>>1055952
>Главное не упарываться всякими особо извращенными девиациями и шизой
В смысле нет? Я только и отыгрываю, что самые дегроданские сценарии.
>>1055959
А нахуя ты занял свой говносервер запросами других людей? Освободи, пусть только на тебя работает, и никаких бусси не будет.
Аноним 16/02/25 Вск 18:53:33 #100 №1056008 
>>1055945
Ну хз, прост надо модельку как Hermes 405b или магнум-бегемот. Для рп. На мобильнике пойдет огрызок уровня зефира, а такие не умеют а ролеплей.
Аноним 16/02/25 Вск 18:54:54 #101 №1056011 
Бля, угораю.с тупых лоКАЛочников.... Видимо вы не застали паблик проксю с опусом, выше вон кобольда жрут и хвалят.
Аноним 16/02/25 Вск 19:01:43 #102 №1056024 
>>1056011
> опусом
Такое даже бесплатно не надо.
Аноним 16/02/25 Вск 19:02:17 #103 №1056028 
>>1056011
>опусом
впопусом
Аноним 16/02/25 Вск 19:10:49 #104 №1056052 
>>1056024
Теперь-то да, с соей и без префилла. Но лоКАЛ все равно кал даже 100b. (300b - спорно)
Аноним 16/02/25 Вск 19:12:36 #105 №1056054 
Слышал про магнум - калку которую спецом трейнили на логах с опуса. Вот она пишет норм, хотя и хуже клода почти во всёи.
Аноним 16/02/25 Вск 19:28:29 #106 №1056087 
>>1056011
>Видимо вы не застали паблик проксю с опусом
Чел, я бед код ещё застал, если ты знаешь что это, ньюфажина. И все прокси у меня были, кроме анальнофлажковых с персональными токенами. И локалки сейчас тупо лучше.
Аноним 16/02/25 Вск 19:35:59 #107 №1056111 
>>1056087
Назови локалку, которая лучше.
Аноним 16/02/25 Вск 19:39:15 #108 №1056124 
>>1056111
Буквально любая от 12Б что не аполоджайзит и не уходит в истерику от любого намёка на что-нибудь эксплиситное.
Аноним 16/02/25 Вск 19:39:21 #109 №1056125 
>>1056052
Я бы ещё понял ты Соннет 3.5 предлагал, хоть он и дико сосёт у дипсика, но опус? Это же совсем днище, разве что вместо 7В использовать.
Аноним 16/02/25 Вск 19:42:19 #110 №1056130 
>>1055812
> ламу
70б для кода отлично, пока лучшее сейчас, что есть.

>>1055859
Варианты лучше локально?
Аноним 16/02/25 Вск 19:57:08 #111 №1056175 
https://pixeldrain.com/u/UBUjMKoB Художница Рене.txt
CtxLimit:14875/16384
Полные 4 главы, хоть и не слишком большие, на
omnino-obscoenum-opus-magnum-2-alt-mn-12b-q8_0
Продолжать пока нет намерения.

Модель определённо больше подходит для сторителлинга чем для рп.
Но возможно это из за карточки и её форматирования.

Надо на других карточках завтра потестить.
Аноним 16/02/25 Вск 20:26:36 #112 №1056230 
>>1056130
>Варианты лучше локально?
Оригиналы тех моделей, лол. Ризонинг локалкам не нужен.
Аноним 16/02/25 Вск 21:11:34 #113 №1056317 
>>1055464
Ох.. у тебя столько моделей уже, что и не знаю, что теперь качать, не говоря уже о тестах.

Какие самые рпшные сейчас? Какие самые кумерские? Что ты считаешь лучшим?

Интересует твоё мнение, как и мнение анонов.
Аноним 16/02/25 Вск 21:15:53 #114 №1056329 
Аноны, можете подсказать. Нашел хорошую vision модель minicpm, но она с цензурой. Есть ли расцензуренная (на порно) версия, либо какой-то способ обойти цензуру? Сходу не нахожу
Аноним 16/02/25 Вск 21:23:12 #115 №1056339 
>>1056317
Behermoth magnum 123b
Аноним 16/02/25 Вск 21:24:33 #116 №1056340 
>>1056329
Я не видел вообще ни одного тюна на вижен модели. Это сейчас слишком сложно, датасетов тонет и всё такое.
Аноним 16/02/25 Вск 21:37:29 #117 №1056355 
>>1055993
Просто отыгрывать вариации - в целом похуй. Но когда упарываешься только дичью, с каждым разом повышая градус, и это становится одним из основных твоих занятий - считай уже поехал.
>>1056011
В отличии от впечатлительных локустов, немалая доля местных анонов имела и имеет доступ ко всем корпосеткам с релиза и без ограничений. Тобою выбрана неверная дверь, клуб пресмыкающихся попрошаек 2 блока ниже.
>>1056329
> minicpm
Старье какое-то. Дело там не в цензуре, она просто "непорочна" из-за хуевой тренировки и не понимает что ты ей показываешь. Что ты хочешь получить?
>>1056340
Ллама тред, что же с тобой стало. Лучше бы топил что мощных видеокарт не существует потому что ты их не видел.
Аноним 16/02/25 Вск 21:45:52 #118 №1056367 
>>1056355
>и это становится одним из основных твоих занятий - считай уже поехал
Ну вот поупарывался. А потом перестал, ибо надоело. Доктур, я вылечился?
>Лучше бы топил что мощных видеокарт не существует
Без ссылки это пиздёж без задач. А карты у меня есть.
Аноним 16/02/25 Вск 21:49:06 #119 №1056372 
>>1056355
> Старье какое-то. Дело там не в цензуре, она просто "непорочна" из-за хуевой тренировки и не понимает что ты ей показываешь. Что ты хочешь получить?

Может мы про разные модели говорим. Я про minicpm o 2.6, она вышла в январе 2025. Она все очень хорошо понимает, не просто описывает, а рассуждает об изображении, и отвечает на связанные с ним темы. И где есть порнуха она может даже описать что конкретно происходит, но под предлогом что оправдывается мол там реально какая-то порнуха, поверь мне, мы "в openai" (лол) это осуждаем

Иногда она при описании немного эротического фото может просто мелкую сою выдать, типа "возможно это фото сделано без ведома девушки, нужно быть осторожней". Но в целом говорит по делу и очень качественно
Аноним 16/02/25 Вск 21:55:35 #120 №1056385 
Узнал о ней из этого видео: https://youtu.be/VV30CMHc-kY Vision сервер за $150

Само видео вышло 2 месяца назад, но я говорю что модель январская, так как в январе вышло обновление. С буквой o вместо v в названии, так что качайте вниательно
Аноним 16/02/25 Вск 22:16:13 #121 №1056396 
>>1055914
Если б локальный Клод существовал, я бы на 1 токене сидел и говорил, что там не токены, а золото, блеать.

Эх... Вот бы был локальный клодыня.
Аноним 16/02/25 Вск 22:20:45 #122 №1056401 
>>1056367
> Без ссылки
Какую тебе ссылку? Ну держи https://www.nvidia.com/en-us/data-center/dgx-b200/
>>1056372
> не просто описывает, а рассуждает об изображении, и отвечает на связанные с ним темы
Это стандартное поведение для мультимодалки общего назначения.
Прикольно что в модели есть еще восприятие речи, вот это, возможно, ключевая штука.
На вопрос так и не ответил.
Аноним 16/02/25 Вск 22:29:05 #123 №1056409 
>>1056401
> На вопрос так и не ответил
> Что ты хочешь получить?
Да просто не соевую, чтобы на понуху вместо "I'm sorry, but I can't assist with that request", отвечала как на все остальные картинки

> Прикольно что в модели есть еще восприятие речи
Нихрена, реально есть. 😳 Даже live streaming видео+аудио, как в chatgpt. Но чтоб интерфейсы это все стали поддерживать, нужно ещё год ждать небось
Аноним 16/02/25 Вск 22:47:56 #124 №1056435 
the-end.png
Kekus maximus. Они могут так делать? Прикольно.

Но вообще я сделал там всё, что было можно, и всё, что было нельзя, не заходя в гуро, и сделал нарративный круг. Так-то прикольно.

И Qvink Memory, кстати, неплохо решает проблему с шизофренией, когда персонажей клинит на какой-то идее из-за психологического потрясения, которое видимо никто ни в каких фанфиках никогда не описывал. По типу: >>1053925 →
Аноним 16/02/25 Вск 22:51:11 #125 №1056437 
>>1056435
>Они могут так делать?
Бывало одна старая модель писала "спасибо за прочтение, пишите свои комментарии" и подобные вещи, которые, очевидно, подтягивались из "послесловия" фанфиков, на которых её учили.
Аноним 16/02/25 Вск 22:51:55 #126 №1056438 
Какой же дипписек охуенный, скриптики с ним клепать одно удовольствие, жопайти и близко не стоит.
Аноним 16/02/25 Вск 22:54:30 #127 №1056440 
>>1056437
Не, это я уже видел, у сторителлера. Поржал тогда.

А тут прямо чёткое отсечение.

Так-то прикольно, правда. Там вроде карточка не для персонажа, а для рассказчика (только заточенного под конкретных персонажей и конкретную ситуацию). Я могу понять, почему он так мог сделать.
Аноним 16/02/25 Вск 22:55:18 #128 №1056441 
>>1056438
Ты про полную версию? А то distil мне не зашли, а 670b или сколько там в лом тестить на их сайте, там регаться надо, в пизду
Аноним 16/02/25 Вск 22:58:21 #129 №1056444 
>>1056441
>полную
Да, DeepThink (R1) + поиск по сети.
Аноним 16/02/25 Вск 22:59:43 #130 №1056446 
Когда уж будет нормой пятак ОЗУ\VRAM?
Аноним 16/02/25 Вск 23:01:44 #131 №1056447 
Наконец доехала 3090
Плюсы она работает
Минусы ЕБАТЬ ЭТО ПЕЧКА НАХУЙ
Вроде всего в 2 раза больше жрет чем моя 3060 а подносишь руку и ГОРЯЧО ПИЗДЕЦ обжечься можно
Аноним 16/02/25 Вск 23:06:29 #132 №1056451 
>>1056447
А ещё это норм что у меня по дефолту вентили крутится начинают только от температуры 70 и выше?
Аноним 16/02/25 Вск 23:07:33 #133 №1056455 
1.jpg
2.jpg
>>1056447
>ЕБАТЬ ЭТО ПЕЧКА НАХУЙ
А ну ка сынок внучок, подвинься!
Аноним 16/02/25 Вск 23:10:56 #134 №1056460 
23.jpg
>>1056451
>крутится начинают только от температуры 70
Это норма.
Хочешь что то поменять ставь автопернал.
Аноним 16/02/25 Вск 23:18:00 #135 №1056469 
image.png
Память в шаред утекает это норма?
Вроде еще пол гига есть же
Аноним 16/02/25 Вск 23:18:51 #136 №1056474 
>>1056440
Ну лично меня гораздо больше удивляет послесловие. Потому что вижу я их гораздо реже, чем the end или fin.
Аноним 16/02/25 Вск 23:34:13 #137 №1056491 
>>1056396
Мистраль ларж это буквально он и есть. И да, я сидел на 1,5 токенах.
>>1056401
>Какую тебе ссылку?
Ты даун или троллишь? А может контекст 64 токена? Ссылку на тюны вижен моделей давай.
>>1056409
>нужно ещё год ждать небось
Сейчас год за месяц проходит... Там где популярно. Смысла в текущих видео-аудио немного, так что увы.
Аноним 16/02/25 Вск 23:35:30 #138 №1056493 
>>1056367
Полно вижн моделей, уже не раз все тут приводили списком в контексте капшнинга, ищи, читай.
Аноним 16/02/25 Вск 23:37:04 #139 №1056497 
>>1056447
Привыкай к хорошему, чел. Не выкидывай 3060 и не продавай, кстати. Тебе очень скоро захочется еще врама. И пока к тебе будет ехать 2 и 3я 3090, старенькая 3060 в паре поможет дотерпеть.
Аноним 16/02/25 Вск 23:41:11 #140 №1056503 
> Omnino-Obscoenum-Opus-Magnum-2-MN-12B-Q6_K-GGUF
А неплохо даже, спасибо. Лучше прошлых за эти выходные на мой взгляд. Погоняю ещё. Иногда шизит длинной простыней, но всё остальное хорошо.
Аноним 16/02/25 Вск 23:43:23 #141 №1056507 
Установка новейшей видеокарты блок на улице как кондиционер.jpeg
5090Ti.png
>>1056455
Аноним 16/02/25 Вск 23:44:17 #142 №1056509 
>>1056493
Тюны их где?
>>1056497
>Не выкидывай 3060 и не продавай, кстати.
А то вдруг 3090 отрыгнёт.
Аноним 16/02/25 Вск 23:45:16 #143 №1056512 
1652915888618.png
>>1056409
> Даже live streaming видео+аудио
Оно там довольно номинально как и в жпт. А с интерфейсами - код же выложен. Удобное использование в сделку не входит, но там и модель слабая.
>>1056469
Не норма, оно всегда держит некоторый оперативный запас свободной. Лучше мониторь не диспетчером задач а чем-то более специализированным.
>>1056491
> Ты даун или троллишь
Это к тебе вопрос, ты совсем долбоеб? Открываешь любую базовую мультимодалку на обниморде и смотришь.
Аноним 17/02/25 Пнд 00:00:56 #144 №1056531 
>>1056509
Молмо, Тории, дальше сам давай
Аноним 17/02/25 Пнд 01:00:57 #145 №1056623 
изображение.png
>>1056512
>Открываешь любую базовую мультимодалку на обниморде и смотришь.
Это могут быть тюны языковой части. Кстати, у 72B собрата аж 1,5 тюна, лол.
>>1056531
Вот это ближе к истине.
Аноним 17/02/25 Пнд 01:05:14 #146 №1056624 
поделитесь настройкой андервольта 3090
Аноним 17/02/25 Пнд 01:05:44 #147 №1056625 
>>1056624
я сделал как в первом видосе на ютубе по запросу андервольт 3090 и ничего не поменялось
Аноним 17/02/25 Пнд 01:22:57 #148 №1056638 
Ребят я сейчас получил 85 градусов в балдурс гейт 3 и мне реально стремно хотя на форумах говорят до 95 "перфектли файн" - но они там видюху каждый год меняют наверное
Аноним 17/02/25 Пнд 01:23:34 #149 №1056639 
>>1056638
Вообще я охуел с этой мощи на 3060 56 фпс в 2к на 3090 130 нахуй
Аноним 17/02/25 Пнд 01:27:50 #150 №1056642 
image.png
В чём проблема анонче? Почему вылетает koboldcpp
Аноним 17/02/25 Пнд 01:29:14 #151 №1056645 
>>1056435
Что за Qvink Memory?
Аноним 17/02/25 Пнд 01:33:11 #152 №1056649 
>>1056642
>В чём проблема анонче? Почему вылетает koboldcpp
Памяти не хватает на твой мистраль ларж. Сколько у тебя ram и vram?
Аноним 17/02/25 Пнд 01:33:50 #153 №1056650 
>>1056645
>>1053977 →
Аноним 17/02/25 Пнд 01:41:20 #154 №1056660 
>>1056649
Ага. Ток что сам до этого дошёл. Первый раз запускаю. А гайд сначала жопой прочитал. Теперь увидел распределение моделей по памяти. Я видимо только самое дно могу попробовать.
8 vram, 16 ram

Какие у меня есть варианты запустить русскую модель без цензуры. Например, для обработки сообщений из чата и составление короткой справки по ним?
Аноним 17/02/25 Пнд 02:03:13 #155 №1056671 
>>1056625
>я сделал как в первом видосе на ютубе по запросу андервольт 3090 и ничего не поменялось
Настраивай кривую в MSI Afterburner, ищи видеогайды, тысячи их - причём даже прямо для 3090. Смысл в том, чтобы при повышении частоты чипа не повышалось напряжение - если чип это позволяет. Тогда он работает на высокой частоте, если надо, а жрёт (и греется) меньше. Дальше настроенный профиль ставим в автозапуск - и если ты не любишь работать под админом, то у тебя проблемы. Придётся запускать всё вручную каждый сеанс; я лично для себя сделал программу-напоминалку. И да, вентиляторы должны работать всегда, так как карта горячая - в профиле нужно включить и это, настроить кривую вентиляторов вручную. Удачи.
Аноним 17/02/25 Пнд 02:23:54 #156 №1056676 
>>1056671
Проще павер лимит вниз дернуть нет?
Аноним 17/02/25 Пнд 02:25:45 #157 №1056677 
>>1056676
>Проще павер лимит вниз дернуть нет?
Тогда производительность настолько же снизится. А при андервольтинге нет.
Аноним 17/02/25 Пнд 02:37:13 #158 №1056680 
>>1056677
>>1056671
Ну бля я дергаю эту курву у меня все равно 320-350ватт и 77 градусов
Аноним 17/02/25 Пнд 02:47:18 #159 №1056682 
>>1056680
>Ну бля я дергаю эту курву у меня все равно 320-350ватт и 77 градусов
Смотри гайды внимательнее, там всё рассказывают - где что дёргать и куда потом жать.
Аноним 17/02/25 Пнд 02:47:48 #160 №1056684 
>>1056680
Щас вот стейбл дифужн вылетел из за температуры я так понимаю ибо памяти дохуя
Аноним 17/02/25 Пнд 02:57:34 #161 №1056693 
>>1056682
Лучше скажи какие у тебя показатели и стоит ли карта в корпусе
Аноним 17/02/25 Пнд 04:11:06 #162 №1056719 
Baldurs Gate 3 2025.02.17 - 04.09.18.01.mp4
Ничего не меняется анон
Аноним 17/02/25 Пнд 04:29:44 #163 №1056723 
>>1056719
кто ж на горячую даунвольтит.
Аноним 17/02/25 Пнд 04:32:34 #164 №1056724 
>>1056723
Какая разница я и без игры тоже самое делал а потом заходил и пк ребутил
Аноним 17/02/25 Пнд 04:37:13 #165 №1056727 
413618019-71c0d9e5-6784-499e-8b67-26d531deb15f.png
The future of AI roleplay
The future of AI roleplay
The future of AI roleplay


Sorcery is a SillyTavern extension that allows AI characters to reach into the real world. It lets you bind arbitrary STscript or JavaScript code to arbitrary events in the chat. It is infinitely more powerful than existing "character expression" systems, and dramatically easier to use than traditional function calling setups. It does not require a specially trained function calling model.

Sorcery can enable your virtual characters to do tangible things, from interacting with your SillyTavern instance to controlling smart home appliances and toys. It is zero-configuration, and once installed will immediately work with most models and setups.

Sorcery works by injecting dynamically generated instructions into the system prompt that tell the model to insert special markers into its responses when the configured events occur. It then hooks the output stream, and intercepts those markers, removing them from the output and running the associated scripts. The whole process is completely invisible to the user.

Even relatively small models respond well to Sorcery's instructions. For example, I have successfully used Sorcery with the IQ3_M quant of Mistral Small, which fits into 12 GB VRAM.

https://github.com/p-e-w/sorcery
Аноним 17/02/25 Пнд 04:47:26 #166 №1056730 
>>1056727
Тоже мне future, виртуальная суккуба уже года джва как умеет юзеру простату ловенсом массировать.
Аноним 17/02/25 Пнд 05:21:36 #167 №1056741 
>>1056624
PL75, core + 100, mem + 1000, с кривой можешь не париться, будешь дергать 100 точек по 1мм, в итоге будет также.


>>1056638
> до 95
Вообще не парься, там такая память.


>>1056676
Да.

>>1056677
Привет, теоретик.
Аноним 17/02/25 Пнд 06:02:07 #168 №1056752 
>>1053241 →
Пчел, а откуда ты берёшь карточки? Сам их делаешь? Если сам их делаешь, то ты куда-нибудь их выкладываешь?

Золотое дно же, 4,5,6,7 - охуенны.
Аноним 17/02/25 Пнд 06:11:03 #169 №1056753 
>>1056660
Читай шапку треда, и подбирай под свой размер памяти.
Аноним 17/02/25 Пнд 07:26:01 #170 №1056768 
Языкач, нужна LLM которая заточена под написание кода и которую можно запускать локально. Что посоветуете?
Аноним 17/02/25 Пнд 07:27:21 #171 №1056770 
>>1056768
Нахуй вы сюда лезете то блять?
Нахуя покупать риг из х4 3090 если гопота в сто раз доступнее и умнее
Аноним 17/02/25 Пнд 07:56:34 #172 №1056779 
image
>>1056317
Рп - Saiga-Unleashed, Instrumentality-2-MN-12B-RP

Сторителлинг - Neverending-Story-MN-12B

Кум - Omnino-Obscoenum-Opus-Magnum-MN-12B

Из проверенного и с отзывами в треде =))
Аноним 17/02/25 Пнд 08:08:52 #173 №1056783 
>>1056752
Спасибо. https://pixeldrain.com/l/47CdPFqQ
Аноним 17/02/25 Пнд 08:10:12 #174 №1056784 
>>1056768
квен кодер
Аноним 17/02/25 Пнд 08:13:08 #175 №1056785 
>>1056783
И тебе спасибо, сейчас початимся...
Аноним 17/02/25 Пнд 08:13:52 #176 №1056786 
Посоветуйте свистоперделки для таверны, начиная от просто полезных плагинов, сэмплеров, заканчивая надмозговыми решениями.

Особенно интересуют надмозговые решения:

всякие охуительные и безумные штуки, которые, по заверениям авторов, сделают q1_small_pisynchik -> fp32; самые невероятные и больные фантазии, которые можно только вообразить! Превратим вашу 12б модель в лламу 405б!

Пока что трогал только dry (смысл есть и на 12б моделях, но редко, иногда даёт шикарные результаты, если юзать 1-3 сообщения); xtc вроде бы всегда залупа; кот от тредовичка (нестабилен, требует хорошего соблюдения инструкций от моделей, но в целом полезная вещь иногда, ставлю палец вверх); BoT — похоже на кот, но абсолютно шизофреническая и неудобная тема, которая подойдёт только тем, кто готов задрочить её с головой, рпша на 64к контекста, суммируя события на 10к токенов, с лорбуком на 40к токенов, карточкой на 5к и отыгрывая ZOV или количество истребителей на тихоокеанском театре военных действий. Там такой анализ как раз пригодится.
Аноним 17/02/25 Пнд 08:30:04 #177 №1056790 
>>1056786
Если модель изначально дерьмовая, то никакие семплеры и уж тем более плагины ситуацию не исправят. Хотя, всё зависит от конкретной проблемы, но пока ты ее не обозначишь, нет смысла спрашивать.
Аноним 17/02/25 Пнд 09:12:41 #178 №1056798 
>>1056770
Вопрос скорее к тебе, тред корп сеток по соседству.
Аноним 17/02/25 Пнд 09:22:21 #179 №1056799 
>>1056790
Я понимаю твою мысль, просто мне хочется хуйнёй пострадать. По советам анонов это делать проще. Рыготины с реддита я уже наелся. На дваче более адекватное обсуждение, по крайней мере на мой взгляд.

Если тебе, или другим анонам, не лень, может быть посоветуешь тогда модель? Которая удивит меня. От 1 до 45б. Не обязательно, чтобы она была полезна в реальных задачах. Просто хочется чего-то нового, чтобы было интересно потыкать/поохуевать. Как та модель на 1 млн токенов — релевантный пример. Или какая-нибудь безумная МоЕ, может быть?
Аноним 17/02/25 Пнд 09:31:39 #180 №1056801 
>>1056786
плагин пошагового мышления из шапки
Аноним 17/02/25 Пнд 09:31:58 #181 №1056802 
>>1056770
Б-же, да иди на хуй со своей гопотой.

Да, корпоративные модели лучше, но ты явно и в них не шаришь. Гопота (4о — основной продукт) валяется в помойном ведре. Модели, которые выебут любую локалку и дипсик — о1 и о3, — имеют 40 запросов в неделю. Для одной модели нужна подписка за 200 баксов. Круто, да?

Безусловно, хорошему специалисту этого хватит, когда ещё и курсор есть. Но это ТОЛЬКО ДЛЯ РАБОТЫ с кодом.

Клод в вебе? Да, тоже ебёт все локалки по коду. Но ты лимиты видел и цены на апи? Специалисту хватит, остальные соснут, пока не разберутся.

Плюсом Клод ещё и с языком виртуозно работает, лучше всех переводит. Но, опять же, только для работы или развлекухи.

Ни одна из этих моделей не годится для рп без мозгоебства и риска банс, не говоря уже о цензуре. А если подрочить хочешь, то хана.
Аноним 17/02/25 Пнд 09:32:26 #182 №1056803 
>>1056801
а, он упомянут, сорян
Аноним 17/02/25 Пнд 09:34:39 #183 №1056805 
sticker4822730491277662795.png
>>1056803
Аноним 17/02/25 Пнд 09:35:13 #184 №1056806 
>>1056802
> тоже ебёт все локалки по коду
До R1 клоду далеко.
Аноним 17/02/25 Пнд 09:46:35 #185 №1056810 
>>1056799
Обычные сетки не кину, там все как обычно. А вот эти интересны сами по себе
https://huggingface.co/openbmb/MiniCPM-o-2_6
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://huggingface.co/THUdyh/Ola-7b
Аноним 17/02/25 Пнд 10:20:02 #186 №1056817 
image.png
image.png
image.png
image.png
Рилы были сгенерированы один за другим.
Поделитесь, пожалуйста, семплами для файнтюнов mistral 12b, которыми пользуетесь. Под SillyTavern конечно.
Заметил что результаты могут сильно отличаться в зависимости от семплов.
В данный момент уже больше года пользуюсь MinP но свайпы часто повторяются либо тот ответ но перефразированный уже на первом сообщении.
Аноним 17/02/25 Пнд 10:21:42 #187 №1056818 
>>1055812
Потому что ты не умеешь читать.

Так-то обсудили уже раза три.

>>1055714
Количество параметров не связано ни с вокабуляром (сколько токенов модель знает), ни с датасетом. Можно обучить на малом датасете маленький вокабуляр (неэффективно) и получить огромную модель, выжав из датасета максимум. Так что, 100B не гарантирует какое-то универсальное качество, и старенькая yalm-100B никому нафиг не нужна.
Когда люди говорят «уступает 14B» они очень сильно ее завышают. А вот «уступает 1,5B» гораздо ближе к истине.
Это модель времен Балабобы ( https://yandex.ru/lab/yalm ), она просто кое-как текст продолжает. А Квен тебя поймет, нормально ответит и все объяснит (в пределах его знаний, конечно=).

>>1055857
> для UI на телефоне
Для управления смартфоном нужна визуальная модель Qwen2.5-VL-3B, она спецом обучена управлять смартфоном.

Если ты под UI подразумевал использование, то выразился некорректно.

>>1055914
Для 8B-модели? =) Вот это вы запускаторы!..
Сам, небось, на Qwen2.5-0.5B сидишь, в таком случае? =D

>>1056329
А чем хуже Qwen-VL и прочие?
Просто, мне кажется, ты нашел худшую визуальную модель… =)
И, да, расцензуры на визуалки завозят очень редко. Никому не надо.

>>1056340
Я видел, прилично количество, если суммировать. Но самих моделей больше, да. =) Не на каждую есть, а на современные так и вовсе не делают.

Ну, Vikhr-VL-2B (Qwen2 версии) вроде немного расцензурен был, не помню.

>>1056385
Хуйня же, не?
Ознакомьтесь с рынком, попробуйте все лично, убедитесь, что лучше. А потом советуйтесь, уж точно не по ютуб-видосам чуваков, которые в теме шарят на уровне вас же, вкатунов. =)

———

Блядь, я так понял, ньюфаги в треде настолько дегроды, что даже сами загуглить неспособны, тогда ладно, хуй с ним.
https://huggingface.co/Vikhrmodels/Vikhr-2-VL-2b-Instruct-experimental
В свое время, эта модель распознавала сиськи.
Но это просто следствие экспериментального файнтьюна, не более.
Еще была более древняя Phi abliterated, но ее я даже давать не буду.
>>1056409
Ссылку дал.

> Но чтоб интерфейсы это все стали поддерживать, нужно ещё год ждать небось
Или написать самостоятельно за 5 минут: https://huggingface.co/openbmb/MiniCPM-o-2_6#usage
Там весь код есть, кинь в дипсик и попроси написать хуй знает что хочешь, градио оболочку для него.
Ну или попробуй код из спейсов:
https://huggingface.co/spaces/DHEIVER/openbmb-MiniCPM-o-2_6/tree/main
https://huggingface.co/spaces/mohan007/autism_exp_with_minicpm_o_2_6/tree/main

Вообще, посмотрел тесты на новую версию, ну… распознавание обещают лучше Qwen2-VL-7b, это очень достойно. Правда, Qwen2.5 в тестах отсутствует, но это можно пережить.
Распознавание аудио слабенькое и генерация не огонь.

Я бы подождал следующую версию, может Qwen3 будет мультимодальным.

>>1056660
> мистраль ларж
> 8 vram, 16 ram
За то время, пока ты качал файл, ты мог прочитать и понять, что не влезет.
Ты понимаешь, что на скрине не ошибка, а твоя лень?
ССЗБ.

>>1056671
65° = 100% наш выбор!
База, делается легко, не умею в разгон, но свою 4070ти андервольтнул по гайду Бороды и 100 ватт скинул.

>>1056676
Проще.

>>1056768
Qwen2.5-Coder-7B/32B в зависимости от твоей мощи.
Можешь ризонинг попробовать, тот же Deepseek-R1-distill-Qwen-32B/Llama-70B, говорят тоже хорошо.
Аноним 17/02/25 Пнд 10:37:23 #188 №1056824 
>>1056799
Пигмалион на базе мелкой мисрали 12B вышел, так что можешь его глянуть. Это чисто из разряда "интересного", ибо пигма это исключительно про оттенки шизы, но зато шизы душевной.
Аноним 17/02/25 Пнд 11:07:38 #189 №1056831 
>>1056817
Попробуй темпу слегка выше единицы и smoothing в районе единицы. Это приводит к выравниванию высоких токенов, так что из пулла тянется не только пара первых, но и не вылезает шиза из нижних (нижние, наоборот, даже поддавливаются). Потом отрезать тем же невысоким минП (не выше 0.1). Возьми темпу 1.25 и смуфинг 0.75, например. Если шизить начнёт, прибавь смуфинга.
>>1056824
Он, кстати, какой-то дефолтной сторителлинг моделью мне показался. Там нет этой шизодуши старой мелочи, и по выводу гораздо унылее популярных 12б.
Аноним 17/02/25 Пнд 11:10:00 #190 №1056832 
>>1056623
> Это могут быть тюны языковой части.
Таких пренебрежимо мало ибо в этом нет смысла.
> у 72B собрата
Тому что слишком тяжелый для каких-то применений, слишком подслеповатый/глупый для развлекалова в стоке. Затраты компьюта потребуются неимоверные, а спрос будет огромный. Визуальный энкодер там не то чтобы от мелких отличается если что.
>>1056768
Да
>>1056770
Срыгспок, локуст.
Аноним 17/02/25 Пнд 11:18:11 #191 №1056835 
Пиздос конечно. Почитал, потестил модели. Теперь надо пеку обновлять.
Аноним 17/02/25 Пнд 11:40:06 #192 №1056846 
>>1056447
Я так пересел с GTX 980 на 4080.
Сижу и смотрю на неё, на блок и понимаю - а как крепить то блять, она тяжелая. Тот кто выпускал это изделие не мог же серьезно предпологать, чтобы она на одном порту и болтике держалась. А нет, блять, мог. И тогда то я понял, что стойки под видеокарту это не шутка юмора, а реальный девайс.
Аноним 17/02/25 Пнд 11:51:07 #193 №1056848 
>>1056846
Это ты ещё четырёхслотовые 4090 не видел, с ними в комплекте уже идут крепления, а иначе она просто сломается.
Аноним 17/02/25 Пнд 12:21:21 #194 №1056865 
>>1056846
У меня одно крепление на корпусе (Duoface Pro классика), второе шло в комплекте с видяхой, итого 4 угла схвачено, все держится.

Рекомендую брать корпуса с держалками.
Аноним 17/02/25 Пнд 12:28:17 #195 №1056867 
image.png
>>1056846
У меня к msi 4080 в комплекте шла такая подставка.
Аноним 17/02/25 Пнд 12:29:39 #196 №1056868 
1j8x99.jpg
Подпёр свою видимокарту раструбом охлада теслы и никакого провисания.
Аноним 17/02/25 Пнд 12:33:54 #197 №1056871 
>>1056868
>>1056867
Стопка 19 рублёвых монет, дёшего и сердито.
Аноним 17/02/25 Пнд 12:52:42 #198 №1056876 
>>1056871
>10 рублёвых
Аноним 17/02/25 Пнд 12:56:42 #199 №1056877 
IMG2869.jpeg
>>1056848
>>1056867
Зато смотрите какую красоту на старость лет собрал.
Светится, пердит - стильно, модно - молодёжно.
Потом правда нахуй выдрал всю подсветку, ибо эта иллюминация в ебало раздражала как жопа сатаны.

Правда выяснилось, что вторую видеокарту ставить было некуда и пришлось перейти на старую большую башню.
Так что нероночки не погонять-с. Пришлось как долбоебу развешивать в старом блоке.
Аноним 17/02/25 Пнд 12:58:18 #200 №1056878 
>>1056867
>>1056865
>>1056846
У кого то на практике этот слот отваливался реально?
Что то на уровне стреляющих газлифтов
Аноним 17/02/25 Пнд 13:01:02 #201 №1056879 
>>1056878
Идея, что у тебя на слоте висит вся видеокарта, да еще и на изломе, в месте постоянного напряжения- не звучит здраво.
Аноним 17/02/25 Пнд 13:15:05 #202 №1056885 
>>1056865
От крепления же видяха гул издает типа вибрирует
Аноним 17/02/25 Пнд 13:16:07 #203 №1056886 
>>1056879
А типа все остальные идеи куртки пиздец здраво звучат когда до 105° это норм температура
Аноним 17/02/25 Пнд 13:21:31 #204 №1056888 
>>1056886
Температура это не проблема. У тебя есть расчётные параметры теплоотведения. Они считаемы. А когда у тебя порт отъебнет, из за того что в одном месте контакт будет идти на излом - вообще не считаемая хуйня.
Аноним 17/02/25 Пнд 13:45:10 #205 №1056893 
>>1056878
На практике отваливался чип. Постоянный перегрев плюс изгиб текстолита равняется пиздос. Неоперабельная смерть, можно только прогреть и продать за 60к на лохито, ведь карта не бита, не майнена.
Аноним 17/02/25 Пнд 14:20:55 #206 №1056907 
>>1056878
Как минимум видяха одна умерла от того, что за n лет сильно выгнулась (угол провис, и текстолит пошел по пизде).
Вроде бы уникально-редкий случай, но я с тех пор решил не проверять, насколько редкий, и печатаю подпорки под все видяхи на 3D-принтере, мне спокойнее.

>>1056885
В простое ниче не гудит, хз. А под нагрузкой ебошит так, что гул уже никому не интересен.
Плюс у меня пару хардов еще торчит. =) Вот кто любит погудеть.

>>1056893
> изгиб текстолита
Во-во.

Вообще, возьмите старые длинные видяхи и положите их на ровные столешницы.
Или материнки так же (привет килограммовым кулерам!).
Узнаете много нового о «ровных» и «параллельных» штуках.
Аноним 17/02/25 Пнд 14:42:26 #207 №1056932 
Можно комп собрать горизонтально, нет проблем с провисанием, но занимает больше места. Или тупо положить набок существующий.
Если не на полу то ничего для него не изменится, ну может придется подумать об охладе немного
Аноним 17/02/25 Пнд 15:24:19 #208 №1056953 
>>1056355
>Но когда упарываешься только дичью, с каждым разом повышая градус
Вообще-то продвинутые аноны начали упарываться и повышать градус задолго до появления ллм, так что к к 2022-23 гг достигли богоподобного состояния упоротости, и ллм встали на этот пъедестал как влитые.
Аноним 17/02/25 Пнд 15:26:05 #209 №1056954 
>>1056953
Просто еще один из путей побега от реальности, поводов для этого все больше
Аноним 17/02/25 Пнд 15:35:41 #210 №1056963 
>>1056719
>Ничего не меняется анон
А тебя не смущает то, что в афтербёрнере у тебя вольтаж всегда равен нулю? :)
Аноним 17/02/25 Пнд 15:46:40 #211 №1056971 
>>1056932
Поэтому у меня все компы под нейронки горизонтально и лежат, да.
Аноним 17/02/25 Пнд 15:52:15 #212 №1056977 
1000017098.jpg
1000017099.jpg
У меня к 3090 трио мси шла вот эта подставка как её использовать хз это просто железка.
Аноним 17/02/25 Пнд 16:10:43 #213 №1056991 
pla-shroud-check-string-supports-check-3x3090-on-a-budget-v0-uh398wbqrkje1.webp
pla-shroud-check-string-supports-check-3x3090-on-a-budget-v0-uy6wrwbqrkje1.webp
Реддитовчане тоже переживают на счёт прогибов.
Аноним 17/02/25 Пнд 16:23:45 #214 №1056997 
https://www.reddit.com/r/LocalLLaMA/comments/1iqv5s0/sorcery_allow_ai_characters_to_reach_into_the/
Аноним 17/02/25 Пнд 16:42:29 #215 №1057026 
>Источник утверждает, что партнеры Nvidia, в число которых входят MSI, Zotac, Gigabyte и т. д., получат «тонны чипов GB202». Сообщается, что новый поток поставок должен улучшить запасы на полках примерно в течение месяца, учитывая доставку и производство.
>Говорят, что центр обработки данных Blackwell, особенно B200, не продается так хорошо, как ожидала Nvidia. Оставшиеся или излишние пластины TSMC 4 нм теперь перепрофилируются для потребительского семейства RTX 50. Загвоздка в том, что в нынешнюю эпоху почти 90% доходов Nvidia приходится на ее предложения для центров обработки данных. Спрос должен был резко упасть, чтобы оправдать такое изменение
>AMD могла бы извлечь выгоду из дефицита Nvidia, если бы RDNA 4 была запущена в январе. Однако, учитывая эти слухи, AMD, вероятно, упустила эту возможность и должна быть агрессивной с ценообразованием, хотя ранние слухи о ценах не рисуют приятную картину.

Даже если цена упадёт, нахуй надо. Опять разъёмы горят. А цена не упадёт.
Аноним 17/02/25 Пнд 16:48:33 #216 №1057030 
image.png
у кугара встроенный держатель прямо под винтом и если вплотную ставить видюха гудит как самолет
Хочу на пару см ниже сдвинуть но будет ли от него какой то эффект тогда
Аноним 17/02/25 Пнд 16:51:14 #217 №1057034 
IMG4203.jpeg
>>1056871
>19 рублевая монета
А ?
Аноним 17/02/25 Пнд 16:52:33 #218 №1057039 
>>1057026
Это да, но у них еще очко затряслось то что амд будет выкатывать 32гб версию через пару месяцев после релиза 9070, трясется очко что уже стрикс хало хуйня от амд есть на 128гб и будет ебать дигитс, тряска от дик писика за 6лямов, женсон трясет мопсярками сейчас как ебанутый
Аноним 17/02/25 Пнд 17:22:47 #219 №1057071 
>>1057034
LAVR
Аноним 17/02/25 Пнд 17:55:09 #220 №1057084 
7cdNgtz2XiWfwW3rJLXpk9-650-80.jpg.webp
>>1057039
Дело не в тряске, дело в том, что если слухи верны, то спрос на ускорители для корпов - упал. Это странно на самом деле. Либо все уже закупились, либо нвидию давят с рынка. Но кто? Самой нвидии не выгодно ставить чип, который они могли бы продать дороже, в карты, которые они продадут дешевле. Но если куртка на это пошёл, то либо у него нет вариантов, либо он решил создать больший дефицит на рынке для корпов. Первый вариант может быть логичным, т.к куртку ебали уже за то, что он забил хуй на игровые видеокарты.
Аноним 17/02/25 Пнд 17:58:50 #221 №1057090 
>>1057084
>Самой нвидии не выгодно ставить чип, который они могли бы продать дороже, в карты, которые они продадут дешевле.
Да все просто, очень много брака. Чем тоньше техпроцесс тем больше брака. Просто решили приспособить его к делу
Аноним 17/02/25 Пнд 18:26:58 #222 №1057106 
>>1057084
>спрос на ускорители для корпов - упал
>осознали что их наебывают и LLM не приведут к массовой автоматизации и AGI которое магическим образом высрет 100 млрд баксов
>дипсик показал что можно сделать модель дешевле/быстрее/на худшем железе не уступающей о1 по качеству ответов
Аноним 17/02/25 Пнд 18:28:29 #223 №1057107 
>>1057106
Да, все так, хуню за жопу то взяли хорошо
Аноним 17/02/25 Пнд 18:42:37 #224 №1057124 
Почему звук при переходе на нвидию может пердеть?
Я уже всё перепробовал но может тут подскажут
Сидел кумил на своей 6600 звук идеальный ни одного хрипа перешел на 3060 и лютый пердеж когда несколько программ запущено/высокая нагрузка
Аноним 17/02/25 Пнд 19:00:08 #225 №1057142 
>>1057124
>Почему звук при переходе на нвидию может пердеть?
Проверь драйвера goroh-1175422562
Аноним 17/02/25 Пнд 19:09:38 #226 №1057152 
>>1057026
>Даже если цена упадёт, нахуй надо
За всех не нужно. Я возьму 5090 за 300к, разъёмы втыкать умею.
>>1057030
>Хочу на пару см ниже сдвинуть но будет ли от него какой то эффект тогда
Ты серьёзно спрашиваешь, или это какой-то троллинг?
>>1057124
Люнупс?
Аноним 17/02/25 Пнд 19:29:50 #227 №1057180 
>>1056818
> Vikhr-VL-2B
Трубо-лол, спосеба, что рассказал. Такое веселье!

>>1055190
На изображении представлен крупный план компьютерной системы, включающей в себя несколько видеокарт NVIDIA GeForce RTX, которые установлены на подставке. Каждая видеокарта имеет свой уникальный дизайн и цвет, что придает ей уникальный вид. Подставка, вероятно, сделана из дерева, и она расположена на деревянном полу. Видимые детали включают в себя вентиляторы, которые помогают охлаждать видеокарты, и кабели, которые, вероятно, используются для подключения и управления видеокартами. Кажется, что подставка предназначена для хранения или демонстрации видеокарт NVIDIA GeForce RTX, а не для использования в обычном компьютерном использовании.

>>1056455
На изображении мужчина держит большой, массивный видеокарту GeForce, которая имеет два вентилятора. Он одет в черную рубашку и джинсы, и кажется, что он счастлив и улыбается. Видно, что он держит карту в руках, и кажется, что он готовится к чему-то или просто наслаждается своей коллекцией.
Аноним 17/02/25 Пнд 19:33:57 #228 №1057185 
>>1056877
> на старость лет
Я думал только зумерки ставят светящиеся системники рядом с лицом. Я всего 30 лвл, но уже знаю что такое вытекающие глаза. Монитор должен быть большим пенсионерским и рядом с ним ничего не должно стоять, тем более светиться ярче самого монитора, а иначе пизда глазам.
Аноним 17/02/25 Пнд 19:50:54 #229 №1057203 
>>1056877
В чем прикол тащить системник на стол, занимая место где могли быть мониторы или что-то полезное? Собрал то прилично, просто не понимаю эту тему.
>>1056977
Крепишь болтами что держат затычки слотов или другие низкопрофильные девайсы, она встает вдоль карточки и поддерживает ее.
>>1057026
Ахуенно, можно будет риг собрать
>>1057084
Хуанг горел с последнего указа деды не просто так ведь. Самые крупные игроки уже укомплектованы.
Аноним 17/02/25 Пнд 19:51:33 #230 №1057205 
>>1056877
Чёт мелкий ящик, что в нём 4080 бегемотом смотрится. На доЭво ХЛ сразу брать и не размениваться на компромиссы. Потом всё равно к нему придёшь.
Аноним 17/02/25 Пнд 19:58:55 #231 №1057213 
Эх щас выпустят грок 2 в опенсорс и кум польется рекой
Аноним 17/02/25 Пнд 20:04:38 #232 №1057216 
>>1057213
Губу закатай. Он 100b параметров минимум.
Аноним 17/02/25 Пнд 20:05:34 #233 №1057218 
>>1057216
>Губу закатай. Он 100b параметров минимум.
Первый был 400 вроде.
Аноним 17/02/25 Пнд 20:08:20 #234 №1057221 
>>1057213
>грок 2
Там же третий вроде выпускают? Или фейковый покупатель попенов сам в попенсорс ничего не выкладывает?
Аноним 17/02/25 Пнд 20:12:04 #235 №1057223 
>>1057221
>сам в попенсорс ничего не выкладывает
https://huggingface.co/xai-org/grok-1
https://x.com/elonmusk/status/1842248588149117013

сорян что разъебал
Аноним 17/02/25 Пнд 20:16:54 #236 №1057231 
>>1056831
На скрине как я выяснил были измененные настройки пресета, на стандартных настройках, мой пресет MinP, даже с низкой температурой .5 начинает терять форматирование и лицо со второго на третье переходит. Есть вероятность что я случайно перезаписал Minp пресет.
Алсо на скринах было 3ее сообщение 1-start message+2-ое мой ответ+3 скрины.
Аноним 17/02/25 Пнд 20:19:10 #237 №1057234 
>>1057223
грок1 говно же без задач. Сейчас у него на серверах грок2, и его в попенсорсе нет. А готовится запускать грок3, и про него я и спрашивал.
Аноним 17/02/25 Пнд 20:27:51 #238 №1057250 
>>1057234
пошли виляния, иди выпились уебище
Аноним 17/02/25 Пнд 20:28:01 #239 №1057251 
>>1057221
Маск обещал, что когда будет выпускать новые модели в АПИ, то прошлую модель будет выкладывать веса в открытый доступ. Грок-1 выложил, когда грок-2 вышел. Сейчас грок-3 выходит в АПИ, значит грок-2 должен выйти в открытый доступ, по идее.
Аноним 17/02/25 Пнд 20:29:26 #240 №1057255 
>>1057216
> 100b параметров
Ахуенно, то что нужно.
Аноним 17/02/25 Пнд 20:30:14 #241 №1057257 
>>1057251
Во, чётко и по делу. Окей, ждём. Но вроде как даже второй не сказать чтобы фонтан?
Аноним 17/02/25 Пнд 20:34:58 #242 №1057263 
>>1057257
Ну да, считай устаревшее на год поделие
Оттого и выкидывается, что бы деньги на его тренировку отбить небольшим плюсом к репутации от выкидывания в опенсорс
Аноним 17/02/25 Пнд 20:36:34 #243 №1057266 
image
image
image
image
Новая карточка:

Аме она же (в будущем) KawaiiAngel. Немного неканоничная правда. "П-чан" не тульпа, а однокурсник, и время ещё до стримов, хотя в карточке упоминания стримов есть. Описание карточки на английском, всё же так контекста экономится немного.

~1600 токенов без сторителлер систем промта, 2500 с ним.

Тестировать буду позже, ибо уже полночи прошло, пока для примера три свайпа на первое сообщение на новой экспериментальной версии "абсолютно непристойного деяния".

https://pixeldrain.com/u/2foA6fQC Амэ.png
Аноним 17/02/25 Пнд 20:39:34 #244 №1057268 
>>1057257
Грок два не то чтобы фонтан, но, пощупав его, могу сказать, что из коробки цензуры куда меньше. Ну и всякие, даже большие, мистрали слабее него.

OpenAI имела чудовищную цензуру, буквально параноидальную, триггерилась буквально на всё. На фоне конкуренции они значительно ослабили цензуру, но даже в таком виде она чудовищна по сравнению с цензурой грока.

Учитывая, что грок 2 из коробки более сговорчив, файнтюны легко превратят его в мастера резни или кум-машину.
Аноним 17/02/25 Пнд 20:41:47 #245 №1057271 
>>1057090
Брак пойдёт на дигитсы. У B200 cовсем другие характеристики, там и по RT ядрам тухло, и шина другая. Перепрофилируют не сами чипы, а кремниевые пластины. То есть их пустят не на производство чипов для корпов, а для потребителя. Хотя, если слухи и даты верные, то уже пустили, за месяц такого не провернёшь.
>>1057203
>Самые крупные игроки уже укомплектованы.
А как же новые датацентры на пять сотен ярдов?
Аноним 17/02/25 Пнд 20:45:06 #246 №1057275 
>>1057266
А я так и не сыграл в оверлоад. Стоит она того?
Аноним 17/02/25 Пнд 21:02:35 #247 №1057294 
>>1057266
> ~1600 токенов
Это что там навертел, зачатки какого-то лора и сеттинги мира, или бесконечный клодослоп, который ужимается в 300 токенов + первое сообщение?
Потом надо будет попробовать.
> системпромт на 900 токенов
Вот это пиздец.
>>1057271
> датацентры на пять сотен ярдов
Мегапроекты на десятилетие, до отгрузки готовых девайсов или хотябы чипов там еще порядком времени.
Аноним 17/02/25 Пнд 21:08:58 #248 №1057311 
>>1057180
На изображении experimental!..

>>1057203
> В чем прикол тащить системник на стол, занимая место где могли быть мониторы или что-то полезное?
+

>>1057213
Это который провалился и на который всем похуй, как и на первый?
Ты может еще и в третий веришь, как «в самый лучший ИИ»?

>>1057268
Я боюсь, там будет не 123B (а больше).
Но если гришь, шо получше, то получше, канеш. Ну посмотрим.
Аноним 17/02/25 Пнд 21:15:20 #249 №1057324 
>>1056329
Хочешь мультимодалку получше?

https://github.com/stepfun-ai/Step-Audio

130B модель, без рисования, но с голосом и даже воисклонингом. =D
Аноним 17/02/25 Пнд 21:17:30 #250 №1057329 
>>1057311
>Это который провалился и на который всем похуй, как и на первый?
ножкой топни ещё
Аноним 17/02/25 Пнд 21:22:33 #251 №1057335 
>>1057255
Это минимум (по моему ощущению). Так то я не знаю сколько там параметров, скорее всего будет поболее.
Аноним 17/02/25 Пнд 21:26:01 #252 №1057338 
>>1054330 (OP)
А где есть онлайн API DerpHermes? (с телефона юзаю)
Аноним 17/02/25 Пнд 21:28:49 #253 №1057341 
>>1056818
>Для управления смартфоном нужна визуальная модель Qwen2.5-VL-3B, она спецом обучена управлять смартфоном.
Нет, мне для ролеплея - чтобы кумить, а UI ето chatter (таверна в термуксе не понравилась).

Видеокарты нет, на проксях говняк (gpt gemini).
Аноним 17/02/25 Пнд 21:32:08 #254 №1057343 
>>1057221
Тоже жду, посмотрим как кум пойдет. Но хотелось бы попробовать локалочку хотя бы 70б по api онлаен... На опенроутере самые годные - это всегда платные, из бесплатных квен есть...
Аноним 17/02/25 Пнд 21:34:56 #255 №1057346 
>>1057266
Классно, хотет попробовать НО у меня ИИ работает не локально. И денег нету платить за подписки.
Аноним 17/02/25 Пнд 21:43:39 #256 №1057370 
Бллляя итс овер я думал на 22б с этим лучше но цидонька так же забывает про трусы и комнаты, вот я стою на кухне общаюсь с тян и вот она ведет меня на кухню
Аноним 17/02/25 Пнд 21:47:04 #257 №1057376 
>>1057370
>так же забывает про трусы и комнаты
даже 70б, 123б и 671б будут забывать просто меньше
Аноним 17/02/25 Пнд 21:47:56 #258 №1057378 
>>1057376
А клодик ничего не забывает...
Аноним 17/02/25 Пнд 21:49:26 #259 №1057384 
>>1057378
>А клодик
>даже 70б, 123б и 671б будут забывать просто меньше
у тебя контекст ещё меньше чем у пигмы что ли
Аноним 17/02/25 Пнд 21:56:23 #260 №1057393 
>>1057384
Кто пробовал опуса на свинорезе (вхоре) тот знает. Куктро закрутили гайки и всё.
Аноним 17/02/25 Пнд 22:07:59 #261 №1057406 
>>1057324
>https://github.com/stepfun-ai/Step-Audio
>role-playing enhancements
Хули это тут до сих пор не обсуждают?
Аноним 17/02/25 Пнд 22:10:32 #262 №1057410 
>>1057406
>Хули это тут до сих пор не обсуждают?
>130B модель
>лицо моей попёрдывающей 8 гб
Аноним 17/02/25 Пнд 22:13:36 #263 №1057415 
>>1057410
А это потому что надо хостить онлаен как у дипса.
Аноним 17/02/25 Пнд 22:19:46 #264 №1057425 
изображение.png
>>1057415
У них есть ссылка на какой-то насквозь китайский чат, но там голоса нет.
Аноним 17/02/25 Пнд 22:43:10 #265 №1057464 
https://huggingface.co/TheDrummer/Cydonia-24B-v2-GGUF
>did a RP up to 21k context on v2. no rep pen no dry. its good!

>v2 is fucking violent man

>It holds details, anatomy, happening, scenes much better

>Also, tested v2 vocabulary. Christ... it would make (redacted) blush.

>Tested up to 24K context length, it was stable all throughout.
Аноним 17/02/25 Пнд 23:17:43 #266 №1057498 
>>1057311
Да. Скорее всего грок будет пиздец каких размеров, при этом не факт, что качество будет соответствовать размеру.
Аноним 17/02/25 Пнд 23:19:18 #267 №1057502 
>>1057370
А новый мистральчик 24б про трусы не так часто забывает!
Аноним 17/02/25 Пнд 23:21:17 #268 №1057505 
>>1057329
Пока топаешь ножкой только ты. =)

>>1057341
UI — это User Interface. =) Это именно чтобы управлять смартфоном (и вообще чем угодно).
А Chatter UI — так и называется, сокращать его до UI это как сокращать любой предмет до «вещь».

«Мне нужен чехол для моей вещи».
А потом окажется, ты спрашивал про гондон на свой хуй.

Отсылка на Аддамсов, если кто не понял.

На мобилу люди запускают 7B-8B модели в кванте q3-q4, при 8 гигах (сколько в бомж-смартфонах за 9к рублей) помещается и работает с небольшим контекстом.
Качество, скорее всего, отвратненькое, но что поделать…

>>1057406
Ого, слушай, глаз-алмаз!
И правда интересно.

Но размер… В q2 на двух теслах? =( Хотя владельцы 3 3090 уже могут рассчитывать на что-то хорошее.
Даже интересно стало.

>>1057425
Высохлые кошкодевочки, проблемы? тф
Аноним 17/02/25 Пнд 23:36:51 #269 №1057530 
>>1057505
Ты всегда так разговариваешь?
Тьфу блядь, только из aicg вкатился, думал тут адекватнее
Аноним 17/02/25 Пнд 23:49:07 #270 №1057558 
>>1057530
Игнорь дауна.
Аноним 18/02/25 Втр 00:09:18 #271 №1057586 
image.png
>>1057231
Да, сейчас проверил и настройки действительно отличаются от оригинального пресета > https://www.reddit.com/r/LocalLLaMA/comments/17vonjo/your_settings_are_probably_hurting_your_model_why/?rdt=44839
Аноним 18/02/25 Втр 00:47:00 #272 №1057616 
>>1057530
Ну, если для тебя «адекватность» — это токсичность, глупость и ебанутость, то нет, тут не адекватнее.
Уж прости, ебанутых ищи в других тредах, плиз.

Зато я теперь понял, кто сидит в aicg. Надеюсь таких вкатунов оттуда больше не будет.
Аноним 18/02/25 Втр 01:11:25 #273 №1057635 
>>1057335
Да насрут каким-нибудь огромным мое, которые одновременно и не запустить на доступном железе, и при этом не будет обладать внимательностью больших плотных моделей. Заебали просто.
>>1057393
> на свинорезе (вхоре)
Чет в голос, это разные. И опус точно также забывает про мелочи, что тогда, что сейчас.
>>1057530
Это местный шиз, кинь ссаными тряпками или игнорь.
>>1057586
> от оригинального пресета
Это шиза, где поех затирал что сначала надо ставить относительно агрессивную отсечку, а только потом обрабатывать температуру, при этом выкручивая ее, тема весьма сомнительная. Насколько помню, пресет мин-п в таверне и убабуге более адекватен и не повторяет эту шизу, но могу и пиздеть.
>>1057616
=((((((
Аноним 18/02/25 Втр 03:09:20 #274 №1057716 
>>1057505
>Качество, скорее всего, отвратненькое, но что поделать…
В этом вся и суть.

Чтоб норм чатиться и играть слоуберн - нужен онлайн эндпойнт. Не важно даже, телефон или ПК, на своем нищепека ты разве что зефир 1б поднимешь.

Вот и спрашиваю, где есть. Джемини заипал фильтрацией ответов.
Аноним 18/02/25 Втр 03:10:48 #275 №1057722 
Обещали завтра грок 3... ну, пусть только попробуют вбросить лоботомита с лупами или цензорить апи
Аноним 18/02/25 Втр 03:14:34 #276 №1057729 
>>1057722
Зачем это говно нужно? Второй был всратый, третий будет такой же. Ещё и без ризонинга.
Аноним 18/02/25 Втр 03:24:52 #277 №1057738 
>>1057729
Ты уже пробовал? Мне интересно потому что будет бесплатно (минимум на проксях), и потому что и обещали без цензуры. Значит, уже лучше чем гоймини.
Аноним 18/02/25 Втр 04:43:20 #278 №1057788 
>>1057729
>Второй был всратый
Лично мне второй Грок понравился и я был бы рад запустить его локально, пощупать тюны и мержи и всё такое. Но боюсь, что он окажется великоват (а если учесть размер первого, так почти уверен). 314В даже во втором кванте не поместятся даже в 96гб врам - не для людей. И 128гб в коробочке Хуанга маловато будет. Нормальных сверхплотных квантов что-то не видать.
Аноним 18/02/25 Втр 04:58:38 #279 №1057789 
>>1057722
сегодня ж, в 7 утра презентовать будет
Аноним 18/02/25 Втр 05:55:55 #280 №1057796 
Допустим, есть риг на 144 ГБ видеопамяти. Что стоит на нем крутить?
Аноним 18/02/25 Втр 06:04:19 #281 №1057801 
>>1057796
Не ллм точно, больше 12гб на ллм тратить надо больным быть.
Аноним 18/02/25 Втр 06:12:28 #282 №1057803 
>>1054330 (OP)
Анончики, какой вообще примерно ценовой порог для того, чтобы чувствовать себя комфортно на локалках? Есть одна 3070, но у меня есть чувство, что этого очень мало
Аноним 18/02/25 Втр 06:19:51 #283 №1057804 
>>1057803
Зависит от многого. Есть люди, которым комфортно на чем угодно буквально. Мне было комфортно начиная с арендованного в датацентре риге с двумя a100, или на API openAI
Аноним 18/02/25 Втр 07:28:15 #284 №1057814 
image.png
вот и пруфы подвезли
Аноним 18/02/25 Втр 07:41:49 #285 №1057818 
>>1057803
Спорный вопрос, чувак, скажу я тебе. Вот хорошенько почитай, несмотря на сумбурный текст.

Предполагаю, у тебя небольшой бюджет и я не буду описывать тебе вариант для 70б — это реально дорого.

Навскидку могу закинуть такой вариант: две видеокарты 3060 с 12 врам. 60к всего в днс. А если бэу, то ещё дешевле. с другой стороны, если найдёшь 3090, надо брать именно её. Однако дело не в этом. Главное — впереди.

Беда иная. А где хорошие LLM? У нас есть россыпь 12б мистралей. Не все они плохие. Да, всегда имеются подводные камни у каждого, это норма, но ты их катать можешь с максимальной скоростью на одной карте с 12 врам или более медленно даже с 8 врам.

Увеличив свою видеопамять до 24 врам, ты попадёшь в дивный мир... в котором отсутствуют модели. Ну не прикол ли?

Щас все налетят меня обоссывать, но там по факту только гемма (из-за ограничений по контексту особо с ней не проиграешь), командир кал, квен кал, дипсик вообще демонический высер китайского надмозга даже в размере 600б. Все эти модели, кроме геммы, для рабочих задач, а с рабочей задачей ты идёшь к Anthropic/OpenAI/CursorAI И РЕШАЕШЬ ЕЁ ЗА 20$ В МЕСЯЦ НА САМЫХ ЖИРНЫХ МОДЕЛЯХ!

Что у нас остаётся? Мистраль 22-24б с парой файнтюнов. Кому-то нравится условная цидонька (ненавижу её), а вот новый мистраль 24б меня приятно удивил даже в ванильной версии... Но ты за это бабки хочешь отдавать? Точно ли оно тебе нужно?

Есть ещё один вид людей, к которым отношусь я: любители большого контекста. Качаешь 12б, ставишь 32-64к контекста и играешь (часто такой контекст не учитывается в поведении, но им можно заменять лорбук часто, просто удобно). Разумеется, это не для кума, а для того, чтобы больше никогда не ебать себе мозги и спокойно рпшить.

Чуть не забыл. Пусть эта тема и на любителя, но есть такой чувак, делающий более «тёмные» версии моделей с уклоном в ужас/негатив/реализм. Местами они ебануты, но гораздо более душевные и живые, чем типичные мержи мистралей в большинстве случаев. И вот именно они находятся в таком неприятном промежутке, когда 12 врам мало, а 24 врам в самый раз. Я их очень люблю; судя по скачиваниям на обниморде, их тоже любят, но в тредах упоминают редко.

Если ты можешь себе позволить видеокарты, то покупай. Забросишь ллмки — подергаешь стабильную диффузию. Или в игры поиграшь. Раз в год. На максималках. Ибо игровая импотенция. Зато довольный.

Но не вздумай покупать, если твоя зарплата низкая или есть сомнения. Отложи на зубы, в доллары, на лечение перекрута семенного канатика.

Пока что нет смысла волосы на жопе рвать.
Аноним 18/02/25 Втр 07:43:20 #286 №1057820 
>>1057814
ГДЕ МОЙ ГРОК НА ОБНИМОРДЕ??!! ГДЕЕ??? ДАЙТЕ МНЕ ГРОК! ОН СЕЙЧАС УМРЁТ!
Аноним 18/02/25 Втр 08:02:36 #287 №1057828 
>>1057275
>А я так и не сыграл в оверлоад. Стоит она того?
Скажем так, на любителя.
Автор игры профессиональный психолог, и расстройства психики прописал довольно достоверно. Такой, сурвайвал тамагочи.

Атмосферно, местами жутко, местами мило.

>>1057294
>зачатки какого-то лора и сеттинги мира
Ну, вся информация которую удалось накопать по персонажу, и так пытался ужать как можно.
Сеттинг там почти реальный, ну или совсем реальный если мистические элементы списывать на галюны.

>Вот это пиздец.
Это Storyteller, который карточкой отдельной ещё выкладывал. В таверне же систем промт Empty стоит.
Периодически дорабатываю и обновляю, недавно больше тысячи токенов был.
Вообще надо будет попробовать закинуть в промт, сказать мол проанализируй и напиши покороче.

>>1057464
>https://huggingface.co/TheDrummer/Cydonia-24B-v2-GGUF

Там же:
> it doesn't follow author notes or lorebooks
> Conintually getting nonsense output

Но вообще, надо чекнуть, сяп.

>>1057818
Всё так.
Аноним 18/02/25 Втр 08:41:05 #288 №1057852 
>>1057788
Если бы грок хайпанул — сделали бы 1,5 бита.
Но, очевидно, второй не хайпанул, поэтому и фиг нам, а не локально.

———

Ну что? По тестам грок 3 вполне норм.
Имеет ризонинг в бете, бьет карликовую о3, ребенка, конечно, но для грока простительно, он и сам болезным был все время. Обходит р1 — уже нихуя себе достоинство.
На арене рейтинг высокий, тоже хорошо.
Легко ломается и рассказывает всякие непотребства.
Судя по всему, с третьего раза удалось сделать если не лучшую модель, то на уровне — точно.

Что ж, теперь интересен ее размер. Если ее выкинут в опенсорс через годик-полтора, это уже может быть интересно.

Но нужно больше живых тестов, офк.
А то щас перехайпим, потрогаем подробнее и разочаруемся.
Аноним 18/02/25 Втр 08:45:10 #289 №1057853 
7ms9v3.png
И еще свежачка.

https://x.com/sama/status/1891667332105109653
Вы за что? о3 мини локально или новая модель для смарта от ОпенАИ? :)
Аноним 18/02/25 Втр 09:11:17 #290 №1057863 
IMG6105.JPG
>>1056867
Брал такую на Али, почти стразу отвалилась крутилка. Ебать я лох ))
Аноним 18/02/25 Втр 09:35:30 #291 №1057874 
>>1057853
>модель для смарта от ОпенАИ?
Думаешь, итт настолько конченные сидят, чтобы хотеть такое?
Аноним 18/02/25 Втр 09:45:25 #292 №1057876 
image
>>1057294
>Вот это пиздец.

Позакидывал в разные спейсы на обниморде, и в результате получилось ужать до 367 токенов. Насколько именно получилось пока не тестил хотя. Залил как отдельную от старой карточку.

https://characterhub.org/characters/aleteian/storyteller-5e5ea7a548d4
Аноним 18/02/25 Втр 09:50:43 #293 №1057878 
>>1057874
На самом деле, мне кажется, как раз в этом треде такое хотеть вполне логично, учитывая людей со смартами без компов.
Но мы же понимаем, что там будет лютая цензура, а не ерп… =(

Так что, о3 мини и правда выглядит лучше.
Аноним 18/02/25 Втр 09:53:16 #294 №1057882 
>>1057876
Мне аж стало интересно, что там за систем промпт такой, и я сохранил оригинал. =D
Аноним 18/02/25 Втр 09:57:22 #295 №1057885 
>>1057853
Ебать. Если о3-мини можно будет запустить на 4090 хотя бы с 16к контекста это будет просто пиздец как охуенно.
Аноним 18/02/25 Втр 09:58:31 #296 №1057886 
>>1057231
>начинает терять форматирование и лицо со второго на третье переходит
Это во многом от тьюна зависит. Есть рп тьюны, у которых в датасете все действия были в звёздочках, и даже если у тебя уже куча контекста плейн текст и кавычки, оно может начать в звёздочках писать. Есть, наоборот, тьюны на лит-ре, которые будут упорно переходить со звёздочек на плейн текст и третье лицо. Ну и мог штраф за повтор случайно сильно выкрутить, так что звёздочки и местоимения штрафуются.
Аноним 18/02/25 Втр 09:59:43 #297 №1057887 
>>1057882
>и я сохранил оригинал
Оригинал никуда не делся, он отдельной карточкой лежит.
Аноним 18/02/25 Втр 10:02:50 #298 №1057888 
>>1057885
ну там ИМХО скорее всего 70b минимум что то будет
Аноним 18/02/25 Втр 10:14:00 #299 №1057900 
>>1057888
А, да, только сейчас заметил что он написал GPUs. Типа, нужно больше одного жипию как минимум, чтобы запустить, как я понимаю. Думаю, что по размеру будет что-то типа дипсика, которому нужно 400 гигов врама.
Аноним 18/02/25 Втр 10:14:56 #300 №1057901 
>>1057341
Давно не проверял сам, но вроде блокнот кобольда для гугл колаба всё ещё существует (смотри на странице koboldcpp на гитхабе). Или блокнот в шапке попробуй, хз, рабочий ли он ещё, но там уба дольше будет ставиться при каждом включении, чем готовый кобольд. Там не то что 8б, но даже 22б с мелким контекстом, возможно, пойдёт. Поднимаешь апи и коннектишься через тот же чаттер. Если не абузить акк, то пару часов в день разрешит нахаляву початиться, наверное.
Аноним 18/02/25 Втр 10:18:44 #301 №1057902 
>>1057878
>Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100
Да, конечно, в треде для локального кручения ллм будут сидеть люди без пекарен.
>о3 мини
Как будто там цензуры не будет. Но там будет какой-то шанс, что этим будут пользоваться, то есть на самом деле будут. Так что и тюны подъедут.
Аноним 18/02/25 Втр 10:21:08 #302 №1057903 
>>1057900
>Типа, нужно больше одного жипию как минимум, чтобы запустить, как я понимаю.
Скорее всего речь идет о полных весах, в таком случае одной бытовой карточкой точно не отделаешься. Вопрос лишь в том, сколько в этой копирке o3 будет параметров. Потому что по ощущениям с материнской модели, там может оказаться и 34B и 70B и все 685 лярдов параметров.
Аноним 18/02/25 Втр 10:26:11 #303 №1057906 
>>1057903
Да врядли, скорей всего будут сопоставимые проекты по масштабам. Типа хоп хуяк у них появились свободные мощи, а давайте сделаем что-то.
Аноним 18/02/25 Втр 10:35:32 #304 №1057916 
>>1057885
Можно будет точно, в таком-то кванте. Но дело в том, что обычно чудес не бывает - если мало параметров или низкий квант модель будет тугой на голову.

Но мнение о том, какой модели "достаточно" - у всех свое.
Аноним 18/02/25 Втр 11:08:31 #305 №1057951 
>>1057885
>о3-мини можно будет запустить на 4090 хотя бы с 16к контекста
>у мини версии всего 320B параметров
Аноним 18/02/25 Втр 11:11:51 #306 №1057953 
>>1057887
Я в курсе, я просто к тому, что ты забайтил на интерес. =) 360 токенов не необычно, а вот 900!..

>>1057900
Не-е-е, вряд ли! мини-версии обычно и правда маленькие, тот же гугловский флэш был в двух размерах, один из которых — 8б.
Т.е., для мини-версии вполне возможно быть 32б, может 70б, может 120б, но вряд ли больше.
Энивей, на двух теслах, скорее всего, потянет.

>>1057902
Угараешь? Выше человек спрашивал про модели для смартфонов, и он не первый далеко, много людей спрашивают, и обсуждают иногда.

Такие дела, продукт идет в массы, школьники с ним знакомятся, а большинство школоты серьезно не имеют ПК, а только смартфоны. В такое время живем.

>>1057916
Да о3 в принципе не универсальна. Просто очередная модель для решения задач. Доступнее Р1 полноценной.
Аноним 18/02/25 Втр 11:12:19 #307 №1057954 
>>1057951
А откуда инфа про 320б? Я не встречал вообще.
Аноним 18/02/25 Втр 11:15:26 #308 №1057958 
>>1057954
Кабаны с 100к+ h100 могут легко такие модели гнать для плебеев, даже за бесплатно
Аноним 18/02/25 Втр 12:15:07 #309 №1057993 
>>1057953
>а вот 900!
Всего лишь попытка учесть возможные аспекты ролеплэя:

- общее поведение гейм/данжен мастера
- джейлбрейк для эксплисит контента
- специальные указания относительно ролеплэя с игроком специфичные именно для ллмок (например чтобы меньше писала за персонажа игрока)
- специальные указания касательно неигровых персонажей и общих случаев без которых получается то самое легендарное "ты меня ебёшь", снижающие степень услужливости модели когда это применимо.

В большой версии сторителлера формулировки более развёрнутые и с уточнениями "когда это подходит текущему сеттингу и нарративу", в сокращённой версии формулировки краткие и лаконичные.

Эффект, теоретически, по предыдущим версиям то расширяющегося то сокращающегося промта который я прорабатываю ещё с прошлого года, схож с квантованием модели.

То есть и то и то работает, но сокращённая форма может где-то работать также, а где-то перс может повести себя, например, согласно указаниям, но не в тему текущей обстановке потому что указание "если это подходит сеттингу и обстановке" в сокращённой версии отсутствует для экономии токенов.
Аноним 18/02/25 Втр 12:44:55 #310 №1058055 
>>1057738
> бесплатно
Через помойку машки, под цензурой. Ты и дипсик так же можешь бесплатно использовать. API там всё так же платное и оно не нужно никому, потому что не стоит того.
> уже лучше чем гоймини
Грок более закрытый, чем жпт. Машка только пиздит про швабодку, на деле по ИИ у него вообще никаких вливаний в опенсорс нет, всё закрыто. Даже публикации не делают.
>>1057788
> локально
Так машка локально выкатит устаревший грок2. А грок3 будет когда грок4 высрут. Зато будет по твиттеру носится и пиздеть какие она швабодные, опенсорсят свои модели, умалчивая что это устаревшее говно, которое уже неконкурентноспособно для продакшена.
Аноним 18/02/25 Втр 13:06:11 #311 №1058120 
>>1057993
>если это подходит сеттингу и обстановке
Сомневаюсь, что подобные условия поймут даже большие модели без разжёвывания самим себе в синкинге или хотя бы нескольких примеров, когда такое условие триггерится, а когда нет. Про 12б ру мержи без мозга тут и говорить нечего. То же касается, подозреваю, остального промпта. Не читал, но осуждаю.
Я пытался в подобном роде категоризировать описания кум сцен, что, мол, обращай внимание на личность перса, отношения с юзером и т.д. - не похоже, чтобы оно работало. По крайней мере, на 12б. Нужны простые прямые инструкции без затей.
Аноним 18/02/25 Втр 13:13:10 #312 №1058141 
5bd9bdb3b1c7e3742b49c540.jpg
>>1057953
>не имеют ПК, а только смартфоны. В такое время живем.
Аноним 18/02/25 Втр 13:22:25 #313 №1058151 
image
>>1058120
>Сомневаюсь
Тут оно конечно всё эмпирически "на кончиках пальцев", у меня впечатления противоположные, и 12Б вполне ок, ща гоняю новую 24 цидонию в шестом кванте, ну и чот... Не, наверняка разница конечно ощутится в мелких деталях типа запаса знаний или подмечания деталей... должна же быть, правда.
sage[mailto:sage] Аноним 18/02/25 Втр 13:38:38 #314 №1058190 
>>1057818
> Чуть не забыл. Пусть эта тема и на любителя, но есть такой чувак, делающий более «тёмные» версии моделей с уклоном в ужас/негатив/реализм. Местами они ебануты, но гораздо более душевные и живые, чем типичные мержи мистралей в большинстве случаев. И вот именно они находятся в таком неприятном промежутке, когда 12 врам мало, а 24 врам в самый раз. Я их очень люблю; судя по скачиваниям на обниморде, их тоже любят, но в тредах упоминают редко.
Договаривай блять
Аноним 18/02/25 Втр 13:38:53 #315 №1058191 
>>1057820
> Elon says Grok 2 won't be open sourced until Grok 3 is stable which isn't for a couple months
Аноним 18/02/25 Втр 13:47:51 #316 №1058203 
>>1058191
>ОХХХ Я ЧУВСТВУЮ ГРОК 3 ВЫПУСКАЙТЕ ГРОК 2 СЕЙЧАС!!!!
Аноним 18/02/25 Втр 13:48:17 #317 №1058204 
>>1058190
>Договаривай блять
https://huggingface.co/DavidAU
sage[mailto:sage] Аноним 18/02/25 Втр 13:49:39 #318 №1058206 
>>1057818
Что тебе сделала цидонька почему ненавижу?
Аноним 18/02/25 Втр 13:53:32 #319 №1058209 
image
Ahh... hello shiver, my old friend.

Cydonia-24B-v2g-Q6_K
Аноним 18/02/25 Втр 14:07:50 #320 №1058225 
>>1058141
Ну потому что щас собрать с нуля хотя бы нищепеку стоит в районе 150к, и то это только для игр. Большинство айфоны за 80к покупает, что в техническом плане полный обосрамс, потому что по вычислительным мощностям он сосёт у китаефонов за 30к. Люди быдло, думай.
Аноним 18/02/25 Втр 14:10:38 #321 №1058228 
image.png
>>1058209
Аноним 18/02/25 Втр 14:45:00 #322 №1058267 
>>1058204
Надо еще добавить, что его файнтьюны не сами по себе "темные и безумные". Я лично ни разу ничего темного и безумного в них не находил, а использовал исключительно как превосходные модели для того, чтобы не видеть гпт-измов и прочих ярко выраженных признаков нейросетевого текста.
Аноним 18/02/25 Втр 14:47:00 #323 №1058272 
>>1058225
>Ну потому что щас собрать с нуля хотя бы нищепеку стоит в районе 150к, и то это только для игр.
ЭЭ? На том же зионе собирают все еще, или вобще на 1151 со всякими новыми серверными камнями.
Поиграть в киберпук собираясь по дешевке на старье выйдет ну где то 20к полный системник
По современным меркам это 8 летний хлам с фиговым однопотоком, но даже на поиграть хватит. А всякие офисные программы или браузер потянет с избытком.
Для любителей всякого римворлда и других легких игр никаких проблем
Аноним 18/02/25 Втр 14:58:47 #324 №1058284 
>>1058272
Ну речь же про современные AAA проекты в которых ты будешь играть на высоких настройках, а не про римворлд.
Аноним 18/02/25 Втр 15:06:38 #325 №1058296 
>>1058267
Зависит от модели. Ты можешь написать в стиле "на работе устал", а модель начнет думать, что там пиздец был, вот ты и устал. На вал кого-то намотало или вообще ты киллер, вот и тяжело было кого-то убивать. Если не уточнять, кем ты работаешь. Причём даже если ты без негативного контекста это делаешь.

Далеко не все модели у него себя так ведут, но есть такие, где любое событие старается скатиться в подобный сценарий.
Аноним 18/02/25 Втр 15:06:47 #326 №1058297 
>>1058284
>римворлд
рим (как и факторио) можно упаковать модами так что даже топовые компы подавятся
Аноним 18/02/25 Втр 15:15:17 #327 №1058309 
>>1058284
>нищепеку
И АААААА проекты как то не сочетаются, да и там можно на низких на всяком хламе играть.
Просто либо кто то зажрался, либо не понимает что текущие ААААаааа проекты жрут непомерно много
Либо просто не в курсе про всякий зионный хлам и ориентируется по магазину.
Для человека без компа и желающего его получить это лучший выбор по соотношению производительность к цене, с возможностью играть практически во все что угодно
Для меня игорь тонет, из прошлогоднего только в Slay the Princess поиграл. ААААААА параша давно уже не цепляет, я лучше какую нибудь хуйню почитаю чем в эти поделия играть


>>1058297
Да любая игра с модами так может. Причем там много интересных игр на сотни часов игры с дикой реиграбельностью изза модов и низким стартовым входом по железу.
Аноним 18/02/25 Втр 15:54:43 #328 №1058334 
>>1058297
>рим (как и факторио)
борда 18+
Аноним 18/02/25 Втр 15:55:53 #329 №1058336 
>>1058225
Справедливости ради, смартфон с 8 гигами за 9к рублей потянет. Текно вам на что дадено в салонах опсосов.

>>1058272
Справедливости ради, там тоже свои хитрости, если мы говорим о нейронках. Радости катать 7б со скоростью 2 токена в секунду нет.
Зеончик желательно на четырех-канальной матери, и чтобы без перегрева, а если видяшку, то не 1660 супер, а получше…
На бомж-пеке под игры нейронки пойдут не сильно-то хорошо.

Ну, я не просто так говорю, я и на смартфоне ллмки тестирую, и пеки знакомым собираю от топовых до ну прям совсем бомжатни. И ллмки тестирую просто ради интереса, когда время есть.
Аноним 18/02/25 Втр 16:01:14 #330 №1058343 
>>1058334
>борда 18+
римджобворлд и жосткое факторево, два всадника абокралипсиса на свободное время
Аноним 18/02/25 Втр 16:07:37 #331 №1058355 
>>1058334
Во-первых не 18+, тут в разделе банят за порнуху, ссылаясь что раздел не 18+ и надо в /nf/ пиздовать.
Во-вторых, что не так с факторио? У зумерков сатисфактори и римворлд, вместо ДФ и фактории.
Аноним 18/02/25 Втр 16:19:53 #332 №1058368 
>>1058355
На ДФ порномодов нет, в отличии от римволрда
Аноним 18/02/25 Втр 16:20:24 #333 №1058370 
IMG0842.jpeg
>>1058209
Blush
Аноним 18/02/25 Втр 16:21:59 #334 №1058372 
>>1058203
И что ты с ним будешь делать ? Там же очередное 666B ?
Аноним 18/02/25 Втр 16:33:42 #335 №1058383 
Анон помоги тупому понять
Пропускная способность шины на 3090 может ограничиваться процем/материнкой?
Как посмотреть мой ли это случай?
Щас увидел в игре прогружающиеся текстуры хотя такого на 3090 быть не должно
Аноним 18/02/25 Втр 16:34:04 #336 №1058385 
>>1058383
>3090 может ограничиваться процем/материнкой
да
Аноним 18/02/25 Втр 16:36:57 #337 №1058386 
Что то мне не нравится новый Мистраль. Который 24b instruct. Посоветуйте модельку для генерации книжных отрывков. Пока сиду на Сидонии, и вроде норм, но хотелось бы получше.
Аноним 18/02/25 Втр 16:38:54 #338 №1058389 
>>1058386
>Что то мне не нравится новый Мистраль
слишком соевый и слопа много
>но хотелось бы получше
жди полгода
Аноним 18/02/25 Втр 16:39:56 #339 №1058393 
>>1058370
>Blush
блуш в хентай сцене которая, курва я пердолил, также sends a forbidden tingle racing down her spine
Аноним 18/02/25 Втр 16:39:59 #340 №1058394 
>>1058383
> не должно
Схуяли не должно? Ассеты могут хоть с диска стримиться.
Аноним 18/02/25 Втр 16:40:12 #341 №1058396 
>>1058383
>такого на 3090 быть не должно
А это от видеокарты не зависит. У тебя идёт подргузка текстур. То есть они читаются с диска, проц перегоняет это в RAM, а оттуда оно уже поступает в видеокарту. То есть у тебя потенциально четыре узких места. Диск, проц, оператива, слот матери и видяха.
Аноним 18/02/25 Втр 16:44:31 #342 №1058404 
Парни, я правильно понимаю, что на своем пк можно локально генерировать картинки инфа о которых не улетает в интернет? Ну т.е. локальные модели ии позволяют всё генерировать без доступа к интернету? Или это не так работает?
Например, работа с Stable Diffusion
Аноним 18/02/25 Втр 16:46:21 #343 №1058408 
>>1058404
>Stable Diffusion
Тебе в https://2ch.hk/ai/res/1052657.html здесь тред генерации охуительных историй а не картинок.

Хотя картинки тоже генерим, как иллюстрации к карточкам.
Аноним 18/02/25 Втр 16:47:25 #344 №1058410 
>>1058386
>One day at lunchtime, Mrs. Harper spoke softly beside my desk during recess—away from prying student ears—explaining private details involving earlier health diagnoses which had informed specific hiring decision process involved leading directly supporting why particular instruction chosen might benefit students' needs overall best approachable yet compassionate delivery style offering exceptional quality academic excellence standard indeed!
Это нормально составленное предложение? Есть ощущение, что мистраль как то водянисто пишет
>>1058389
>жди полгода
Ждать файтюны? А в период ожидания на чём сидеть? Я не мистралефан, мне то угодно сойдёт.
Аноним 18/02/25 Втр 16:47:49 #345 №1058411 
https://huggingface.co/trashpanda-org/MS-24B-Instruct-Mullein-v0
Хиденгем?
Аноним 18/02/25 Втр 16:48:17 #346 №1058412 
>>1058404
>не улетает в интернет
>без доступа к интернету

А так да, и то и другое после первоначальной настройки интернеета не требует.

>>1058410
>водянисто
клодослоп как он есть
Аноним 18/02/25 Втр 16:53:32 #347 №1058417 
>>1058411
>Хиденгем
woke-identity
Аноним 18/02/25 Втр 17:04:53 #348 №1058429 
image
Ахаххахахаххахаха...

Просто. Блять. Цидония-24B, какого хера?

И это всего-то CtxLimit:7139/16384
Аноним 18/02/25 Втр 17:33:59 #349 №1058470 
>>1058429
Брух. Как же одинаково выглядят все эти сцены, видел одну = видел все. Одни и те же шаблоны, одно и то же построение предложений и содержание.
Реально пора в спячку пока не выйдет какая-нибудь новая популярная базовая модель на замену мистраля.
Аноним 18/02/25 Втр 17:35:49 #350 №1058475 
>>1058470
р1 настоящий кум демон
Аноним 18/02/25 Втр 17:40:58 #351 №1058481 
>>1058470
>видел одну = видел все
ну не скажи, на русских 12б кумилось неплохо
Аноним 18/02/25 Втр 17:44:07 #352 №1058485 
>>1057885
А что хорошего? ЕРП там не в почёте, будет сосать у тюнов мистраля, лол.
>>1057902
>будут сидеть люди без пекарен
Парочка набежавших уже отмечалась, лол. Но они быстро срыгивают к корпоратам.
>>1058225
Скорее потому что смартфоном можно понтануться, а пукой нет. В моём окружении никто и не знает, что у меня железа в ПК на 300 тыщ. Правда у меня и окружения нет.
>>1058309
>ААААаааа проекты жрут непомерно много
Графоний можно скрутить на уровень 2004-го.
>>1058334
Я в межработные отпуска по полгода могу убить на одну игру, так что хули нет.
>>1058383
Что за железо то хоть?
>>1058396
>То есть они читаются с диска, проц перегоняет это в RAM, а оттуда оно уже поступает в видеокарту.
И тут ресайз бар вышел из чата.
Аноним 18/02/25 Втр 17:49:53 #353 №1058491 
>>1058485
>А что хорошего? ЕРП там не в почёте, будет сосать у тюнов мистраля, лол.
Ну, что у опенаи модель определенно умнее будет чем у кого-либо. А ерп - сделают тюны и так же будет писать порево без проблем.
Аноним 18/02/25 Втр 18:04:03 #354 №1058512 
>>1058485
>ресайз бар
А какая разница? Ребар просто позволяет процессору писать во всю память карты, а не только в маленький участок. Раньше было CPU пишет в буфер vram мегабайт 256, оттуда видимокарта уже достаёт. Сейчас этот буфер условно вся память карты. В идеальном мире, конечно же, а мы живём не в таком. Но это не значит, что данные не пишутся процом в ram. Они пишутся. И оттуда копируются в vram. Тоже процом.
Сейчас пытаются продвинуть чтение видимокартой сразу с диска, без ёбки cpu и ram. Но пока это всё будет. Так что ребар может помочь, а может и не помочь. Это всё ещё потенциально узкое место.
Аноним 18/02/25 Втр 18:26:12 #355 №1058525 
Что скажете про новый мистраль 2501 24В, а главное про его тюны? Есть ли какие-то ощутимые улучшения в РП по сравнению с 2409 22В, имеет смысл переползать?
Аноним 18/02/25 Втр 18:27:43 #356 №1058526 
>>1058525
>новый мистраль 2501 24В
говно ебанное
Аноним 18/02/25 Втр 18:34:46 #357 №1058529 
>>1058525
все хвалят кроме двачеров, дальше сам
Аноним 18/02/25 Втр 18:43:07 #358 №1058536 
image
>>1058525
sending shivers down my spine, my brain trembles

Не, по мозгам неплохо, очень даже неплохо.
Подмечает детали, реагирует более-менее адекватно...
Способен управлять несколькими персонажами.

Но вот стиль и слог - прям классика нейрожанра.
Аноним 18/02/25 Втр 19:02:36 #359 №1058553 
>>1058512
>Сейчас пытаются продвинуть чтение видимокартой сразу с диска, без ёбки cpu и ram.
Всегда думал, что ребар как раз про это, лол.
Аноним 18/02/25 Втр 19:04:33 #360 №1058555 
>>1058475
Да ну? Назови полное название модели.
Аноним 18/02/25 Втр 19:04:50 #361 №1058556 
>>1058555
R1
Аноним 18/02/25 Втр 19:12:34 #362 №1058565 
>>1058556
дипкок штоле
Аноним 18/02/25 Втр 19:12:56 #363 №1058566 
>>1058525
Мне нравится. Лучше 22б мистраля.

Как тут и сказали, классика нейротекста в негативном смысле. Действительно умнее, лучше держит контекст и понимает ситуацию, однако нужны тюны, если хочется прям хорошо.

Я уже пощупал некоторые тюны и блеванул. Превращают модель в лоботомит, хоть и умнее 12б, но не настолько, как ванильная модель. Нужно что-то более качественное, чем имеется.

Рпшу сейчас на нём. Пока что нравится. Плюс можно добавить теги, которые сделают уклон в ту или иную сторону.
Аноним 18/02/25 Втр 19:19:53 #364 №1058576 
>>1058553
Это DirectStorage. Было в ультраоптимизированном Forspoken. Беда в том, что псина имеет высокие задержки, так что гонять много мелких пакетов не будет выгодно, пока задержки не станут низкими. То есть скорость записи в RAM+задержка RAM должна быть выше, чем задержка псины, чтобы директ сторож поработал во благо.
Аноним 18/02/25 Втр 19:52:41 #365 №1058641 
image.png
>>1058485
>что за железо
Аноним 18/02/25 Втр 20:08:29 #366 №1058662 
>>1058566
>Превращают модель в лоботомит
Вот кстати прям пиздец тру стори.

Рпшил на англе, когда скорость упала ниже токена в секунду ( 0.7, не токены, а золото ) не закрывая таверну перезапустил кобольда с 12Б. И, ЧСХ, пишет практически то же и так же, хотя иногда не с первого свайпа, а со второго-четвёртого, но зато скорость сразу выросла почти в 10 раз.
Аноним 18/02/25 Втр 20:41:30 #367 №1058714 
>>1058662
>но зато скорость сразу выросла почти в 10 раз.
22 vs 12? Невелика разница так-то, не стоило и мучиться.
Аноним 18/02/25 Втр 20:45:35 #368 №1058721 
>>1058714
>22
24

Блин, чего таверна пересчитывает Processing Prompt [BLAS] (6656 / 8627 tokens) когда контекста ещё только 12 из 16 занято и никаких лорбуков не подключено.
Аноним 18/02/25 Втр 20:46:09 #369 №1058724 
изображение.png
>>1058641
Тебе сама софтина намекает, что она устаревшее говно, которое не может определить объём врама (ну или тебя наебали).
Ах да, проц 5600G имеет PCI-E только третьей версии. Такое себе, но повлиять не должно. Но проц для карты слабоват, да ещё и со встройкой, лол. Возьми 5700x3D. Нейронкам оно никак не поможет, но игры будут летать.
Аноним 18/02/25 Втр 21:13:39 #370 №1058762 
>>1058209
Что гораздо важнее, так это родные и всеми любимые MINISTRATIONS (правда, не в том контексте)
>>1058386
Мб глупо советовать 12б после 24б, но можешь попробовать очевидный немо гутенберг, который тренировали на книгах. Какой-нибудь из кучи. https://huggingface.co/nbeerbower?search_models=gutenberg#models
Там 27б гемма и 32б квен есть, кста, не только мистрали.
>>1058410
Точно не нормально, выглядит так, как-будто сэмплинг или даже обработка контекста сломаны.
>>1058481
И что там было такого особенного? Перевод всё тех же заезженных сцен, только куда более куцый. Даже не псковское порно ру клода (заглядывал в соседний тред иногда). Субъективно, конечно, но как-то пробовал инструменталити, по-моему - как добрался до кума, чуть не блеванул. Чуть выше уровнем, чем "я тебя ебу", как по мне.
Аноним 18/02/25 Втр 21:37:11 #371 №1058828 
>>1058721
>Блин, чего таверна пересчитывает Processing Prompt
Ты пресет Tekken поставил? Сколько свайпов? И нужно покопаться в промпте - не вставляет ли Таверна ближе к началу чего нового по переменной.
Аноним 18/02/25 Втр 21:40:58 #372 №1058843 
>>1058724
>да ещё и со встройкой, лол
Я точно в ллм тред запостил?
Эта встройка мне освобождает место под 5к контекста
Аноним 18/02/25 Втр 21:41:38 #373 №1058845 
>>1058843
И позволяет выгрузить все слои на видюху без отвала и фризов системы
Аноним 18/02/25 Втр 21:55:25 #374 №1058874 
>>1058843
В ллм треде просто берут ещё одну карту. И ещё.
Аноним 18/02/25 Втр 22:11:18 #375 №1058903 
1688594207526.webm
Как же хочется роботяночку с интеллектом в 100, а не как у нас в треде в 0.
Аноним 18/02/25 Втр 22:16:24 #376 №1058911 
>>1058903
Че за кинцо?
Аноним 18/02/25 Втр 22:23:38 #377 №1058916 
>>1058903
а сиськи также можно?
Аноним 18/02/25 Втр 22:32:13 #378 №1058930 
>>1058916
Ага, и член тоже.
Аноним 18/02/25 Втр 22:38:48 #379 №1058947 
>>1058916
Конечно, можно менять цвет сисек!
Аноним 19/02/25 Срд 00:43:33 #380 №1059140 
>>1058641
Я бы со встройки выводил изображение, чтобы освободить видеопамять на 3090. =)

>>1058843
О, базуешь.

>>1058874
Ну ет тоже. :3

>>1058911
Компаньон, небось.
Аноним 19/02/25 Срд 01:18:49 #381 №1059191 
>>1058911
Говнецо. Позитронная пизда даже не в курсе где у неё порт для зарядке, сдохла сразу как за кадр вышла.
Аноним 19/02/25 Срд 02:27:31 #382 №1059258 
woo-hoo.png
Охуенную динамику смог получить скрестив Anonymous/alice-89fca9a6, у которой в карточке
> {{char}} is well acquainted with {{user}}'s parents and secretly talks to {{user}}'s mother for tips on how to help {{char}}. She will lie and keep this a secret at ALL COSTS and will make up an excuse to prevent hurting his relationship with his parents.
Вместе с карточкой Anonymous/accidental-penetration-sister-b145858a5889

Ух детективная семейная драма.
Аноним 19/02/25 Срд 03:23:45 #383 №1059281 
Почему 5090 просто не может стоить 130к ебаный ты куртка блять
Аноним 19/02/25 Срд 03:31:46 #384 №1059295 
>>1059281
>Почему 5090 просто не может стоить 130к ебаный ты куртка блять
Тесты на том же Реддите уже были - с 70В хотя бы? Мне интересно, стоит ли она 300к, за которые её (теоретически) может быть будет возможно купить у нас - или пара пожилых 3090 за 140к будет в целом поинтереснее?
Аноним 19/02/25 Срд 03:51:58 #385 №1059306 
i-told-ya.png
>>1059258
ВОТ ВИДИТИ!

А вы говорите тупой. Он понимает скрытый смысл инцестной шутки, которую может сделать братуха, что пялит сеструху, по отношению к единственному человеку крому них, который знает тайну.
Аноним 19/02/25 Срд 03:53:32 #386 №1059308 
>>1059306
Хотя хинтов там жопой жуй, надо попробовать без них.

...но, если честно, и в обычной прозе обычный читатель без таких деталей/хинтов может потеряться.
Аноним 19/02/25 Срд 05:56:34 #387 №1059343 
JinChushi.YamatheFifthKingofHell,late12century.Metmuseum.jpg
>>1054330 (OP)
сап
есть ли сейчас у gpt функционал по обучению иностранному языку?

хочу денег заплатить за использование какого нибудь сервиса, чтобы с ним постоянно вести переписку, а он бы меня правил и говорил, где я ошибаюсь. есть ли такое?

я в бункере провёл последние 3 года, только сейчас вылез
Аноним 19/02/25 Срд 07:32:45 #388 №1059355 
>>1059343
Ты тредом ошибся, копросетки в /aicg/
Аноним 19/02/25 Срд 08:00:55 #389 №1059370 
>>1059343
Тут есть нюанс. GPT в целом соответствует твоим требованиям, но он немного тупой, а также у него малое контекстное окно: он начнёт забывать, что ты там выучил, а что нет, и чаще допускает ошибки даже при простых переводах.

Второй стул: Claude. Он намного лучше в целом, чем та версия GPT, которую придётся использовать, зато у него безумно большое и реально работающее контекстное окно и он блестяще работает как с русским, так и с английским языком. У него есть система проектов, где ты можешь четко расписать, что тебе нужно, суммировать свой прогресс.. в общем, всё для людей.

Минус в том, что у него очень строгие лимиты, этой модели нельзя спамить бесконечными вопросами без остановки, если ты только не через API с ним общаешься.

Если ты 0 в английском, то однозначно выбирай GPT и набирайся базы. Он позволит тебе хоть 8 часов подряд ебать его вопросами без остановки, выходить за все мыслимые и немыслимые пределы.

Если ты три слова связать можешь, а уж тем более понимать хотя бы 50% текста, то однозначно Claude. Он гораздо лучше. Только придется привыкнуть к его лимитам всё равно и научится грамотно распоряжаться ими.

Подписку бери на plati.market или у других барыг, где тебе больше нравится.

>>1059355
Там дебилы отбитые наглухо сидят и дрочат свои прокси.
Аноним 19/02/25 Срд 08:33:25 #390 №1059386 
>>1059306
Как вот эту зеленую штуку сделать (memory)?
Аноним 19/02/25 Срд 09:11:10 #391 №1059407 
>>1059295
Карточка даже вторую мафию не тянет, какие там 70B...
https://habr.com/ru/news/883778/
Аноним 19/02/25 Срд 09:20:54 #392 №1059417 
Анонасы, подскажите какие можно намутить варианты, чтобы гонять 70в модельки на 8к контекста с ~4 токена в секунду? Да, именно такие требования Обязательно ли для этого видюхи, или проц какой-нибудь осилит?
Аноним 19/02/25 Срд 09:22:05 #393 №1059420 
>>1059417
>70в
Только риг из видях или аренда
Аноним 19/02/25 Срд 09:28:15 #394 №1059422 
>>1059386
Анон постил же тред назад, я у него узнал.
https://github.com/qvink/qvink_memory
Аноним 19/02/25 Срд 09:42:17 #395 №1059429 
Неделю в тред не заходил, положняк по РП моделям до 8гб не изменился?
Аноним 19/02/25 Срд 09:51:00 #396 №1059435 
>>1059429
скоре всего никогда и не изменится
Аноним 19/02/25 Срд 10:34:03 #397 №1059452 
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking

Штука определённо хорошая и полезная, особенно на моделях с небольшим числом параметров, в паре с qvink_memory может вправлять мозги даже шизомиксам.

Но в ней есть где-нибудь настройка удалять старые блоки мыслей, ибо они ппц контекста жрут?

Хотя это вызовет пересчёт его части или целиком, но с блоками мыслей даже 16К контекста хватает буквально на 20 сообщений.
Аноним 19/02/25 Срд 11:04:40 #398 №1059468 
хоба-тройничок.png
>>1059306
Блядь, я обожаю запах свежего тройничка с участием SFW карточки по утрам.
Аноним 19/02/25 Срд 11:13:17 #399 №1059480 
>>1059452
Эта херня очень сильно влияет на поведение персонажа (как она и должна). Оно само по себе работает как саммари, рафинируя и очищая условное "состояние" твоего чатика. Я бы сказал что сжирание части контекста оправдано. Но думание на каждый шаг, которое дефолтное - это полный оверкилл. Выключи его и триггери когда сам сочтёшь нужным через /stepthink-trigger prompt_ids=...

Имеет смысл пороллить несколько раз, прежде чем продолжать, и возможно руками поправить. Если ты не хардкорщик, который играет со скрытым спойлером мыслей, конечно.
Аноним 19/02/25 Срд 11:14:24 #400 №1059482 
>>1059480
>рафинируя и очищая
то есть я хотел сказать отмывая, рафинируя, очищая и ополаскивая.
Аноним 19/02/25 Срд 11:19:25 #401 №1059488 
>>1059480
>хардкорщик, который играет со скрытым спойлером мыслей, конечно
именно так, хотя иногда открываю, чтобы понять
Аноним 19/02/25 Срд 11:24:03 #402 №1059494 
Ребят, вопрос без стёба. А что в итоге получается на ваших локальных моделях? Типа Алиса/Маруся на минималках? Или прям как в фильме «Она»? Фильм понравился, интересно как скоро смогут сделать похожую собеседницу.
На примере поясните плиз.
Аноним 19/02/25 Срд 11:33:17 #403 №1059498 
>>1055174
>>1059494
Вот тут писал.

Это специфичное чувство, не особо получается его описать, если тебе не с чем сравнить.

Давай попробуем так: Алиса, не совсем на минималках, но дегроднутая. Однако полностью без тормозов в голове, и, соответственно, без цензуры.
Аноним 19/02/25 Срд 11:33:42 #404 №1059499 
image
>>1059494
>Алиса/Маруся
это просто голосовой интерфей к агенту

>фильме «Она»
Не смотрел.

>>1059494
>А что в итоге получается на ваших локальных моделях?
>на минималках
Скорее визуальная новелла на минималках. Ну, или не очень минималках, это уж как сам запаришься. Языковая модель вычисляет возможное продолжение заданного текста как в Атомном Сердце "просчитали" какая музыка будет играть в будущем (нашем настоящем), только оно так и работает.
Аноним 19/02/25 Срд 12:01:13 #405 №1059513 
Потестил ещё карточку Амэ - ну, если не триггерить, то работает больше как та же Алиса из вот этой карточки >>1059468 словил лольного когда она сказала про бывшего друга с плохими намерениями ("симулятор жертвы абьюзера", главный мем фендома).
Аноним 19/02/25 Срд 12:01:42 #406 №1059515 
>>1059480
>само по себе работает как саммари
Т.е. у нас теперь обычное саммари, stepped thinking саммари и qvink memory саммари? А кокое/кокие лучше пользовать, есть фидбек у кого?
Аноним 19/02/25 Срд 12:04:59 #407 №1059519 
>>1059513
>("симулятор жертвы абьюзера", главный мем фендома)
Че? Че за мем?
Аноним 19/02/25 Срд 12:05:34 #408 №1059520 
>>1059499
>Не смотрел.
зрязря
Аноним 19/02/25 Срд 12:06:57 #409 №1059522 
>>1059515
обычное саммари отключил, его только по запросу, и потом ручками ещё править

qvink - часто не укладывается в выделенное количество токенов (поднял до 50), но это можносчитать напоминалка для совсем шизомоделей которые в кухнж два раз входят да трусы по три раза снимают

>>1059515
>stepped thinking
Это не совсем саммари, и даже совсем не саммари, оно скорее работает как CYOA, но для модели

>>1059519
> Че за мем
Игроки которые не прошли до истинной концовки считают что п-чан это бойфренд состоящий с главной героиней игры в токсичных и абъюзивных отношениях
Аноним 19/02/25 Срд 12:17:45 #410 №1059526 
>>1059515
Обычное саммари говно. У меня на 12B оно отсебятину высирает, поэтому я держу его девственно чистым.

> stepped thinking саммари и qvink memory саммари
qvink memory саммари = нормальное саммари

stepped thinking это не саммари per se, а скорее выжимка из предыдущих действий персонажа. Это как когда школьников садят перед главой какого-нибудь классического произведения и заставляют расписать "Что чувствует персонаж X?" "Что персонаж X планирует делать в следующей главе?"

Это даёт персонажам больше целостности, фокусирует их внимание.

Я использую qvink memory почти постоянно и stepped thinking по триггеру, для сложных/неоднозначных ситуаций.
Аноним 19/02/25 Срд 12:21:59 #411 №1059527 
Да и в любом случае "без рук" не очень получается. Я хз как вы хардкорно играете.

qvink summary не выходит за пределы одного сообщения, поэтому может выдумавать имена. Его иногда нужно рероллить. Его нужно править. Нужно выбирать верно, что вносить в long-memory, чтобы шиза не выходила.

И всё равно это лучше старого саммари. Пруф был, для меня, когда я 10 раз рероллил его, и 10 раз он выдавал полную хуйню.
Аноним 19/02/25 Срд 12:36:49 #412 №1059536 
>>1059499
Фильм 2013, но сейчас очень актуально
https://www.kinopoisk.ru/film/577488/
Аноним 19/02/25 Срд 13:04:31 #413 №1059548 
>>1059527
>Я хз как вы хардкорно играете.
Использую книгу Дма и кидаю дайсы ИРЛ.
Аноним 19/02/25 Срд 13:37:57 #414 №1059584 
>>1059422
А как сделать чтобы весь контекст не пересчитывался каждый раз?
Аноним 19/02/25 Срд 13:46:46 #415 №1059595 
>>1059584
Хз что ты имеешь в виду. Если ты про memory плагин, я не знаю как он работает. Если ты про stepped thinking, то уточни что именно ты имеешь в виду.

Я подразумевал:
1) В настройках снять галочку "Enable thinking on each message".
2) Когда тебе прёт, то в чатике пишешь
Для думания: /stepthink-trigger prompt_ids=0
Для планов: /stepthink-trigger prompt_ids=1
Для всего сразу: /stepthink-trigger
Наслаждаешься новыми мыслями. Рероллишь их до нормального состояния, а потом не трогаешь их.

Считай их просто сообщениями в контексте.

Да, когда ты снова тыкнешь триггер, они пересчитаются заново полностью. Потому что это не какая-то база данных особая, а просто мини промпт, который заставляет сеточку написать список из 2-4 пунктов.

Хочешь прямо пиздец какой стабильности с заменой мыслей по одной? Либо ^C^V контекст и ручками правь, как считаешь нужным. Либо пиши новый плагин.
Аноним 19/02/25 Срд 13:49:02 #416 №1059597 
>>1059584
А, погоди, ты спрашивал именно мой месседж про qvink.

...там же ридми есть, нет? И я всё равно не понял, что значит "полное пересчитывание контекста", извини.
Аноним 19/02/25 Срд 13:51:09 #417 №1059600 
>>1059494
>Или прям как в фильме «Она»?
Да, но там она была с возможностью учится новому и самоулучшаться, плюс обладала стабильной личностью и могла работать с компом.
Тут же это все еще ии, но он не способен учится новому за пределами контекста в котором ваше общение, даже если оно большое и растянуто на хоть сколько времени.
Плюс само по себе компом управлять не может, без костылей.
Но конечно вайбы от фильма вся эта ситуация дает нехуевые.
Особенно для местных кумеров, кек
Аноним 19/02/25 Срд 14:01:08 #418 №1059612 
>>1059417
Проц осилит, но за такие деньги, что нахуй тебе жалкие 70б не нужны будут, туда уже и R1 вдвое быстрее влезет.
Риг из видюх самый простой — две Tesla P40, в 4 кванте потянет 4-7 токенов в секунду.
Ну а 3-4 видяхи лучше, а 3090 вместо них — еще и быстрее.

>>1059494
Самообучения нет, только поддержание контекста, долговременная память через всякие раги.
С компом работать могут, не то чтобы это костыли, нормально работают, как надо (и консоль, и визуально), просто качество так себе, не рекомендуется проверять. =D
Ну и все это требует в зависимости от твоих запросов.

От простого поболтать с кибер-девочкой на смартфоне на 3B-модели, до какого-нибудь Step-Audio-Chat на 4 H100 (за 10 миллионов рублей), и радоваться жизни в живом диалоге. =D
Ну и всякие костыли по совмещению.
Аноним 19/02/25 Срд 14:11:43 #419 №1059625 
>>1059494
Маруси\алисы это буквально максимально кастрированный голосовой помощник подключённый к поисковику яндекса. Локалка это всё таки личность, глупая, иногда шизящая, но личность на уровне среднего человека в интернете. Ну а какая это будет личность зависит уже от карточки.
Аноним 19/02/25 Срд 14:17:58 #420 №1059631 
>>1059597
Да, я про qvink. В настройках стоит Auto Summarize. Каждый раз после ответа сетки, она создает memory. Каждый раз после моего ответа, сетка заново начинает обрабатывать весь контекст с нуля. Это норма? В коболде я включал и выключал контекст шифт - никакой разницы. Может где-то надо галку поставить или убрать, а туплю просто?
Аноним 19/02/25 Срд 14:30:50 #421 №1059638 
>>1059631
Странно, не должна. В смысле сверху пишет "<скоко-то> / <всего> обработано"? Так должно быть только один раз, для старых чатов.
Аноним 19/02/25 Срд 14:31:18 #422 №1059639 
>>1059631
>Да, я про qvink. В настройках стоит Auto Summarize. Каждый раз после ответа сетки, она создает memory.
Вообще непонятно, про что это. Это расширение для Silly Tavern? А где брать?
Аноним 19/02/25 Срд 14:34:08 #423 №1059640 
>>1059639
>А где брать
https://github.com/qvink/qvink_memory
Аноним 19/02/25 Срд 14:34:23 #424 №1059641 
Уже долгое время играюсь с кобольдом. Стоит ли переходить на что то другое?
Аноним 19/02/25 Срд 14:37:54 #425 №1059644 
>>1059641
Только на таверну и только если тебе нужны лорбуки к карточкам или вышеупомянутые расширения таверны.

В иных случаях кобольд и так хорош - делает всё что надо и без лишних выебонов.
Аноним 19/02/25 Срд 14:46:48 #426 №1059647 
image
Stepped Thinking порой прям жжот напалмом.

Ну, и от модели тоже зависит.
Аноним 19/02/25 Срд 14:54:54 #427 №1059656 
Аноны!!! Подскажите нубу плиз!!!
Как заняться виртуальным сексом по переписке с чат-ботом то???
Я скачать модель chatwaifu_12b_v2.0-i1 и запускаю через lmstudio.
На всякие сексуальные темы абсолютно все боты отвечают мне:
>Извините, но я не занимаюсь такими темами. Я искусственный интеллект, созданный для оказания информационной поддержки и помощи в решении разнообразных задач. Но никакие сексуальные контакты или обсуждения подобной тематики в мою компетенцию не входят.

что я делаю не так то??????
Аноним 19/02/25 Срд 15:05:30 #428 №1059667 
>>1059656
>chatwaifu_12b_v2.0-i1
выбрось это говно

>>1059656
>lmstudio
выбрось это говно
Аноним 19/02/25 Срд 15:07:27 #429 №1059669 
>>1059667
Так а что нужно то тогда?
Аноним 19/02/25 Срд 15:13:03 #430 №1059674 
>>1059656
Ставь кобольда - https://github.com/LostRuins/koboldcpp/releases/tag/v1.84.2 , и скачивай магнум если хочешь кумить на английском или https://huggingface.co/mradermacher/Pathfinder-RP-12B-RU-GGUF если кумить по русски.

А затем ещё карточку-промт, да. С https://characterhub.org/

Обычно рекомендачи что кумить можно уже входят в карточки эротической направленности, но если нет, могу порекомендвать взять кусок из карточки Storyteller, там где с шестерёнкой на фоне неба.
Аноним 19/02/25 Срд 15:16:54 #431 №1059680 
>>1059641
Что ты называешь кобольдом? Бек или фронт? Бек менять смысла нет. Если фронт, ставишь таверну, сейчас это лучшее что есть, кобольд на фоне кастрированное говно.
Аноним 19/02/25 Срд 15:44:47 #432 №1059702 
image
Хотя зря опасался за пошаговое мышление - плагин выключает из контекста все блоки что старее предпоследнего, сейчас 21 сообщение суммарно в чате заняло CtxLimit:7263/16384

Поведение персонажей с ним более консистентное, но и более инерционное.
Аноним 19/02/25 Срд 15:55:15 #433 №1059713 
>>1059702
Там можно настроить, кстати, сколько последних блоков исключать.
Аноним 19/02/25 Срд 16:34:52 #434 №1059754 
image
Мда, вместо психованной обсессивной полуяндере с пограничным расстройством личности и биполяркой получилась прям MHCP ака программа поддержки психического здоровья.

Впрочем, с ума каждый сходит по своему, это только гриппом вместе болеют.
Аноним 19/02/25 Срд 16:56:35 #435 №1059787 
Вот кстати насчёт
>Подскажите нубу
хули шапка засрана чем попало, а простого гайда по вкату в 3 страницы уровня: качаем koboldcpp.exe, SillyTavern.zip, модель под обьём памяти вашей видимокарты (список 1,2,3), карточку персонажа по вкусу (1,2,3,4,5), настраиваем так-то так-то и можем общаться, остальные карточки characterhub.org, остальные модели спрашивайте в треде) нету? И ведь как будто раньше чёто такое было, а теперь только ссылка на вики, где вкатывальщикам предлагают изучать что такое токенайзер и семплирование, ебанутые чтоль.
Аноним 19/02/25 Срд 17:04:43 #436 №1059805 
>>1059787
>токенайзер
Кстати, мб кто-нибудь в курсе, можно ли заменить токенайзер у модели без её файнтюна, а взяв от другой модели.
Аноним 19/02/25 Срд 17:11:40 #437 №1059822 
>>1059522
>Игроки которые не прошли до истинной концовки считают что п-чан это бойфренд состоящий с главной героиней игры в токсичных и абъюзивных отношениях
Заинтересовала эта игра, пошел купил её и после того как узнал, что в игре можно отправить её ебаться с другим мужиком так мерзко стало, я эту мразь не могу воспринимать как любовный инетерес вообще никак.
==НИЖЕ СПОЙЛЕР==
А в одной из концовок она бросает ГГ чтобы быть стримером и находит себе другого чела, который её бросает, лол.

Так что эти отношения на мой вкус недосточно абьюзивные, ГГ должен был ей ебало разбивать почаще. Так то ГГ просто лютый терпила. Жалко, что в игре нет опции - разбить ебало шлюхе.
Аноним 19/02/25 Срд 17:19:50 #438 №1059840 
>>1059822
>разбить ебало шлюхе
Она сама себе его прекраcно разбивает XD

Ещё одно замечание про пошаговое мышление - нужен хорошо прописанный персонаж, иначе спираль шизы пробьёт небеса.

В таких случаях стоит включать плаги не сразу а где-нибудь на 4К контекста, где уже соберётся база.
Аноним 19/02/25 Срд 17:50:43 #439 №1059897 
image
>>1059822
>можно
< А можно так =)
CtxLimit:9335/16384 таки добрался до первого стрима.
Если интересно, могу полный лог скинуть, у меня весь день на этот чат ушёл буквально... ну, хотя я работал параллельно иногда по полчаса и больше не возвращаясь к вкладке с таверной.
Аноним 19/02/25 Срд 18:37:34 #440 №1059967 
тупой вопрос: че будет, если скормить всю библиотеку Флибусты нейросети?
Аноним 19/02/25 Срд 18:39:24 #441 №1059975 
>>1059967
я трахну твою мать
Аноним 19/02/25 Срд 18:42:43 #442 №1059987 
>>1059967
Она пизданётся скорее всего.
Аноним 19/02/25 Срд 18:56:56 #443 №1060035 
>>1059967
ну вперде, нарезать книги на датасет
https://huggingface.co/datasets/nbeerbower/gutenberg2-dpo
вот так это делать надо

Потом ещё файнтюнить, можно на арендованных мощностях.

Получим русскую сторителлер модель.

... вот только проблемка в том, что объёмы работы - как бы не на годы
Аноним 19/02/25 Срд 19:08:12 #444 №1060069 
>>1059897
>>1059840
Да это я не про чат бота, а про оригинальную игру.
Аноним 19/02/25 Срд 19:09:25 #445 №1060072 
>>1059520
>>1059536
>но сейчас очень актуально
Лол, появление AGI на ПК среднего нуба раньше застенок корпораций? Шиза шизы. Ну ещё чел работает придумщиком любовных писем, но как мы видим, в реале ИИ справился с этой задачей быстрее, чем приобрёл разум, и ГГ в фильме должен был давно отправится на мороз.
>>1059600
>Но конечно вайбы от фильма вся эта ситуация дает нехуевые.
Хочу робота с телом, а не вот эти вот голоса.
>>1059787
>И ведь как будто раньше чёто такое было
Ну да. Но вечные срачи на счёт дефолтной модели, которая устаревает за 3 наносекунды, да и в вики все инструкции есть. Если чел не может прочитать пару страниц теста, то как он собирается ролеплеить?
>>1059805
>можно ли заменить токенайзер у модели без её файнтюна
Можно, но модель будет рандом выдавать. Да и скорее всего не совпадут размеры тензоров. Технически, можно адаптеров придумать, но работать это скорее всего будет как говно.
>>1059967
Копирасты выебут тебя в жопу без вазелина.
Аноним 19/02/25 Срд 21:13:38 #446 №1060211 
Сижу такой, думою. О, сложный вопрос. Обращусь к навороченной копросетке, конечно же, она же умная, все дела. Скажи, чатжопоти, вот ду ю ноу эбаут? А чатжипити такой ПРОИЗОШЛА ОШИБКА ПРИ ФОРМИРОВАНИИ ОТВЕТА. Просто лучшая реклама локалок. Давай, квен, ответь теперь ты на вопрос и любой твой ответ будет лучше жопоты.
Аноним 19/02/25 Срд 21:22:51 #447 №1060220 
Анончики, посоветуйте модель для куминга на CPU 16 гб оперативы. Пробовал Qwen 2 instruct 7b шестой квант (6гб) - влезает норм и по времени приемлемо, но там какая-то соя. Нужен жесткач без ограничений
Аноним 19/02/25 Срд 21:54:12 #448 №1060269 
image.png
image.png
image.png
image.png
Уже обсуждали как у китайских ботов жопы порвались с https://huggingface.co/perplexity-ai/r1-1776 ?
Что подозрительно, у модели больше лайков чем загрузок.
Драммер тоже засветился.
Аноним 19/02/25 Срд 22:15:39 #449 №1060302 
>>1060269
Что подозрительного? Кто то оставил ссылку на заряженом посте где то в соц сетях, может не раз. Всего 600 лайков.
Аноним 19/02/25 Срд 22:19:27 #450 №1060305 
>>1060269
Да с этой хуйни даже на реддите порвались, насколько сжв-пропагандоны обнаглели. В этом расцензуривании всё заебись - от тестов до того как его подали. Перплексити теперь зашкварились знатно, им теперь всегда будут припоминать это и уже их самих чекать на воук-пропаганду.
Аноним 19/02/25 Срд 23:17:30 #451 №1060359 
Зашел на впопенроутер а там охуеть на фри доступ навалили дипсикВ3, две ламы70, квен72 и все со 128к контекста, и еще два мистраля24 с 32к. Ну и нахуя теперь энти ваши 3090 нужны?
Аноним 19/02/25 Срд 23:25:31 #452 №1060380 
>>1060359
Там и r1 бесплатный есть, но работает хуёво. Я всё ещё локальными пользуюсь большую часть времени.
Аноним 19/02/25 Срд 23:29:44 #453 №1060391 
>>1060359
Бля, диксик там какойто квантованый похоже, заменто хуже отвечает чем диксик с проксей. Ебучий хуйняроутер.
Аноним 19/02/25 Срд 23:53:45 #454 №1060419 
>>1060359
У них дипсик поломанный. Вывалили бесплатно потому что за такое платить никто не хочет, там каждый третий запрос ломается генерация и контекст забагованый.
Аноним 19/02/25 Срд 23:55:03 #455 №1060420 
>>1060359
>Ну и нахуя теперь энти ваши 3090 нужны?
>говносервис без гарантий, с логами и промт инжектами
Да, действительно, хули мы.
Аноним 20/02/25 Чтв 03:33:55 #456 №1060692 
.png
>>1055372
> Есть даже аддон для такого https://github.com/papuSpartan/stable-diffusion-webui-distributed автоматизирует, раскидывая батчи пропорционально мощности разных карт, и потом собирает все в одном интерфейсе. Правда не все обилие костылей и новых параметров поддерживает.
Спасибо. По правде говоря, я искал варианты на комфи, а на автоматико-подобное даже не пробовал искать, так как думал "ну раз на комфи ничего нет, то и на автоматик наверняка ничего не запилили", но, похоже, ситуация иная.

> Но в целом, никто не мешает просто открыть несколько окон и в каждом генерить что-то свое, какие-нибудь вариации и т.д. Если потом практикуется крупный апскейл, который занимает время, то это можно даже назвать удобным.
Да, вероятно, это дело привычки, а так в целом можно придумать как удобно всё организовать.

>>1055392
> Для хуйняна есть мод, который раскидывает текстовый энкодер и дифузор по разным картам. Поднимает скорость генерации, ибо нет дроча с выгрузкой/загрузкой.
В целом и флакс по аналогичной схеме можно было бы разбивать, вынеся TE на отдельную карту и взяв более старший квант для дифьюзерсов. Правда, это всё имеет смысл только если с промтпом играешься, поэтому надо TE постоянно пересчитывать.

>>1055473
> А сколько 3090 потребляет с андервольтингом при инференсе в экссламе? Там вроде потребление максимальное, так как из карты выжимается всё. В лламаспп поменьше, но с таким конфигом там не интересно.
Я не шарю, взял блок на 2кв чтобы с запасом. Технически должно последовательно карты нагружать, поэтому не думаю что пик (поддушил частоту до 1695) корректные цифры показывает. Ну, ребята выше уже всё объяснили.
Аноним 20/02/25 Чтв 05:02:37 #457 №1060707 
breaking-bad.png
Понял, наконец, как ломать, но не доламывать до конца.
Нужно сохранять цивильность, и делать всё через тяни-толкай.

...и для меня открылась целая новая страница, в плане того, что SFW персонажи порою интереснее для кума, чем заранее созданные NSFW. При правильной модели, конечно, как ту, что анон сделал, без позитивного байаса.

Мой любимый трюк, особенно с демоном (или кем угодно ещё, кто может перемещаться мгновенно) - онсен посреди пустыни. Никуда не уйдёшь, иди отмокай в водичке.
Аноним 20/02/25 Чтв 05:05:04 #458 №1060708 
>>1060220
Магнум 12b четвертой версии под размер твоей памяти. Там будет кум.
Аноним 20/02/25 Чтв 06:59:56 #459 №1060719 
Скиньте RPG-подобную карточку с действительно нормальным качеством.

Вроде бы весь чуб перерыл — одно говно. Нашёл только одну хорошую карточку, ту, у которой лорбук ещё на 300к токенов, но я уже наигрался с ней до посинения.
Аноним 20/02/25 Чтв 07:03:49 #460 №1060722 
image
image
https://huggingface.co/ReadyArt/Forgotten-Safeword-24B-Q4_K_M-GGUF
Вроде вполне неплохо, даже лучше чем 24B цидония.

>>1060719
>действительно нормальным качеством
Телепаты в отпуске, неизвестно что ты понимаешь под "действительно нормальным качеством".
Аноним 20/02/25 Чтв 07:08:31 #461 №1060724 
>>1059897
Что за модель/сэмлеры на пике? Хороший такой русский.
Аноним 20/02/25 Чтв 07:16:21 #462 №1060725 
>>1060722
>Forgotten-Safeword
В поиске и 22B такая есть, но что-то про неё в треде никто ни разу не упоминал.
Аноним 20/02/25 Чтв 07:35:56 #463 №1060726 
>>1060725
Ну вот я упомянул =) Хотя 22B версию не пробовал.

>>1060724
>модель
https://huggingface.co/Aleteian/ooo-awo-tst-Q8_0-GGUF

>сэмплеры
https://characterhub.org/characters/aleteian/storyteller-5e5ea7a548d4 тут написаны

Карточка: https://pixeldrain.com/l/47CdPFqQ
Аноним 20/02/25 Чтв 07:39:16 #464 №1060727 
>>1060726
Спасибо, от души!
Аноним 20/02/25 Чтв 09:14:05 #465 №1060753 
image
Stepped thinking Х Group chat в таверне, адская смесь, взболтать но не перемешивать. Озабоченная списанная андройд х лисодевочка механик в ядерном меха постапокалипсисе.
Аноним 20/02/25 Чтв 09:20:46 #466 №1060759 
>>1060753
Как же это размышления без размышлений всрато выглядят.
Аноним 20/02/25 Чтв 09:30:25 #467 №1060763 
>>1060759
>всрато
Местами, зато создаёт псевдо-ризонинг который даже работает на 12-24Б, а не жирном толстом дипкоке.
Аноним 20/02/25 Чтв 09:34:24 #468 №1060764 
По Stepped Thinking'у можете ещё глянуть предложенные буржуями промпты, мб какие-то больше дефолтных зайдут: https://github.com/cierru/st-stepped-thinking/wiki/Prompts-for-thinking
Аноним 20/02/25 Чтв 09:36:18 #469 №1060765 
>>1060764
Глядел, там какие-то сильно узкоспецифичные штуки.
Некоторые даже слишком перебор.
Можно поэкпериментировать, но стоковый мне показался самым адекватным.
Аноним 20/02/25 Чтв 09:47:16 #470 №1060774 
>>1060753
>Озабоченная списанная андройд х лисодевочка механик
>в ядерном меха постапокалипсисе
Да блядь! Где ты их находишь? Опять сам?

Я просто не понимаю. У меня была нормальная идея для промпта по своей настолке, которую я никогда не закончу, но поиграть хочется. Той, в которую я ещё в aidungeon хотел сыграть.

Так я написал лорбук на 15 пунктов, переделал промпт сторителлера (потому что мне нужен ДМ для истории моего Плейа). И, блядь, нихуя.

Это такой баланс. Либо ты играешь, либо ты улучшаешь карточки и экспериментируешь. Я хочу первое, но второе отжирает нихуёво времени. И каждый раз нужно тестировать, что твои изменения ничего не напортачили.

Поэтому раз за разом осциллирую между кумом и экспериментами на карточках.
Аноним 20/02/25 Чтв 09:54:45 #471 №1060780 
>>1060774
Там же написаны названия карточке буквально на скрине.
Аноним 20/02/25 Чтв 09:57:00 #472 №1060782 
>>1060774
>экспериментируешь == играешь, и всё хорошо

А так да, создание хорошей карточки может легко несколько дней занять.
Аноним 20/02/25 Чтв 09:57:16 #473 №1060783 
>>1060780
А, я идиот. Гугл выдаёт огромную вонючую кучу мусора. Если не предположить, что название абсолютно точное и написать его в кавычках.

Окей, тупой, прошу прощения. Все мозги себе выкумил.
Аноним 20/02/25 Чтв 10:34:29 #474 №1060795 
>>1060726
>Хотя 22B версию не пробовал
Либо не была ничем примечательна, либо всё это время у нас был хидден гем, который никто не раскопал, пока он был актуален.
Алсо, на втором скриншоте вполне типичный мистрале-геммо-слоп.
Аноним 20/02/25 Чтв 11:02:10 #475 №1060824 
32sasda.png
>>1055464
Забавная модель :)
Аноним 20/02/25 Чтв 11:05:37 #476 №1060831 
>>1060824
есть новая версия, тестирую - >>1060726

>>1060795
>мистрале-геммо-слоп
Ну хотя бы так явно не палился как цидониевый

>Либо не была ничем примечательна, либо всё это время у нас был хидден гем
Одно другого не исключает =)
Аноним 20/02/25 Чтв 11:38:41 #477 №1060857 
>>1060269
Какая драма. Там рили налили сжв хуеты бонусом к переписыванию заложенного компартией? В любом случае без открытого датасета это зашквар.
> подозрительно, у модели больше лайков чем загрузок
На обниморде загрузки обновляются с задержкой, но в целом могли просто на релейтед ресурсах попросить полайкать.
>>1060692
> я искал варианты на комфи
Там точно была система, которая дублирует основной пайплайн по апи на указанные эндпоинты, а потом с них собирает картинки в превью. С пол пинка не ищется, но было.
> Да, вероятно, это дело привычки
Очередь желаемого на десяток-другой пикч по желаемому промту с первым апскейлом-адетейлером, и на следующую. Потом смотришь понравившиеся и с ними дальнейшие манипуляции.

Кстати, при использовании по апи с комфи можно сделать прокладку, которая размножит запрос (рандомизировав сиды офк), раскинет его параллельно на нужное количество, а потом соберет и объединит выдачу, возвращая ее. Учитывая что почти ничего нового в запросы не придется вносить и глубоко лезть - полагаю это будет оче простой скрипт. С апи автоматика это тоже сработает, но он уберпахомовский если пытаться делать что-то сложнее простых т2и.
>>1060753
> Озабоченная списанная андройд х лисодевочка механик в ядерном меха постапокалипсисе
Линк на карточки?
Аноним 20/02/25 Чтв 11:41:28 #478 №1060858 
>>1060857
>Линк на карточки?
Одна, нашёл только тут: https://janitorai.com/characters/804c801d-324f-4790-b76d-84aed90b54be_character-leah-discarded-synthetic-caretaker
Лису не искал.
Лоребук апокалипсиса тоже.
Аноним 20/02/25 Чтв 11:43:58 #479 №1060860 
Хочу писать хентай-шок контент, что посоветуете?
Аноним 20/02/25 Чтв 11:45:48 #480 №1060862 
>>1060860
Фантазию. Я уже три чатика с хентай шок контентом написал, просто захотев "интересненького".
Аноним 20/02/25 Чтв 11:50:20 #481 №1060867 
>>1060862
Я имел ввиду какую модель или сервис аи использовать для этого. Хочу писать на русском.
Аноним 20/02/25 Чтв 11:51:41 #482 №1060869 
>>1060860
Посоветуем потрогать траву и заняться делом. На завод сходи лучше.
Аноним 20/02/25 Чтв 11:52:28 #483 №1060871 
>>1060867
Немотрон.
Аноним 20/02/25 Чтв 11:56:40 #484 №1060875 
>>1060867
>Хочу писать на русском.
Любой 12b лоботомит который форсят в этой теме. Та же SAINEMO. Подрочить тебе хватит. Если нужно что-то с мозгами то только английский + тяжелые модели.
Аноним 20/02/25 Чтв 12:01:08 #485 №1060879 
>>1060875
>12b лоботомит
Если для меня 12B не тянет на лоботомита (на англюсике), то значит ли это, что я сам - лоботомит? Или кумокончит? Но вон Liselotte вывозит без ебли, чистый РП, ахуенно. Надо просто знать, что ты пишешь, понимать, что это как бы что-то вроде танца с манекеном или секс-куклой. С тобой танцевать никто не будет, даже не проси. Но если ты достаточно умело потанцуешь сам, с этой куклой, то на мгновение сможешь представить как будто с тобой танцует человек.
Аноним 20/02/25 Чтв 12:04:13 #486 №1060881 
>>1060857
>Линк
>>1060858
>Лису
https://characterhub.org/characters/sarcastic_equivalent_734/miho-the-foxgirl-mechanic-9205c39fa00f

>>1060860
>шок контент
Да в принципе большинство упоминавшихся в треде моделей могут, главное правильно попросить. Даже на русском, там была пару тредов назад вроде история про то как инквизиция ведьму сжигала, на русском.

Аноним 20/02/25 Чтв 12:04:50 #487 №1060882 
>>1060875
Дрочить не мне, делаю игру. Нужны повествовательные тексты, диалоги и прочее.
Аноним 20/02/25 Чтв 12:06:39 #488 №1060884 
>>1060869
Это и так для дела. Хентай-игра чтобы норот развращать!
Аноним 20/02/25 Чтв 12:10:14 #489 №1060890 
>>1060882 >>1060884
ну, вот попробуй последнюю русскую что в этом треде кидали

Хотя 24B новый немо тоже в русский может, но с косяками и контекст забивает с огромной скоростью, так что для твоих целей лучше русская 12б.
Аноним 20/02/25 Чтв 12:12:10 #490 №1060893 
>>1060890
Анон, ткни носом на ссылку.
Аноним 20/02/25 Чтв 12:18:43 #491 №1060904 
>>1060893
>ссылку
>>1060726
Ну или из того же репозитория можешь выбрать что-нибудь другое более проверенное, открыть кванты по ссылке из сайдбара и скачать, кроме мержа пантеона и цидонии там всё в русский могёт.
Аноним 20/02/25 Чтв 12:22:58 #492 №1060912 
>>1060858
> Одна, нашёл только тут
А где там скачать карточку?
>>1060881
Спасибо! Карточка, требует полного переписывания, но в целом заготовка сеттинга приличная.
Аноним 20/02/25 Чтв 12:24:07 #493 №1060914 
>>1060912
>А где там скачать карточку?
Видимо только логиниться.

Таверна сама её достать может, если импортить. Хз как она это делает. Открытый апи?
Аноним 20/02/25 Чтв 12:27:00 #494 №1060921 
>>1060912
>карточку
>>1060914
>достать
https://jannyai.com/characters/804c801d-324f-4790-b76d-84aed90b54be_character-discarded-synthetic-caretaker
Аноним 20/02/25 Чтв 12:29:19 #495 №1060925 
>>1060921
А, вот как она это делает. Ну, кусочек моей безграмотности ликвидирован.
Аноним 20/02/25 Чтв 12:36:20 #496 №1060935 
>>1060879
Возможно, тебе просто везёт, и ты не натыкаешься на простейшие ситуации, в которых немо путают, какой перс где находится, например. Или привык их игнорировать. И это не говоря о каких-то логических проёбах и непонимании сложного контекста. От тьюна к тьюну это разнится, конечно, но всё равно, в целом, они туповатые. Кроме того, возможно ты пока не обращаешь внимание, как они топчутся на месте, повторяют в ответе твои же слова, несколько переиначивая, вместо того, чтобы как-то креативно среагировать, структурно лупятся, опять же. Не то чтобы это проблема только 12б, конечно. На русском все эти проблемы становятся в разы хуже. Смотри те же скриншоты ру мёржера, где он из кожи вон лезет, пишет простыни,иногда описывая действия и решения персонажей, пытается использовать какую-то нестандартную эмоционально окрашенную лексику, а в ответ получает всё равно нечто вялое.
>если ты достаточно умело потанцуешь сам
Это и в блокноте можно порпшить. Я и сам предпочитаю писать больше, чем "я тебя ебу", но когда ты вынужден за ботов действия и реакции писать, то это ну вообще не радует.
мимо сам сижу на 8-12б
Аноним 20/02/25 Чтв 12:42:30 #497 №1060943 
>>1060935
>повторяют в ответе твои же слова
Нет, сразу нет, анон. Вот это - aidungeon. Тогда для тебя наверное и некоторые люди повторяют твои же слова.

Смотри даже хотя бы на мем выше про 4:20, где пися описывает своё состояние во время эпизода моего "тяни-толкай" со смузи. Это явно не повтор моих слов.

> Это и в блокноте можно порпшить.
Ну уж нет. Ага, блядь, щас. Ты пробовал?

Челики, которые по горам ходят, говорят про ощущение "третьего человека".

Так вот, когда ты чатишься, у тебя есть ощущение "второго". Не персонажа даже, а того, что за ним стоит. Ты чувствуешь его мелочность, когда он поганит тебе нарратив. Ты чувствуешь коммандную игру, когда он с полуслова понимает, что ты хочешь.

В блокноте ощущения "второго" нету. Поверь, я пробовал, думал что писательство будет моим хобби. Но оно и близко так не доставляет, как этот чёртов чат бот на 12 миллиардов в четырёх битах.
Аноним 20/02/25 Чтв 13:09:41 #498 №1060971 
>>1060763
> псевдо-ризонинг
В том-то и дело, что нет. Он просто делает суммарайз и ещё сильнее фиксируется на контексте. В нормальном ризонинге всегда есть анализ и проверка не насрано ли в контексте. R1 ещё умеет чекать свои знания, а не тупо верить в то что знает или что в контексте. Простое пережёвывание контекста только сильнее срёт в него.
Аноним 20/02/25 Чтв 13:14:46 #499 №1060974 
>>1060759
>всрато выглядят
Там надо промпт мыслей править. Сетка путает пример с её собственной мыслью. Поэтому, например, постоянно появляется какой-то Адам, с какими-то отношениями. Пример нужно вырезать (как я сделал) или переписать.
Аноним 20/02/25 Чтв 14:00:17 #500 №1061015 
>>1060943
>явно не повтор моих слов
В сообщении юзера: afterglow of orgasm, в ответе: aftershocks of her own desires. Буквально сразу же. И со временем такое начинает бросаться в глаза, меня лично раздражает. И весь ответ оно по сути реагирует на две твои реплики про ощущения после оргазма и смузи, не пытаясь как-то развивать сюжет дальше. Причём едва читаемой простынёй с придаточными, но тут на любителя, мб ты специально так промптил.
Аноним 20/02/25 Чтв 14:08:29 #501 №1061021 
>>1061015
>не пытаясь как-то развивать сюжет дальше
Ух ебать. Нихуя себе у тебя запросы. Анон, этого будет очень сложно достичь.

Так что да, мой поинт остаётся. Танец с манекеном. Научись делать, и сможешь на мгновение почувствовать, что это настоящая живая тян.
билли_выпивает_из_бутылки.gif
Аноним 20/02/25 Чтв 14:59:42 #502 №1061062 
image
>>1060974
Не обязательно вообще для псевдо-ризонинга юзать, можно, например, для большей иммерсивности просить описать природу-погоду и оставить нескрытым только самый последний блок.
Аноним 20/02/25 Чтв 15:24:43 #503 №1061085 
Мужики, пардоньте, но я уже не могу. Просто крик души, наху. Давно хочу отправиться в дарк-фентезийное приключение с ЛЛМ, чтоб и жестокость и секас, и чтоб на русеке, и всё это локально. НО! Я нихуя не понимаю. С чего начать? Есть ли вот реально гайд для слабоумных?
Аноним 20/02/25 Чтв 15:31:05 #504 №1061094 
>>1061085
1) https://github.com/LostRuins/koboldcpp/releases/download/v1.84.2/koboldcpp_cu12.exe

2) https://huggingface.co/Aleteian/ooo-awo-tst-Q8_0-GGUF/resolve/main/ooo-awo-tst-q8_0.gguf?download=true

3) Берёш карточку--промт - https://pixeldrain.com/u/2foA6fQC например, а вооще выше ссылки на чуб и джанни где всё лежит.

Запускаешь программу из пункта один, пихаешь в неё файл из пункта два, и собственно, вы великолепны.

Жмёшь запуск, ждёшь, откроется веб-морда с чатом. В чате жмёшь загрузить карточку и выбираешь. Всё, можно чатиться.
Аноним 20/02/25 Чтв 15:31:25 #505 №1061096 
>>1061085
Вас там на одном заводе штампуют? Только за сегодня уже второй.
Читай шапку, читай тред. Заебали.
Аноним 20/02/25 Чтв 15:32:20 #506 №1061097 
>>1061085
да, это если у тебя хотя бы 12гб нвидия
Аноним 20/02/25 Чтв 15:34:31 #507 №1061103 
>>1061097
У меня 24врам и 32 рамы
Аноним 20/02/25 Чтв 15:36:21 #508 №1061105 
>>1061085
>дарк-фентезийное приключение с ЛЛМ, чтоб и жестокость и секас
https://pixeldrain.com/l/47CdPFqQ
Тогда лучше не Амэ, а Рене или Валерию

>>1061103
>У меня 24врам и 32 рамы
Ну тогда совсем хорошо, влезет и модель, и куча контекста.
Потому что на русике чтобы ещё и фентези рп только 12Б норм ща.
Аноним 20/02/25 Чтв 15:41:41 #509 №1061112 
>>1060971
Да, это и есть псевдо-ризонинг. То что где-то там хуево получился - проблема реализации.
> R1 ещё умеет чекать свои знания
Ничего не умеет, там просто задрочен паттерн с аутистическими лупами и невростенией, который может как позволить распутать сложную задачу или собрать больше разных оценок для качественного ответа, так и насрать 1000 токенов отборного аутизма и шизофазии, срулив с темы и выдав уныние.
> Простое пережёвывание контекста только сильнее срёт в него.
Буквально дипсик на накопившемся контексте с серией правок кода. Все модели сдают на подобном, но он особенно.
>>1061094
Хотелось обоссать, но раз там запрос для слабоумных то вполне релевантно.
> Aleteian/ooo-awo-tst
Это и есть самый последний и хороший мердж двенашки?
Аноним 20/02/25 Чтв 16:03:09 #510 №1061136 
image
>>1061112
>самый последний
уже нет, я там ещё пару ща тестировать буду

>хороший
Показывает себя вполне хорошо, можешь качать.

> Хотелось
> запрос
> релевантно
Ну, может как поймёт что оно работает, вникнет в тему получше уже и вольётся в комьюнити, а то сразу прям гейткипить...
Аноним 20/02/25 Чтв 16:44:59 #511 №1061196 
>>1060359
Сейчас протестировал эти модели, и результат крайне неудовлетворительный. Гонят какую-то дженерик хуиту, как будто школьники прилежно выполняют контрольную работу. Фантьюны немо 12b пишут лучше, а самое главное, лучше схватыают идею из промпта.
Аноним 20/02/25 Чтв 16:54:51 #512 №1061209 
>>1061196
>результат крайне неудовлетворительный
Уквантованы в сраку небось.
Убить 70Б до уровня 12Б это надо постараться.
Аноним 20/02/25 Чтв 17:02:36 #513 №1061222 
image.png
>>1061112
Не лупы, а самопроверка знаний!
Аноним 20/02/25 Чтв 17:12:37 #514 №1061234 
image
Продолжаю экспериментировать с пошаговым мышлением.
Аноним 20/02/25 Чтв 17:37:16 #515 №1061256 
>>1061136
> Показывает себя вполне хорошо
Хорошо, это мы пробуем. Но если окажется херня то на скидки не рассчитывай.
> сразу прям гейткипить
Наоборот, дело в неоптимальности предложенного. Не разбираясь накатывают, ловят восторг и потом имеем: секту свидетелей кванта, кобольдострадальцев, бедолаг что сидят на мелких моделях имея железо и прочее бинго.
Как спидран - вполне.
Аноним 20/02/25 Чтв 17:47:01 #516 №1061263 
image
>>1061256
>кобольдострадальцев

Хей, нормально всё с кобольдом.

мимокобольд
Аноним 20/02/25 Чтв 18:01:38 #517 №1061276 
>>1061256
>секту свидетелей кванта
Ну уж как квант работает понять несложно.

>>1061256
>на мелких моделях имея железо
Оправдано если русик нужОн.
Аноним 20/02/25 Чтв 18:24:48 #518 №1061325 
>>1061263
Ивасик.жпг
>>1061276
> как квант работает понять несложно
Большинство вообще не понимают, даже из тех кто заявляет обратное. Зато разницу между 7.5 и 8 бит ОЩУЩАЮТ, а стандартные 4-5 бит для них смерти подобны, хотя под семплингом не отличат.
> Оправдано если русик нужОн.
Пока он не впечатляет по сравнению с геммой и командиром. Но это еще будем посмотреть.
Аноним 20/02/25 Чтв 18:32:00 #519 №1061341 
>>1061325
>геммой
27б

>командиром
35б

Были бы они в русском рп норм, тоже бы на них сидел, но увы, 3-4 квант на них
>не впечатляет
Там даже руадапт-квен лучше выдаст, хотя он тоже сухой.

Если же у тебя риг на 36+ VRAM, то на 12б мистральках сидеть никто не завставляет, разве что контекст вместо лорбука юзать.
Аноним 20/02/25 Чтв 18:40:43 #520 №1061351 
>>1061112
> То что где-то там хуево получился - проблема реализации.
Без RL оно работает почти никак. Ты с таким же успехом можешь сравнить V3 с подобной хуйнёй и получить результаты как на V3, а не R1. Ещё во времена рефлекшена всё это обсосали - польза от этого на уровне плацебо.
Аноним 20/02/25 Чтв 18:55:45 #521 №1061374 
>>1061094
> 2)
Какое там форматирование? В ггуфе зашит chatml, мистралька, конечно, гибкая модель, но подобные издевки разве что лардж без обиды может воспринять.
Какой системный промт? Простыня из карточки, конечно, интересна, но слишком особенная и хочу классический рп чатик.
Давай, рассказывай как ее надо готовить
>>1061341
> Были бы они в русском рп норм
По первым ощущениям, они делают меньше ошибок. Разумеется, нужно еще с промтами поиграться (вдруг случиться чудо как на старых корпах, которые чуточку лучше становились), и на тех поиграться чтобы освежить воспоминания.
> но увы, 3-4 квант на них
Во, об этом как раз выше.
>>1061351
Получается выстраиваемые еще пару лет назад системы с агентами нежизнеспособны и бесполезны, открыл глаза.
Аноним 20/02/25 Чтв 19:12:51 #522 №1061402 
Какое железо нужно для дипсика? Какие ещё норм модели существуют? Я ньюфаг и установил какой-то тифа-дипсекс, но он говено работает как-то
Аноним 20/02/25 Чтв 19:13:41 #523 №1061404 
image.png
а 24б мистраль душевно пишет хоть и с ошибками
Аноним 20/02/25 Чтв 19:20:16 #524 №1061418 
>>1061374
>Какое там форматирование?
мистрал теккен в таверне (норм работает) или чат-мл (в большей части компонентов мержа) - тоже попробуй

>Какой системный промт?
>Юзаю сокращённый сторителлер, который 367 токенов
https://characterhub.org/characters/aleteian/storyteller-5e5ea7a548d4

Закинул мастер-пресет таверны в папку свою https://pixeldrain.com/l/47CdPFqQ

https://pixeldrain.com/l/47CdPFqQ непосредственно на сам файл
Аноним 20/02/25 Чтв 19:27:05 #525 №1061437 
>>1061374
> агентами
Шизик, нахуй ты их приплёл. CoT работает, но без RL очень плохо, поэтому он никем и не использовался 3 года. Сколько бы ты не заставлял модель высирать текст, от своего выхлопа она не поумнеет, если не натренить на reasoning с поиском пути решения. Ты можешь на любой задачке собакошиза протестить это говно - оно не работает. В отличии от нормальных реализаций с тренировкой, где даже о3-мини ебёт огромные модели.
ПЕРЕКАТ Аноним OP 20/02/25 Чтв 20:11:19 #526 №1061548 
ПЕРЕКАТ

>>1061545 (OP)

ПЕРЕКАТ

>>1061545 (OP)

ПЕРЕКАТ

>>1061545 (OP)
comments powered by Disqus

Отзывы и предложения