Прошлые домены больше не функционируют, используйте адрес ARHIVACH.HK.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Активный
79
вчера 7:28
Сохранен
521
24 января 22:47
Сохранен
20
Командир «Ахмата» рассказал о своей госпитализации в психлечебницу — Командир спецназа «Ахмат», замначальника главного управления по военно-политической работе МО РФ Апты Алаудинов впервые прокомментировал свое отсутствие. В своем в Telegram-канале генерал сообщил, что несколько дней назад его госпитализировали в связи с острым приступом бредового расстройства, но к настоящему моменту он уже выписан из психбольницы. «Я извиняюсь, что отсутствовал девять дней — шизуха», — говорится в обращении Алаудинова к подписчикам. Подробности своей госпитализации высокопоставленный военный не озвучил. Около двух лет назад стало известно о попытке покушения на Алаудинова. Как сообщал тогда глава Чечни Рамзан Кадыров, злоумышленники прислали командиру «Ахмата» письмо, пропитанное ядом. Ранее сообщалось об открытии в Чечне нового центра духовного развития молодежи. Полная версия на сайте ИА IslamNews:https://islamnews.ru/2025/1/24/komandir-akhmata-rasskazal-o-svoey-gospitalizatsii
24 января 11:46
Активный
1408
1 февраля 22:17
Сохранен
95
25 января 1:45
Сохранен
35
РПЦ призывает запретить чипы в мозг из-за угрозы свободе воли — Священник, член Синодальной комиссии по биоэтике РПЦ Владимир Духович выступил с предупреждением о потенциальных опасностях внедрения чипов в мозг. Он считает, что такие технологии могут угрожать свободной воле человека и призывает к их запрету. В интервью РИА Новости священник Духович выразил обеспокоенность по поводу разработки технологий, направленных на внедрение чипов в мозг. Он отметил, что, несмотря на заявления разработчиков о гуманной цели таких технологий, их использование может привести к «непредсказуемым и страшным последствиям». «Я думаю, что подобные технологии должны быть запрещены — это касается и того, что практикует компания Илона Маска Neuralink», — добавил он. Духович также подчеркнул, что технологии подразумевают возможность передачи сигналов как от мозга к компьютеру, так и наоборот, что создает риск воздействия на сознание человека. https://vfokuse.mail.ru/article/svyashennik-rpc-prizyvaet-zapretit-chipy-v-mozg-64565003/
24 января 8:06
Сохранен
27
24 января 8:06
Сохранен
29
24 января 18:13
Сохранен
36
24 января 8:06
Сохранен
125
24 января 11:52
Сохранен
164
24 января 11:47
Сохранен
273
СЕРГЕЙ ГАЛАХОВ - ВОРОШИЛОВСКИЙ СТРЕЛОК 2 Он единственный, кто вышел на тропу войны с навязчивыми пр — СЕРГЕЙ ГАЛАХОВ - ВОРОШИЛОВСКИЙ СТРЕЛОК 2 Он единственный, кто вышел на тропу войны с навязчивыми промоутерами, рекламирующими свои говнотовары, и бездействующей администрацией города Москвы. 58-летний инженер Сергей Галахов признался, что выстрелил в девушку-промоутера из окна своего дома, поскольку ему мешал шум мегафона. По сообщению газета «Вечерняя Москва», погибшая – 25-летняя Анна Носова – работала промоутером в магазине на улице Совхозная (район Люблино). 26 января, в свой первый рабочий день, Носова рекламировала услуги некой фирмы через мегафон. Очевидцы рассказывают, что около 18:30 раздался выстрел. Закричав, девушка упала и потеряла сознание, после чего несколько молодых людей внесли ее в один из магазинов. Через 5 минут приехали врачи «Скорой помощи», однако раненая скончалась буквально у них на руках. Вскоре полицейские задержали предполагаемого преступника – 58-летнего инженера Сергея Галахова, жившего на 6 этаже дома, рядом с которым и работала убитая.
25 января 5:37
Сохранен
355
25 января 14:10
Сохранен
407
25 января 18:15
Сохранен
520
1 февраля 15:53
Сохранен
255
Мужчина (врач-рентгенолог), блуждая по инсте, набрел на блог тетки. Тетка когда-то заимела ВИЧ, что — Мужчина (врач-рентгенолог), блуждая по инсте, набрел на блог тетки. Тетка когда-то заимела ВИЧ, что стало поводом для пиления контента. Врач ей оставил в комментах вопрос об истоках недуга. Что-то там про раздвинутые пятки. В переводе на русский: "Тетка, а ты часом не блядь, трахающаяся со спидозными маргиналами?" Замечу - комментил он ее не как врач. Она не его пациентка. Он никак не связан с ВИЧевыми. Просто какой-то мимокрок изволил не проявить к женщине уважение в интернете. Ужас! У тётки настолько сгорела жопа, что она не поленилась собрать его личную инфу, а через 10 месяцев(!!) его хорошенько так задеанонить. Чем спровоцировала травлю и буквально его отмену. Господа, вы помните, кто и какими именно херами крыли вас в инете 10 месяцев назад? Я вот не помню. Женщины же помнят все. А что не помнят, то скринят и записывают. Господа аноны, а это нормально, что врача рентгенолога уволили за КОММЕНТАРИЙ? Ценного специалиста уволили за комментарий в сторону вичовой вагинобогини. Как выяснилось в прошлом треде, про ее ВИЧ не до конца понятно - получила ли она она его от ебыря, который оказался здоров(??). Или она изменяла ему с кем-то или ещё как-то заразилась - инъекционные наркотики или тату или медпроцедуры. Промежуточные выводы - заразилась до первого партнера, скорее всего на наркоте/блядках. Копаем вглубь, шерлоки. В прошлом треде, аноны подсказали 2 годные идеи: 1)На блогерКУ так-то можно смело написать письмо Бастрыкину писать, она сама признается, что не ставила в известность половых партнеров о наличии у нее ВИЧ, и утверждает, что это их ответственность. Но уважаемая коллегия авторов УК РФ с ней не согласится. УК РФ 122. Заражение ВИЧ инфекцией. sledcom.ru/reception 2)Травить надо не вичевую проблядь для которой любой хайп в плюс, а руководство больницы, которое обосралось хайпа и любого упоминания своей клиники. Смело заявляем по всему интернету что руководство больницы против чтобы вич больные имели какие либо ограничения. Такие ценности очень прогрессивные, хотите лежать в такой больнице? Так же можно предъявить больнице - А НА КАКОМ ОСНОВАНИИ ПРОИЗОШЛО УВОЛЬНЕНИЕ? 3)Нужно перевести конфликт из плоскости «мужчина написал женщине гадость» в «сeтка ботов добивается увольнения полезного для aрмии специалиста по указке прoпaгандирующей странное блогерeссы». Инста Миланы Литвиновой: https://www.instagram.com/miltvin/ Освещение события в СМИ : https://bloknot-rostov.ru/news/rostovskogo-rentgenologa-uvolili-posle-oskorbleniy-1816716 https://161.ru/text/health/2025/01/18/75004094/ https://www.1rnd.ru/news/obshchestvo/rostovskiy-vrach-lishilsya-raboty-posle-oskorbleniya-blogera-iz-za-vich/ БОЛЬНИЦА РЕНТГЕНОЛОГА: vk.com/20gbrostov rgb20.ru rgb20.ru/?page_id=4865 - контактные данные больницы. vk.com/wall-215624107_953 - пост об увольнении. В комментариях боевые сисы уже написали заяву по 282 на рентгенолога. ЗА СУТКИ НОВОСТЬ БЫЛА ЗАКИНУТА ПОЗДНЯКОВУ, ОН ЕЕ ЗАПОСТИЛ, ТАКЖЕ ПОДКЛЮЧИЛСЯ АБУ, НЕОБХОДИМО БУДЕТ ЕЩЕ ПОСПАМИТЬ В ПРЕДЛОЖКУ РАЗНЫХ КАНАЛОВ В ТЕЛЕГРАМЕ - ЭТО РАБОТАЕТ Внимание! Не исключен вайп треда от куколдов/ сис из дев. Предупрежден - значит вооружен! Прошлые: https://arhivach.hk/thread/1123223/ - #1 https://arhivach.hk/thread/1123242/ - #2 https://arhivach.hk/thread/1123308/ - #3
24 января 12:17
Сохранен
202
24 января 12:54
Сохранен
18
24 января 7:51
Сохранен
32
24 января 7:09
Сохранен
15
24 января 7:05
Сохранен
33
24 января 6:19
Активный
522
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №102 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1011615 (OP) >>996637 (OP)
вчера 9:51
Активный
609
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №101 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>1004489 (OP) >>996637 (OP)
вчера 9:51
Активный
523
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №100 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>996637 (OP) >>990008 (OP)
вчера 9:51
Активный
506
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №99 /llama/ — В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку. Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models • Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models • Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде. Предыдущие треды тонут здесь: >>990008 (OP) >>984950 (OP)
вчера 9:51

Отзывы и предложения