24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
1012
21 августа 2023
Сохранен
531
22 марта 2023
Сохранен
355
27 апреля 2019
Сохранен
504
13 июля 2021
Сохранен
557
5 марта 2023
Сохранен
147
18 декабря 2022
Сохранен
533
20 декабря 2022
Сохранен
544
1 декабря 2022
Сохранен
940
17 ноября 2022
Сохранен
121
18 января 2018
Сохранен
538
5 марта 2021
Сохранен
506
24 декабря 2022
Сохранен
535
4 октября 2022
Сохранен
517
15 февраля 2019
Сохранен
876
30 сентября 2022
Сохранен
1102
NovelAI and WaifuDiffusion тред #105 /nai/ — Генерируем тяночек! Прошлый >>457501 (OP) https://arhivach.top/thread/923078/ Схожие тематические треды: — Технотред >>399707 (OP) — SD-тред (фотореализм) >>445727 (OP) — Тред в /fur/ https://2ch.hk/fur/res/277400.html Использование коллабов является небезопасным с точки зрения конфиденциальности. Если вы используете чужой блокнот, исходите из предположения, что автор данного блокнота может собирать о вас такую информацию как: IP-адрес, фингерпринт браузера, ваши промпты и итоговые генерации. Достоверно известно, что владелец самого популярного коллаба в треде собирает, как минимум, часть данной информации. Драйвера NVidia версии выше 531 (как минимум 532 и 535) используют Shared Memory (фактически, речь идёт про обычную RAM) после исчерпания VRAM, что позволяет избежать ошибок рода Out Of Memory. Цена этого — резкое снижение производительности (вплоть до x10-50 раз) при исчерпании VRAM. При переполнении VRAM, память возвращается в норму только после перезапуска WebUI — простой перезапуск генерации не поможет. Подробнее: https://github.com/vladmandic/automatic/discussions/1285 F.A.Q. треда: https://rentry.org/nai_faq Глоссарий: https://rentry.org/ddpg2 Устанавливаем на ПК/Облако: https://rentry.org/nai_faq#как-поставить-на-пкоблако Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.org/nai_prompt Как работать с ControlNet: https://stable-diffusion-art.com/controlnet Апскейл для начинающих: https://rentry.org/sd__upscale | https://rentry.org/SD_upscale | https://rentry.org/2ch_nai_guide#апскейл Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.org/UpscaleByControl Гайды по обучению лор: https://rentry.org/2chAI_easy_LORA_guide | https://rentry.org/2chAI_LoRA_Dreambooth_guide Каталог популярных моделей: https://rentry.org/nai_models Каталог лор на стилизацию: https://rentry.org/nai_style_loras Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.org/voldy#-running-on-4gb-and-under- Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations АИ-галереи: https://aibooru.online | https://majinai.art Англоязычные каталоги ссылок: https://rentry.org/sdgoldmine | https://rentry.org/sdg-link | https://www.sdcompendium.com ⚠️Перекат оформляется после 1000 поста Шаблон для переката: https://rentry.org/nwhci
31 декабря 2023
Сохранен
492
7 января 2020
Сохранен
374
18 сентября 2019
Сохранен
384
18 декабря 2023
Сохранен
574
10 ноября 2022
Сохранен
48
6 мая 2024
Сохранен
514
3 сентября 2018
Сохранен
1666
AI Chatbot General № 410 /aicg/ — AI Chatbot General № 410 Общий вопросов по чат-ботам и прочего тред. - Фронтэнды - Agnai, SillyTavern, RisuAI Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/ClaudForAgnai | https://rentry.co/Aicg4Retards (Гайд на английском) https://github.com/SillyLossy/TavernAI | https://github.com/ntvm/SillyTavern (Форк нв-куна) https://agnai.chat/ https://risuai.xyz/ - GPT - Джейлы на 4: https://rentry.co/SillyTavern_JB_Pack| https://rentry.co/fa5fv | https://dumb.one/gpt/prompts-scraped/ | https://rentry.co/lobstersgpt Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://rentry.co/hochi-reupload - Claude - https://github.com/Barbariskaa/Spermack https://github.com/PandarusAnon/slaude https://github.com/bfs15/slaude https://rentry.co/spermflow https://gitgud.io/ahsk/clewd/-/tree/master https://rentry.co/sg_proxy Джейлы: https://rentry.co/SillyTavern_JB_Pack| https://rentry.co/ClaudeJB | https://rentry.co/absolutejail | https://rentry.co/fumblebum | https://rentry.co/pitanonbots#claude-rp-prompts | https://rentry.co/XML-dva-shiza Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff Префилл: https://rentry.co/aui3u - Bing - https://github.com/Barbariskaa/Biba - Локалки - https://mancer.tech/ Гайды (на английском): https://rentry.co/meta_golocal_list - Ботоводчество - https://www.chub.ai https://booru.plus/+pygmalion https://avakson.github.io/character-editor/ https://agnai.chat/editor https://rentry.co/botmaking_tips https://rentry.co/MothsBotMakingStuff https://rentry.co/oaicards Боты анонов: https://rentry.co/2chaicgtavernbots Ботоделам: Ваших новых ботов желательно прикреплять к шапке. - Село 2ch - https://rentry.co/selo2ch - Архив тредов- https://rentry.co/paxi32 - GIGACHAT - https://rentry.co/3bc7r - Character.AI - https://beta.character.ai/ https://rentry.co/CAI-FAQ Боты анонов: https://rentry.co/CAI-bots - Прочее - Проверить ключ: GPT https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc Claude https://github.com/Definetelynotbranon/Anthropic_API_Checker Специфические промпты в джейл для кума: https://rentry.co/jinxbreaks Забавные промпты после кума: https://rentry.co/weirdbutfunjailbreaksandprompts - Конкурсы - Общая информация: https://rentry.co/2chaicgthemedevents Текущий конкурс: >>499108 → - Шапка - https://rentry.co/shapkacaitreda - LLaMA thread: >>536577 (OP) - - PygmalionAI thread: >>359618 (OP) - - Прошлый тред: >>536902 (OP) -
15 марта 2024
Сохранен
248
Блядь, а вот я не иронизирую сейчас ни разу. Мы имеем Copylot и 4/4o ChatGPT которые неплохо пишут — Блядь, а вот я не иронизирую сейчас ни разу. Мы имеем Copylot и 4/4o ChatGPT которые неплохо пишут код. Вы мне напишите что они говнокодят, но это будет ложью. Они не говнокодят в привычном понимании слова. Да, они хуево понимают контекст более менее больших проектов, то есть могут не до конца что-то дописать, да, они проебываются и надо дебажить (потому-что упускают тот самый контекст). Но вы вообще осознаёте что это всего 10% будущих трудозатрат создателей нейросетей (я про автоматический дебагинг и тесты), и чисто вопрос будущих версий нейросетей которые научатся понимать в разы больше контекста и не забывать его (чисто финансовые вложения которые стоят нихуя учитывая огромную прибыльность - значит, буквально вопрос времени). Разработать нейросеть которая умеет кодить - это 90% всей работы. Осталось буквально заскейлить все это и автоматизировать остальные процессы. Сука даже до меня хуево доходит весь масштаб беды, хотя я осознаю что она всего в нескольких годах от нас. Уже появляются стартапы которые помимо OpenAI, Microsoft, Stackoverflow пытаются этим заниматься. Уже куча игроков которые не упустят погнать кучу программистов на мороз и вернуть те времена когда в конторах сидели одни высокомотивированные аутисты с отличными знаниями в CS. Никого не отговариваю идти в программисты, но это пиздец товарищи. Навыки множатся на 0. Прикиньте палец к носу: вы можете сказать что программисты станут менеджерами нейросетей итд итп сказки от блогеров и журналистов которые ничего сложнее работы в экселе не делали. Но дерьмо в том, что автоматизировать менеджмент ТАК ЖЕ ЛЕГКО. Вы осознаете что никому нахер не вперлись операторы нейросетей? Для этого нужны только топ-лвл программисты (около 0.1%) с вышкой мехмата и стэнфорда. Архитекторы, которые умеют и на ASM/C писать и на баяне играть. И свитер носят с оленями. Типичный базар на эту тему сводится к следующему: 1) "ОП еблуша-привратник у которого горит от вкатунов" (вкатуны мне давно не конкуренты, а вот будущие версии НС очень даже) 2) "Ой блядь я вот пробовал запрогать N-name и хуйня какая-то" (ты просто не умеешь готовить НС и со 100% вероятностью полетишь первый с работы если конечно это не работа с какой-нибудь малопопулярной ёбой за которую часто нихуя не платят и ее автоматизация будет стоить дороже как автоматизация работы какого-нибудь дворника) 3) "Я старый дед/продаван курсов/жопанейм уже 5 лет читаю что айти все" (деда, блядь, выпей таблетки уже - вкатуны уже 4 года не могут до собесов даже дойти, хватит капчевать из 2015 года) 4) "Рррряяяя формошлёпы должны страдать!" (формошлёпы это не только веб уже с начала 90х, да и чистые бекендеры и алгоритмисты не несут какого-то святого знания в 99.9% случаев, а значит также пойдут по миру) В общем, вывод простой - белые воротнички, особенно там где очень много накоплено публичных данных об их работе будут автоматизированы. В первую очередь это программисты как ни странно. Но это вообще не является какой-то странностью. Потому-что именно программисты очень много насрали о своей работе в интернете: документация, спецификации, stackoverflow, github, разные форумы, куча статей и даже бесплатных книг. Это самая публичная профессия после проститутки (но в интернете). Только вот проститутку не автоматизировать так как она офлайн в 3D мире, а вот программист пребывает в 2D плоскостях информационного мира. Все возвращается туда, откуда пришло. Когда-то люди гоняли биты и байты на ассемблере, потом пришли всякие сишники, потом уровень абстракций дошел до формочек. А сейчас уровень абстракции резко подскочит до такого уровня, что программировать будет любая домохозяйка написав техзадание вроде "мне вот мням нужно мням и вот это как вот это" и нейросеть пойдет и напишет поняв требования лучше среднего манагера/продакта/программиста/фрилансера. Когда вы в последний раз писали на ассемблере свой любимый бекенд/программу? Вот тут ровно такой-же разрыв. Вам нахуй не всралось в 2024 писать вещи которые уже 1000 раз были написаны. Вы пишете на языках высокой абстракции. Только этот язык теперь будет обычным естественным языком который понимает марьванна с 80 IQ (тут я даже не иронизирую, так как НС может понять нечленораздельную просьбу откровенного дебила). Крамольная мысль в том, что мы находимся на закате айти сферы, хотя кажется что это её расцвет. Но расцвет происходит совсем в других сферах. Мы достигли Early adopters уже в 80х, а сейчас туда лезут совсем консервативные люди которые вчера фуры гоняли и в пятерочке на кассе сидели. Доходит? Нет, не доходит и это нормально. До людей никогда не доходит, потому-что мы цепляемся за все старое, за все популярное. Люди очень консервативны и быстро привыкают к хорошему. На интуитивном уровне сложно понять что существуют фазы в 20-50-100 лет, когда ты сам еще моложе этой фазы. Да и в принципе человеческая жизнь короткая, а память человека еще короче. Базово человек хорошо понимает лишь фазы года (сезоны). Массово 80% даже свою жизнь распланировать не способны и все обещания на НГ остаются обещаниями. Это тоже нормально. Короче, ищите профессии где о работе почти не собираются данные. Лучше будет если там нужно работать руками (немного) ИРЛ в том самом 3D мире, а знание о профессии в основном публикуется в профессиональной бумажной литературе (нейросети их не сканируют почти - да у них с платными книгами в прицнипе беда). Знание которое вы должны сами переосмыслять, где нет теории в виде простых руководств для даунов типа "делайте так и вот так". Еще лучше чтобы было мало роликов на ютубе как сделать какую-то вещь которая относится к этой профессии. В идеале высокооплачиваемые синие воротнички (не хуйня без образования, а минимум техникум, лучше ВУЗ). В перспективе 20 лет будете пердеть и радоваться что выбрали это делом своей жизни. Как в городе юристов где вы один сантехник, а юристы помирают в своём говне и готовы заплатить вам миллионы. Я лично сейчас учусь на геодезиста на вечернем. Хотя работаю прогером и давно мидл+ (в пизду синьорство с детсадом - кто знает о чем речь, тому не надо объяснять). Но если вы всё-таки одержимы вкатом в программирование, то не совершайте ошибки и идите тогда в какое-нибудь программирование микроконтроллёров. Тут нейросети ещё долго не будут орудовать, но я вам ничего не обещаю, так как маховик раскручен, а обороты набираются нелинейно. И ещё раз: я никого ни от чего не отговариваю. Это ваша жизнь и вы вольны всрать её как угодно на ваше усмотрение и ПОД ВАШУ ОТВЕТСТВЕННОСТЬ. Вам потом винить себя что вы пошли последним за толпой таких-же. В конце-концов кто-то же должен занимать не самые выгодные позиции в этой жизни для сохранения баланса в природе. Не у всех всегда будет хорошо. Будьте осторожны следуя за толпой. Вполне вероятно перед толпой морковка от владельцев курсов. Им эта толпа принесет миллионы долларов, а вот что вам это принесёт? Вопрос риторический.
16 июля 2024
Сохранен
508
Stable Diffusion технотред #11 /tech/ — ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются Предыдущий тред: >>314956 (OP) ➤ Софт для обучения https://github.com/kohya-ss/sd-scripts Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах. Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss ➤ GUI-обёртки для kohya-ss https://github.com/bmaltais/kohya_ss https://github.com/derrian-distro/LoRA_Easy_Training_Scripts https://github.com/anon-1337/LoRA-train-GUI ➤ Обучение SDXL Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и используовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_. Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM. Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x. ➤ Гайды по обучению Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа. ✱ Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее: https://rentry.org/textard (англ.) ✱ Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее: https://rentry.org/hypernetwork4dumdums (англ.) ✱ Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели: https://github.com/nitrosocke/dreambooth-training-guide (англ.) ✱ LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением: https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.) ✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA: https://github.com/KohakuBlueleaf/LyCORIS ✱ LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше. ✱ LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно. ✱ LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями. ✱ DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности. ✱ Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр: https://keras.io/examples/generative/finetune_stable_diffusion (англ.) Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат. ➤ Гугл колабы ﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb ﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb ﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb ﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z ➤ Полезное Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.) Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.) Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.) Гайды по апскейлу от анонов: https://rentry.org/SD_upscale https://rentry.org/sd__upscale https://rentry.org/2ch_nai_guide#апскейл https://rentry.org/UpscaleByControl Ручная сборка и установка последней версии xformers и torch в venv автоматика: Windows: https://rentry.org/sd_performance Linux: https://rentry.org/SD_torch2_linux_guide Подборка мокрописек от анона: https://rentry.org/te3oh Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.) Коллекция лор от анонов: https://rentry.org/2chAI_LoRA Гайды, эмбеды, хайпернетворки, лоры с форча: https://rentry.org/sdgoldmine https://rentry.org/sdg-link https://rentry.org/hdgfaq https://rentry.org/hdglorarepo https://gitgud.io/gayshit/makesomefuckingporn Шапка: https://rentry.org/catb8 Прошлые треды: №1 https://arhivach.top/thread/859827/ №2 https://arhivach.top/thread/860317/ №3 https://arhivach.top/thread/861387/ №4 https://arhivach.top/thread/863252/ №5 https://arhivach.top/thread/863834/ №6 https://arhivach.top/thread/864377/ №7 https://arhivach.top/thread/868143/ №8 https://arhivach.top/thread/873010/ №9 https://arhivach.top/thread/878287/ №10 https://arhivach.top/thread/893334/
12 января 2024

Отзывы и предложения