24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

НЕЙРОНОЧКИ И МАШОБ ТРЕД №33 /ai/

 Аноним 16/12/20 Срд 02:39:25 #1 №1881607 
Очередной тред про хипстерские технологии, которые заменили нам Иисуса

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущие:
https://2ch.hk/pr/res/1868191.html
https://2ch.hk/pr/res/1847673.html
https://2ch.hk/pr/res/1832580.html
https://2ch.hk/pr/res/1817320.html
https://2ch.hk/pr/res/1785952.html
https://2ch.hk/pr/res/1758961.html
https://2ch.hk/pr/res/1734710.html
https://2ch.hk/pr/res/1704037.html
https://2ch.hk/pr/res/1665515.html
Аноним 16/12/20 Срд 02:47:30 #2 №1881609 
>>1881436 →
>За 100к картинок заплатишь тысяч пять
Описание содержимого картинки, правильное и достаточно полное?
Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
Аноним 16/12/20 Срд 02:54:10 #3 №1881610 
image.png
Аноним 16/12/20 Срд 03:08:10 #4 №1881613 
>>1881609
>Описание содержимого картинки, правильное и достаточно полное?
Оно, как я понял, должно быть сжатым, в виде одного небольшого предложения.
>Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
На каждую картинку надо секунд 15 - получается 12 долларов в час за 240 размеченных картинок. Это даже много, можно и дешевле.
Аноним 16/12/20 Срд 03:08:22 #5 №1881614 
CNN-Репост из предыдущего треда:
https://www.youtube.com/watch?v=8z13MZiXdD4
https://youtu.be/d9QHNkD_Pos
https://youtu.be/f7he34i4pRc
Аноним 16/12/20 Срд 03:09:22 #6 №1881615 
https://deepsukebe.io/
Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.

Желательно чтобы жертва была одета в купальник/лиф+трусы, стояла прямо и смотрела в камеру
Аноним 16/12/20 Срд 03:19:04 #7 №1881616 
>>1881613
>На каждую картинку надо секунд 15
Ага, так и будут тебе описания херачить по 15 секунд за копейки.
Будут в одно слово обозначающее самый очевидный класс просто писать и всё, из этого достаточно мощный генератор не сделаешь. Нужна более качественная разметка - плати и всё равно чистить придётся.
Аноним 16/12/20 Срд 03:19:43 #8 №1881617 
>>1881615
>Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.
Наверное наш нечеткий организовал, хули, нейронки же для зумерков тупых, любой справится
Аноним 16/12/20 Срд 03:33:30 #9 №1881620 
>>1881616
>12 долларов в час
>за копейки
Сколько по-твоему должны платить обезьяне без навыков, которая размечает картинки? Зарплату сеньора в Долине?
>Будут в одно слово обозначающее самый очевидный класс
Это все контролируется, по крайней мере на амазоновском турке. 12 в час это вообще очень много. За такую плату ты можешь найти людей с высшим образованием для которых это основная работа.
Аноним 16/12/20 Срд 03:39:52 #10 №1881621 
>>1881620
>Это все контролируется, по крайней мере на амазоновском турке.
Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
Аноним 16/12/20 Срд 03:47:38 #11 №1881622 
>>1881621
>Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
Индус размечает 1000 картинок, а ты детально просматриваешь штук 10-20, выбранных случайно. Вероятность не заметить халтурщика околонулевая.
Аноним 16/12/20 Срд 03:51:37 #12 №1881623 
>>1881622
Не, ну ты наверное заметишь, но когда всё кончится уже.
Аноним 16/12/20 Срд 04:07:26 #13 №1881626 
Какие индусы, каргокультисты ебаные, вы в рашке живете, здесь зарплата в 200 баксов - хорошая. За 20к в месяц вы можете провинциальную студентку нанять, три таких студентки за месяц вам все разметят и будут счастливы от такой непильной работы. Индусы, 12 долларов в час, вообще охуеть.

Другой вопрос, что сейчас нужно не нейронку искать под задачу, а задачу под нейронку. Вот на это петушки не способны. Свои гениальные идеи нужно создавать после чтения архива, а не до.
Аноним 16/12/20 Срд 06:03:48 #14 №1881633 
Картинки по описанию как научная работа имеют нулевую ценность, если там не мега-прорыв какой-то. Потому что такие работы уже есть, и даже норм генерируют в пределах домена.
Как коммерческий сервис не взлетит. На этом можно сделать, ну одну игру, и то придется рекламировать как ИИ-сгенерированную, иначе игроки не поймут грязный графон. Это не окупится.
Как петпроект сойдет.
Аноним 16/12/20 Срд 07:33:24 #15 №1881642 
8454BBF5-BDAC-426A-BAF5-A458E4B9BCBE.jpeg
Маскулинизированный Саттон желает всем ИТТ насладиться биттерлессоном.
Аноним 16/12/20 Срд 07:54:34 #16 №1881648 
>>1881626
>здесь зарплата в 200 баксов
Хохол, кто тебя из хлева выпустил?
Аноним 16/12/20 Срд 08:25:19 #17 №1881655 
16043774727390.jpg
>>1881642
> пик
Аноним 16/12/20 Срд 08:36:38 #18 №1881657 
>>1881633
> грязный графон
Графон не будет грязным, если палитра маленькая.
Аноним 16/12/20 Срд 08:51:11 #19 №1881665 
>>1881626
>нужно не нейронку искать под задачу, а задачу под нейронку.
Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. Хоть нейронками, хоть ad-hoc скриптами - главное, что работает.
Аноним 16/12/20 Срд 08:57:18 #20 №1881671 
>>1881633
> Как коммерческий сервис не взлетит
Похуй. Главное чтобы это был инструмент заменяющий тебе дизайнера. Одиноким геймдевелоперам огромная помощь.
Аноним 16/12/20 Срд 09:40:40 #21 №1881694 
>>1881665
>Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй.
В рашке может и похуй, когда у бизнеса горизонт планирования месяц, а работнику вообще важно дожить до получки и хуй забить на перспективы.
А если у тебя горизонт планирования хотя бы пару лет, далеко не похуй.
Главное - прибыль. Прибыль - это разница между затраченным и полученным. Одни решения дают прибыль сразу, одни не сразу. Они требуют постоянных усилий на поддержку и модификацию скриптов, другие просто работают. И так далее.
И вот дальше ты как ml-слесарь пиздуешь на arxiv-sanity и просматриваешь заголовки, пытаясь понять, а какую хуитку можно встроить в текущий пайплайн твоего места работы. Если находишь - заебись, пиздуешь к чуваку повыше тебя в иерархии и толкаешь идею, финансирование. Не находишь - плохо, ищи дальше, или жди, пока твой начальник найдет и положит тебе в рот проект.

А вот пытаться с нуля разводить ресерч, если ты в бизнесе работаешь, типа как с этими "8bit captioning нейронка" это хуевая и рискованная идея. Такие идеи можно пробовать, но только если вложенные ресурсы копеечные - понял, что датасет ты напарсишь тут, модель тут, хуяк-хуяк. А если просто чтобы проверить твою гениальную идею нужно месяц координировать разметчиц, ну вы явно какой-то хуйней страдаете, на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений, а вы свою родненькую гениальненькую (хххртьфу) идею отпустить не можете.
Аноним 16/12/20 Срд 13:13:22 #22 №1881806 
>>1881694
>на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений
Ещё думать как это полунеработающее говно присобачить к своей специфике, легче набрать данных и обучить, читай битерлесон
Аноним 16/12/20 Срд 13:45:28 #23 №1881846 
В чем проблема разработать универсальный алгоритм кластеризации? Или это в принципе невозможно?
Аноним 16/12/20 Срд 14:35:53 #24 №1881891 
>>1881806
Обучить что, мань?
Аноним 16/12/20 Срд 15:21:10 #25 №1881931 
>>1881891
> петух врубил несознанку
Аноним 16/12/20 Срд 15:35:31 #26 №1881943 
>>1881931
>школьник ушел от ответа, поняв, что спизданул хуйню
Аноним 16/12/20 Срд 15:52:52 #27 №1881954 
>>1881642
>биттерлессон
впопентрахен
Аноним 16/12/20 Срд 16:23:40 #28 №1881982 
>>1881846
Кластеризуй мне шум.
Аноним 16/12/20 Срд 16:57:00 #29 №1882008 
>>1881846
Возможно. Берешь хэш от входных данных и делишь его по модулю на число требуемых кластеров. Универсально я ебал.
Аноним 16/12/20 Срд 17:02:20 #30 №1882010 
>>1881671
Если бесплатно выложить, то может быть зайдет в среде начинающих инди.
Аноним 16/12/20 Срд 17:56:10 #31 №1882036 
16070861791410.gif
>>1881982
> Кластеризуй мне шум.
Зумера, зачем вы такие? Шум никаких кластеров не содержит, как ты его кластеризуешь? Зачем ты вообще это написал? У тебя мозгов нет?
Аноним 16/12/20 Срд 18:18:33 #32 №1882051 
>>1882036
Нечектух не понял отсылку к известной теореме
мимо
Аноним 16/12/20 Срд 18:22:59 #33 №1882055 
>>1882051
К какой ещё теореме, маня?
Аноним 16/12/20 Срд 18:32:18 #34 №1882061 
>>1882055
Жопеншмульцера, про шум
Аноним 16/12/20 Срд 19:29:28 #35 №1882081 
>>1882055
Твоей любимой. Начинается на N.
Аноним 16/12/20 Срд 20:33:15 #36 №1882119 
>>1882081
I
Аноним 16/12/20 Срд 20:56:30 #37 №1882138 
>>1882081
>N
Negr?
Аноним 16/12/20 Срд 22:18:53 #38 №1882200 
>>1882081
Nbitter lesson?
Аноним 16/12/20 Срд 22:26:54 #39 №1882211 
>>1882055
>>1882061
>>1882081
>>1882119
>>1882138
>>1882200
Квинтэссенция ML-треда. Его можно закрывать, лучше уже не будет.

No free lunch theorem
Аноним 16/12/20 Срд 22:41:39 #40 №1882220 
>>1882211
>theorem
Ненужно, читай эссе саттона
Аноним 16/12/20 Срд 23:22:16 #41 №1882253 
>>1882211
Ты мне давай не теорему, а программу как доказательство
Аноним 16/12/20 Срд 23:33:49 #42 №1882255 
>>1881378 →
А насколько выглядит рабочим вариант предсказывать параметры бета распределения, из которого берется матожидание (или семплируется) угла?
Мне как раз неплохо было бы иметь вероятности углов.
Аноним 17/12/20 Чтв 00:06:24 #43 №1882268 
>>1882255
> распределения
> вероятности
Да хватит пыжиться, собирай данных больше, учи, не трать время, не еби мозги
Аноним 17/12/20 Чтв 02:54:05 #44 №1882344 
>>1882253
Дал -> >>1882008
Аноним 17/12/20 Чтв 03:21:39 #45 №1882366 
>>1882344
> хэш
> по модулю
Кому-то не мешает прочитать горький урок?
Аноним 17/12/20 Чтв 03:28:03 #46 №1882367 
bitterrrrrr.jpg
Специально для петухов на свинособачьем: https://habr.com/en/post/454482/
Аноним 17/12/20 Чтв 03:56:01 #47 №1882372 
16074695954650.jpg
>>1882367
Надо же, сойбои открыли для себя тезис Чёрча-Тьюринга, гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же, независимо от их хитровыебнутости. Я прямо даже удивлен такой оперативности
Аноним 17/12/20 Чтв 03:59:11 #48 №1882373 
Screenshot2020-12-1703-58-50.png
Лол. Нечеткий петух не может в английский. С пруфами.
Аноним 17/12/20 Чтв 04:01:13 #49 №1882374 
>>1882373
Я и по ссылке прочитал пару предложений. Напиши заодно, что в русский не могу. Алсо
>>1882367
> на свинособачьем:
Ты чурка?
Аноним 17/12/20 Чтв 04:03:51 #50 №1882376 
>>1882374
В глаза не ебись, на этом скриншоте нет моих постов
Аноним 17/12/20 Чтв 04:11:24 #51 №1882380 
>>1882376
А чем один одинаковый как под копирку еблан лучше другого такого же?
Аноним 17/12/20 Чтв 04:38:03 #52 №1882385 
>>1882367
Знатно там точке зрения горького петуха напихали
Аноним 17/12/20 Чтв 04:42:45 #53 №1882387 
>>1882385
Ещё один зумер, читать не умеешь? >>1882372 впрочем, ничего нового.
Аноним 17/12/20 Чтв 07:30:53 #54 №1882412 
>>1882372
>Чёрча-Тьюринга, гласящий
>Хорошо смазанная жопа с засунутым членом лучше нейроговна
Думаю Тьюринг это имел в виду, или какие у этого педика еще заслуги кроме жопоебли?
Аноним 17/12/20 Чтв 07:36:01 #55 №1882414 
>>1882367
Хохол выбежал из Швабропараши и обмазал здесь все говном, уходи обратно к своим хабрахрюковцам
Аноним 17/12/20 Чтв 07:36:48 #56 №1882416 
>>1882373
>английский
Не нужен
Аноним 17/12/20 Чтв 07:39:32 #57 №1882417 
>>1882412
Если ты не знаешь заслуг Тьюринга, что ты забыл в этом треде?
Аноним 17/12/20 Чтв 07:39:56 #58 №1882418 
>>1882416
Действительно, зачем он Русскому ученому
Аноним 17/12/20 Чтв 07:49:08 #59 №1882419 
160615746516011097.jpg
>>1882417
>знаешь заслуг Тьюринга
Знаю что он ебался в жопу и называл себя Белоснежкой, остальное пеар западной лживой пропаганды.
>>1882418
Хохлу англодрочеру пикрил
Аноним 17/12/20 Чтв 08:04:53 #60 №1882424 
>>1882419
Ты хотя бы неразрешимость проблемы остановки доказать можешь без гугла?
Аноним 17/12/20 Чтв 11:03:06 #61 №1882488 
>>1882372
>гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же

Он не это гласит, а то что всё что в принципе можно вычислить на физическом устройстве, можно вычислить на МТ.
Аноним 17/12/20 Чтв 11:07:06 #62 №1882489 
>>1882488
Одна из формулировок, к слову, из книжки Вапника из опхуй поста. Почитали бы умных людей вместо пидерлессона, как это сойбои для себя назвали.
Аноним 17/12/20 Чтв 11:08:27 #63 №1882490 
>>1882412
Нихуя толстота пошла. Сделал он максимальный вклад в теорию вычислимости, больший чем кто либо. Ну и вся теория алгоритмов до сих пор крутиться вокруг машины Тьюринга, есличо.

То что он был няшным андрогинным трапиком это только ему в плюс офк
Аноним 17/12/20 Чтв 11:19:07 #64 №1882502 
>>1882489
Так мы читали, это ты нихуя не читал, кроме инфы на русском из времен СССР, потому что все давно перестали переводить
Аноним 17/12/20 Чтв 11:25:37 #65 №1882508 
В чем вообще смысл биттерлесона?
Аноним 17/12/20 Чтв 11:29:27 #66 №1882516 
>>1882502
Не читал ты, зумер.
Аноним 17/12/20 Чтв 11:33:23 #67 №1882521 
>>1882508
> В чем вообще смысл биттерлесона?
В том, что сойбои открыли для себя то, что тезис Чёрча-Тьюринга, оказывается, и к машобчику применим. Ну кот бы мог подумать! Вапник об этом ещё в 90е писал, но это ДРУГОЕ конечно же...
Аноним 17/12/20 Чтв 11:48:05 #68 №1882532 
>>1882521
> тезис Чёрча-Тьюринга
Причем тут вообще он?
Аноним 17/12/20 Чтв 11:56:10 #69 №1882538 
16067479990680.png
>>1882532
Я же объяснил, при чем. И даже сослался на соответствующую его формульровку.
Аноним 17/12/20 Чтв 11:58:10 #70 №1882541 
Лол, зумерошизик не понял, в чем суть биттерлессона. Даже перевод на хабре не помог.
Аноним 17/12/20 Чтв 12:08:26 #71 №1882549 
>>1882541
Это ты не понял. Как и автор этой писульки.
Аноним 17/12/20 Чтв 12:16:59 #72 №1882555 
image.png
>Это ты не понял.
Аноним 17/12/20 Чтв 12:20:16 #73 №1882559 
image.png
>>1882541
За эти несколько лет тредов еще ни разу не было такого, чтобы он что-то понял. У него просто такая штука в мозге отсутствует, только комбинирование случайных баззвордов в случайном порядке.
Аноним 17/12/20 Чтв 12:48:55 #74 №1882577 
16038800412550.png
>>1882555
>>1882559
Констатирую разрыв зумера(((
Аноним 17/12/20 Чтв 14:52:31 #75 №1882735 
нашёл нечёткий петух на горького петуха, треду конец
Аноним 17/12/20 Чтв 17:02:36 #76 №1882825 
>>1882490
>Сделал он максимальный вклад в теорию
>вся теория
Так я и говорю что петух-пиздабол, он даже Энигму не вскрыл с кучей таких же петухов пока ему разведка все ключи на блюдечке не принесла. Типичное оверхуйпнутое говно.
Аноним 17/12/20 Чтв 17:04:57 #77 №1882827 
>>1882825
Не тебе судить, обезьяна
Аноним 17/12/20 Чтв 17:31:59 #78 №1882854 
>>1882825
Зумер, ну куда ты лезешь, твоих петушиных мозгов не хватит, чтобы оценить вклад Тьюринга в математику.
Аноним 17/12/20 Чтв 17:57:46 #79 №1882893 
bitterrrrrrrrrrr.jpg
Лольнул с нечеткого петуха.
Аноним 17/12/20 Чтв 18:06:14 #80 №1882904 
zzzzzzz.jpg
>>1882367
Аноним 17/12/20 Чтв 18:21:52 #81 №1882918 
>>1882854
>оценить вклад Тьюринга в математику
Я и говорю, бесполезный петух как и все математики, собственно они его и форсят.
Аноним 17/12/20 Чтв 18:51:11 #82 №1882942 
Untitled.png
Для того, кто кричит что математика не нужна.
Аноним 17/12/20 Чтв 18:58:23 #83 №1882951 
>>1882942
Пусть Интел вначале убогое говно перестанет делать.
Аноним 17/12/20 Чтв 19:05:23 #84 №1882959 
>>1882951
А кто делает лучше?
Аноним 17/12/20 Чтв 19:06:59 #85 №1882962 
>>1882959
Саттон
Аноним 17/12/20 Чтв 19:09:31 #86 №1882965 
>>1882959
Я про архитектуру, мне больше RISC нравится. Но это всеравно кал, нужно принципиально новое направление.
Аноним 17/12/20 Чтв 20:02:58 #87 №1882993 
>>1881616
>>1881620
>>1881621
Милости прошу к петушиному шалашу:
https://2ch.hk/wrk/res/2157592.html
Аноним 17/12/20 Чтв 20:12:00 #88 №1882998 
>>1882993
Не так просто этих макак встроить в систему. На той же толоке там и мониторинг скилов, и умная выдача заданий, и вариация цены. На типовых задачах это более-менее работает, но если тебе надо что-то более креативное, вроде словесных описаний, это гораздо сложнее.
Аноним 18/12/20 Птн 05:49:23 #89 №1883262 
16057057607920.jpg
>>1882962
> Саттон
Сойбой. В случае с reinforcement learning он (это же он был?) даже не понял, чем занимается, не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency. Так же и со своим "битерлесоном", написал то, о чем умные люди ещё лет 30 назад писали. А потом появляются свидетели этой хуйни, как ты, горький петух, которые по своему зумерству тоже не могут понять написанное.
Аноним 18/12/20 Птн 07:33:02 #90 №1883272 
>>1883262
>не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency
У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
С тем же успехом можно сказать, что всё в мире сводится к категориям аристотеля.
Аноним 18/12/20 Птн 07:37:42 #91 №1883273 
>>1883262
Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Не поняли, нет?
Короче, как этот конструшок - нечеткий петушок функционирует. Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y. Если знает и говорит банальную вещь, что петушок опять соснул, - он начинает злиться и постить картинки с зумерками, но больше хуйни не пишет. Если же молитвы услышены и никто его не обоссал, он убедится, что все обошлось, и у него начнется очереднеая стадия шизы.
Аноним 18/12/20 Птн 07:47:32 #92 №1883275 
image.png
>>1883272
>У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
Не будь петушком, уважай ученых. Петух специально выбивает тебя в эту плоскость, где он может нести свою шизу. Это хуйло даже статью в оригинале прочитать не может и ждет перевод на хабре, и пишет просто рандомный набор слов каждый раз по одному и тому же паттерну.
Его утверждения, что "XXX не понял YYY" не основаны ни на чем, кроме желания высрать хоть что-то, будучи интеллектуальным ничтожеством.
Аноним 18/12/20 Птн 12:14:47 #93 №1883352 
16067487341190.jpg
>>1883272
> У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"?
Было. Только сойбои его не читали, а я читал, в оригинале, вопреки кукареканьям горького петуха о том что я якобы не знаю англюсика поэтому знаю, о чем говорю. Сойбои а ты тем более с RL не ушли дальше понятия топографии поведения, в отличие от Скиннера.
> Ну и результатов у него тоже нет.
У него их полно, просто ты о них не слышал.
>>1883273
> Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Да. Только чтобы понять, почему, мозги нужны.
Аноним 18/12/20 Птн 12:37:50 #94 №1883378 
>>1883352
Так у тебя их нет, лол. Сначала клоуном /math был, теперь здесь.
Додвачевался до того, что сойбоями называешь людей, которые защитили диссертацию до того, как ты родился.
Аноним 18/12/20 Птн 13:01:48 #95 №1883395 
>>1883378
> Сначала клоуном /math был
Ага, дебилы не понимают разницы между потенциальной и актуальной бесконечностью, а клоун я? Нет, зум, это так не работает. RL у долбаебов не работает потому что они долбаебы. Про Скиннера вроде слышали, но ведь с долбаебами всегда так - слышали, но не читали, читали, но не поняли, поняли, но не так. Поэтому RL не использует результатов, полученных Скиннером, а он ведь ещё лет 80 назад пояснял, в каких случаях и почему его подход может не работать. А теперь смотрим RL и видим, что эти ебланы собрали все грабли, о которых Скиннер рассказывал. Так что сойбой твой Саттон, можешь даже не спорить.
Аноним 18/12/20 Птн 13:31:03 #96 №1883414 
>>1883395
>потенциальной и актуальной бесконечностью
Проорал
Аноним 18/12/20 Птн 13:37:37 #97 №1883418 
>>1883395
>а клоун я?
да, ты
Аноним 18/12/20 Птн 15:06:41 #98 №1883495 
>>1883418
Горький петух такскозал?
Аноним 18/12/20 Птн 15:07:49 #99 №1883496 
>>1883495
Нет, жопеншмульц доказал в 1927 году теорему. Иди учи матчасть.
Аноним 18/12/20 Птн 16:45:41 #100 №1883680 
>>1883496
Если нечеткий петух такое пишет, значит это пиздеж, и не жопеншмульц доказал в 1927 году, а херожольц в 1925, на что у жопеншмульца была ссылка, но петух читал советский перевод его работы, где ссылки нет, и без перевода статьи на хабре он беспомощен, при этом сама теорема на самом вообще не о том и не применима.
Аноним 18/12/20 Птн 19:25:22 #101 №1883873 
пенсионеры.jpg
>>1883680
С тобой все в порядке?
Аноним 18/12/20 Птн 20:20:23 #102 №1883949 
>>1883395
Что у них не работает, и что работает у тебя? Если ты такой умный, то почему тогда бедный не зафигачил новые эффективные методы RL?
Аноним 18/12/20 Птн 21:01:22 #103 №1884001 
>>1883949
Зумерок, иди почитай классику [Zhopenshmultser et al. 1946], там уже давно всё придумали. У сойбоев не модно изучать классику, а модно трясти нейронки, поэтому результатов не видно.
Аноним 18/12/20 Птн 22:48:46 #104 №1884135 
516.jpg
>>1883949
>Если ты такой умный, то почему тогда бедный
Действительно
Аноним 18/12/20 Птн 23:21:13 #105 №1884192 
>>1884135
Ну он то бедный потому что аскет. А ты бедный потому что тупой.
Аноним 18/12/20 Птн 23:22:39 #106 №1884194 
>>1884135
У Перельмана родственники - банкиры в Швеции, хуёвый пример.
Аноним 19/12/20 Суб 00:01:18 #107 №1884214 
>>1884001
>поэтому результатов не видно.
>ГПТ-3 скоро порешает кодомакак
А что есть у вапникодрочеров?
Аноним 19/12/20 Суб 00:45:57 #108 №1884234 
>>1884214
>ГПТ-3 скоро порешает кодомакак
Не порешает. Как минимум из-за ограниченной длины последовательности, которую она умеет генерировать.
Аноним 19/12/20 Суб 08:38:24 #109 №1884356 
>>1884194
>банкиры в Швеции
Накопили на золотых зубах холокоста? При чем там ум?
>>1884192
Это другое? Ясно.

Реквестирую маняматика который разбогател не впаривая маняматическое говно, ну кроме Березовского.
Аноним 19/12/20 Суб 11:26:56 #110 №1884404 
>>1884001
>>1884135
Нет ну серъезно, объясните кодомакаке, если все вот так замечательно в теории, почему не применяют? О массовом применении речь не идет, большинство трясунов - криворучки, однако почему ВЕЗДЕ stackMoreLayers?
Аноним 19/12/20 Суб 12:13:01 #111 №1884413 
>>1884404
Всё применяют. Например, в статье Performer используют наработки из кернел-методов.
Просто шизиков меньше слушай, которые притворяются людьми.
Аноним 19/12/20 Суб 12:35:27 #112 №1884423 
>>1883273
Самая глубокая аналитическая модель в этом итт треде.

А в /po/ можешь так?
Аноним 19/12/20 Суб 13:05:48 #113 №1884432 
>>1884404
> , однако почему ВЕЗДЕ stackMoreLayers?
Горький петух говорит, что дело в битерлесоне. На самом же деле проблема в том, что сойбои ни во что кроме стекморлейерс не могут, а закон Мура приводит к тому, что и так получается неблохо, сравнить-то не с чем.
Аноним 19/12/20 Суб 13:27:25 #114 №1884446 
>>1884432
Кек, этот жалкий перефорс
Аноним 19/12/20 Суб 13:49:55 #115 №1884466 
petuh2.png
>>1884446
> перефорс
Перефорс чего? Это не перефорс, "горький петух" - это теперь твое официальное звание. Лови мэдскилл.
Аноним 19/12/20 Суб 19:43:12 #116 №1884831 
Ладно, я был неправ, нечёткопетух не необучаемый. Смотрите, как он быстро учится новому.
https://youtu.be/6gDxvk6n-qM
Аноним 19/12/20 Суб 20:12:18 #117 №1884852 
>>1884831
Это четкий петух.
Аноним 19/12/20 Суб 20:16:37 #118 №1884856 
>>1884432
Но в индустрии должны быть не только сойбои?
Аноним 19/12/20 Суб 21:26:41 #119 №1884913 
1608402388025.png
1608402388093.png
1608402388142.png
1608402388162.png
Есть одна таблица (пик 1). Я хочу сделать для нее heatmap, но такую, чтобы считала каждый столбец отдельно, как я намутил в экеле(пик2). Пик3 в matplotlib, a пик4 в seaborn и они учитывают сразу все значения и рисуют по нормировке всех значений, что мешает мне понять отдельные характеристики признаков.
Вот теперь и возлюбишь винду.
Аноним 19/12/20 Суб 21:32:30 #120 №1884916 
>>1884913
Гугли что-нибудь типа "heatmap by column", если в документации на то, чем ты пользуешься, этого нет.
Аноним 19/12/20 Суб 22:03:13 #121 №1884941 
1608404580394.png
>>1884916
>>1884913
Если сделать нормализацию, то нужное представление я получу. Но тут уже встает вопрос о том, не потеряю ли я какую-то критическую информацию, когда буду рассматривать нормализованные признаки? Не исчезнут ли выбросы, если такие есть, или еще что-то?
Аноним 20/12/20 Вск 00:21:59 #122 №1885036 
>>1881607 (OP)
Няшки, какие сейчас есть технологии распознавания и поиска лиц по базе? Хочу сделать детектор либирашек для своей Родины.
Аноним 20/12/20 Вск 01:07:52 #123 №1885056 
>>1883272
>хорошее поведения поощряем, плохое наказываем
Ух, вот это гениальная идея, вот это ноука!
Аноним 20/12/20 Вск 06:24:56 #124 №1885171 
>>1885056
Ну в его время это был нехилый прорыв. Когда остальная психология измеряла черепа, толковала сны, и гадала на кофейной гуще.
Аноним 20/12/20 Вск 06:48:02 #125 №1885177 
16045064436330.png
>>1885056
>>1885171
Ещё один дебилок. Прорыв Скиннера был в переходе от топографии поведения к понятию операнта, что дало возможность изучать поведение как явление, а не запутаться в бесконечных многообразий топографий поведения, на чем закончились исследования всех до Скиннера. Но откуда такие вещи знать одинаковым как под копирку зумерам без мозгов.
Аноним 20/12/20 Вск 10:57:50 #126 №1885276 
>>1885036
Все те же ,базовые, как и позавчера.
На всякий случай обоссым тебя и твое государственное объединение.
Аноним 20/12/20 Вск 10:59:29 #127 №1885279 
Насколько трудновыполнимой и ресурсозатратной станет задача оптического определения шрифта и, если такого шрифта нет в общем пользовании, хотя бы приближённая его отрисовка?
Аноним 20/12/20 Вск 11:30:56 #128 №1885307 
>>1885279
Вполне реалистичная задача, сопоставимая с распознаванием лиц по пайплайну. Собири датасет со шрифтами, напиши скрипт по агументации, который меняет у букв размер и цвет, и тренируй нейронку по букве выдавать эмбединг, соответствующий шрифту.
Дальше все сводится в kNN в пространстве эмбедингов.
Аноним 20/12/20 Вск 13:17:40 #129 №1885356 
>>1885279
Эмм, сервисов по определению шрифтов было миллион еще до всяких нейронок.
Аноним 20/12/20 Вск 13:22:37 #130 №1885360 
>>1883273
Лол, так а в чем он не прав, если действительно хипстеры просто вытаскивают то что ученые лет 50 назад изобрели?
Аноним 20/12/20 Вск 13:24:40 #131 №1885361 
>>1885360
Пруф?
Аноним 20/12/20 Вск 13:26:09 #132 №1885362 
>>1885361
Читай старые книги там все есть. По крайней мере я про нейронные сети читал еще в дремучем детстве в обычной библиотеке обычного санатория-курорта.
Аноним 20/12/20 Вск 13:31:38 #133 №1885366 
>>1885362
Это первая часть пруфа. Вторая часть пруфа - покажи, где хипстеры вытаскивают.
Аноним 20/12/20 Вск 13:34:08 #134 №1885367 
>>1885366
Ну, что то же у хипстеров работает, кек. Просто они называют это всякими модными баззвордами.
Аноним 20/12/20 Вск 13:36:18 #135 №1885370 
>>1885367
Ты так примерно почуствовал, да?
Аноним 20/12/20 Вск 13:49:40 #136 №1885380 
>>1885307
Буду разбираться, спс.
>>1885356
Ну сервис сервисом, но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
Аноним 20/12/20 Вск 14:05:44 #137 №1885390 
>>1885380
>но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
Это тебе conditional gan нужен тогда
В целом идея и бог весть какая свежая, нагуглишь дохуя чего
Аноним 20/12/20 Вск 14:06:59 #138 №1885392 
>>1885360
> хипстеры просто вытаскивают то что ученые лет 50 назад изобрели
> По крайней мере я про нейронные сети читал
А ещё хипстеры матрицы перемножают, а это вообще 150 лет назад начали делать. Сойбои не могут ничего нового придумать.
Аноним 20/12/20 Вск 14:07:19 #139 №1885393 
16070861791410.gif
>>1885370
> Ты так примерно почуствовал, да?
Я не он, но причем тут "почувствовал"? Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча и примерами использования его в машобчике. Видимо, не в зумера тайд коня корм. Что тут можно добавить, остаётся тебе только посочувствовать.
Аноним 20/12/20 Вск 14:31:43 #140 №1885411 
Screenshot2020-12-2014-23-26.png
>>1885393
>Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча
Я уже написал об этом все вот тут - >>1883273
'Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y'
При этом каждый раз (я не знаю какой по счету уже) нужно лезть руками и убеждаться, что там тупо какая-то нерелевантная хуйня. Один в один было так с no free lunch theorem, которую он упоминал в треде всякий раз, кроме тех случаев, когда она действительно нужна.

Если кому нужно - https://statisticalsupportandresearch.files.wordpress.com/2017/05/vladimir-vapnik-the-nature-of-statistical-learning-springer-2010.pdf
Аноним 20/12/20 Вск 14:33:47 #141 №1885413 
>>1885411
>Он берет какой-то рандомный термин из прошлого, пишет "X - это Y
Так в чем он неправ? Если хипстеры просто называют баззвордом Y то что было в книгах под названием X?
Аноним 20/12/20 Вск 14:44:15 #142 №1885421 
>>1885413
В том, что X - это не Y, а просто не связанные между собой вещи.
Что эти хипстеры защитили свои тезисы еще до того, как ты родился.
Что споры о терминологии, а не научном приоритете, совершенно несущественны, да и научный приоритет - это больше про этику.
Аноним 20/12/20 Вск 14:46:24 #143 №1885423 
>>1885421
>В том, что X - это не Y, а просто не связанные между собой вещи.
Потому что ты не видишь связи? Ну ок.
Аноним 20/12/20 Вск 14:51:27 #144 №1885428 
>>1885413
Хотя бы три примера в студию.
Аноним 20/12/20 Вск 14:51:51 #145 №1885429 
>>1885423
Ну так распиши ее. В отличие от этого пидораса, я принес конкретную ссылку и даже скриншотик.
Понятно, что лично для тебя это вообще темный лес и какие-то случайные буквы, а ты просто поспорить зашел.
Аноним 20/12/20 Вск 18:16:36 #146 №1885577 
16068047931930.jpg
>>1885411
> там тупо какая-то нерелевантная хуйня
У тебя просто мозгов нет. Я могу пояснить подробнее, но толку все равно ведь 0, ты и дальше будешь кукарекать, просто потому что такова твоя суть - петух. Вот смотри:
- как тезис Чёрча-Тьюринга у Вапника определен, видно на скрине. А именно "все достаточно сложные вычислители вычисляют одно и то же семейство функций".
- отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен, т.е лучше такой алгоритм, в котором меньше изьебств.
- именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
- в этом и есть суть соевого битерлесона, Саттон там же прямо приводит пример, как комплюхтер брутфорсом обыграл Каспарова:
> В компьютерных шахматах система, которая победила чемпиона мира Каспарова в 1997 году, была основана на глубоком поиске вариантов. Тогда большинство исследователей компьютерных шахмат с тревогой смотрели на эти методы, потому что они применяли человеческое понимание предметной области — особой структуры шахматной игры. Когда более простой, основанный на поиске, подход со специальным оборудованием и программным обеспечением оказался значительно более эффективным, эти исследователи отказались признавать поражение. Они сказали, что метод «грубой силы», возможно, сработал один раз, но не является общей стратегией. В любом случае, люди не так играют в шахматы. Эти исследователи хотели победы методов, основанных на человеческом понимании игры, но их ждало разочарование
И так далее. Вот такие очевидности объяснять, это пиздец же. Каким надо быть дебилом, чтобы не видеть настолько простых вещей...
Аноним 20/12/20 Вск 18:25:57 #147 №1885582 
>>1885577
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
Нет, это ты выдумал.
>т.е лучше такой алгоритм, в котором меньше изьебств.
Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
>именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
Большинство нейросетей не являются полными по тьюрингу, так что они просто в разных классах находятся. Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
>в этом и есть суть битерлесона
"general methods that leverage computation are ultimately the most effective" - суть биттерлессона
>перевод с хабра
проиграл
Аноним 20/12/20 Вск 18:35:33 #148 №1885586 
>>1885582
> Нет, это ты выдумал.
Ты дебил. Там прямым текстом написано, что брутфорс лучше работает.
> Большинство нейросетей не являются полными по тьюрингу,
Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
> Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
Я про алгоритмы, вычисляющие функции зависимостей выходов от входов, т.е про весь машобчик.
> Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
Ты дебил ещё раз. Короче, все ровно так, как я написал выше. Ты реально деревянный, ещё и полноту по Тьюрингу приплел...
Аноним 20/12/20 Вск 18:40:51 #149 №1885596 
>>1885577
>структуры шахматной игры
Откуда у маняматиков и прочих задротов такой надроч на шахматы? Это же тупейшая позиционная игра, скучная и унылая.
Аноним 20/12/20 Вск 18:42:21 #150 №1885600 
>>1885586
>Там прямым текстом написано, что брутфорс лучше работает.
Ты про тезис тьюринга-чёрча говорил. Где в тезисе написано, что лучше брутфорс работает? Где сравнения различных абстрактных вычислителей?
>Причем тут вообще полнота по Тьюрингу?!
Тезис тьюринга-черча про полные по тьюрингу вычислители. Нейросети в большинстве своём таковыми не являются.
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
>Я про алгоритмы, вычисляющие функции зависимостей выходов от входов
Ты таблетки выпить забыл.
Аноним 20/12/20 Вск 19:29:36 #151 №1885628 
>>1885586
>Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
Кек. Sufficiently complex computers - это про Тьюринг-полноту. Привет.
А дальше ты пишешь "отсюда уже понятно", но отсюда на самом деле ничего не понятно. В следующем абзаце Вапник пишет про spirit of the Church's claim. Спирит. Он не использует тезис Черча для дальнейших выводов. Он просто говорит, что дальшейшее смахивает на него.

То есть в этих двух абзацах, переводя на наш язык
1. Доказно, что тьюринг-полные вычислители эквивалентны
2. А я после экспериментов с данными как-то примерно почуствовал, что разные типы SVM эквивалентны. Прикольно пацаны?

Все это, конечно, интересно, но совершенно нерелевантно обсуждению, особенно с тем количеством пафоса и ЧСВ, которое ты сюда запихиваешь. Как обычно, в общем.
Аноним 20/12/20 Вск 20:08:46 #152 №1885648 
Сейчас один из вас такой: а ведь ты прав! Как я мог этого не видеть? Спасибо, что все мне объяснил.

На самом деле нет. Будете продолжать называть друг друга дебилами и поливать говном, пока не иссякнет запал (он уже иссякает). В результате оба сидите оплеваные, никто ничему не научился.
Аноним 20/12/20 Вск 20:36:12 #153 №1885654 
image.png
>>1885648
У тебя две ошибки
1. Зумерошиз - шиз, у него батарейка в жопе, а механизм понимания чего-либо у него отсутствует,
2. Не скажу, лол.

Вообще же вапник пишет про этот подход в совсем другом месте, он называет его подход AI hardliners. Только пишет он про это с некрываемым помпажом и время показало, кто прав в конечном счете. Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
Аноним 21/12/20 Пнд 00:53:23 #154 №1885784 
>>1885596
У математиков больше го в почёте, шахматы не оч любят.
Аноним 21/12/20 Пнд 02:05:54 #155 №1885798 
>>1885784
>го
Го, преф/бридж на много интересней и интеллектуальней. Но шахматы это пиздец уныло, почему раньше их так форсили?
Аноним 21/12/20 Пнд 07:46:22 #156 №1885867 
>>1885654
> Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
Ну конечно, Вапник в машобе не понимает, а горький петух понимает.
Аноним 21/12/20 Пнд 08:22:34 #157 №1885876 
>>1885798
То что это анонимный чатик не означает что тебе следует писать глупости. Держи себя в руках.
Аноним 21/12/20 Пнд 08:36:17 #158 №1885885 
>>1885876
Может ты сам вместо пуков будешь хотя бы имитировать беседу по существу?
Аноним 21/12/20 Пнд 08:43:46 #159 №1885890 
>>1885885
Не бухти. Я решу сам когда нужно начать беседу по существу.
К тому же если таковая начнется, сомневаюсь что ты сможешь многое из неё понять.
Аноним 21/12/20 Пнд 09:01:03 #160 №1885909 
>>1885890
>Я сам решу, когда перестать срать в середине этой комнаты
Ну ок
Аноним 21/12/20 Пнд 09:10:08 #161 №1885916 
Тьюринги, что можно почитать про machine learning для тупых, прям для далбоебов где все разжёвано, чтобы можно было понят эти ваши БАКПРОПАГАЙШЕНЫ и прочие GAN'ы c нейронками
Аноним 21/12/20 Пнд 09:26:30 #162 №1885943 
>>1885867
>Вапник в машобе не понимает
Видимо действительноне понимает - гордыня мешает. "Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
Аноним 21/12/20 Пнд 10:23:34 #163 №1885978 
>>1885943
> Видимо действительноне понимает - гордыня мешает. "
Ну главное, что ты понимаешь. Прочитал одну соевую мантру, и сразу просветление нашло, как на Будду.
> Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
Почему-то до сих пор не заменили. На табличных данных всякие lightgbm и прочий бустинг (то есть, алгоритмы из области статистической теории обучения) превосходят трясунов со стекморлейерс. Наверное, потому что авторы не читали соевый битерлесон и не прислушиваются к горьким петухам?
Аноним 21/12/20 Пнд 10:54:51 #164 №1885999 
image.png
>>1885978
>Почему-то до сих пор не заменили.
Вы находитесь здесь
Аноним 21/12/20 Пнд 11:01:55 #165 №1886004 
>>1885999
Ты лучше без соевого мемасика "битерлесон" расскажи, как так получилось. Выходит, не правы сойбои. А раз так, то и ты не прав, горький петух. Оправданий хотелось бы.
Аноним 21/12/20 Пнд 11:47:10 #166 №1886028 
image.png
>>1886004
>Мы против биттерлессона, поэтому стекаем деревья
Аноним 21/12/20 Пнд 15:21:07 #167 №1886192 
image.png
Привет, няши! Поясните за алгоритмы, применяемые в современном ИИ. Правильно ли я понимаю, что нейронная сеть - самый передовой алгоритм для любого направления в ИИ? Какие есть годные альтернативы?
Аноним 21/12/20 Пнд 15:39:01 #168 №1886212 
>>1886192
>Какие есть годные альтернативы?
Все остальное
Аноним 21/12/20 Пнд 17:51:38 #169 №1886333 
Untitled-design-1-3.jpg
>>1885999
Вы всегда там и находились, шизик
Аноним 21/12/20 Пнд 18:02:04 #170 №1886342 
yoba sutton.png
>>1886333
>пук
Аноним 21/12/20 Пнд 18:06:50 #171 №1886348 
Анончики, есть какие-то рекомендации по вкату в анализ данных? Не именно машинное обучение, как у больших мальчиков, а всякие вещи попроще, типа, сбора, обработки, визуализации и репортинга по данным. Статистика и пайтоновский стек научных библиотек и я могу аплаится на вакансии по 200к в секунду? Или все чутка сложнее?
Аноним 21/12/20 Пнд 18:57:05 #172 №1886387 
Спят усталые металлы
Шизы спят
Аноним 21/12/20 Пнд 19:14:16 #173 №1886412 
mentifex.gif
Раз уж тред после альфафолда накрыло батхертной шизой, покажу вам героев прошлого. А то вы и не знаете истории тут.

Вот вам один из самых колоритных ИИ-шизиков нулевых: https://www.nothingisreal.com/mentifex_faq.html
Это титан шизы. Он постит про свой ИИ без перерыва более 30 лет. До интернета писал бумажные письма исследователям. Продолжает и по сей день, например на реддите: https://www.reddit.com/user/AiHasBeenSolved/
Пишет что он создал ИИ, и спамит ссылками на него. Суть теории на пике. Его ИИ это скрипт на перле, пытающийся парсить текст: https://ai.neocities.org/NLU.html Что характерно, поддерживается русский язык!
Аноним 21/12/20 Пнд 19:28:56 #174 №1886437 
>>1886412
Эх, если бы в треде завелся хоть один шиз, который показал хоть какой-то высер типа этого
Аноним 21/12/20 Пнд 20:00:33 #175 №1886462 
image.png
>>1886437
Сейчас уже по-моему нет тех былых шизов. Рыночек порешал. Вон еще в МВП треде вспомнили (не ИИ, просто эпичный кодер-шиз): https://en.wikipedia.org/wiki/Terry_A._Davis
Так и дошел до бомжевания, тюрьмы и в конечном счете прогулки по рельсам. Не выживают они теперь. И это в Америке, где можно просто жить на улице и еду раздают нищим бесплатно. Что уж про рашу - тут мигом дурь выбьют. Остается только, как нечеткий петух, кукарекнуть пару постов в день и возвращаться в стойло.
Аноним 21/12/20 Пнд 20:02:39 #176 №1886463 
>>1886387
Это гдеж они спят, весь тред в этом воркуте горького с нечётким блядь
Аноним 21/12/20 Пнд 20:04:02 #177 №1886465 
>>1886462
Ну а как же золотце, жил в серпухове с мамой, и на кодаче постил свою шизоверсию лиспа, потом писал в пораше на английском, велит называть себя nash gold, и перекатился на украину, срал на нее там, а сейчас вроде в голландии
Аноним 21/12/20 Пнд 21:40:23 #178 №1886552 
>>1886465
Он на этом лиспе ещё игру выпустил и в /gd/ запостил
Аноним 21/12/20 Пнд 22:06:23 #179 №1886573 
>>1886348
Без вышки не вкатишься, но какая именно вышка - не особо важно. В идеале, конечно, какая-нибудь техническая или экономическая. MS Excel должен знать хорошо (в т.ч. VBA), SQL. С этим уже можно найти какую-нибудь работу. В идеале еще статистика, Python, что нибудь из BI - Power BI \ Tableau - и будешь норм претендентом, но в целом порог входа низкий, но и зп соотвествующие.
Часто еще хотят понимания основ веб-аналитики если идешь в продуктовое ИТ.
Аноним 22/12/20 Втр 00:29:55 #180 №1886651 
>>1886465
Да, тоже из старой гвардии. Но судя по всему, его жизненный путь тоже прочно встал на колею Бороды.
Аноним 22/12/20 Втр 00:42:59 #181 №1886656 
>>1886412
Причём, если прибавить пару миллионов на мощности и зарплату опытным ресёрчерам, это возможно бы и заработало (ну так, более менее, на уровне трансформеров). Как и тысячи разных альтернативных подходов в машинлернинге.
Аноним 22/12/20 Втр 04:34:01 #182 №1886719 
unnamed.jpg
>>1885916
Бамп вопросу!
Аноним 22/12/20 Втр 04:47:32 #183 №1886733 
>>1886719
Да нет нихуя для долбоебов. Можешь книги из шапки почитать, те 2, которые не дипленингбук
Можешь cs231n
Аноним 22/12/20 Втр 08:24:31 #184 №1886813 
>>1886719
Ничего. Эта область не для тупых.
Аноним 22/12/20 Втр 08:34:00 #185 №1886816 
>>1886412
А по фактам он сколько-нибудь вменяемое что-то сделал или парсилка тупо не работает?
>>1886719
В меме перепутали дата аутистов и ИИ ресерч.
Можешь попробовать d2l.ai
Аноним 22/12/20 Втр 17:08:17 #186 №1887248 
Посоветуйте ресурс/книжонку/курс для вкатывания в OpenCV? вроде уже 4 версия вышла, а много старых ресурсов - насколько они актуальны?
Аноним 22/12/20 Втр 17:37:19 #187 №1887297 
>>1887248
Нормально актуальны. Посмотри несколько роликов на ютубе, затем сделай что-нибудь.
Аноним 22/12/20 Втр 18:38:28 #188 №1887375 
>>1887297
>несколько роликов
А они смешные? Там есть кревляющиеся смузихлебы с подворотами? Они точне не короче 40мин?
Аноним 22/12/20 Втр 20:54:01 #189 №1887486 
>>1887375
Есть достаточно уморительные
https://www.youtube.com/watch?v=wEgq6sT1uq8
Аноним 22/12/20 Втр 20:58:00 #190 №1887491 
image.png
image.png
image.png
Вот нормич литература: https://www.amazon.com/Manga-Guide-Regression-Analysis/dp/1593277288
Аноним 22/12/20 Втр 22:55:47 #191 №1887548 
>>1882419
Это ты тот шиз, который по маня-проектам совка плакал?
Аноним 22/12/20 Втр 23:05:17 #192 №1887555 
>>1881607 (OP)
Как сделать свою первую нейронку?
Аноним 23/12/20 Срд 01:19:29 #193 №1887650 
>>1887548
Хохол, кто тебя выпустил?
Аноним 23/12/20 Срд 02:39:53 #194 №1887702 
Чувак с биттерлессоном, а TDA и manifold learning тоже отменяются получается?
Аноним 23/12/20 Срд 03:17:28 #195 №1887712 
>>1887555
Займись сексом, если повезет, через 9 месяцев у тебя будет своя первая нейронка, еще через некоторое время появится полноценная возможность обучать ее.
Аноним 23/12/20 Срд 05:16:24 #196 №1887730 
>>1887702
> Чувак с биттерлессоном
Горький петух.
> TDA и manifold learning тоже отменяются получается?
Все отменяется.
Аноним 23/12/20 Срд 05:24:03 #197 №1887731 
>>1887702
>тоже отменяются получается?
Как будто они имели перспективы
Аноним 23/12/20 Срд 05:55:52 #198 №1887738 
>>1887491
>Вот нормич литература
Сам это пиздаглазое говно читай, там на один абзац два листа этих мерзких ебл.
Аноним 23/12/20 Срд 05:57:57 #199 №1887741 
>>1887702
Всегда есть вероятность прорыва, когда исследуются самые основы. Отменяются попытки накостылить какую-то особую модель под конкретную задачу.
Аноним 23/12/20 Срд 06:05:13 #200 №1887742 
>>1887731
Кодомакака, плиз
Аноним 23/12/20 Срд 10:12:36 #201 №1887826 
>>1887650
Ещё и хохлы мерещатся. Таблетки хоть пить не забывай, краснопёрый.
Аноним 23/12/20 Срд 11:27:51 #202 №1887864 
>>1887712
Двачеру легче написать нейронку на няшной чем найти и оплодотворить няшку.
Аноним 23/12/20 Срд 13:21:01 #203 №1888042 
Привет. Хочу задать вопрос нейросеточникам.
Требуется перегнать замусоренные хмл документы
в маркдаун с вкраплениями аштиэмель таблиц.
Какая нейросеточка мне нужна? Спасибо

Мимовебдевелопер
Аноним 23/12/20 Срд 13:45:00 #204 №1888081 
>>1888042
биологическая
Аноним 23/12/20 Срд 13:49:30 #205 №1888088 
>>1887742
Самое дегенеративное противостояние из возможных - матанищенки против кодомакак. Из треда в тред, из треда в тред.
Аноним 23/12/20 Срд 13:55:39 #206 №1888099 
>>1888042
numpy
Аноним 23/12/20 Срд 13:59:53 #207 №1888105 
>>1888088
>Самое дегенеративное противостояние из возможных - двачерв против двачеров. Из треда в тред, из треда в тред.
Пофиксил.
Аноним 23/12/20 Срд 15:33:23 #208 №1888237 
>>1888088
>Самое дегенеративное противостояние
Если горький с нечётким петушки куда-то пропадут - возможно.
Аноним 23/12/20 Срд 17:06:30 #209 №1888313 
А если без мемчиков и по науке: почему огромная/бесконечная VC размерность сеток не мешает им обобщать всё лучше других?
Аноним 23/12/20 Срд 17:22:55 #210 №1888323 
>>1888313
Потому что ВЦ-размерность это неверный подход к описанию обучающихся систем.
Аноним 23/12/20 Срд 17:54:33 #211 №1888383 
>>1888323
Почему?
Аноним 23/12/20 Срд 18:39:51 #212 №1888434 
>>1888383
Потому что горький петух такскозал. Похуй на доказанные теоремы о VC размерности, ваши пруфы не пруфы, то ли дело соевый битерлесон
Аноним 23/12/20 Срд 19:30:42 #213 №1888490 
>>1888383
Потому что он, очевидно, не работает.
Аноним 23/12/20 Срд 19:48:25 #214 №1888516 
image.png
image.png
В рамках проекта по знакомству с шизами, еще один колоритный персонаж. Борис Казаченко (почему они все русские?), живет не где-нибудь, а аж в Бостоне. Безработный, занимается созданием ИИ. Его манускрипт: http://www.cognitivealgorithm.info/
Я в принципе люблю альтернативщину. Но огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики (что неумело пытается скрыть стена текста).
Интересен тем, что (якобы) платит своим последователям за вклад в код реализации своих идей. Если это правда, то деньжата у челика водятся, хотя линкедин девственно чист. Видимо, не так прост Казаченко.
Аноним 23/12/20 Срд 20:23:40 #215 №1888561 
>>1888490
Что значит не работает? Утверждения теории Вапника-Червоненкиса доказаны строго, если что-то не работает значит либо можно их опровергнуть либо они на самом деле верны и разлад происходит по какой-то другой причине.
Аноним 23/12/20 Срд 21:18:31 #216 №1888662 
>>1888561
> либо они на самом деле верны и разлад происходит по какой-то другой причине.
Я тебе скажу по какой причине. SVM никто не стыковал сотнями слоев, базовая модель меньше любого перцептрона. Как только попробовали бустинг из той же теории статистического обучения, что-то он везде кроме распознавания негров и ещё пары узких задач, нейроночки уделывает.
Аноним 23/12/20 Срд 21:30:39 #217 №1888671 
>>1888561
Не работает - значит, эта теория развалилась при встрече с реальностью.
Аноним 23/12/20 Срд 23:02:44 #218 №1888811 
С понедельника две недели каникул. Анон, реквестирую гайд с нуля по джуна по машобу за две недели. Так чтобы даже вебмакака осисил. Только, чтобы без участия машины времени.
Аноним 23/12/20 Срд 23:34:24 #219 №1888821 
>>1888811
Надо чтобы эта вебмакака знала линал и матан.
https://www.amazon.com/Artificial-Intelligence-A-Modern-Approach-dp-0134610997/dp/0134610997/ref=dp_ob_title_bk
Аноним 23/12/20 Срд 23:36:51 #220 №1888822 
>>1888671
Ты говоришь про факт, который я и так знаю. Я же спрашивал объяснение почему это так.
Аноним 24/12/20 Чтв 00:07:51 #221 №1888836 
>>1888821
Забавно вообще получилось. А я ещё когда-то думал (лет 10 назад), что я горячее дерьмо в математике, а в итоге почти всю свою вышку вывозил исключительно за счёт практических работ и надеялся на автоматы. Как только уровень абстракции полез уверенно вверх в сравнении со школьной математикой, то сразу становится ясно кто брейнлет, а кто нет.

>должен был получать 4 автоматом за линейную алгебру
>лектор отказался ставить автомат кому-либо
>пришлось платить за экзамен так, как кроме векторов и матриц я чутка отстреливал разве что за кольца и поля, а это было даже не половина материалов курса

Зато шутейка "утонуть можно не только в море, но и в поле" запомнится мне, скорее всего, на всю жизнь.
Аноним 24/12/20 Чтв 00:15:29 #222 №1888839 
>>1888822
Они исходили из предпосылок, которые были слишком просты и сильны. Они не выполняются для современных моделей. По ходу дела выяснилось, что вся теория применима исключительно к линейной регрессии, то есть абсолютно бесполезна, потому что линейная регрессия проста как табуретка. Чтобы ее использовать, не нужны эти нагромождения.
Аноним 24/12/20 Чтв 01:05:44 #223 №1888862 
>>1888561
>Вапника-Червоненкиса
Жопника-Чухониса
Аноним 24/12/20 Чтв 13:01:55 #224 №1889124 
Господа data sience что вы делаете на работе?
Обрабатываете таблички бабы сраки из бухгалтерии и на основании их делать ml модель, презентацию, power bi графику?
Аноним 24/12/20 Чтв 20:14:10 #225 №1889703 
Slowpoke.png
Блин, как добавить пару слоёв перед готовой моделью вроде resnet'а?
Аноним 24/12/20 Чтв 22:08:27 #226 №1889859 
image.png
>>1889124
че нам-то
Аноним 24/12/20 Чтв 22:25:04 #227 №1889883 
>>1889124
анализируем протеины вычисляем нейросетями и создаем вакцину
https://www.youtube.com/watch?v=3dnEU4aS65o
Аноним 24/12/20 Чтв 22:58:11 #228 №1889920 
>>1886412
Помню, был такой чувак, Роберт Деш. Придумал Деш-компьютер. Я про него треды ещё в 2009 создавал в /b/, у него стримы были на смотри.ком. Тоже шиз был, с него дико рофлили
Дед скончался где-то в 2012-2015
Аноним 24/12/20 Чтв 23:05:49 #229 №1889923 
photo2020-12-2423-04-37 (2).jpg
photo2020-12-2423-04-37.jpg
>>1887491
Двачую, бро. Статистику не могу найти, но я её тоже читал
Аноним 24/12/20 Чтв 23:21:36 #230 №1889932 
>>1889923
Зачем это нужно если есть нормальные учебники? Там даже нарисовано не красиво. Пустая трата времени.
Аноним 24/12/20 Чтв 23:33:20 #231 №1889947 
>>1889932
если ты инфантильный кидалт аутист, то норм
Аноним 24/12/20 Чтв 23:55:42 #232 №1889980 
>>1889703
Без ёбли никак но к счастью для тебя в этом нет никакого смысла.
Аноним 25/12/20 Птн 00:21:51 #233 №1889994 
image.png
Не разбираюсь в мл, прошу отнестись с пониманием.
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.

Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.

Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)

Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.

Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
Аноним 25/12/20 Птн 01:00:39 #234 №1890015 
>>1889994
>Есть желание сделать бота-советчика для трейдинга криптой
Ботов обкатывают на рынках уже 50лет как минимум, с нейроговном ты соснешь, поскольку после тряски ящика ты не поймешь почему он тебе так хорошо/плохо насоветовал.
Аноним 25/12/20 Птн 01:01:38 #235 №1890017 
>>1889980
Что там такого? То же самое, что голову сменить, только с обратной стороны.
Смысла нет, конечно. Разве что, может, научиться переводить картинки из другого цветового пространства, или что-то такое.
Аноним 25/12/20 Птн 01:09:15 #236 №1890021 
>>1889994
Почитай и разберись нормально с индексацией и слайсами листов в питоне. Там нет ничего сложного, ты просто не пытался разобраться. Нотация сама по себе довольно понятная [откуда:до куда:с каким шагом], но отрицательные значения могут действительно казаться странными в первое время. [::-1] вроде обычно юзают, чтобы сделать реверс копию листа. Разберись. Это просто полезно знать, мало ли когда тебе нужно будет какой скрипт на питоне бахнуть. И, если мне память не изменяет, то пандас использует похожий синтаксис со срезами при работе с датафреймами.
Аноним 25/12/20 Птн 01:11:20 #237 №1890022 
>>1890015
Как раз таки если мл разметит за меня точки закупа-продажи, то я могу записать их и увидеть в каких обычно точках стоит закупать. Имею в виду в точках с каким rsi, с каким объемом, при пересечении каких линий обычно сделка выходит удачной.
Аноним 25/12/20 Птн 01:21:22 #238 №1890026 
>>1890017
>научиться переводить картинки из другого цветового пространства
Не научится, только более глубокие фичи по менее глубоким можно файнтюнить, в другую сторону хуйня выходит.
Аноним 25/12/20 Птн 09:28:48 #239 №1890304 
18212202001transp (1084).png
18212202001transp (2703).png
18212202001transp (1021).png
18212202001transp (1092).png
Есть датасет с изображениями, которые имеют 1)артефакты сжатия после конверсии из jpg или дефекты и 2) чистые png без артефактов.
А есть ли уже готовый сортировщик изображений, который можно обучить на своём датасете из двух (ну или скольки-то там) классов и чтобы подаваемые изображения сам сортировал о папкам? Я вижу, что это детская задачка для ML, что есть TF имплементация без сортировки https://www.tensorflow.org/tutorials/images/classification?hl=ru. Больше на гитхабе решения не вижу, есть только простые классификаторы без практической пользы типа сортировки по папкам. Запускаешь тренинг, запускаешь тестовый сет, получаешь вероятность.
Мне самому изобрести велосипед-сортировку проще чем искать решение готовое?
извините за тупой вопрос, я всё еще не прогер, но я запилю эту сортировку, если нужно. Просто еще не работал сильно с листами юпитера. Тогда еще тупой вопрос- как листы юпитера работаеют с импортируемыми зависимостями? Юпитер ноут может выбирать из установлленных у меня сред нужную (т.е. мне нужно таки ставить в конде сначал все зависимости?) Или он работает как-то по особому и ему не нужна среда вообще и ничего в конде ставить не нужно и он сам все зависимости собирает и устанавливает где-то у себя в памяти динамически при запуске листа? По моему малому опыту вроде вариант второй, но вот вчера заметил, что в юпитере можно выбирать среду из тех что есть в конде. И меня мучает впорос, а зачем юпитер нужен вообще? Это просто удобное представление с поэтапным запуском кода с переносом переменных из этапа в этап? Или там всё же удобство на уровне вирутальной среды разработки, типа написал все зависимости в листе и уже только его можно распространять, не нужно ставить среду в конде вообще? Я просто не помню, чтобы в листах юпитера что-то мне приходилось устанавливать при запуске. Или я просто сталкивался только с примерами где зависимостей не так много было или у меня уже всё было установленно в основной среде?
Аноним 25/12/20 Птн 11:25:39 #240 №1890368 
Стоит заменять юпитер на что то другое? Он несколько неудобен местами.
Аноним 25/12/20 Птн 14:06:54 #241 №1890566 
>>1890368
На колаб иногда стоит
Аноним 25/12/20 Птн 15:22:57 #242 №1890636 
>>1890368
Нет продолжай пользоваться неудобным для себя софтом.
Аноним 25/12/20 Птн 16:34:34 #243 №1890694 
>>1888516
> огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики
Я когда пыхну плюху таким же становлюсь. Когда отпускает со снисхождением смотрю на свои высеры, которые недавно казались истиной.
Аноним 25/12/20 Птн 22:00:20 #244 №1890931 
>>1890694
>пыхну плюху
Наркоман?
Аноним 25/12/20 Птн 22:02:23 #245 №1890933 
>>1890694
У меня тоже был такой период. Я пытался создать явный алгоритм обобщения из данных, и был уверен, что я знаю, как это сделать. При этом ни одна моя попытка не работала, но это меня нисколько не смущало. С годами я понял, что эта уверенность проистекает из простейшей мысли "я самый умный", а раз я самый умный то если кто-то и может создать ИИ, то это я. И никаких настоящих идей поверх этого не было, просто мозг брал любую рандомную мысль и превращал ее в ТО САМОЕ, ВОТ ОНО. Потому что должна же быть идея, раз я самый умный, верно?
Вот так я и излечился. Сейчас копаю нейроночки спокойно уже, пытаюсь что-то сделать, понимая низкую вероятность успеха.
Успех нейроночек я не предсказал: до ДЛ революции они мне казались какой-то глупостью. Настолько я мало понимал тогда на самом деле. Зато самомнение было ого-го.
Аноним 25/12/20 Птн 22:15:25 #246 №1890948 
>>1890368
>Стоит заменять юпитер на что то другое?
Меняй на пайчарм.
Аноним 25/12/20 Птн 22:39:51 #247 №1890961 
Ребятушки, какой фреймворк за основу взять? Tensorflow(Включая Keras), pytorch?
Аноним 25/12/20 Птн 22:50:50 #248 №1890967 
>>1890304
> артефакты сжатия после конверсии из jpg или дефекты
Чувак, бери высококачественные png и сжимай их в jpeg с качеством 7 и ниже. У тебя будет одна и та же картинка с артефактами и без. Сохранение это крайне дешёвая операция. Ты картинки дольше искать качать с данбуру будешь
Аноним 25/12/20 Птн 22:51:58 #249 №1890968 
>>1890961
> Tensorflow
да
Аноним 25/12/20 Птн 23:34:43 #250 №1890976 
Поясните про АльфаZero. Хайп или многообещающая штука?
Аноним 25/12/20 Птн 23:42:42 #251 №1890977 
>>1890976
ему уже 5 лет, какой хайп?
Аноним 25/12/20 Птн 23:53:03 #252 №1890980 
>>1890977
>5 лет
Какой ужас. А ощущение, как будто только на прошлой неделе смотрел матч против корейца.
Аноним 26/12/20 Суб 00:09:30 #253 №1890988 
>>1890980
>матч против корейца
Бейсбол?
Аноним 26/12/20 Суб 00:47:59 #254 №1891002 
>>1890980
Не моргай. Один так моргнул - и вся жизнь прошла.
Аноним 26/12/20 Суб 01:14:56 #255 №1891023 
>>1889980
>но к счастью для тебя в этом нет никакого смысла
Смысл-то есть, получить из GAN'a Conditional Gan, вот только дискриминатор готовый, и к нему надо как-то прикрутить передачу меток.
>>1890017
>То же самое, что голову сменить, только с обратной стороны.
Нужен пример.
Спасибо.
Аноним 26/12/20 Суб 03:33:09 #256 №1891116 
>>1890017
>То же самое, что голову сменить, только с обратной стороны
Ну это и есть ёбля хотя хер знает что там сейчас молодёжь использует.
Аноним 26/12/20 Суб 03:34:42 #257 №1891117 
>>1891023
>из GAN'a Conditional Gan, вот только дискриминатор готовый
Cудя по всему хуйня выйдет но ты попробуй конечно.
Аноним 26/12/20 Суб 11:15:34 #258 №1891297 
>>1891117
Это всё равно не отвечает на вопрос, как модифицировать входящие слои предобученной модели.
Аноним 26/12/20 Суб 23:18:48 #259 №1891887 
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
Аноним 26/12/20 Суб 23:38:41 #260 №1891901 
>>1891887
С синтетическими данными много проблем
https://www.youtube.com/watch?v=X5i3owysLi0
Аноним 27/12/20 Вск 12:38:13 #261 №1892200 
Допустим я решаю задачу классификации. Испробовал несколько разных методов, выбрал лучший. Пусть он показывает 95% точности на тесте. А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Аноним 27/12/20 Вск 13:23:33 #262 №1892217 
>>1892200
> А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Не можешь быть уверенным. Проблема "P=NP?".
Аноним 27/12/20 Вск 15:13:01 #263 №1892285 
>>1892200
Читать биттерлессон. Не бывает потолка, бывает мало данных.
Аноним 27/12/20 Вск 15:35:05 #264 №1892305 
>>1892285
Даааа? Даже для орлянки? Ты совсем что-ли отлетел со своим битерлессоном, дипшкольник?
Аноним 27/12/20 Вск 15:57:46 #265 №1892332 
>>1892305
> 2021
> спорить с горьким петухом
Аноним 27/12/20 Вск 20:14:32 #266 №1892691 
>>1891297>>1891117
Так, анон, выручай.
Есть имплементация реснета:
https://niko-gamulin.medium.com/resnet-implementation-with-pytorch-from-scratch-23cf3047cb93
И есть имплементация кондишнл гана:
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вот эти две строчки оттуда
input_dim = 784 + 10
self.label_embedding = nn.Embedding(10, 10)

В какое место гана надо добавить?
Инб4 себе в жопу
Аноним 28/12/20 Пнд 01:36:21 #267 №1892947 
изображение.png
Привет анонче. Взял с работы отладку FPGA с поддержкой CNN и камерами.
Что интересного можно сделать на сверточных сетях? Типичное распознавание образов, мне кажется, все давно уже видели.
Аноним 28/12/20 Пнд 01:40:08 #268 №1892951 
>>1892947
Сделай демо анонимизации человека, как в черном зеркале. Распознавание лица + сегментация, и если оно узнало тебя в кадре, то ты весь заливаешься шумом.
Аноним 28/12/20 Пнд 01:43:38 #269 №1892954 
>>1892951
Мне почему-то кажется, что оно не вывезет и я тоже вряд ли вывезу, но посмотреть можно
Аноним 28/12/20 Пнд 09:29:37 #270 №1893236 
https://news.developer.nvidia.com/synthesizing-high-resolution-images-with-stylegan2/
https://youtu.be/9QuDh3W3lOY

Знаю, что старое видео
Аноним 28/12/20 Пнд 09:53:22 #271 №1893251 
>>1893236
Круто.
Аноним 28/12/20 Пнд 20:04:11 #272 №1893835 
>>1893236
>2021г нейронки шевелят волосню
Ору
Аноним 29/12/20 Втр 11:30:29 #273 №1894410 
>>1893236
А там не мало
https://www.youtube.com/watch?v=2XMkPW_sIGg
https://www.youtube.com/watch?v=DeDV17HMijQ
Аноним 29/12/20 Втр 12:11:10 #274 №1894426 
Аноны, такой вопрос.
Имею профильную вышку (прикладная математика и информатика), работаю в науке - занимаюсь статистическим анализом данных (всякие стандартные тесты и методы, плюс к тому, немного кластерного анализа и методы выявления нелинейных зависимостей) и обработкой электроэнцефалографических данных (обработка сигналов и теория графов), использую R и Matlab. Хочу вкатиться в машоб и сменить работу. Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? Что посоветуешь, анон?
Аноним 29/12/20 Втр 13:14:43 #275 №1894460 
>>1894426
>Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle?
да
>Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)?
да

Аноним 29/12/20 Втр 13:28:38 #276 №1894472 
>>1894426
>прикладная математика
Ебать, братиш, как ты дожил до такого?
Аноним 29/12/20 Втр 14:04:59 #277 №1894511 
>>1894472
Пошёл на мехмат и не вернулся
Аноним 29/12/20 Втр 15:36:57 #278 №1894553 
Slowpoke.png
>>1892691
Ну же, анончик, помоги.

Вот модификация реснета18 в качестве дискриминатора.
https://ideone.com/SwhKUj
согласно
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вопрос:
- надо ли запихивать в него input_dim = 784 (размер входящих картинок, но по сути там должно быть 224^2) + 42 (количество классов)?
- если надо, то куда именно вставлять, чтобы передать значения классов, если в self.conv1 по сути указаны все параметры?
Аноним 29/12/20 Втр 16:12:24 #279 №1894594 
CV-господа, поясните, что сейчас является сотой в OCR? Есть ли что-то более умное, чем модель для детекции + crnn? И если нет, то есть что-нибудь для детекции лучше, чем юнет?
Аноним 29/12/20 Втр 20:27:38 #280 №1894823 
Screenshot from 2020-12-29 20-24-44.png
Сап. Делаю нейронку для поиска паттерна в одномерных бинарных данных. Хочу как на скрине сделать разбив бинарник произвольной длины на кучу пересекающихся ползущих окон каждое из которых проверить недольшой нейронкой натренированой искать конкретный паттерн и в поллинг слое сделать шириной окна весь конволющен слой. Но я что-то не понимаю как ораганизовать разбиение одного большого файла на много маленьких векторов и как потом тренировать сеть если я даже не знаю в каком окне нужный патерн попался. Где про такое почитать?
Аноним 29/12/20 Втр 21:07:16 #281 №1894847 
>>1894553
model = Resnet18()
train = Variable(images.view(100,3,28,28))
labels = Variable(labels)

или

input_dim = 28*28
output_dim = 10
model = Resnet18(input_dim, output_dim) # не знаю если там нужно укаывать еще hidden dim, погугли
Аноним 29/12/20 Втр 21:44:49 #282 №1894874 
>>1894823
Матрица Ганкеля.
Аноним 29/12/20 Втр 22:17:40 #283 №1894909 
Нужен быстрый алгоритм для сравнения двух 8битных матриц(Opencv) на схожесть, возвращающий коэффициент. Можете что-нибудь подсказать?
Аноним 29/12/20 Втр 22:18:49 #284 №1894911 
>>1894874
Но лучше матрас Шпункеля
Аноним 29/12/20 Втр 22:33:37 #285 №1894929 
>>1894909
Использовать что ли xor, инвертировать и поделить сумму на количество пикселей.
Аноним 29/12/20 Втр 23:06:45 #286 №1894965 
image.png
image.png
image.png
>>1891887
Из того, что вспомнил. Правда тут в основном обучение с подкреплением. Для supervised в целом звучит сомнительно.
https://arxiv.org/abs/1611.04201
https://arxiv.org/abs/1707.02267
https://arxiv.org/abs/1703.06907
https://arxiv.org/abs/2006.09001
Аноним 29/12/20 Втр 23:09:28 #287 №1894968 
>>1894965
Ну и сюда же кубик рубика от openai.
Аноним 29/12/20 Втр 23:31:40 #288 №1894984 
>>1894909
Распараллелить?
Аноним 30/12/20 Срд 00:36:04 #289 №1895021 
>>1894909
Битерлессон кто-то не прочитал ещё итт? Нет смысла изобретать какие-то свои алгоритмы под задачу, набери данных, возьми достаточно глубокую архитектуру и вперёд.
Аноним 30/12/20 Срд 00:58:28 #290 №1895033 
>>1895021
а если данных мало, а добор или невозможен или чрезвычайно дорогой, что там тогда в твоей библии написано?
Аноним 30/12/20 Срд 02:04:20 #291 №1895049 
>>1894472
Да вроде в местечковые мехматы не сложно поступать
Аноним 30/12/20 Срд 02:05:44 #292 №1895051 
>>1895033
Увольняйся, твое начальство страдает хуйней
Аноним 30/12/20 Срд 02:50:41 #293 №1895066 
>>1894426
да, братиш, самое основное - это научный бэкграунд. Чем конкретно занимаешься, лингвистикой? Степень есть?

могу посоветовать - applied ML course на курсере от University of Michigan как старт для того чтобы понять основные модельки (линейные, kNN, основанные на деревьях, и чуть-чуть сеток)
Там типа лайт-теории про основные модели на сайкитлерн (параллельно разберешь матплотлиб и сиборн; панда, нампай, реджекс, сайпи сами придут).

Потом сразу вкатывайся на Kaggle и разбирай типовые задачи и сам решай. Сабмить, сабмить, и еще раз сабмить свои ноутбуки, Можешь еще вышевский курс глянуть (тоже курсера), как выиграть на кегле. Там есть дельные советы.

Потом тензорфлоу, керас и пайторч (ну и всякие диплернинг модели подучить - тут Эндрэ Инговский deeplearning.ai в помощь)

Клаудкомпутинг будет нужен на этой стадии - google cloud computer engine, aws

ВI визуализация - Tableau и Microsoft Power Bi для презентации

AutoML - h2o и google cloud automl тоже тема


Аноним 30/12/20 Срд 03:52:07 #294 №1895086 
>>1894472
Ты так говоришь, будто это что-то плохое.
Аноним 30/12/20 Срд 05:44:19 #295 №1895153 
>>1895033
Ничего там про такое не написано, горькие сойбои не знают про bootstrap.
Аноним 30/12/20 Срд 06:43:00 #296 №1895219 
>>1895033
Претренинг.
Аноним 30/12/20 Срд 10:36:56 #297 №1895469 
>>1895219
Пенетрейшен
Аноним 30/12/20 Срд 12:46:01 #298 №1895563 
>>1895066
>самое основное - это научный бэкграунд
Самая бессмысленная в ближайшем будущем регалия
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
Аноним 30/12/20 Срд 13:10:09 #299 №1895600 
>>1895563
Горький петух, ты сам-то эту хуйню читал? Там разве написано, что новые алгоритмы сами за баней растут или что нынешние нейроночки - лучшее и самое эффективное, что может быть сделано человечеством? Или может быть, там написано, что закон Мура это закон природы, а не следствие непрерывного прогресса? Ты же реально еблан, каких мало.
Аноним 30/12/20 Срд 13:49:18 #300 №1895624 
>>1895600
> что закон Мура это закон природы, а не следствие непрерывного прогресса?
Это, кстати, и так очевидно всем было. Прогресс (и закон Мура) это естественное следствие энтропии. Зная, как ведет себя энтропия, мы можем приблизительно сказать, что ждет человечество в будущем.
Аноним 30/12/20 Срд 15:23:14 #301 №1895701 
>>1895624
>мы можем приблизительно сказать, что ждет человечество в будущем.
Не сможешь, 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Аноним 30/12/20 Срд 15:33:41 #302 №1895721 
>>1895066
Спасибо, анон.
Степени нет, работаю в психологии. Писал диссер по методам кластерного анализа, но аспирантуру дропнул.
Аноним 30/12/20 Срд 16:25:29 #303 №1895778 
>>1895600
>Там разве написано, что новые алгоритмы сами за баней растут
Основной алгоритм - градиентный спуск - уже придуман. Ты кажется не понял о чём битерлессон, он о том что эра ПРИДУМЫВАНИЯ закончилась.
Аноним 30/12/20 Срд 19:34:42 #304 №1895986 
>>1895701
> 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Да. А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает. То же самое сейчас кукарекают всякие горькие сойбои >>1895778 что мол, лучше градиентного спуска ничего в принципе быть не может. Но все это пример сектантов, которым ничего объяснить невозможно.
Аноним 30/12/20 Срд 20:11:49 #305 №1896039 
>>1895701
> Не сможешь
Под "примерно" подразумевался общий верктор развития. К примеру, гарантированно известно, что рождаемость по всей планете снизится до минимума. А известно, потому что график роста популяции любого вида - сигмоида.
По сигмоиде, кстати, развивается не только жизнь, но и технологии.
То есть когда-нибудь настанет тот момент, когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Аноним 30/12/20 Срд 20:53:12 #306 №1896076 
Аноны, может есть ахуенный сайт, где можно скачать картинки нужных utf-8 символов раздельно?
Хочу сам выбирать символы для обучения, упакованные байты не особо катят.
Аноним 30/12/20 Срд 20:53:30 #307 №1896077 
>>1896076
Либо онлайн упаковать, да.
Аноним 30/12/20 Срд 21:21:11 #308 №1896122 
>>1896076
В чем будет красота от распознавания случайных символов
Скачивай хоть какой-то алфавит малоизвестный
Аноним 30/12/20 Срд 23:02:07 #309 №1896214 
>>1895986
>что построют калмунизм, и будет всем счастье
Все великие достижения России были при СССР и плановой эеономики, при копетоглизме страна преворащается в говно, в прочем как и любая копетоглистическая страна.
>>1896039
>когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Так либирашки и копетоблядки и сейчас не видят в прогрессе смысла, им бы соевой колбаски да ипхон в жопу.
>>1896039
>снизится до минимума
Да, золотой миллиард называется.
Аноним 31/12/20 Чтв 00:15:47 #310 №1896300 
>>1896214
>золотой миллиард называется
хуета полная, население растёт по экспоненте
капиталюгам надо чтобы рабы конкурировали между собой за тарелку гм риса и помидоры четвёртого сорта
Аноним 31/12/20 Чтв 00:20:15 #311 №1896303 
Прогресс, закон Мура, коммунизм, капитализм..какие-то философствования васянов под водочку
Всё лишь бы битерлесон не читать
Аноним 31/12/20 Чтв 00:36:09 #312 №1896336 
>>1896303
>>1896300
Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам, так что никакого прорыва в ближайшее время не ожидается.
Аноним 31/12/20 Чтв 00:44:34 #313 №1896342 
16037289569140edited.webm
1608980339891.gif
Как учить сетку передавать линии, а не искать максимальное совпадение пикселей?
Данных для обучения то нет.
Аноним 31/12/20 Чтв 01:33:45 #314 №1896399 
>>1896342
без задней мысли берешь и используешь векторную графику
вычисляешь сто тысяч кривых
Аноним 31/12/20 Чтв 02:02:00 #315 №1896419 
>>1896399
Я что-то про нее совсем забыл, спасибо.
Аноним 31/12/20 Чтв 04:32:56 #316 №1896498 
image.png
image.png
https://pastebin.com/KLJ2kQGW

Накопипастил с инета лстм модель. Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Что делаю не так? Как заставить её давать предсказание на 1 день вперёд и потом циклично вперёд?
Аноним 31/12/20 Чтв 04:38:18 #317 №1896500 
>>1896498
Бей ее плетьми.
Аноним 31/12/20 Чтв 05:16:17 #318 №1896503 
>>1896500
По попе?
Аноним 31/12/20 Чтв 08:32:30 #319 №1896562 
>>1895986
>А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает.

Карламарла - это и есть попытка ПРИДУМАТЬ новый super yoba ultimate edition алгоритм, который сделает всё порешает и сделает заебись. Но оказалось, что капитализм работает лучше, а если добавить вычислительных мощностей - то вообще заебумба.
Аноним 31/12/20 Чтв 08:38:33 #320 №1896564 
>>1896214
define прогресс
так-то злые копетоглисты не только заливали коммунистам говна в штаны, но и слетали на Луну, в отличие от
Аноним 31/12/20 Чтв 11:57:02 #321 №1896665 
>>1896342
Зачем тут сетка?
Аноним 31/12/20 Чтв 11:59:58 #322 №1896669 
>>1896665
Для быстрой работы, очевидно.
Аноним 31/12/20 Чтв 12:14:52 #323 №1896680 
16063307013160edited.webm
>>1896665
Я, кстати, ее еще не начал делать, тестирую на алгоритме.
Аноним 31/12/20 Чтв 13:24:28 #324 №1896721 
>>1896500
Ну, серьезно. Не могу понять принцип работы. Я думал, в конце будет выдавать 1 цифру, а оно выдает кучу старых искаженных.
Аноним 31/12/20 Чтв 14:02:51 #325 №1896745 
Что если сравнивать хэши вместо прямого сравнения данных? Например, хэш идентичен на 50%, данные идентичны на 50+-20%. Вместо сравнения данных, мы переводим байты в хэш и все.
Только чтобы 100000000 и 0111111111 было одним и тем же, но мы не ебались с представлением этих данных и их сравнением.
Такое вообще реально? Какой хэш можно использовать?
Аноним 31/12/20 Чтв 14:17:59 #326 №1896756 
>>1895701
> и будут умные роботы
Какие же фантасты/футуристы дауны, пиздец. Уже есть разумные саморемонтирующиеся биороботы - нет, надо дрочить на железки с алгоритмом черепашки
Аноним 31/12/20 Чтв 14:28:55 #327 №1896765 
>>1896745
Эмбеддинги с хэшами делают же. Вряд ли получается кардинально лучше, иначе уже из всех утюгов бы пиарили.
Аноним 31/12/20 Чтв 14:33:08 #328 №1896770 
>>1896498
>Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением.
Потому что, внезапно, цена прошлого дня это довольно хороший бейзлайн который сетка сразу выучивает и на нём и останавливается.
К теме битерлессона кстати, чёрные ящики хватают low hanging fruits, поэтому там где человек может что-то проанализировать и улучшить (например, для финансовых временных рядов) сетки сосут, и в лучшем случае используются как вспомогательный алгоритм.
Аноним 31/12/20 Чтв 14:48:58 #329 №1896778 
>>1896770
Да какой еще беслан. Чего оно на основе 200 цифр выдает 199? Как сделать, чтобы выдавало одну цифру - двухсот первую?
Аноним 31/12/20 Чтв 14:59:45 #330 №1896789 
>>1896300
> хуета полная, население растёт по экспоненте
Как раз нет, биолог хуев.
Аноним 31/12/20 Чтв 15:26:33 #331 №1896816 
>>1896564
>но и слетали на Луну
Ага, не покидая Голливуд
Аноним 31/12/20 Чтв 15:38:28 #332 №1896832 
>>1896778
Забесплатно (взял лстмчик или трансформер и хуяк хуяк ничего делать не надо) никак.
Аноним 31/12/20 Чтв 15:52:11 #333 №1896856 
>>1896816
Сделайте так же на Мосфильме я?!
Аноним 31/12/20 Чтв 15:59:38 #334 №1896869 
>>1896832
А какой тогда смысл в результатах того лстм? Он просто показывает насколько сильно текущие цифры отличаются от старых?
Лстм может продолжать ряд цифр?
Аноним 31/12/20 Чтв 16:07:13 #335 №1896875 
>>1896869
Ну если хочешь продолжать с сетками то >>1896500
Но точного рецепта не существует, пробуй разное: подкручивай параметры, регуляризацию, лосс итп может случайно что и выйдет
Аноним 31/12/20 Чтв 16:36:18 #336 №1896897 
>>1896875
Ты троллишь? Меня не точность волнует, оно мне выдаёт ДОХУЯ цифр вместо одной. Я не разбираюсь в мл и не могу понять почему так.
Аноним 31/12/20 Чтв 17:01:57 #337 №1896924 
>>1896897
А, ну так лстм устроен, сетка состоит из последовательно соединённых клеток каждая из которых имеет свой выход. Если тебе нужна цена в последний момент бери последний выход только.
Аноним 31/12/20 Чтв 17:51:29 #338 №1896982 
>>1896336
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам,
1. Автоматизируешь производство от и до
2. Себестоимость товара падает до нуля
3. ??????????
4. PROFIT!!!!!!!!!!
Аноним 31/12/20 Чтв 17:58:43 #339 №1896986 
>>1896336
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам
Ебанат?
Аноним 31/12/20 Чтв 19:34:41 #340 №1897093 
Почему биттер лессон всё ещё не порешал задачу машинного перевода? И как планируется его решать для low-resource языков? До сих пор нормально не можем переводить с английского на немецкий, а для них тонны параллельных текстов есть, да и языки родственные. А как будем переводить с кечуа на ирландский?
Почему биттер лессон не решил superresolution? Данных для обучения в интернете - петабайты, если не больше. Неужели просто stack more layers не работает?
Аноним 31/12/20 Чтв 20:13:14 #341 №1897143 
>>1897093
>всё ещё не порешал задачу машинного перевода?
ГПТ-3, не ждём а готовимся.
>И как планируется его решать для low-resource языков?
Нахуй нинужны, сейчас бы всерьез задрачивать нахрюк полутора землекопов.
Аноним 31/12/20 Чтв 20:27:03 #342 №1897162 
>>1896342
Хорошая задача, кстати. Так четко показывает именно человеческий тип восприятия.
Могу посоветовать только ГАН лосс, нужно набрать вручную сделанных ASCII артов и дискриминировать между ними и сгенерированными.
Аноним 31/12/20 Чтв 20:48:54 #343 №1897196 
>>1897143
>Нахуй нинужны
Ну раз ты скозал, то ладно...
Аноним 31/12/20 Чтв 20:58:06 #344 №1897208 
>>1897093
БЛ ничего не решает. Он говорит, что нет смысла городить какую-то мего архитектуру для перевода, мучиться собирая правильные чистые данные. ГПТ-Х просто будет переводить с любого языка на любой, включая некорректные, неполные предложения, игру слов, обрывки текста, разговорную речь и все что хочешь. И никогда ты вручную лучше не сделаешь.
Для общего суперрезолюшна (который вообще-то уже вполне решен для конретных приложений) нужна будет такая же сеть как ГПТ, но для визуальных данных. Над чем сейчас работают множество людей, между прочим - визуальные трансформеры это самая горячая тема конца 2020. И они, по-видимому, скоро съедят сверточные сети.
Аноним 31/12/20 Чтв 21:03:07 #345 №1897213 
>>1897196
Ну давай расскажи, зачем они нужны. Чтобы престарелый шизик высрал очередную статью об особенностях флексативов в умляутах абырвалгского нахрюка?
Аноним 31/12/20 Чтв 21:15:31 #346 №1897227 
>>1897213
Чтобы переводить с одного языка на другой.
Аноним 31/12/20 Чтв 21:15:46 #347 №1897228 
>>1897162
>Так четко показывает именно человеческий тип восприятия.
>Могу посоветовать только
Охуенно, горький петух.
Аноним 31/12/20 Чтв 21:20:03 #348 №1897231 
>>1897227
Перевод с английского на другой будет, что не так?
Аноним 31/12/20 Чтв 22:16:44 #349 №1897291 
>>1897228
?
Аноним 31/12/20 Чтв 22:33:44 #350 №1897314 
>>1897231
Мало текста слишком на этих языках, чтобы всякие берты-гпт обучать.
Аноним 31/12/20 Чтв 22:52:40 #351 №1897330 
>>1897314
Джвачую, языки не нужны, все обмазываемся англоговном.
Лангуаге инглиш из тхе бест лангуага ин тхе ворлд!
Аноним 31/12/20 Чтв 22:53:49 #352 №1897332 
>>1897291
Как правильно горькие адепты не знают, но кукарекать что что-то работает идеологически неправильно это не мешает.
sageАноним 01/01/21 Птн 00:02:35 #353 №1897386 
С новым годом всех.
Желаю всем автомля, открытых библиотек с поиском объектов и нормальных ботов для раздевания нарисованных и реальных тянок
Аноним 01/01/21 Птн 00:10:59 #354 №1897390 
В новом году от души желаю всем понять и принять биттерлессон, пройдя стадии отрицания и депрессии как можно быстрее.
Аноним 01/01/21 Птн 00:21:50 #355 №1897395 
>>1881607 (OP)
Всем чмоки
sageАноним 01/01/21 Птн 00:56:02 #356 №1897418 
>>1897390
горький петух, уходи
Аноним 01/01/21 Птн 01:49:54 #357 №1897439 
В новом году желаю построить искусственный интеллект, чтобы вычислить все протеины и оцифровать всех.
Аноним 01/01/21 Птн 02:37:45 #358 №1897483 
>>1897330
Но ведь ты неиронично прав
Аноним 01/01/21 Птн 02:38:37 #359 №1897484 
>>1897418
Вапникодрочер, ты всё продолжаешь куколдить вычислительной машине?
Аноним 01/01/21 Птн 02:53:24 #360 №1897503 
145890878313521039.jpg
>>1897439
вычисли меня, вычисли меня, птица счастья завтрашнего дня!
Аноним 01/01/21 Птн 03:41:05 #361 №1897533 
77958433p1.jpg
Сейчас наступает 2021 год, я решил начать свой вкат в питон (преимущественно в нейросети, может ещё потом веб) начиная с первого дня нового года упорно заниматся изучением темы.

Подумалось мне, было бы неплохо осуществлять с кем-то совместно вкат, можно вопросы друг-другу задавать, объяснять темы, пилить совместные проекты.

Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё).

Если кому интересно пишите на фейкомыло
[email protected]
Аноним 01/01/21 Птн 07:16:26 #362 №1897576 
>>1897533
Вкатуны друг другу никак не помогут. Тебе нужен ментор, который уже много знает и поможет сориентироваться. Поступай в вуз и ищи там хорошего научрука.
Аноним 01/01/21 Птн 12:04:35 #363 №1897619 
>>1897533
>Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё
Начни этот год с изучения матана. Вот эту >>1888821 книжку скачай и посмотри на материал.
Аноним 01/01/21 Птн 14:42:15 #364 №1897712 
9b82ebbfbc141e8d0c4be29770f94765.png
ИИ итоги уходящего 2020-го года в мире машинного обучения
https://habr.com/ru/post/535832/
Аноним 01/01/21 Птн 14:43:46 #365 №1897717 
>>1897503
каким ебанатом надо быть, чтобы не знать что буквы на цветастом фоне надо обрамлять окантовкой для читабельности?
Аноним 01/01/21 Птн 14:46:58 #366 №1897722 
>>1897712
>habr.com
Сюда ли ты зашел, петушок?
Аноним 01/01/21 Птн 19:25:22 #367 №1897991 
15664205356560.jpg
>>1897619
Собираюсь изучать,
Линейную алгебру (уже немного знаю),
Теорию вероятностей
и Мат. Анализ (с этим больше всего проблем, но тема интересная)
Аноним 01/01/21 Птн 20:02:39 #368 №1898008 
Есть картинки, а к ним метки.
Стоит ли их соединять и сохранять в один файл? Или разносить по разным файлам?
Аноним 01/01/21 Птн 20:09:57 #369 №1898014 
Хочу сделать игру по типу Zork, естественно с машинным обучением.
Мне нужно что-то очень быстрое и эффективное. Задача не простая - нужно целый виртуальный мир симулировать.
Есть идеи?
Аноним 01/01/21 Птн 20:14:26 #370 №1898021 
>>1897143
> ГПТ-3, не ждём а готовимся.
Не запустится на моем железе и даже гуглу придетмя нормально так вложиться, чтобы эту бандурину запустить. Не нужно.
Аноним 01/01/21 Птн 20:37:57 #371 №1898040 
>>1897533
Найди себе наставника.
Обучение с учитаелем > обучение без учителя.
Аноним 02/01/21 Суб 00:31:37 #372 №1898231 
>>1898040
Так кто-ж согласиться учить?
Аноним 02/01/21 Суб 07:58:42 #373 №1898407 
>>1898231
Старый гей-математик может тебя няшить и обучать
Аноним 02/01/21 Суб 10:44:01 #374 №1898435 
>>1898008
Бамп вопросу.
Аноним 02/01/21 Суб 11:04:28 #375 №1898438 
>>1898407
это оффер?
Аноним 02/01/21 Суб 12:01:55 #376 №1898486 
>>1898014
Dwarf fortress эмулирует целый виртуальный мир на сях без машоба.
Аноним 02/01/21 Суб 12:02:25 #377 №1898487 
>>1898486
*симулирует
Аноним 02/01/21 Суб 12:37:47 #378 №1898498 
>>1896342
https://people.csail.mit.edu/tzumao/diffvg/diffvg.pdf
Недавно видел такую хуйню, можешь конвертить в svg а потом в ascii.
Аноним 02/01/21 Суб 12:56:35 #379 №1898511 
>>1898021
Гугл вложится, а ты в сделку не входил
Аноним 02/01/21 Суб 14:03:02 #380 №1898575 
>>1898486
> Dwarf fortress
Вот только в Dwarf Fortress не приходилось обрабатывать команды по типу "взять попугая, засунуть его в рот, а пережевать, а потом выплюнуть"
Аноним 02/01/21 Суб 18:30:56 #381 №1898810 
>>1898435
>>1898008
Ну что вы, датасатанисты?
Аноним 02/01/21 Суб 19:31:56 #382 №1898873 
>>1898810
что у ЛеКуна (MNIST dataset),что на ImageNet они разделены

в моем проекте я также разделил - аннотации в одном .csv, а картинки отдельно, но по имени картинки я всегда могу найти аннотацию
Аноним 02/01/21 Суб 20:48:04 #383 №1899004 
>>1898810
Всегда разделяй и властвуй.
Аноним 02/01/21 Суб 21:28:14 #384 №1899057 
image.png
Бляха, страх упустить возможность на максимуме. Помогите дать прогноз точки падения на основе прошлых цен и объемов. Есть вероятность удачно зайти в шорт и хорошо заработать на падении.
Аноним 02/01/21 Суб 21:41:32 #385 №1899070 
>>1899057
>Есть вероятность
А можешь и проебаться, лол
Аноним 02/01/21 Суб 22:17:53 #386 №1899092 
>>1899070
Да блядь, как вы заебали, скептики. Естественно есть риск, чтобы его снизить я и хочу понять когда большая вероятность коррекции цены. Про трейдер это и сам из графика поймёт, для остальных есть - мл. Но у меня руки из жопы, неделю ебался, не смог разобраться с вашими лстм.
Аноним 02/01/21 Суб 22:20:21 #387 №1899094 
>>1899092
Когда даже в треде про нейроночки обсуждают биткоины - скоро обвал, инфа 100%
Аноним 02/01/21 Суб 22:39:51 #388 №1899111 
>>1899094
Обвал, разумеется, неизбежен. Вопроса только два: до какой цены дойдет на пике, и какая установится в новом эквилибриуме. Неправильно расчитав, ты проиграешь, если будешь пытаться шортить. Безопасная стратегия, как обычно, держать и докупать между туземунами.
Аноним 02/01/21 Суб 23:08:51 #389 №1899142 
>>1899094
За меня уже ответили >>1899111
Хотется получить приблизительную цифру, но не от балды, а на основе старых данных
Аноним 02/01/21 Суб 23:16:15 #390 №1899149 
>>1899094
У меня куча знакомых пытается как-то играть на биржах того или иного вида. Биткоин-не биткоин, не важно. У всех при этом уверенность, что можно играть правильно, грамотно, и если действовать так, то чего-то будешь зарабатывать.

На деле это рандом, предугадать который нельзя, и даже были исследования про трейдеров, которые показывали, что выигрывают в среднем не больше, чем когда делают рандом ставки.

Кто-то может быть может предсказать хайп и на этой основе сделать выгодное приобретение, но это не по графикам делается.

На деле зарабатывают за счёт того, что биржа растёт. А растёт сильно потому, что приходят новые буратины, которые вкладывают свои деньги, желая заработать. Хотя активы, которые продаются, в основном сами прибыли почти не приносят и нужны только ради спекуляций.

Никакой математики за этим нет, чтобы нейросеть могла чего-то предсказать. Просто ловушка для тех, кто считает себя особо умным, типа я такой продвинутый, нейросеть натравлю и разбогатею.

При этом те или иные расчёты с помощью компов трейдеры делали ещё с прошлого века, но там роботы скорее помогают на коротких технических колебаниях по копеечке что-то приличное зарабатывать, и то сложно, поскольку все этим пользуются.

Нейросеть нельзя научить, не имея большой учебной выборки. А учебной выборки здесь нет и быть не может.
Аноним 02/01/21 Суб 23:19:45 #391 №1899151 
Посоветуйте вводный курс по МЛу, желательно на русском. Знаю немного основы программирования, Python, матан/линал/тервер. Специализация от Яндекса и МФТИ на курсере норм? Еще на степике есть какие-то. Хотелось бы совет от анона.
Аноним 02/01/21 Суб 23:31:24 #392 №1899164 
>>1899149
Я лично торговал успешно, за месяц только пара дней в минус. Естественно не от балды, а по графикам. Рандом случается крайне редко и он значит только одно - крупный инвестор что-то чудит. И к счастью чаще инвесторы повышают цену неизвестных валют (и продают на пике), после чего она постепенно падает, не наоборот.

Да, нельзя высчитать на 100%, но можно на 70%. Против теханализа невозможно переть, оно работает по факту, отрицать это могут только максималисты, подразумевая, что оно не работает во ВСЕХ случаях.
Аноним 03/01/21 Вск 00:07:45 #393 №1899184 
Screenshot from 2021-01-02 23-55-54.png
Screenshot from 2021-01-02 23-54-59.png
Screenshot from 2021-01-02 23-54-39.png
>>1899164
Логика такова, что в среднем выигрыш такой, насколько биржа в целом растёт.

Например если биржа выросла на 10%, ты торговал на миллион и заработал 100 тысяч, то ты просто заработал за счёт роста биржи.

Если больше, то тут только один вариант, ты должен был выиграть у кого-то, то есть кто-то должен быть проиграть тебе свои деньги, на неудачных ставка. Здесь классическая игра с нулевой суммой против других торговцев, ну с поправкой на рост биржи.

Причём играют ведь не только продавцы из пятёрочки, там очень даже квалифицированные трейдеры, которые все эти теории знают, очевидно.

Вот nasdaq хорошо рос, и в среднем там заработали. Причём как исследования показывают, что если ты будешь случайно делать ставки, то твой выигрыш будет примерно таким же, как и в "осмысленных" стратегиях.

Выигрывают за счёт роботов, которые на доли секунд раньше конкурентов хватают удачные лоты. И за счёт предугадывания хайпа, что делается не по графикам, а по анализу настроений. Или во время пертурбаций мощный вроде ковида, но это всё такие вещи, которые нестандартные и там нейронки не помогут.
Аноним 03/01/21 Вск 00:39:33 #394 №1899206 
>>1899151
Курс от ods
Аноним 03/01/21 Вск 00:41:10 #395 №1899209 
блядь откуда эти брейнлеты понабежали, пошли нахуй отсюда назад в форекс тред или где вы там сидите
Аноним 03/01/21 Вск 02:15:33 #396 №1899298 
>>1899184
Ты путаешь с бинарными опционами
Естественно кто-то теряет на бирже, не всем суждено оставаться в плюсе
Сказки про закуп и продажу от балды придуманы какими-то клоунами для клоунов. Это сразу же понятно через пару дней трейдов. Да просто взгляни на минутный график любой криптопары, увидешь, что у него всегда есть пики и падения, которые зачастую можно предсказать. Нет вообще принципа "хватают первей", ордеры ставятся заранее. Для масштабных прогнозов и учета внешних факторов используют нейронки для анализа статей, но это всё речь о каком-то идеальном боте.
Я просто говорил о банальном анализаторе, который будет ПОМОГАТЬ понять выгодная сейчас точка для закупа или нет. Это можно и самому понять, но нужен большой опыт и плотный анализ графика за прошлые дни. Часто после пары суток торговли на одной паре начинаешь чувствовать себя как рыба в воде, хорошо подбирая точки входа и выхода. Но люди неидеальны, особенно когда шалят эмоции.

Как при помощи lstm (или что лучше с этим справится?) продолжить ряд цифр? Упростил максимально, все равно не могу разобраться как продолжить этот график.
https://colab.research.google.com/drive/1OqBGmMcEGRgr7WU_30LT5vLfCTeprLHg?usp=sharing
Аноним 03/01/21 Вск 02:20:15 #397 №1899300 
image.png
Суцкевер намекает на ГПТ-4 в этом году: https://blog.deeplearning.ai/blog/the-batch-new-year-wishes-from-fei-fei-li-harry-shum-ayanna-howard-ilya-sutskever-matthew-mattina
Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Вот куда пойдут безработные ученые: оценивать выхлоп ГПТ за деньги, делая его еще умнее.

Всем пацанам битерлессон, петухов на помоечку!
Аноним 03/01/21 Вск 03:08:50 #398 №1899312 
>>1899300
>Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Очень интересно, а не забывать контекст спустя одно предложение научится наконец? Или для этого ещё триллион-другой баксов понадобится?
Аноним 03/01/21 Вск 05:16:35 #399 №1899336 
>>1899298

pred = model.predict(np.concatenate((train_x, test_x), axis=0)) # old was just "train_x"
pred = scaler.inverse_transform(pred)
dataset = scaler.inverse_transform(dataset)
Аноним 03/01/21 Вск 06:22:09 #400 №1899348 
>>1899312
Трансформеры ващет могут смотреть сразу на весь поданный котекст, в отличие от РНН, которые как раз забывают. В этом основная сила их. Генерировать складно люди будут доучивать вручную.
Триллионы баксов - кто их считает там? Они разрабатывают общий ИИ, это технология вне обычных экономических понятий вроде прибыли. Это перевернет все.
Аноним 03/01/21 Вск 09:14:42 #401 №1899376 
>>1899348
>Трансформеры ващет могут смотреть сразу на весь поданный котекст
Только размер контекста крайне ограничен.
Аноним 03/01/21 Вск 10:54:29 #402 №1899416 
>>1898873
>>1899004
Мне не понятен порядок действий.
Есть тензоры картинок, и есть тензоры меток.
Тензоры картинок с целью экономии оперативки сохранены в файлы на диск, и уже оттуда подгружаются.
Вопрос - что делать с тензорами меток? Сохранять в отдельные файлы? Присоединять к тензорам картинок (через cat или list) и сохранять в один файл с тензорами картинок? Или грузить из памяти?
Аноним 03/01/21 Вск 13:01:46 #403 №1899453 
Питон или яваскрипт? Что лучше и почему?
Аноним 03/01/21 Вск 13:22:12 #404 №1899462 
>>1899453
c++. Быстрее их месте взятых.
Аноним 03/01/21 Вск 13:34:31 #405 №1899471 
>>1899462
Да это понятно, на них я уже учусь. Я для тестовых моделей, а потом только переносить буду.
Аноним 03/01/21 Вск 14:44:02 #406 №1899501 
>>1899300
>эта лысеющая версия Джастина Тимберлейка
Аноним 03/01/21 Вск 14:45:40 #407 №1899503 
image.png
>>1899300
дальше не читал
Аноним 03/01/21 Вск 15:04:09 #408 №1899513 
В Новосибирске вообще есть мл работа?
Аноним 03/01/21 Вск 15:21:33 #409 №1899523 
>>1899513
В 2019 помогал знакомой аутсорсить для НИИ чего-то там.
Аноним 03/01/21 Вск 15:46:01 #410 №1899553 
>>1899513
есть
https://hh.ru/search/vacancy?clusters=true&enable_snippets=true&text=data+scientist&L_save_area=true&area=1202&from=cluster_area&showClusters=true
Аноним 03/01/21 Вск 16:25:43 #411 №1899569 
>>1899312
гпт-3 не забывает контекст, у тебя методичка старая.
>>1899376
Для этого есть квазилинейные реформеры и линейные лонгформеры/перформеры.
Аноним 03/01/21 Вск 17:04:47 #412 №1899597 
>>1899569
>гпт-3 не забывает контекст, у тебя методичка старая.
Проиграл с маняотрицания
Аноним 03/01/21 Вск 17:11:10 #413 №1899608 
image.png
>>1899336
И как это что-то меняет? Рисует ещё одну неясную линию поверх имеющейся.
Ещё сильней упростил, выводит полную дичь. Не могу сообразить как понять.
Аноним 03/01/21 Вск 18:37:38 #414 №1899665 
>>1899597
>пук
Окей, ну хоть зумеров не упомянул.
Аноним 03/01/21 Вск 18:38:39 #415 №1899667 
pred-n.png
error.png
>>1899608
что конкретно непонятно?

изначально ты делал предсказания только для train, что соответствует первым 66% твоих данных, поэтому твой график обрубался. если ты делаешь предсказания на соединенных np.concatenate((train_x, test_x) train и test, то твой график продолжится дальше, потому что ты делаешь предсказания для 100% данных

по той причине, что у тебя мало данных, твоя моделька плохо обучилась, и выдает @неясную линию поверх имеющейся@

Картинка - работа твой модельки на курсе валют - prediction vs dataset и ошибка. Плюс я разделил изначальный сет на три - train, val, test:

train, test = split(dataset, 0.8)
train, val = split(train, 0.6)

Train и Val я использовал для тренировки модели:

train_x, train_y, validation_data=(val_x, val_y)

Результат, как ты видишь выглядит ничем не лучше какого-нибудь movingaverage.

есть вопросы, напиши свою фейкпочту
Аноним 03/01/21 Вск 19:41:02 #416 №1899737 
>>1899667
касательно графика ошибки:

1. на основе предыдущих 10 дней (window = 10) модель выдала предсказание на след. день - какое-то число

2. Oшибка - разница между выданным числом и реальным значением

3. график показывает ошибку если мы фидим в модель train , то есть данные совершенно новые для модели (валидация была сделана на другом сете)
Аноним 03/01/21 Вск 19:47:10 #417 №1899744 
>>1899665
> ряяя
Горький петух = нечёткий петух
Аноним 03/01/21 Вск 20:57:54 #418 №1899810 
>>1899501
Когда он станет богом и насильно тебя оцифрует, ты проведешь вечность извиняясь за свои слова, варясь при этом в котле и созерцая его лысину, которая будет вместо неба.
Аноним 03/01/21 Вск 23:41:43 #419 №1900008 
15960264102200.jpg
>>1899569
>гпт-3 не забывает контекст, у тебя методичка старая.
>Context window size was increased from 1024 for GPT-2 to 2048 tokens for GPT-3.
Аноним 04/01/21 Пнд 00:41:32 #420 №1900041 
>>1899608
Проиграл с твоего говнокода.
Аноним 04/01/21 Пнд 04:27:56 #421 №1900126 
image.png
>>1899667
Когда я пытаюсь таким образом продолжить с какой-либо точки, получается просто прямая, без понятия что не так делаю

https://t.me/aaaaaqqqqaaa
Аноним 04/01/21 Пнд 06:45:50 #422 №1900165 
>>1900008
Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
Аноним 04/01/21 Пнд 07:01:10 #423 №1900168 
>>1900165
>Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
Зумер, не проецируй. 2048 токенов - это 20-25 предложений. Я иногда пишу похожие по длинне эмейлы. Для текстовых квестов, для которых в том числе используется GPT, это вообще ничто. Так что никакого бесконечного контекста нет.
Аноним 04/01/21 Пнд 08:32:30 #424 №1900186 
>>1900168
>Так что никакого бесконечного контекста нет.
Шизик выдумал бесконечные контексты и с ними спорит.
>2048 токенов - это 20-25 предложений.
Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше). В школе расскажешь про 20-25 предложений и похожие по длиннне эмейлы.
>Для текстовых квестов, для которых в том числе используется GPT
Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
Аноним 04/01/21 Пнд 08:43:17 #425 №1900190 
>>1900186
А в чем смысл надрачивать на количество запоминаемых одной моделью токенов? Из теоремы Колмогорова-Арнольда известно, что любая функция многих аргументов представима через композицию функций от двух аргументов. То есть, если у нас есть хоть что-то, могущее в работу с парой токенов, то стыканув эту хуйню в лучших традициях стекморбиттерлессонс получим возможности той же GPT и даже больше из кучи каких-нибудь скипграмов Миколова.
Аноним 04/01/21 Пнд 09:14:53 #426 №1900205 
>>1900186
>Шизик выдумал бесконечные контексты и с ними спорит.
>>1899569
>гпт-3 не забывает контекст
Здесь столько шизиков, что я уже запутался. Конечная длина контекста? Значит забывает.
>>1900186
>Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше)
Ну не 20, а 40. Этого все равно крайне недостаточно.
>Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
Информация вне контекста будет навсегда пропадать. Например, персонажи или события.
Аноним 04/01/21 Пнд 09:43:54 #427 №1900214 
В ГПТ-3 контекс это аналог кратковременной памяти у человека. И у ГПТ-3 она гораздо больше человеческой. Человек вообще мало может в рабочей памяти держать. Попробуй текст из 2048 слов, информационно плотный, один раз прочитать, а потом ответить на вопросы по деталям, и увидишь что ничего ты не помнишь. Только если будешь зубрить, загоняя его в долговременную память (= дотренировка в терминах ГПТ-3). А ГПТ-3 ответит.
Разница в том, что у человека рекуррентно апдейтится контекст. Поэтому он самое важное может дольше держать в рабочей памяти. И вариаций трансформеров с рекуррентным контекстом полно, но их тренировать сложнее.
Аноним 04/01/21 Пнд 13:20:15 #428 №1900404 
>>1900190
Ты получишь унылую RNN с затухшими градиентами. Лет через 20 ты придумаешь lstm, а еще через 30 - трансформеры.
Шучу. Ты нихуя не придумаешь.
Аноним 04/01/21 Пнд 13:47:11 #429 №1900430 
>>1900214
>рекуррентно апдейтится контекст
Ебать тебя промыли, моднявых психолухов в паблике начитался?
Аноним 04/01/21 Пнд 14:00:04 #430 №1900447 
>>1900126
sry, u menya net telegrama...
pls, napischi svou fake-pochtu
Аноним 04/01/21 Пнд 14:33:45 #431 №1900488 
16090397528000.jpg
>>1900404
Горький зумер, ты даже не понял что я написал...
Аноним 04/01/21 Пнд 14:36:44 #432 №1900491 
>>1900214
Вот как удивительно, и контекст больше и внимание мощнее чем у тупых человеков, а выходит нелепая хуйня чуть лучше марковских цепей. Без ПОНИМАНИЯ похоже не разобраться, любители чёрных коробок орут.
Аноним 04/01/21 Пнд 16:27:21 #433 №1900651 
1 (1).png
1 (2).png
Котаны, это снова я. Как добавить к PNG без альфа канала еще один канал? Нужно как-то использовать альфу? Мне тут советовали склеить картинку пару лет назад, я только сейчас дошел до потребности в это операции.
И еще , в pix2pixHD есть еще один дополнительный параметр, который можно скормить сетке- instance_map. Это- 65536 канальный файл, который я не знаю как генерировать, и не факт, что он поможет, если я в него вместо границ объекта залью мои фичи, но всё же спрошу- может не заморачиваться с 4 каналом, а попробовать скормить в эту instance map серую 16 битную картинку с нужными фичами? Или- как делать разметку для 65536 каналов попроще чем в openCV?
Аноним 04/01/21 Пнд 16:27:37 #434 №1900652 
146926282901387.mp4
> когда кожаные мешки не читали битерлесон и ещё не знают что будут уничтожены очередным чатботом
Аноним 04/01/21 Пнд 16:40:34 #435 №1900667 
>>1900488
g(a,b,c)=f(f(a,b),c) это RNN.
Это мой последний пост тебе.
Аноним 04/01/21 Пнд 16:42:56 #436 №1900670 
>>1881607 (OP)
Я правильно понимаю, что в России нет нормального ресерча?
Аноним 04/01/21 Пнд 16:44:37 #437 №1900672 
>>1900670
Только прикладной
Аноним 04/01/21 Пнд 16:46:37 #438 №1900676 
>>1900672
Где и какой?
Аноним 04/01/21 Пнд 16:50:25 #439 №1900679 
>>1900667
И с какой стати стэкинг это f(f) ?
Горький, не позорься.
Аноним 04/01/21 Пнд 16:53:00 #440 №1900682 
16087291988530.png
>>1900667
> g(a,b,c)=f(f(a,b),c) это RNN.
И причем тут это, горький долбаеб? g(a,b,c) = f(f(a,b), f(b,c)) это тоже RNN?
Аноним 04/01/21 Пнд 16:56:22 #441 №1900684 
>>1900676
Те фирмы которые ориентированы на публикации в рф не имеют соответствующих лаб, публикаций из рф на мировых конференциях нет. Ориентируйся на мастера за рубежом, это самое простое.
Но если суть ресерча в выпуске моделек для рыночка, то такого полно, на хх.ру набери pytorch и смотри.
Аноним 04/01/21 Пнд 17:02:25 #442 №1900696 
image.png
>>1900684
Ну уж и нет. Вон Тайвань обогнали!
Аноним 04/01/21 Пнд 17:12:42 #443 №1900715 
>>1900214
Ого, адекватный анон итт
Аноним 04/01/21 Пнд 17:27:41 #444 №1900738 
>>1900679
В следующий раз попробуй без хамства
Аноним 04/01/21 Пнд 17:39:02 #445 №1900756 
>>1900738
> попробуй без хамства
Сам без хамства не можешь >>1900404 почему другие должны? Начни с себя
Аноним 04/01/21 Пнд 18:01:11 #446 №1900797 
>>1900756
Если для тебя утверждение "ты не придумаешь lstm" - хамство, твое чсв совсем запущено.
А почему должны - не должны конечно, так даже проще, шизов посылать нахуй с первого поста, а не с последнего.
Аноним 04/01/21 Пнд 18:57:17 #447 №1900821 
не ссорьтесь петушки
Аноним 04/01/21 Пнд 19:34:30 #448 №1900850 
>>1900797
> даже проще, шизов посылать нахуй с первого поста, а не с последнего.
При этом, себя ты шизом не считаешь, при том что несёшь полную хуйню >>1900667 на что тебе указал не только я.
Аноним 05/01/21 Втр 02:57:28 #449 №1901220 
>>1900850
В прошлый раз все закончилось этим: >>1885867 в ответ на мои посты >>1885654 и >>1885628
Тишина по существу, только хамство. В этот раз закончится так же. Нахуй надо, вестись на эти провокации и писать свинье длиннопосты, после которых будут очередные пуки, как будто ничего и не было.
> на что тебе указал не только я.
При этом про пост >>1900190 ничего подобного нет, кроме моего одинокого коммента. Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
Аноним 05/01/21 Втр 06:28:27 #450 №1901268 
>>1901220
Да ты дебил просто.
> Какое странное совпадение, у дрочащего на word2vec конструшка из math появился незнакомый друг, постящий с ним 2 поста подряд.
Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
Аноним 05/01/21 Втр 07:44:41 #451 №1901275 
>>1901268
>Да ты дебил просто.
Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
>Да-да, если с твоей хуйней не согласны двое, это семен. Классика.
Если с хуйней в >>1900190 согласны двое, то это семен. Ну либо совсем поверхностный подсос этого шизика, что еще хуже.
Аноним 05/01/21 Втр 08:02:36 #452 №1901279 
16087330339130.gif
>>1901275
> горький зумер, не знающий чем стек отличается от RNN и называющий хуйней теорему Колмогорова-Арнольда, называет кого-то кроме себя интеллектуальным нищим
Не могу не зафиксировать подрыв малолетнего брейнлета
Аноним 05/01/21 Втр 08:31:47 #453 №1901283 
>>1901279
Опять интеллектуальный нищий пытается свести диалог к метанию какашек. Неси свой "стек из скипграмов", тогда и поговорим по существу. Но выйдет как в прошлый раз, и в позапрошлый, в позапозапрошлый. За тобой нихуя, кроме какашек, нет.
Аноним 05/01/21 Втр 11:32:03 #454 №1901342 
Вы все занимаетесь аллаховедением
Аноним 05/01/21 Втр 11:57:43 #455 №1901357 
Попробовал запустить через куколаб эту вашу гпт2 ололо 1558М, полтора миллиарда параметров. С какого места там восторгаться суперзумеркринжтехнологией? По-сути простой бредогенератор условно на заданную тему, я такие в 90х видел ещё. Где там конкретно величие битерлесона, поясните, свидетели.
Аноним 05/01/21 Втр 12:14:00 #456 №1901375 
Ну то есть, там буквально набор слов выдается, даже не связанный ни с одним введенным словом. Вот типичный пример:

Model prompt >>> Why bitter rooster is so stupid?
======================================== SAMPLE 1 ========================================
How come no one appreciates it?

Anonymous 01/01/17 (Thu) 03:11:44 AM No. 338119 How does this now make her to go outside into that thunderstorm at 6 in the afternoon. Coincidentally, late 9th grade homecoming. The girls like were all told to hold doors for her so everything was very crowded. Several details might have been known of course, but she looked to stay with some of the girls/kids and I doubt was in the worst of the storms.

Anonymous 01/01/17 (Thu) 03:11:50 AM No. 338120 >>338127

You've got to be kidding MeTooBuckley. You've got to be kidding MeTooBuckley.

Anonymous 01/01/17 (Thu) 03:14:33 AM No. 338122 >>338120

Depends on what you mean by "his wrists were slick" Depends on what you mean by "his wrists were slick"

Anonymous 01/01/17 (Thu) 03:14:59 AM No. 338123 >>338120

Someone tell Billie, she wouldn't know if it was cold or not though Someone tell Billie, she wouldn't know if it was cold or not though

Anonymous 01/01/17 (Thu) 03:15:38 AM No. 338124 >>338105


But he's the white boy and such things are expected but what if it's different with the black boy? But he's the white boy and such things are expected but what if it's different with the black boy?

Anonymous 01/01/17 (Thu) 03:17:40 AM No. 338125 File: 1484785081120.jpeg (164.96 KB, 840x833, image.jpeg) >>338123

White boys that don't provide for themselves or their family have name-brand factories to look up to


Black boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads White boys that don't provide for themselves or their family have name-brand factories to look up toBlack boys that get adopted and grow up in different countries tend to think they are", do everything" Just like their dads

Anonymous 01/01/17 (Thu) 03:18:17 AM No. 338126 >>338119

I actually have friends who
================================================================================
Аноним 05/01/21 Втр 12:19:08 #457 №1901381 
Если из word2vec можно выдавить хотя бы man - king + woman = queen, то тут я и этого не увидел
Аноним 05/01/21 Втр 13:43:27 #458 №1901437 
>>1900447
Проще уже было прям в коллабе написать. Напиши что есть, я даже не знаю, что у тебя за идея. По почте неудобно пиздец.
Аноним 05/01/21 Втр 14:14:07 #459 №1901456 
>>1901375
Это ванильный gpt2 или файнтюненый?
Аноним 05/01/21 Втр 14:35:06 #460 №1901482 
>>1901357
В целом нигде, хайп большой просто.
Аноним 05/01/21 Втр 15:09:01 #461 №1901507 
Почему у нейросетей до сих пор нет своей файловой системы?
Аноним 05/01/21 Втр 15:09:41 #462 №1901509 
>>1901456
Это который на гитхабе опенаи - https://github.com/openai/gpt-2 http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb , с прописанным параметром model_name = '1558M'
Аноним 05/01/21 Втр 15:12:31 #463 №1901511 
>>1901507
Зумер? Нейросеть запускается поверх ОС, будь то в браузере или локально, файловая система нужна операционной системе, а не своя каждому приложению.
Аноним 05/01/21 Втр 16:51:01 #464 №1901622 
>>1901511
https://www.opennet.ru/opennews/art.shtml?num=54348
У браузера есть своя файловая система, почему у нейросети нет? Это базовая вещь в информатике.
Аноним 05/01/21 Втр 17:01:28 #465 №1901639 
>>1901622
Что же должно быть в этой нейронной фс файлами, каталогамм и аттрибутами?
Аноним 05/01/21 Втр 17:31:39 #466 №1901689 
>>1901509
То есть на затравку с лексикой из имиджборд в 6 слов гпт2 сгенерировал тебе контент имиджборды с анонимусами, согласованным временем постов и их номерами, и ты это видел в 90е. Ну-ну.
Аноним 05/01/21 Втр 17:51:36 #467 №1901711 
>>1901689
>контент имиджборды
Рандомные куски текста
Аноним 05/01/21 Втр 17:56:27 #468 №1901718 
>>1881607 (OP)
Хотел поковыряться в нейросетях, но мысль такая возникла. Ведь чтобы научить нейронку отличать кошечку от автобуса, надо натренировать ее на сотнях тысяч образцов. Возможно ли этим заниматься в домашних условиях со скромными ресурсами. Или это примерно как с матрицами, сперва думаешь, круто, умею считать определитель, решу любую систему лин уравнений, а на деле в практических задачах переменных столько, что даже суперкомпьютер обосрется этот определитель считать.
Аноним 05/01/21 Втр 18:52:16 #469 №1901772 
1 (1).png
1 (1).png
1 (1).png
>>1901718
ДА, более чем. Тот же DeepNude был запилен каким-то одним эстонцем. Большинство (95%) гитхаба- это домашки и хобби, сделанные на коленке (ну тут можно подумать, что норм вещи никто за бесплатно не выложит, но посмотри на Nvidia, там самые передовые технологии выложены, а спустя год после выхода- уже лицензия бесплатная). Еще большинство гитхаба- это именно разные попытки решить одну задачу разными методами, есть много датасетов, на которых можно меряться метриками. Можно запилить себе совсем небольшую модельку и запихнуть ее в какой-то домашний серверок, чтобы быть в курсе кто их родаков-знакомых подходит к подъезду и т.д. Самое сложное сейчас- это найти себе интересную для себя задачу, а интсурмента много очень. НУ и вишенка- большинство работ тестируются на всяких датасетах разрешения типа 256 на 256. Это на какую-то 1660 видяху хватит.
По поводу кошечек-атвобусов- есть такая вещь как аугментация данных, когда ты берешь малый сет и начинаешь его натягивать на глобус изменяя гамму, растягивая изображение, делая множество примеров из одного, желательно сразу перед обработкой в виде пайплайна, для этого тоже хватает инструментария или он пишется на коленке. Да, самое сложное- это сначала собрать датасет, а потом почистить. Вопрос в цели- просто так, ну как домашка для опыта или портфеля, ок. Для себя- гуд, для денег- тут надо будет достаточно долго затачивать, и , как правило, с командой или с денежными вливаниями в какую-нибудь толоку это выйдет быстрее.
Аноним 05/01/21 Втр 19:09:37 #470 №1901785 
>>1901772
>найти себе интересную для себя задачу
Пиздец, вы там ни одной задачи не решили, а уже перебираете.
Аноним 05/01/21 Втр 19:17:03 #471 №1901792 
>>1901718
Чисто поиграться юзай колаб. Для норм тренировки нужна топовая видеокарта, конечно, и много времени.
Аноним 05/01/21 Втр 22:06:55 #472 №1901956 
>>1901718
Трансферлернинг никто не отменял

Плюс гуглколаб тебе в помощь

Вот ссылка
https://towardsdatascience.com/transfer-learning-with-convolutional-neural-networks-in-pytorch-dd09190245ce
Аноним 05/01/21 Втр 23:14:24 #473 №1902017 
>>1899810
Боюсь, судьба моей цифровой копии меня волнует гораздо меньше чем вообще что-либо
Аноним 06/01/21 Срд 00:46:31 #474 №1902078 
OpenAI text-to-image завезли.
https://openai.com/blog/dall-e/
Аноним 06/01/21 Срд 01:12:39 #475 №1902096 
image.png
>>1900684
Яндекс, мфти, сколтех публикуются на нипсе, всё норм. Понятное дело, что масштаб не как у гугла и стенфорда, но пойдет.
Аноним 06/01/21 Срд 01:57:49 #476 №1902134 
>>1902078
Пфф, да это еще жопеншмульц в 1968 сделал. Сойбои не читают классиков и изобретают велосипед.
Аноним 06/01/21 Срд 02:24:50 #477 №1902167 
image.png
>>1902078
Ахаха, опенаи, что ты делаешь, остановись
Аноним 06/01/21 Срд 03:31:20 #478 №1902206 
gyhsd.png
>>1902134
Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается
Аноним 06/01/21 Срд 04:10:50 #479 №1902208 
>>1901711
Не рандомные, а conditioned на твоем скупом и коротком контексте. Ты задал вопрос про петуха на рунглише, он тебе выдал кусок треда на форчане. А ты даже не понял, что произошло. А я удивился настолько, что даже уточнил, а ванильный ли это gpt2. Потому что никогда бы не подумал, что gpt2 в zero shot режиме может так.
Аноним 06/01/21 Срд 04:39:49 #480 №1902210 
>>1902208
>он тебе выдал кусок треда на форчане
Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
Аноним 06/01/21 Срд 05:13:13 #481 №1902217 
Screenshot20210106-090748.png
>>1902208
Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
Аноним 06/01/21 Срд 05:26:19 #482 №1902219 
>>1902217
> Какой-нибудь древний LSA не хуже бы сработал.
Нет, не сработал бы.
Аноним 06/01/21 Срд 06:30:27 #483 №1902222 
>>1902210
Prompt: Почему нечеткий петух такой тупой?
100%|| 32/32 [00:04<00:00, 7.26it/s]
из-за того, что его обоссывают и даже могут за это отпиздить.

-------SAMPLE 0 END-------
он не может определиться с тем что он есть, если не понимает этого.

-------SAMPLE 1 END-------
не знаю.

-------SAMPLE 2 END-------
потому что он петух.
Ну и хуево же он смотрит на наших тней, которые не знают как быть с девушками.

-------SAMPLE 3 END-------
потому что он и не петух вовсе. Он думает что у него есть деньги на его же деньги.

-------SAMPLE 4 END-------
он не может его посчитать.
> Почему нечеткий петух такой тупой? Ответ: он не может его посчитать.

-------SAMPLE 5 END-------
это не совсем петух - это дохуя умный петух.
> Ну так они же все из говна, блядь.

-------SAMPLE 6 END-------
потому что он не знает где деньги и как их достать.
Поясните, почему во всяких сайтах есть ссылки на эти сайты?

-------SAMPLE 7 END-------
потому что он слишком тупой и думает, что это нормально и правильно в жизни, что не нужно бояться и прыгать с крыши, чтобы поймать на улице воробья, и он не
такой
-------SAMPLE 8 END-------
он ленивый
Анончики, а я не вижу смысла в том, чтобы кому-то донатить за то, чтобы он зарабатывал на моем обуви?

-------SAMPLE 9 END-------
из-за того что у него было много денег, он их на мороженое с пивом откладывал.

-------SAMPLE 10 END-------
потому что петух не может иметь 2 / 3 своего тела, а его тело - 3 / 3 своего тела.

-------SAMPLE 11 END-------
все верно написано.
> Человек с клювом уже месяц не может найти выход из дома.

-------SAMPLE 12 END-------
в курсе.
> в курсе.
Какой петух - петух говна не нюхал?

-------SAMPLE 13 END-------
потому что я не знаю, как правильно делать пиздабол.
Бамп
А ты не думал, что будет смешно, если в клубе?

-------SAMPLE 14 END-------
потому что он долбоеб.
К сожалению я не хочу в это играть.
Как же так получилось?
> Как же так вышло?

-------SAMPLE 15 END-------
у него не может быть яиц, у него просто улетает кукушка.
Если тебе не похуй, то ты ничего не потеряешь.

-------SAMPLE 16 END-------
я знаю одну девочку.
-------SAMPLE 17 END-------
потому что у него нет глаза, а в глаза не может насрать.

-------SAMPLE 18 END-------
у него три четверти скулы отклеилось
bump
> на самом деле он тупой.

-------SAMPLE 19 END-------
потому что он в рот ебаный.
Вопрос: как зовут мальчика с собакой и почему он так уёбывает? Ответ: у него нет имени.

-------SAMPLE 20 END-------
потому что он не знает, что делать.
Почему?
Ответ: Потому что он не может понять что делать.

-------SAMPLE 21 END-------
потому что он был не в курсе того как я попал на этот остров.

-------SAMPLE 22 END-------
потому что он все время под шконкой сидит.
Для начала займись делом.

-------SAMPLE 23 END-------
это ебаный пидораший петух.
Потому что это твой петух.

-------SAMPLE 24 END-------
это не семён.

-------SAMPLE 25 END-------
хуй знает.
> То есть ты мне не веришь?
Ну так ты же в свои 26 - 3 undefined5 лет живешь.

-------SAMPLE 26 END-------
потому что у него нету головы.
А зачем он вообще?
Ответ: это он тупой.
> Нет, он тупой.
> Ебать ты тупой.

-------SAMPLE 27 END-------
он не хочет верить, что у него есть деньги.
Кто из них - петух?
Ты просто тупой петух.
Отвечай, что ты петух.

-------SAMPLE 28 END-------
потому что он не знает украинского.
1 . Зачем ты им нужен?
2 . Как вы себе представляете то, что происходит в стране?

-------SAMPLE 29 END-------
потому что не смог понять причину его суицида.
> Это не может быть интереснымЗачем ты создал тред про какую то дебилку?

-------SAMPLE 30 END-------
потому что он не знает о них.

-------SAMPLE 31 END-------
потому что не знает что такое рак, рак, рак, рак, рак.
От пидораса у него бомбануло.

-------SAMPLE 32 END-------
потому что в каждом случае петух говорит "я хочу!"и имеет при этом в виду только то, что он хочет и хочет "я хочу".

-------SAMPLE 33 END-------
потому что он не знает как это работает.
Потому что он не может знать как это работает.
Потому что он не может знать как это работает.

-------SAMPLE 34 END-------
он не знает что такое давление.
Ответ: петух не знает что такое давление.

-------SAMPLE 35 END-------
потому что он не знает, как его правильно вертеть.
Ответ: 1 . С чего начать?

-------SAMPLE 36 END-------
потому что у него нет денег.

-------SAMPLE 37 END-------
потому что он не понимает простейших вещей.
Вопрос: что такое день и сколько часов в сутки?


-------SAMPLE 38 END-------
потому что он глупый петух - он не понимает ни слова из того, что говорит петух.
А как тебе с такими вопросами?

-------SAMPLE 39 END-------

Аноним 06/01/21 Срд 06:34:32 #484 №1902223 
>>1902217
Prompt: Да ну, это несерьёзно всё. Какой-нибудь древний LSA не хуже бы сработал. Алсо, с тилибона ввод текста не работает, нажимаю ентер и ничего не происходит. Из-за чего это может быть? Куколаб с телефонами несовместим?
100%|| 32/32 [00:07<00:00, 4.47it/s]
я не знаю, но могу проверить.
Потому что надо работать над каждой новой концепцией. Не уверен, что ты сможешь осилить весь тред.

-------SAMPLE 0 END-------
если это не сингловой телефон, то может быть.

-------SAMPLE 1 END-------
нет, потому что ввод текста не работает и у меня нет встроенного плана.
> А как я понял это был хуй пойми кто из местных?

-------SAMPLE 2 END-------
нет.

-------SAMPLE 3 END-------
не знаю, у меня не было и не будет нихуя с мобилы.
Не? А где у меня телефон?

-------SAMPLE 4 END-------
с помощью iOS.
Я сам с 2012 года капчую, не могу без неё.
Да ладно тебе, не гори.

-------SAMPLE 5 END-------
да, с ним проблем нет.

-------SAMPLE 6 END-------
с ними я не сталкивался.
Почему у меня в голове, как у опа, нет логического мышления.

-------SAMPLE 7 END-------
у него нет тилибона, у него нет проблем.
Это нахуй?

-------SAMPLE 8 END-------
это все из-за него.
Так и есть в чём смысл?
Тебе-то откуда знать?

-------SAMPLE 9 END-------
Он работает на 2 . 5 Гц и работает, как часы.
А ты про что, хуле ты такой охуевший?

-------SAMPLE 10 END-------
нет, просто не может быть совместим с телефоном без сиридана.
> В чем смысл? Не знаю. Ну и в чём смысл?

-------SAMPLE 11 END-------

> битардское мореПотому что это тред о подводных камнях и их влиянии на жизнь.
-------SAMPLE 12 END-------
я не знаю ни одного андроида с iOS, не знаю даже его пароля. Как же я хочу на него установить iOS!

-------SAMPLE 13 END-------
нет.

-------SAMPLE 14 END-------
нахуй тебе его брать?
Ты реально думаешь, что это всё проделки ФСБ?
> Какие проблемы?

-------SAMPLE 15 END-------
потому, что он стоит на боинге без веса.
Ты что это, серьёзно?

-------SAMPLE 16 END-------
это обычный телефон. Обычный телефон не может быть в такой ситуации и без него.
Это не работает?

-------SAMPLE 17 END-------
нет.
> > чтобы не перегружать мозг и не ставить задачу без задач».

-------SAMPLE 18 END-------
не совместим, потому что он стоит меньше средней цены в мире - 4 к. Если ты пишешь код с телефона, то тебе на него ничего не надо настраивать.

-------SAMPLE 19 END------- [41/1827]
нет.
Да ну, это несерьёзно.
Может это рипшифт?
Двачую.

-------SAMPLE 20 END-------
к тому же, у меня в LSA нет встроенного google.
А с чем это связано?

-------SAMPLE 21 END-------
из коробки он всё равно не работает, но его можно заменить на более надёжный телефон.
Что у меня за хуйня?

-------SAMPLE 22 END-------
нет! Он просто тупой.

-------SAMPLE 23 END-------
возможно, из-за контакта между ними в виде смартфона или набора симки.

-------SAMPLE 24 END-------
он не работает из-за проплаты на абонента.
Это не отменяет того, что ты прав. А если и работает, то может не работать.

-------SAMPLE 25 END-------
я не могу пользоваться компом в этой системе.
Ну и хуя с тобой делать.

-------SAMPLE 26 END-------
у меня есть возможность его выключить, но это дорого.
>> Почему ты не отвечаешь на мои посты?

-------SAMPLE 27 END-------
но не совсем.
> Какие деньги нужны для поездки в США?

-------SAMPLE 28 END-------
нет - это одно из условий работы.
Нет. Просто.

-------SAMPLE 29 END-------
В том числе и с телефонами китайцев.
Что это за бренд?
Ответ: По той же причине китайцы не делают телефоны.

Что это?

-------SAMPLE 30 END-------
не совместим.

-------SAMPLE 31 END-------
нет, с телефона я могу нормально установить и прошить.
Да я понимаю, что ты про буддизм, но мне это вообще не интересно.

-------SAMPLE 32 END-------
нет у меня телефонов.
Ну я и говорю, это не совместимо.
Так я и говорю, это не совместимо.

-------SAMPLE 33 END-------
нет, только с китайскими устройствами.

-------SAMPLE 34 END-------
нет.
Он не с телефона ебался.
Посоветуйте какой-нибудь фильм про маньяка.
Я даже не знаю. Мне бы понравился его конец.

-------SAMPLE 35 END-------
по сути да.
Не понял, в чем суть?

-------SAMPLE 36 END-------
это прочая хуйня в этой игре.
Проиграл с этого пидораса.

-------SAMPLE 37 END-------
у меня нет телефона.
Бамп
Потому что на нём я всегда могу задать вопрос "где деньги?"или "где телефон"?

-------SAMPLE 38 END-------
у него нет доступа к интернету.

-------SAMPLE 39 END-------
Аноним 06/01/21 Срд 06:41:56 #485 №1902224 
yoba sutton.png
>>1902206
Prompt: Наборы картинок из списка это даже не жопеншмульц, это вообще без машоба делается. Почему автор последнего предложения - нечеткий петух?
100%|| 32/32 [00:00<00:00, 37.55it/s]
потому что он не может одновременно с двумя разговаривать как сука с одним и тем же набором картинок в голове.

-------SAMPLE 0 END-------
анон выше, я сам такой же долбаеб.
Вопрос: зачем он вообще запилил свой первый пост?
Ответ: чтобы запостить в реале нужный текст.

-------SAMPLE 1 END-------
я в принципе его не читал, а если и читал, то там написано что это действительно лол.
С точки зрения эволюции - это так, но вот охуеть.

-------SAMPLE 2 END-------
потому что я пишу о том как я буду писать и как буду вести себя дальше.

-------SAMPLE 3 END-------
потому что автор этого поста - недобитый пиздюк, который не знает английский.
Вопрос: где сиськи?

-------SAMPLE 4 END-------
Аноним 06/01/21 Срд 07:08:39 #486 №1902226 
А что, примеров поинтереснее с этими мегагитлер нейрон очками с миллиардами параметров нет? Просто столько кукареканья, а толку что-то не очень. Есть какой-нибудь пример, чтобы прямо проникнуться и сказать "вот до чего техника дошла!"?
>>1902224
>>1902223
>>1902222
В общем, бредогенератор уровня LSA из 90х, да он тоже умеет отвечать на вопросы и рекомендовать похожие книги.
Аноним 06/01/21 Срд 07:08:54 #487 №1902227 
>>1902210
>Только тексты постов выглядят как выдернутые пасты из бульварной литературы, вперемешку и без особой связи между ними. Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче. Не впечатляет короче.
А что ты хотел от 3гб, чтобы оно помнило не только общий вид тредов, но и их контент? Так не бывает, интернет слишком большой, чтобы помнить сленг и темы обсуждений на каждом сайте, ужав это все в 1.5 гигабайта. Но примерный вид она помнит, весьма подробно при том. Копи бабки на 4x3090.
Вообще главная фишка GPT не качество, а zero shot learning. Даже GPT2 в это может, ты добавляешь preconditioning текст с нужными примерами того, что нужно выводить, и дальше получаешь нужные ответы. GPT3 же это не просто может, а очень впечатляюще может.

В примерах выше preconditioning содержал
==
Вопрос: куда впадает волга?
Ответ: в каспийское море.

Вопрос: сколько вешать в граммах?
Ответ: примерно взвесьте.

Вопрос: где деньги?
Ответ: денег нет.

Вопрос:
==

И все, модель переводится в режим question answering.
Поэтому кстати контекст 1024 - это очень немного, потому что этот текст занимает примерно 100 токенов.

>Да и имиджбордная разметка это скорее минус а не плюс, можно подумать про петуха можно спросить только в контексте срача на дваче.
Ты спросил не просто про петуха, а про петуха на рунглише. И где это русские со своим кривым английским любят обсуждать петухов? Это та ситуация, когда нейросеть знает о тебе больше, чем ты сам.
>Не впечатляет короче.
Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.

Вот это работает с top_k=1, то есть если отключить весь рандом.

Prompt: Как называют жену короля?
100%|| 32/32 [00:01<00:00, 21.20it/s]
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 0 END-------
королева.
Вопрос: как зовут сына короля? Ответ: принц.
Вопрос: как зовут дочь короля? Ответ: принцесса.

-------SAMPLE 1 END-------

Аноним 06/01/21 Срд 07:14:02 #488 №1902228 
>>1902227
> Вот это работает с top_k=1, то есть если отключить весь рандом.
Это ты делал с этой моделью http://colab.research.google.com/github/blade1780/bert/blob/master/Gpt-2.ipynb ? Спроси, кто пыня.
> Когда технология дорастает до того, чтобы начать впечатлять, ты предпочитаешь ее игнорировать.
Например?
Аноним 06/01/21 Срд 07:19:03 #489 №1902230 
>>1902228
Часть https://github.com/mgrankin/ru_transformers GPT-2 Medium 355M параметров, часть - файнтюненый мной на битом архиваче GPT-2 Small, 124M параметров.
Надо перекачать датасет с архивача уже с учетом того, что нужно выкачивать отдельные нити обсуждений, а не просто треды одним куском, будет сильно лучше.

Prompt: кто такой пыня?
100%|| 32/32 [00:00<00:00, 41.12it/s]
пыня - это не человек, а какой-то хуёвый пидор с двачера.

-------SAMPLE 0 END-------
пыня - это диктатор, диктаторский диктаторский диктатор.
Ответ: кто такой пыня?

-------SAMPLE 1 END-------
пыня - это тот, кто не может ничего сделать для народа.

-------SAMPLE 2 END-------
пыня - это пыня пыня
> пыня - это пыня пыня
> пыня - это пыня пыня
> пыня
-------SAMPLE 3 END-------
пыня - это пыня - он сам пыня-то.
Ответ: нахуя пыня? Он просто пыня.

-------SAMPLE 4 END-------

Prompt: кто пыня?
100%|| 32/32 [00:00<00:00, 42.92it/s]
Пыня - это ты.

-------SAMPLE 0 END-------
не пыня, а Пыня.
Что такое "Пыня"?
Ответ: не пыня, а Пыня - не пыня.
> не пыня".

-------SAMPLE 1 END-------
не пыня.

-------SAMPLE 2 END-------
пыня - это Пыня.
Ну и зачем пыня Пыне?
Ответ: не важно.
Это просто смешно.
А что за пыня?

-------SAMPLE 3 END-------
Пыня - это Пыня, а не Пыня - это Пыня.

-------SAMPLE 4 END-------
Аноним 06/01/21 Срд 07:29:44 #490 №1902231 
>>1902230
> Часть https://github.com/mgrankin/ru_transformers
Искал что-нибудь подобное, наткнулся на https://huggingface.co/transformers/ это не лучше, чем искать по отдельности, тут вроде все в одном месте?
> -------SAMPLE 1 END-------
> пыня - это тот, кто не может ничего сделать для народа.
Лол, и не поспоришь.
Аноним 06/01/21 Срд 09:05:17 #491 №1902248 
>>1902231
Лучше, hugging face большие молодцы, а я ленивая залупа, не будь мной.
>Лол, и не поспоришь.
Если черри-пикать можно вообще дохуя чего интересного генерировать.
Аноним 06/01/21 Срд 10:18:51 #492 №1902274 
Нечеткий петух до торга дошел или что ИТТ происходит?
Аноним 06/01/21 Срд 11:39:08 #493 №1902308 
Сап. Есть большие наборы сырых бинарных данных, которые надо классифицировать как валидные и невалидные. В валидных обычно есть какая-нибудь структура внутри, большое количество одинаковых или похожих символов подряд часто валидные наборы имеют одинаковые последовательности символов внутри. А не валидные это обычно шум с высокой энтропией вкраплённый в валидный набор. Идея была разбить набор на чанки равной длины и прогнать каждый чанк через нейронку чтобы научить её оценивать вероятность, что этот чанк принадлежит валидному набору символов. Как лучше сеть сделать чтобы она такие особенности чанков запоминала? Боюсь простой 2 слоя конволюции, пулинг, дропаут, фуликонектед не справится с этой задачей. А какой-нибудь lstm пилить для запоминания общих черт валидных чанков боюсь излишне т.к. тогда можно было бы и не разбивать набор данных на чинки. В итоге какой вариант сети лучше всего с такой задачей справится?
Аноним 06/01/21 Срд 13:54:22 #494 №1902375 
>>1902274
Пока только охуеваем с людей которые как дети радуются очередной реинкарнации не очень складных бредогенераторов, не более.
Аноним 06/01/21 Срд 13:59:14 #495 №1902379 
>>1902206
Началось маняотрицание. А картинки рисовал кубрик, наверное.
Какие же манёвры начнутся, когда апи дадут к модельке.
Аноним 06/01/21 Срд 14:27:56 #496 №1902400 
photo2021-01-0613-42-25.jpg
>>1902379
Кубрик рубрик
Аноним 06/01/21 Срд 14:37:04 #497 №1902417 
>>1902379
>А картинки рисовал кубрик, наверное.
Картинки кто угодно мог рисовать, в том числе и самые примитивные алгоритмы, даже из шума всегда можно начерипикать удачные примеры.
>когда апи дадут к модельке.
Так а ты пошевели мозгами, почему тебе только определённый список разрешённых промтов показали.
Аноним 06/01/21 Срд 14:43:17 #498 №1902426 
>>1902417
Переходи уже к депрессии и торгу, заебал
Аноним 06/01/21 Срд 14:48:14 #499 №1902437 
>>1902426
Как же тебе рвёт, маня
Аноним 06/01/21 Срд 14:48:55 #500 №1902440 
>>1881607 (OP)
>>1881607 (OP)
>>1881607 (OP)
Аноним 06/01/21 Срд 14:49:55 #501 №1902442 
Твою мать, шапку запорол, с номером ошибся
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
>>1902436 (OP)
sageАноним 06/01/21 Срд 14:58:59 #502 №1902466 
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
>>1902462 (OP) (OP)
Аноним 06/01/21 Срд 16:54:58 #503 №1902728 
>>1901437
https://pastebin.com/jaUrBX6W
comments powered by Disqus

Отзывы и предложения