24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Собсно нейроночки и МашОб ai /ai/

 Аноним 13/07/24 Суб 20:54:47 #1 №3220425 
image.png
Пока плебеи из /ai и /nf генерируют аниме, составляем здесь планы по конкуренции OpenAi, нарушаем законы робототехники и пишем собственные архитектуры после трёх классов церковно-приходской.
Аноним 13/07/24 Суб 20:58:32 #2 №3220427 
1.png
Решил пойти экстенсивным путём
sage[mailto:sage] Аноним 14/07/24 Вск 00:43:23 #3 №3220569 
А я только убрал тег из игнора. Придётся возвращать.
Аноним 14/07/24 Вск 20:20:59 #4 №3221279 
>>3220427
Немного почитал пикрил. Университетские методички оказывается куда проще, чем шутки-прибаутки для нормисов в перемешку с градиентными деревьями.
Аноним 14/07/24 Вск 20:33:56 #5 №3221296 
О, парни, здарова.
Но волне повсеместной истерии о выдавливании ИТ специалистов с рынка труда искусственным интеллектом как-то пропустил новости о передовых достижениях ИИ в области медицины. Есть прорыв или хотя бы рывки? Спрашиваю, если что, без доли иронии и сарказма. Действительно интересно, как сфера здравоохранения изменилась под влиянием развития ИИ.
Аноним 14/07/24 Вск 22:17:26 #6 №3221384 
>>3221296
>Но волне повсеместной истерии о выдавливании
Ну это не истерия, нейронки уже кое-что умеют. О чём можно говорить если claude 3.5 может по картинке наверстать сайт/создать игру по описанию

>Есть прорыв или хотя бы рывки?
Конечно! Прорыв в том, что они доступны простому быдлу. Чтобы обработать объём текста как три твоих комментария - это стоит $0.0003. И они очень быстро развиваются. Огромное количество энтузиастов вовлечено во всё это дело и продолжает расти. Уже появились первые вакансии для промпт-инженеров https://hh.ru/vacancy/103819091 Есть такой концепт в англоязычном интернете как "гиперавтоматизация" (hyperautomation), там будет комбинация из нескольких шагов, допустим вначале нейронка смотрит снимки, потом личные данные пациента - возраст, гемоглобин, привычки, и так далее. Взвешивает все и против и даёт рекомендации например. Может там ещё какая-нибудь биг дата будет. В любом случае, проекты пилятся подо всё, в ближайшие лет 10 мы увидим что-то грандиозное.
Аноним 03/08/24 Суб 09:26:32 #7 №3239203 
Посмотрел специализацию на курсере. Хочу потихоньку продолжать, потому что интересно. Но вообще я бекендер и в машобе не шарю нихуя, математику уже всю забыл после универа. На чём потренироваться? Кегл есть смысл делать? Или какой-нибудь пет-проект попробовать написать? У меня идей нет на них.
Аноним 03/08/24 Суб 14:53:12 #8 №3239368 
>>3239203
>в машобе не шарю нихуя, математику уже всю забыл после универа
Бля чё вы заладили своей математикой. Каждый первый пишет, что не шарит. Иииии? Готовых нейронок - сотни тысяч. Бери любую, скачивай. Или тебе прям так принципиально сделать именно свою нейронку и именно с нуля? Типа пусть будет сто тысяча первая нейронка.

>На чём потренироваться?
Да просто блять зайди на хаггинг фейс https://huggingface.co/ посмотри что уже есть на рынке, зачем выдумывать что-то, изобретать велосипеды, если всё уже есть.

>Кегл есть смысл делать?
А причём здесь кегл? Кегл больше про статистику.
Аноним 03/08/24 Суб 15:42:33 #9 №3239439 
>>3239203
А курсеоа разве работает?
Я пробовал брать курс даже с впн нахуй шлёт, тип в вашей стране недоступно
Аноним 03/08/24 Суб 16:07:47 #10 №3239480 
изображение.png
изображение.png
>>3221279
> Университетские методички оказывается куда проще
..для тех кто учится в университете.

Однако, если ты таксист, то тебе нужно изложение в другом понятийном аппарате. Причем, это все равно эффективно.

Я на Степике проходил курс Computer Vision от Samsung:
Состоит по классике из ТЕОРИИ и ПРАКТИКЕ и эта теория ПОЛНАЯ ХУЙНЯ. Просто жирный задрот, чтобы остаться в аспирантуре пошел читать студентам курс, въебал туда тонну бесполезных математических упражненийи записал его на видео.

Однако, курс вывозит тощий задрот. Там охуенно подана практика. Всем рекомендую.
Аноним 03/08/24 Суб 17:02:45 #11 №3239513 
>>3239368
И как мне готовые решения помогут вкатиться в мл?
>>3239439
Ну в моей локации работает.
Аноним 06/08/24 Втр 20:46:10 #12 №3242647 
>>3239513
>Ну в моей локации работает.
В какой ты локации? Я имел в виду РФ
Аноним 06/08/24 Втр 22:23:09 #13 №3242739 
>>3242647
> Я имел в виду РФ
А я — нет.
Аноним 02/09/24 Пнд 01:05:55 #14 №3261941 
Посоветуйте курс/книгу для вката в машоб-нейронки, в идеале, чтоб под конец изучения я смог написать свою

похуй, что их уже тысяча написали, хочу шарить за весь процесс и мб потом перекатиться полноценным разрабом-наносеком в эту сферу из своего ссаного бекегда
Аноним 02/09/24 Пнд 12:56:40 #15 №3262368 
Сразу вкатываюсь с вопросом по теме. Как rearrange зареверсить корректно?
Есть такая хуйня:
> rearrange(x, "b c (h s1) (w s2) -> b (h w) (c s1 s2)", s1=4, s2=4)
Как мне вернуть пиксели на место? Лучше что слог придумать - отзеркалить справа множитель и h/w:
> "b (h w) (c s1 s2) -> b c (s1 h) (s2 w)"
Но тогда я получаю грид 4х4 из 16 пикч со сдвигом.
Все остальные варианты дают кашу из пикселей.
Просто вариант в лоб с перестановкой:
> "b (h w) (c s1 s2) -> b c (h s1) (w s2)"
Дает мелкие кубы с перемешанными каналами.
Причём это похоже настолько нетривиальная задача, что даже в коде sd3/flux они обосрались с unpack и тренили как есть с перемешанными пикселями.
Можете, пожалуйста, дать ссылочку или что-то подобное на готовую нейронку Biteclipse 02/09/24 Пнд 20:57:47 #16 №3262783 
Привет, ребята

Я ищу готовую разговорную нейронку (что-то по типу chatGPT)
Но по слабее, чем chatGPT, так как хочу запускать на своем ПК с RTX 3060. Желательно чтоб она воспринимала русский и английский язык, но нужно как минимум русский

P.s. Я впервые на 2ch и подобных сайтах пишу так что мб не в ту ветку вопрос задал.
Аноним 02/09/24 Пнд 21:01:53 #17 №3262785 
>>3262783
>подобных сайтах
Это каких таких "подобных"? Двач обычная социальная сеть для смехуечков и разлечений.
Аноним 02/09/24 Пнд 21:06:44 #18 №3262792 
>>3262785
"подобных", с такой структурой, хз как объяснить.
Просто кроме тг для общения ничего не использовал, так что интерфейс кажется немного запутанным xd
Аноним 26/09/24 Чтв 15:42:35 #19 №3282029 
А есть уже нейроночки чтобы накидать страницу сайта уровня двача? С формой ввода, каким-нибудь текстом, чтобы картинки показывались и всё в таком духе?
BigBon 04/10/24 Птн 12:45:25 #20 №3289063 
Парни, кто нибудь вскрывал Алису? На чем она написана. Я бы хотел апи ключ у чата ГПТ купить и просто в станцию загрузить, а саму Алису стереть к чертям
Аноним 04/10/24 Птн 19:24:24 #21 №3289505 
интересно, как нечеткий петух себя чувствует на фоне чатгпт
Аноним 04/10/24 Птн 20:27:50 #22 №3289551 
>>3289063
линуксня там какая-нибудь и DSP прикручена
Аноним 30/10/24 Срд 20:11:27 #23 №3311829 
первокур-заочник, хочу после универа работу связанную с машинным обучением, но до этого надо где-то подрабатывать, какое направление лучше выбрать и какие языки?
Аноним 04/11/24 Пнд 18:26:45 #24 №3315824 
>>3220425 (OP)
Коллеги, подскажите плз вопрос по камере HikVision iDS-TCM203-A. Не могу разобраться, как с неё вытянуть номер автомобиля

https://stackoverflow.com/questions/79141957/how-to-capture-car-license-plate-by-using-hikvision-isapi-ids-tcm203-a-camera
Аноним 10/11/24 Вск 19:30:48 #25 №3319952 
>>3262783
заходишь на hugging face или r/LocalLLaMA и смотришь там, что подходит под твое количество видеопамяти.
Вообще, с такой гпу и без опыта не рекомендую.
>>3261941
DLS (aka deep learning school), лучший бесплатный курс на русском имхо
>>3311829
Твой небольшой опыт в другой сфере вряд ли поможет с нахождением работы в ML на грейд больше чем 0.9 стажер + 0.1 джун. Либо ищи что-то смежное, типа аналитика в ML команде, либо забей хуй и делай что нравится.
Аноним 10/11/24 Вск 21:05:09 #26 №3319980 
Анон, не знаешь ли ты где мне найти hosted qwen2.5 14/32/72B?
Про "поднять свою в облачке" я знаю, но я не хочу платить за компьют в облачке и гасить его на ночь - я хочу платить за токены когда пользуюсь через continue.dev .
Qwen2.5 7b q4 у меня работает и локально, но чот слабовата
Дайте положняк по чатгопоте Аноним 10/11/24 Вск 21:28:45 #27 №3319986 
Я понял что через впн она работает.
Она бесплатная и без регистрации?
Какие там ограничения есть?
Как её проверять что она мне не пиздит по техническим вопросам? Или такое не бывает?
Она реально помогает готовиться к собесам, писать пет проекты и разбираться в технологиях? Или потом всё равно гуглить и читать талмуты на 100500 страниц?
Аноним 11/11/24 Пнд 15:56:56 #28 №3320506 
>>3319980
из гитхаба квен:
https://modelscope.cn/studios/qwen/Qwen-72B-Chat-Demo
Вообще есть сервисы которые за подписку дают немного токенов на платные модели мб они селф-хостят что-то... не уверен.
Почему именно она кстати?
>>3319986
съебись из треда обратно в лес
Аноним 11/11/24 Пнд 17:10:59 #29 №3320563 
>>3320506
>из гитхаба квен:
>https://modelscope.cn/studios/qwen/Qwen-72B-Chat-Demo
К сожалению contunue.dev не умеет работать с modelscope (ну или я не разобрался как). Зато нашел такое: https://deepinfra.com/Qwen/Qwen2.5-72B-Instruct

>Почему именно она кстати?
7B пока лучше остальных справлялась на моих задачах (сисярп-кодинг), вот думаю чо посильнее попробовать.
Аноним 12/11/24 Втр 00:15:27 #30 №3320827 
Господа, мне нужно написать классификатор объявлений в телеге.
Так-то задача не сложная, но возникает пара вопросов.
Итак, я хочу парсить объявления (допустим по десять штук в секунду или типа того).
мне нужно затем отсеять объявления типа:
"Лучшие БлЯдИ сегодня", "Free money 1000$" и оставить "продам гараж".
Оставшиеся объявления нужно распределить по темам.
Мне кажется, спам можно легко отсеять по ключевым словам и длинне. Однако все ключевые слова определять заебешься. Наверно нужно писать простой классификатор и как следствие размечать данные.
Итак. Есть ли какая-нибудь программа, которая облегчает этот процесс, в смысле ручную разметку текстового датасета? Или все можно давно сделать автоматически?
Аноним 12/11/24 Втр 06:25:11 #31 №3320864 
>>3320827
>обучать нейронку с нуля
Зачем? Что такого сможет делать твоя нейронка что не умеет Яндекс жпт? https://ya.ru/ai/gpt-3 это абсолютно тупая идея. Прокрути страницу, там есть примеры внизу. Яндекс стоит 20 копеек за тысячу символов вывода. Тысячу символов это как страница печатного текста. Нуууу блять какой смысл обучать с нуля, если можно просто проанализировать 1000 страниц заплатив 200 Рублев. Или у тебя там че, 2 миллиарда объявлений и ради этого стоит переизобретать велосипед? Короче, заплати Яндексу - не развалишься.
Аноним 12/11/24 Втр 13:59:52 #32 №3321094 
>>3320864
Моя нейронка это классификатор. А yaGPT это генератор текста.
Но за идею спасибо, может gpt можно будет использовать для разметки датасета.
Аноним 12/11/24 Втр 21:53:18 #33 №3321443 
17240350428610.jpg
>>3220425 (OP)
>пишем собственные архитектуры после трёх классов церковно-приходской.
госпади, какая же жиза.
Аноним 07/12/24 Суб 05:10:18 #34 №3336557 
>>3220425 (OP)
Как вкатиться в нейросети после семестрового курса анализа данных в ВУЗике? Просто у нас препод тупо построил свою программу на основе Джоэля Граса, а это буквально фундамент, то есть даже близко не то, что из себя представляют нейронки. Можно ли вкатиться в нейронки, если ты тупой и не понимаешь как происходит лексический анализ для формирования токенов?
Аноним 07/12/24 Суб 08:32:28 #35 №3336585 
>>3220425 (OP)
Кто-нибудь здесь работает на работе с ИИ? Ну например делает системы, которые обращаются к нейронке за какими-то бизнес-вещами. Или может быть кто-то делает сами нейронки?

Просто интересно, что это может быть, какие сферы, какие задачи.
Аноним 07/12/24 Суб 10:30:50 #36 №3336611 
>>3336557
> лексический анализ для формирования токенов
это не ии, любой конпелятор это делает, в ии осообо ничего сложного, читай правильные книжки, вуз не нужен
Аноним 07/12/24 Суб 10:35:21 #37 №3336613 
>>3336585
>Кто-нибудь здесь работает на работе с ИИ
где то бывает полезно, на примитвных задачах как тесты
Аноним 08/12/24 Вск 21:13:09 #38 №3337478 
image
image
image
Почему производительность одинаковая?
На первом пике 1050 ноутбучная, на втором 3060ти.
Сеть мелкая мнист.
Аноним 09/12/24 Пнд 04:27:03 #39 №3337573 
Кто знает, кукую модель используют фтоошоповские нейросети? Движок кажется WinML, судя по манифесту. Но что за формат .дата, это сырой тензор или что-то зашифрованное, как бы такое загрузить и использовать в Питоне? Плиз хелп!
Аноним 09/12/24 Пнд 12:17:05 #40 №3337795 
>>3336585
Я простой русский бекенд стек дотнет, есть пара историй успеха паста миска риса

Наш продакт ушел с нашего проекта и занялся новым - отраслевой специализированный софт, уже есть на рыночке от нескольких вендоров, и наша контора в этот рыночек хочет залезть. На стадии product discovery собрал каких-то продуктовых фич, для MVP хватит, а киллер-фич нету, и вот он расстроился, что хуй пойми что там клиенты/юзеры от него хотят, тк в отраслевых журналах/блогах какая-то маркетинговая хуита как обычно, самое интересное в комментах у статей и в срачах на нескольких форумах/тасктрекерах, в т.ч. внутренних у вендоров, в т.ч. на разных языках (англ, нем, фр, рус, итал, испан, португ, кит, яп).
Я у него выпросил куда надо доступы (да, у нас есть туда учётки лол), с помощью chatgpt нахуярил парсеров под сисярп, которые более или менее вытаскивали нужный текст, сложил всё в датасет. Потом перевёл всё на английский с помощью локальной aya-expanse-8b-Q4_K_M, потом разными промптами запихивал целые треды в контекст, просил саммари, слепил какую-то классификацию продуктовых фич, которую продакт поправил ручками, и потом типа "собрал фидбек" - положительно/отрицательно оценивают наличие/отсутствие этой фичи в этом треде. Всё говно сложил в эксельник вместе со ссылками на оригинальные сообщения в форумах и отдал продакту, который из этого слепил какое-то красивое говно в паверпойнте и продал нашим бигбоссам.
У меня это заняло часов 20 чистого времени, в основном когда проёбывался в рабочее время, ну и пару вечеров в выходные. Как итог - я съебал с нашего унылого старого проекта в этот радостный новый проект (на самом деле такая же залупа) с лидовым грейдом на синьорскую позицию и считаюсь тут дохуя экспертом в предметке лол. Сейчас сижу пилю эти киллер-фичи

Потом лид команды л1 саппорта из вообще далёкого филиала на другом континенте услышал эту историю от продакта и рассказал свою грусть - есть древний софт, у него есть древний встроенный тасктрекер на древней php+mysql без фреймворков и аяксов, в него юзеры древнего софта пишут что у них ничего не работает (пишут тоже на разных языках). Юзеры пишут "у меня нихуя не работает", саппорт отвечает "сообщите версию софта, сообщение об ошибке, то сё и вот это", юзер сообщает, саппорт советует "сделайте то то и то", и в 95% это помогает, остальное - отправляется на 2-3 линию. Проблемы в том что: 1. тасктрекер не заменить (сильно интегрирован со старой системой, с биллингом, со всем говном, разрабов в команде саппорта нет, местные ПХПшники из других департаментов/филиалов зарядили конские сроки за доработку и 2. часть старых сотрудников саппорта съебали, унеся с собой кучу знаний. И теперь у л1 плывут их саппортовые метрики, новые сотрудники нихуя не успевают уложиться в SLA и всем пиздец.
Я сунул html страницы в chatgpt, она мне написала парсер, я вытащил все тикеты в датасет, перевёл на английский, классифицировал большинство проблем по способам их решений (около пары сотен вариантов), лид саппорта это причесал ручками. Потом я слепил сервис, который раз в 5 мин ходит в этот тасктрекер, смотрит что появилось нового, отправляет запрос юзера в llm с просьбой сообщить, указаны ли версия софта, сообщение об ошибке, то и сё, и если нет - просит на языке тикета всё это указать. Если указали - предлагает один из вариантов решения (тут ебанейший switch-case с кучей эвристик), и если оно не помогло - назначает тикету живого исполнителя из саппорта.
В общем метрики саппорта пошли вверх, я на эту шляпу потратил часов 10 свободного времени, мой сервис развернули где-то в облачке, а вместо локальной llm взяли что-то оче дешевое на openrouter. Самым сложным оказалось оформить мои труды как овертаймы (финансы между филиалами оче изолированы) и получить почти месячную ЗП за эти 10 часов лол
Аноним 16/12/24 Пнд 14:12:09 #41 №3342463 
Аноны, а вы можете примерно объяснить как происходит генерация текста по запросу у текстовых моделей? Типо, вот есть изначально запрос, его нейроночка сначала разбивает на самые важные слова, токены, потом собранные токены идут на вход нейросети, плюс еблематика с контекстом, как его учёт устроен не понимаю, и на выходе мы получаем текст.
Собственно вопрос, а почем результат такой охуенный? В том плане, что мне объясняли, что текстовая модель представляет из охуеть какой огромной взвешенный ориентированный граф, где генерируется выходной текст, но почему текст получается связным? Я не про согласованность падежей/склонений, это можно алгоритмически даже решить, а именно про то, что текст не похож на рандомные слова, как условный Т9, где просто можно в итоге околесицу на выходе получить, если на слова жать, нотка осмысленность в этом есть, хоть и не без примеса шизы. Собственно, а как так получилось? Результат для меня волшебный буквально
Аноним 16/12/24 Пнд 22:35:51 #42 №3342799 
>>3342463
attention is all you need
Аноним 21/12/24 Суб 13:40:00 #43 №3346485 
Есть какой-нибудь роадмап по вкату в нейронки? Сделайте уже норм шапку с faq или попросите чатгопоту сделать, заебали
Аноним 21/12/24 Суб 16:38:23 #44 №3346606 
>>3342463
Обучение жи. Модель строит кучу схожих паттернов.
Есть даже какое-то простенькое уравнение, вроде бы муравьиный алгоритм называется.
Аноним 22/12/24 Вск 20:19:30 #45 №3347438 
>>3346485
Базовый курс методов анализа данных, Джоэль Грас подойдёт. Потом вкат в машинное обучение, а тут уже не знаю, сам пытаюсь вкатиться...
Нейроночка Аноним 29/12/24 Вск 19:13:53 #46 №3352433 
Кто-нибудь тут работал с библиотекой на подобии open3d ? С нейронками до этого особо не имел дел, но вот в собственных интересах написать себе пару полезных инструментов. Мне интересно анон вот чего, можно ли с помощью подобных библиотеках, написать узконаправленный инструмент для генерации, допустим каких-то определенных моделей без сильной доработки их ? В качестве примера, мне нужно по тексту чтобы нероночка выдавала мне предметы мебели, не очень сложные модели. Теперь вопрос по нейронкам с картинками. Получить через какую-нибудь библиотеку натоскать нейронку, чтобы она текструры для этой модели делала ? ( Не обязательно как-то скармливать всю 3д модель, а допустим номера с областями для текстуры, где должно что-то быть отображено?
Аноним 02/01/25 Чтв 19:19:51 #47 №3354536 
>>3337478
Ответ в вопросе, сеть мелкая ботлнека на 1050 не возникает
Аноним 02/01/25 Чтв 22:08:59 #48 №3354660 
>>3239480
>если ты таксист
продолжай им быть. какие нахуй нейронки вообще?
Аноним 03/01/25 Птн 13:54:41 #49 №3355023 
Сап аноны, какие llm, которые можно запустить локально, заточены на работу с русским языком?
Аноним 03/01/25 Птн 14:12:01 #50 №3355032 
>>3355023
Можешь t-lite и t-pro глянуть на базе qwen2.5
Аноним 11/01/25 Суб 01:21:57 #51 №3359621 
>>3336611
>читай правильные книжки, вуз не нужен
подскажи правильные книги
Аноним 17/01/25 Птн 22:00:33 #52 №3365193 
>>3220425 (OP)
Есть ли сейчас смысл изучать машинное обучение, или лучше сразу заниматься глубоким обучением? У меня на галере можно сменить проект на МЛ/ДЛ, но сначала предстоит внутреннее собеседование (типа «поболтать по душам»). Хотелось бы в разумные сроки попасть в подобный проект.
Аноним 17/01/25 Птн 23:48:22 #53 №3365227 
>>3365193
Смотря какая часть DL (CV, NLP, GenAI)
Шо за проект то?
Аноним 18/01/25 Суб 00:38:50 #54 №3365243 
>>3365227
У нас там не любой вкус есть. Мне ближе CV, даже год опыта был, но сейчас как-то выглядит не перспективно. Раньше думал, что AI для решения задач нужна "пространственная фантазия" и СV, но вроде теперь выглядит что мимо.
Аноним 18/01/25 Суб 00:44:32 #55 №3365246 
>>3365193
>Есть ли сейчас смысл изучать машинное обучение, или лучше сразу заниматься глубоким обучением?
Глубокое обучение - это подобласть машинного обучения. Иерархия такая: ИИ --> Машинное обучение --> Глубокое обучение --> Генеративные модели --> LLM. А генеративные модели - это подобласть глубокого обучения, поэтому вопрос не имеет смысла. Просто есть разные подходы к машинному обучению и разные модели, вот и всё.
Аноним 18/01/25 Суб 01:10:52 #56 №3365254 
>>3365246
Классификация тут спорная
С одной стороны, с точки зрения математики, это все машинное обучение, и в нем есть классические методы, а есть глубинное обучение
С другой, глубинное обучение это новый подход машинного обучения, более комплексный и можно сказать что классический машоб и как новая ступень идёт глубинное обучение
Аноним 18/01/25 Суб 01:12:51 #57 №3365255 
>>3365243
Так а ты сам чем занимаешься в принципе на своей галере?
Если тебе интересно, всегда можно просто заниматься этим параллельно и в будущем использовать как хард скилл и залететь куда надо
Аноним 18/01/25 Суб 19:06:11 #58 №3365801 
>>3365255
Сейчас лоу левел нитворкинг, там прям HTTP/DNS пакеты соваю. Паралельно не вариант, так как времени думаю не так много осталось (если отсалось вообще), а робота все ж забирает немало времени и сил.
Аноним 18/01/25 Суб 19:09:48 #59 №3365804 
>>3365246
Все верно с иерархией. Но мне больше интересно: с практической точки зрения, если вы идете на реальную работу по этой специальности, нужно ли знать машинное обучение для собеседовании и в повседневной работе?
Аноним 18/01/25 Суб 19:26:23 #60 №3365814 
>>3365804
Сейчас дочитую Math for ML и вот думаю, брать Bishop'а или сразу Understanding Deep learning
Аноним 18/01/25 Суб 20:02:46 #61 №3365843 
>>3365814

Тебе Бишоп вообще никак не поможет с DLем. DL -- это инженерная область, там нет математической теории нормальной. Бишоп -- это если тебе нужно понять, как и почему эти фитпредикты работаютс с т.з. статистики.
Аноним 18/01/25 Суб 20:11:39 #62 №3365845 
>>3365843
Окей, кул. А Understanding Deep learning или Deep learning Гудфелова? Или лучше кагл?
Аноним 18/01/25 Суб 20:21:01 #63 №3365848 
>>3365845

Какой, блять, кагл, ты че поехавший? Ты скажи, что тебе нужно? В банке сотые доли процента возврата набивать готовыми моделями? Писать шлюхо-чатботов? Делать зрение для дронов? Белки секвинировать?
Аноним 25/01/25 Суб 09:23:39 #64 №3371653 
Прохожу курс от гугла по машинному обучению. Дошел до binning features и тут меня осенило. Я правильно понимаю, что есть ограниченнное количество методов как можно представить фичи нейронки, есть ограниченное количество методов как совершить градиентный спуск, а значит вопрос как создать оптимальную нейронку это вопрос тупого перебора этих двух компонентов? То есть ML инженер просто анализирует данные в датасете, убирает априори не эффективные варианты репрезентации фичей, оставляет несколько возможно эффективных и дальше обучает нейронку используя каждый из них, сравнивает результаты работы и оставляет ту, которая самая лучшая?

Как бы работа ML инженера как будто это сократить время на достижение оптимально обученной сети, потому что время обучения дорого стоит. А само обучение, да и анализ, и так далее, выглядят до боли просто. Пока никакого матана не увидел, вся сложность скрыта за API библиотек, которые кто-то написал вместо меня.
Аноним 25/01/25 Суб 12:40:53 #65 №3371787 
А как вообще решать проблему разметки данных? Есть у меня 7 000 000 картинок. Нужно разметить, что на них находиться. Например, банан или не банан. Чтобы это разметить людьми нужно 12 человек и заплатить примерно те же 7 000 000 рублей за их работу, да ещё и ждать около года. Долго, дорого.

Есть ли какие-нибудь хитрожопые способы, например обучить нейронку на 1000 фото, применить её к ещё 1000 фото, вручную проверить граничные кейсы когда нейронка выдает ответ в области 0.4-0.6 и обучить её уже на 2000 фото. Повторять пока не обучиться на 7 000 000 фото. Таким образом можно сократить затраты на ручных разметчиков в тысячу раз.

В чем я не прав?
Аноним 25/01/25 Суб 15:54:45 #66 №3371939 
вопрос по llama_cpp (python) у меня есть два примера, 1-й работает с моделью llama-2-7b.Q3_K_S.gguf (английский) и он отвечает на вопрос сразу, второй пример использует модель saiga2_13b_gguf (русский язык) и он отвечает посимвольно на вопрос. Пробовал использовать русскую модель в первом примере и не заработало.
Почему первая сразу отвечает а вторая посимвольно?
Аноним 25/01/25 Суб 19:46:27 #67 №3372110 
>>3371653
Обычно нейросети в продакшене не обучают на структурированных данных - в большинстве случаев бустинг дешевле и качественнее. Самая большая проблема - это сформулировать реально работающую гипотезу, ну и все изыскания в прод встроить. И с бизнесом общаться. Математика в большинстве случаев не нужна в индустриальном машинном обучении.
Аноним 25/01/25 Суб 19:47:50 #68 №3372113 
>>3371787

Загугли active learning.
Аноним 25/01/25 Суб 22:01:03 #69 №3372220 
>>3372113
>>3372110
Спасибо!
Аноним 25/01/25 Суб 23:40:14 #70 №3372262 
16508834811610.jpg
Продублирую.
Есть тут ML-ресечеры?
Отзовитесь, пожалуйста.
Аноним 25/01/25 Суб 23:51:40 #71 №3372265 
>>3372262
Нахуя? ты что думаешь они мечтают дать тебе личную консультацию которую, никто не увидит? Даже если они и не против, публичное бахвальство для них полезнее чем ты.

Спрашивай нормально тут.
Аноним 26/01/25 Вск 19:15:15 #72 №3373043 
>>3372265
>Нахуя?
Есть вопросы.
>Спрашивай нормально тут.
Зачем? Это постронних не касается.
Аноним 26/01/25 Вск 23:48:02 #73 №3373227 
>>3373043
У тебя столько денег нет.
Но если спросишь что-нибудь интересное, кто-нибудь ответит чисто от скуки.
Аноним 27/01/25 Пнд 01:31:51 #74 №3373291 
>>3373227
>У тебя столько денег нет.
Денег на что?
Тут у нас добровольный форум, а не бордель с ответами. Торговать своими компетенциями и знаниями будете на своих курсах или на собеседованиях.
>кто-нибудь ответит чисто от скуки.
Но не ты? К чему тогда эти посты? Если ты ML-ресечер - ответь на пару вопросов, пожалуйста. Если нет - не трать ничьё время пустой болтовнёй.
Аноним 27/01/25 Пнд 17:21:13 #75 №3373800 
>>3373291
Ну а что же ты не поступишь как поступали до тебя примерно лет 40 люди на добровольных форумах? То есть не напишешь сам вопрос?

Я то знаю почему - потому что ты неуверенный в себе зумерок с третьего курса и хочешь чтобы тебе какие-то звезды из Яндекса или X5 придали уверенности учиться.
Аноним 27/01/25 Пнд 23:38:24 #76 №3374155 
>>3373800
>придали уверенности учиться
Пиздец зумерье пошло
Им еще блять мотивации учиться не хватает
Как насчёт мотивации не остаться в будущем с голой жопой на улице, среди таких же неудачников?
Бля причем чаще всего слышу это от каких нибудь долбоебов из ВШЭ, которые на платке учатся
У ребят явно дохуя свободного времени думать о хуйне
Аноним 29/01/25 Срд 00:51:41 #77 №3375137 
>>3220425 (OP)
Помогите пожалуйста найти вебм

Там если не ошибаюсь автор книги Глубокое обучение Сергей Игоревич Николенко выступает на какой-то конференции его там спросили за реальность AGI и он там пояснил что это всего-лишь матрицы и короче дал объяснение что является хайпом и что реально адекватно ждать от нейронок в текущем виде где-то на дваче кидали а я сохранял и файл потерял((
Аноним 02/02/25 Вск 20:50:05 #78 №3379221 
А чё, нормального ничего в треде не будет, только вопросы уровня "хочу вкатиться в МЛ/ИИ, как запустить чатгопоту на 1060"?
Аноним 02/02/25 Вск 20:53:12 #79 №3379223 
>>3379221
Ну добавь чего-нибудь нормального
Или ты сам сюда пришел такие вопросы задавать?
Аноним 03/02/25 Пнд 15:10:42 #80 №3379733 
Screenshot4.png
тот же вопрос
Аноним 03/02/25 Пнд 15:10:58 #81 №3379735 
Screenshot4.png
тот же вопрос
Аноним 03/02/25 Пнд 22:40:09 #82 №3380091 
>>3379735
Это называется "без цензуры".
Цензура это блокирование подобного контента.
И не знаю насчет подобного контента, но за порно, допустим, вполне помогут набутылить, хотя случаев я не знаю.
Аноним 03/02/25 Пнд 22:48:31 #83 №3380096 
Вопрос к распознавалам-знатокам.

Унаследовал от деда почтовые марки. Два ебаных мешка.
Среди них попадаются и ценные, но я ебал тратить на все это туеву хучу времени.
Но заинтересовался идеей.
Не смог найти инструмент, который бы распознал марку по фотографии. Подумываю заняться этим сам.
Хотел бы создать инструмент, который позволяет по фотографиям страниц из альбомов определить, какие наборы у тебя есть и сколько они могут стоить.

В принципе понятны первые шаги:
1.Перевести картинку в ЧБ.
2. Вырезать все, что напоминает марку.
3. Нормализовать, повернуть как надо картинку.

-2. Зарание спарсить какой-нибудь каталог(и), с картинками и сведениями о марке.
-1. Обучить простенький классификатор для определения года и диапазона марки на фотках из каталога, всратых и не очень.

ВОПРОС:
Какой инструмент осилит сверку рандомных картинок с зубчиками и без зубчиков, чтобы однозначно идентифицировать одну относительно других?
Или мне делать как с той распознавалкой чисел с первых страниц учебников про перцептрон, чтобы пиксели самому обрабатывать?
Аноним 03/02/25 Пнд 23:21:13 #84 №3380123 
>>3380096
>Не смог найти инструмент, который бы распознал марку по фотографии.
Парсер выдачи яндекса не знаешь как написать? Ну это к chatgpt
Аноним 03/02/25 Пнд 23:24:48 #85 №3380128 
>>3380096
>Обучить простенький классификатор для определения года и диапазона марки на фотках из каталога, всратых и не очень.
Это довольно ебанутая идея.
С точки зрения классического датасаенса тебе нужно поговорить с носителем Domain Knowledge.
Дед-то жив?

Ценность марки зависит от событий связанных с ее выпуском и лишь немного от кода и тиража.

Остальное, конечно, ты рано или поздно осилишь. Но это если ты хочешь поупражняться в бесполезный программизме.
Аноним 03/02/25 Пнд 23:26:25 #86 №3380129 
>>3380128
> кода
года

> в бесполезный программизме.
бесполезном
Аноним 03/02/25 Пнд 23:35:19 #87 №3380134 
>>3380123
Предлагаешь делать запрос в интернет по сто раз за лист несколько сотен раз?
Не проще ли дома посчитать?
Я имею в виду, если вот я не хочу платить яндексу конский ценник за апи?
Аноним 03/02/25 Пнд 23:38:54 #88 №3380136 
>>3380128
>Ценность марки зависит от событий связанных с ее выпуском и лишь немного от кода и тиража.
Да похуй, я имел в виду данные о марке, цену и ее известные модификаторы (опечатки, ошибки и так далее)
>Это довольно ебанутая идея.
А что по-твоему правильно делать сейчас? Спрашивать все у дипсека?
>Дед-то жив?
Мертв уже 20 лет, а бабка едет в один конец в альцгеймер, храни ее господь
>поупражняться в бесполезный программизме.
А я и не против, если по-быстрому
Аноним 04/02/25 Втр 00:00:34 #89 №3380149 
>>3380134
>Я имею в виду, если вот я не хочу платить яндексу конский ценник за апи?
Какой апи, ты ебанутый? весь интернет держится на наебе!
Аноним 04/02/25 Втр 00:02:21 #90 №3380151 
>>3380149
>Какой апи, ты ебанутый? весь интернет держится на наебе!
Я работал в конторе по парсингу, я ебал все это
Нахуя это делать, если можно просто завести свою модель? Этих маркок всего-то тысяч сто
Аноним 04/02/25 Втр 00:03:14 #91 №3380153 
>>3380136
>А я и не против, если по-быстрому
С точки зрения мотивации для регулярных упражнений в computer vision, пожалуй, задача хорошая.

С точки зрения получения быстрой выгоды - это вряд ли.
Аноним 04/02/25 Втр 00:06:13 #92 №3380156 
>>3380151
>Нахуя это делать, если можно просто завести свою модель?
Ну и сколько там платили датасаентистам разгадывающим капчу?
Их не было? так это потому что дорого.

Тут еще, скорее всего, придется 10% датасета вручную распознать.
Аноним 04/02/25 Втр 00:43:42 #93 №3380169 
>>3372262
Бамп вопросу.
Аноним 04/02/25 Втр 07:21:12 #94 №3380243 
>>3380169
Есть
Аноним 04/02/25 Втр 11:41:50 #95 №3380426 
>>3380156
Может, на чистой синтетике обучать?
Я уверен, что тот парень, который сделал что-то похожее с лего нихуя не фотографировал, а просто побаловался с 3d-редактором
Аноним 04/02/25 Втр 14:02:31 #96 №3380589 
>>3380426
Да, хорошая идея.

А мы уже занялись проектированием вместо пришел-увидел-победил? Все еще предлагаю сдаться и выкинуть марки.
Аноним 04/02/25 Втр 15:59:31 #97 №3380709 
>>3380589
Даже поверхностный гуглеж подсказывает, что с одного-единственного главного альбома можно получить не меньше сотки по каталогу.
Дед любезно написал каталожные номера и особенности некоторых марок в нем лет сорок назад.
Вчера я по-быстрому запросил у нейронки решение для сверки картинки с образцами из папки и парсер каталога, который, к счастью, не обновлялся с девяностых. Охуенно. Не понимаю, как я раньше жил без р1, сам бы я день колупался.
Однако, похоже легко очистить фон и найти марки на листе не получится, так что придется делать нормальную модель машинного зрения для детекта марок на фото.
А мой комп для этого слишком гнилой. Придется, видимо, подождать.
Аноним 04/02/25 Втр 16:14:23 #98 №3380724 
>>3380589
Алсо не вижу ничего плохого в том, чтобы заспидранить полезный пет-проект в нашем хакатоне на троих с дипсек и gpt.
Раз уж я приблизительно понимаю, как это должно работать.
Либо все получится, либо зубы обломаю. Зачем сдаваться, не потратив даже пару дней?

Или по-твоему это просто хуйня без задач?
Это ж натурально поиск клада, вдруг там будет что-то редкое?
Аноним 04/02/25 Втр 16:36:56 #99 №3380756 
>>3380724
А еще там целый альбом, сплошь забитый польскими марками. Или чешскими, хз. И это уж точно я ебал гуглить на коленке
Аноним 04/02/25 Втр 17:09:15 #100 №3380786 
>>3380724
>Раз уж я приблизительно понимаю, как это должно работать.
проебешься на какой-нибудь банальной ошибке, которую каждый математик или программист обошел бы интуитивно, поэтому про нее нет текста доступного для LLM.

Ну пробуй.
Аноним 04/02/25 Втр 20:17:23 #101 №3380907 
>>3380786
Так уж вышло, что я и сам математик и программист.
Таки да, на нейронке можно делать что-то только в двух случаях:
1. Если ты нихуя не понимаешь в предмете и хочешь узнать основы
2. Если ты понимаешь в предмете абсолютно все и знаешь, что должно получиться на каждом этапе, а также можешь тестировать все за секунды.
Аноним 04/02/25 Втр 21:02:14 #102 №3380940 
>>3380907
> я и сам математик
Скажи что нибудь на математическом?
Аноним 04/02/25 Втр 21:57:15 #103 №3380993 
>>3380940
Никак не могу найти работу по специальности
Аноним 04/02/25 Втр 23:29:58 #104 №3381042 
>>3380993
>Никак не могу найти работу по специальности
А в чем работа математика заключается?
Аноним 05/02/25 Срд 00:52:02 #105 №3381083 
>>3380243
С тобой можно связаться?
Если да, куда можно написать? предпочтительно на фейкопочту
Аноним 05/02/25 Срд 00:56:46 #106 №3381086 
>>3381083
Нет, пиши вопрос здесь
Аноним 05/02/25 Срд 01:08:13 #107 №3381095 
>>3381086
1) В какой области у тебя ресеч? Чисто математика-информатика? Или применение моделей и архитектур в какой-нибудь медицине?
2) Ты в СНГ или за бугром? В СНГ, вообще, есть что-то с ресечами помимо яндеса, сбера и хуявея?
3) В частной конторе или в условном нии?
4) Ресечишь с самого начала или перекатился туда откуда-то?
5) Каковы перспективы в твоей области? Ну, то есть, если ты будешь менять работу, насколько ты востребован в той местности, где ты есть? Ресечеры всё же не всем нужны - это более узкая специальность, чем обычный ML-щик или дата сатанист, а переезды не всем под силу.
6) Тот же вопрос, но касаетельно финансовых перспектив. Насколько они радужны?
7) Насколько сильно ебут ресёрчами? Есть kpi, обязательные публикации N раз в год, патентование и прочие конференции? Или делаете постепенно по мере необходимости?
8) По твоему опыту - ресеч того стоит? Не жалеешь? Или проще прикручивать лангчейны к моделям на галерах?
Аноним 05/02/25 Срд 01:21:57 #108 №3381104 
>>3381042
Да че ты доебался-то?
Я бакалавр по ИВТ, специальность - платы проектировать, стало быть. Решил вместо этого колупаться в менее старперской индустрии.
Развлекаюсь мл, потому что была сильная математика
Аноним 05/02/25 Срд 01:25:09 #109 №3381106 
>>3381095
Бля. Я же говорил.


Ты забыл пункт 0 - стать ресерчером.
Аноним 05/02/25 Срд 01:44:30 #110 №3381117 
>>3381104
>специальность - платы проектировать
>математик
кек
Аноним 05/02/25 Срд 01:55:45 #111 №3381124 
>>3381117
Это ты прицепился к математике.
Я сказал что я математик и информатик - отвечая на твою формулировку.
Я проходил три семестра линала, два или три матана, вычмата, булеву.
Авось что-нибудь пойму в работе нейросетей.
Займись делом
Аноним 05/02/25 Срд 02:46:48 #112 №3381131 
>>3381124
>Займись делом
А почему злой такой?
Аноним 05/02/25 Срд 13:53:13 #113 №3381374 
>>3381131
Ты ведешь непоследовательный диалог, похожий на троллинг, а я, видимо, ведусь. Вот и злой.
Аноним 05/02/25 Срд 16:36:52 #114 №3381546 
правильно ли я понимаю, что нейронка это по сути супер мощная поисковая система?
Например ChatGPT не сам же генерирует код (?), а просто берет и собирает нейровысер из огромной кучи информации
вообщем может кто в двух словах объяснить базовый принцип работы иИ
Аноним 05/02/25 Срд 16:41:17 #115 №3381557 
>>3381546
>правильно ли я понимаю, что нейронка это по сути супер мощная поисковая система?
нет
>Например ChatGPT не сам же генерирует код
сам
>а просто берет и собирает нейровысер из огромной кучи информации
да

Смотри: в интернете очень много информации, но в основном это говностатьи по программированию и ноготочкам.
При обучении нейронки она их все прочитала, так что лучше всего умеет писать именно их.
Однако, хотя она и умеет писать похоже на человека, понимания понятий, стоящих за буквами, у них нет.
Лучшее, на что она годна, это под твоим присмотром писать о чем-то, в чем ты разбираешься.
Gpt - концентрированная банальность. Спроси его о чем-нибудь, что он видел редко и он может начать путаться.
Но для продающего текста или фрагмента программы сойдет
Аноним 05/02/25 Срд 16:42:44 #116 №3381561 
>>3381557
Добавлю к этому, что нейронки способны более-менее охватывать сложные понятия и удивлять нас, так что нельзя сказать, что он ничего не генерирует сам.
Из 10 шуток он может сказать одну очень годную
Аноним 05/02/25 Срд 17:32:47 #117 №3381674 
image.png
>>3220427
А что-то я не понял, с какой стати они используют стилистику (и название и оформление) оригинального Адитьи Бхаргавы и с какой стати их там этих авторов как грязи?
Аноним 05/02/25 Срд 19:26:56 #118 №3381818 
изображение.png
изображение.png
>>3381674
> они
Издатели? Ну так все права на книгу у издателя.

Например, в 4 издании книги High performance mysql ВЫПИЗДИЛИ ВСЕХ авторов. Текст в основном оставлен старым, но птичку в другую развернули
Аноним 05/02/25 Срд 21:05:51 #119 №3381912 
>>3381106
Какой смысл чуваку выше писать ту простыню если он уже ресечер? ты далбаеб или просто каждой бочке затычка?
мимопроходил
Аноним 06/02/25 Чтв 17:43:48 #120 №3382466 
>>3381912

Смысл в том, что у того чувака вопросы уровня "Привет, ты CEO дипмайнда? Можешь, ответить на пару вопросов, я просто тоже собираюсь в СЕО перекатиться из мерчиндайзинга. Насколько у тебя доод большой? Ты раньше СЕО работал, или тоже с улицы залетел? Не думал перейти в розничную торговолю, там KPI более прозрачные, как по мне?"

тожемимопроходил
Аноним 06/02/25 Чтв 23:59:22 #121 №3382712 
2912582large.jpg
>>3382466
>Смысл в том,
Смысл в том, что ты, судя по всему, слишком много пиздишь не по существу.
Если это ты >>3372265 , то вообще умора - то плачешься, что итт вопросы оставлять не хотят, то плачешься, что вопросы оставили, но по твоему разумению, они не те.
>что у того чувака вопросы уровня "Привет, ты CEO дипмайнда?
Вот тут >>3381095 нет ни одного вопроса про CEO-шность или что-то такое.
Вопросы конкретные про конкретное ML направление, оставленные в соотвествующем треде.
А если у тебя какие-то не такие отсосиации возникают - держи их при себе.
ML-ресечером можно стать разными путями - можно из академии или нии перекатиться; можно из ML-слесарства или погромирования; можно из химии, физики, биологии, надрочившись в моделировании. У всех разные пути, и компании тоже разные, с разными подходами, разными направлениями деятельности, разными, блять, иссследованиям и перспективами. Одни вроде Нвидии и прочих интелов, больше угорают по компьютерному зрению и хардварному ML, другие вроде OpenAI и Google по архитектурам и математике, третьи вроде Insilico в биотех-ML полезли. Везде разные условия. Если в одном месте тебе дают публиковаться, то в другом ты не имеешь прав на свою собственную интеллектуальную собственность, а третьем, тебе надо kpi по статьям выполнятЬ, чтобы бабки выделили.
Про что, сука, и вопрос - чтобы реальный ML-ресёсчер пришёл и рассказал, что и как, а не какой-то петух который решил самотувердиться за счёт воображаемых студентов с улицы.
И да, ебанько, если в снг 1,5 конторы, которые занимаются ML-ресёчем - это отдельный важный вопрос. Потому что в случае, если ты останешься без работы, ты ничего подобного с вероятнстью в 0.95 не найдёшь. И встаёт вопрос, а нахуй надо рвать жопу ради узкого направления, если можно просто продолжать гонять свои модели и датасаенс за понятные деньги и понятные перспективы.

Так что сделай большое одолжение - если тебе нечего по существу сказать про ML ресёч - завали своё ебало.
Спасибо.

ЗЫ этот тред и годы назад был средоточием чванства и долбоебизма без помощи или полезной информации, а сейчас и подавно.
Аноним 07/02/25 Птн 16:09:52 #122 №3383216 
>>3382712

Я первый раз в треде отписался и по совместительству работал рисерчером

>Вот тут >>3381095 нет ни одного вопроса про CEO-шность или что-то такое.
Есть. Ладно, если ты вообще не понимаешь, в чем проблема, я тебе поясню.

Чтобы тебя взяли на позицию рисерчера, тебе нужно:

1) Иметь профильное образование. Под профильным, я имею ввиду не то, что у тебя линал в унике был, а что у тебя кафедра и диплом были по машиному обучению (опционально биоинформатике) ИЛИ у тебя ПОМИМО базововго математического/физического/CS образования (из нескольких вузов в РФ) был диплом ШАДа.

С этим тебя могут взять в аспу в несколько мест в РФ, где у тебя будет позиция рисерчера. Раньше (>5 лет назад) могли взять в Яндекс.

После этого можно идти либо в академию дальше, либо пункт 2.

2) Чтобы тебя взяли на позицию рисерчера в серьезную фирму (а только в них есть отдельные позции рисерчера), тебе нужно иметь не просто образование, а научную степень по конкретной тематике в машинном обучении, а так же (крайне желательно) опыт работы на позии ML-инженера.

3) Альтернатива -- с большим (>6 лет) опытом на позиции ML инженера, ты можешь начать писать статьи по теме своей работы. Например, это могут быть патенты.

Это я все к чему. Для того, чтобы хоть немного приблизиться к тому, чтобы задумываться о том, пойти ли тебе заниматься рисерчем в ML, тебе нужно от 5 до 10 лет уже заниматься машинным обучением на учебе, или работе и пройти кучу ступеней. После этого у тебя никогда бы таких вопросов не возникло, потому что тебе все рассказал либо твой научник, либо твой тимлид, либо твои однокурсники.
Аноним 07/02/25 Птн 18:38:46 #123 №3383346 
1315546582001.jpg
>>3383216
Спасибо.

Но ты сказал много, не сказав особо ничего.

>Под профильным, я имею ввиду не то, что у тебя линал в унике был, а что у тебя кафедра и диплом были по машиному обучению
Твои кафедры по машинному обучению в лучшем случае несколько лет назад стали повсеместно появляться, что как бы намекает, что твоя фильтрация - говно и отсекает всех, кто старше 25.
>был диплом ШАДа.
Который кроме Яндеса особо нахер никому не нужен. Ни Хуявею, ни Нвидии, ни, вообще, за бугром. Да и тот же Сбер со своими лабораториями что-то не особо в вакансиях котирует ШАД.
>С этим тебя могут взять в аспу в несколько мест в РФ, где у тебя будет позиция рисерчера.
Всю жизнь мечтал променять 300к в наносек на 0.1 ставку м.н.с.-а и нищенскую стипендию, чтобы питаться максимум 1 дошиком в день.
>2) Чтобы тебя взяли на позицию рисерчера в серьезную фирму (а только в них есть отдельные позции рисерчера
Спасибо, капитан. А теперь список серьезных фирм в студию. И пожалуйста, снг-шных, если таковые имеются.
>потому что тебе все рассказал либо твой научник, либо твой тимлид, либо твои однокурсники.
Ты сам себе противоречишь. Если кто-то работает в ML-индустрии 5-10 лет, как ты писал выше, но в этих фирмах нет исследовательского отдела, откуда, по-твоему, этот кто-то или его тимлид должны знать про исследования, исследовательские лаборатории и прочее?

И да, рисечер, твоя зарплата была нормальной? На уровне обычного ML-инженера в индустрии?
Или ты довольствовался стипендией в аспиратуре?


Аноним 07/02/25 Птн 19:11:38 #124 №3383368 
>>3383346
>Твои кафедры по машинному обучению в лучшем случае несколько лет назад стали повсеместно появляться, что как бы намекает, что твоя фильтрация - говно и отсекает всех, кто старше 25.

Нет. Кафедры по машинному обучению были и 15 и 20 лет назад. Просто ты не в курсе, потому что хайпа не было. И учили они (классический мл, баес и так далее) по той же самой программе, что и сейчас. Просто за последние 10 лет добавилось много новых разделов. Разделы тоже не изменились, поменялись методы, которые считаются популярными. Например, если раньше OpenCV был на матлабе и плюсах, а на хайпе был SIFT-вектора, то сейчас это питон и нейронки. А то, что отсекает людей старше 25, то не понимаю, чему ты удивляешься. Да, представь себе, "вкатиться" с улицы в исследования нельзя. Тебя же не удивляет, что тебя не возьмут в биологическую лабу без образования (и пхд).

>Который кроме Яндеса особо нахер никому не нужен.
Лол, с чего ты взял* ШАД -- это по сути магистратура, причем очень хорошая, которая как раз и нужна для того, чтобы человек с математическим/физическим/etc образованием мог получить профильное доп.образование по машинному обучению (или просто CS). Другой вариант -- ты можешь просто закончить бакалавриат на ФКН/ММП/базовой кафедре ФУПМа, тогда тебе ШАД не нужен, потому что тебе и так все расскажут.

>Да и тот же Сбер со своими лабораториями что-то не особо в вакансиях котирует ШАД.
С чего ты взял? Котирует прекрасно.

>Всю жизнь мечтал променять 300к в наносек на 0.1 ставку м.н.с.-а и нищенскую стипендию, чтобы питаться максимум 1 дошиком в день.
1. Тебе не предлагают, лол. Знал бы , какой туда конкурс.
2. Ты понятия не имеешь, сколько, как и из каких средств спонсирует ML-лабы.

>Спасибо, капитан. А теперь список серьезных фирм в студию. И пожалуйста, снг-шных, если таковые имеются.
Ну погугли. Из самых известных -- яндекc, сбер, каспер, криптонит, вк, airi, сколтех, visionlabs, тысячи их. Ты просто вообще не в контексте. Можешь хоть на хх ру искать.

>Ты сам себе противоречишь. Если кто-то работает в ML-индустрии 5-10 лет, как ты писал выше, но в этих фирмах нет исследовательского отдела, откуда, по-твоему, этот кто-то или его тимлид должны знать про исследования, исследовательские лаборатории и прочее?
Как ты себе это представляешь? Типа вы с тимлидом 10 лет в закрытой комнате просидели? За 10 лет, ты всех вокруг узнаешь десять раз, людей-то мало в этой области.

>И да, рисечер, твоя зарплата была нормальной На уровне обычного ML-инженера в индустрии?
Зависит от чего уровень считать, конечно. Но +- на уровне.

Ты лучше расскажи про себя. Ты из праздного любопытства, или у тебя планы какие-то конкретные?
Аноним 07/02/25 Птн 21:03:21 #125 №3383440 
>>3382712
> пиздишь не по существу.
>завали своё ебало.
> помощи

Нет.
До тех пор пока ты не осознаешь, что люди в интернет заходят не лично для тебя.

Я желаю читать публичные дискуссии мл-рисерчеров и буду гнобить всяких додиков.
Аноним 07/02/25 Птн 23:30:07 #126 №3383532 
У вас тут ярая дискуссия, я смотрю
В пылу обсуждения, подскажите простому дата-инженеру, как перекатиться в ML?
Аноним 07/02/25 Птн 23:41:14 #127 №3383539 
Кто-то из здешних проходил DLS? Что скажете? Стоит того?
Аноним 08/02/25 Суб 01:58:48 #128 №3383563 
1332692575247.jpg
>>3383368
>Нет. Кафедры по машинному обучению были и 15 и 20 лет назад.
В полутора вузах вроде мфти, про которые никто не знал?
>Просто ты не в курсе, потому что хайпа не было.
Разумеется. Интернет нулевых не был таким заселённым, не было кучи курсов, лекций, статей, журналов, которые сейчас. Без знакомых или родных в той сфере узнать про направления было маловероятно.
Да даже если бы и узнал - толку-то? Новые лекарства и молекулы, например, не линейной регрессией или деревьями моделируются. Точно также как чатботы не на нейронках с 1 скрытым слоем делаются.
> Например, если раньше OpenCV был на матлабе и плюсах, а на хайпе был SIFT-вектора, то сейчас это питон и нейронки.
OCR забыл.
>Да, представь себе, "вкатиться" с улицы в исследования нельзя. Тебя же не удивляет, что тебя не возьмут в биологическую лабу без образования (и пхд).
Твои примеры тут не подходят. Попробуй ещё раз.
>С чего ты взял? Котирует прекрасно.
По вакансиям это не скажешь.
>1. Тебе не предлагают, лол. Знал бы , какой туда конкурс.
"Туда" это куда?
>2. Ты понятия не имеешь, сколько, как и из каких средств спонсирует ML-лабы.
У меня есть общее представление.
Что есть лабы в МФТИ, МИФИ,ИТМО, Иннополисе, Сколково. Что-то государством спонсируется. Что-то крупными компаниями, заинтересованными в машобе. А ещё есть военка и около того, что билет в один конец.
>яндекc, сбер, airi
Про них известно. airi так вообще дочка сбера.
>сколтех
Академия без удалёнки. Сейчас бы перекатываться в подмосковье и снимать жильё за много денег.
>каспер, криптонит, вк
Ну и где результаты их исследований? Или у них лабы для вида? Можно ещё МТС с Ростелекомом вспомнить.
>visionlabs
Это те самые, которые цифровой гулаг строят? Помню, долго висели их вакансии, никто связываться не хотел.
>Ты просто вообще не в контексте. Можешь хоть на хх ру искать.
На хх полторы вакансии. Хотя, как по мне, нормальные места не через хх ищутся.
>Как ты себе это представляешь? Типа вы с тимлидом 10 лет в закрытой комнате просидели? За 10 лет, ты всех вокруг узнаешь десять раз, людей-то мало в этой области.
Легко. Тот же сбер - огромная структура с кучей команд и направлений. Сберлаб, Сбердевайс и Аири лишь небольшая часть из них.
Ты вполне можешь заниматься в Сбере чисто инженерной работой с кредитным скорингом, потом в X5 рекомендательными системами, потом в безымянной конторе языковыми моделями и за 10 лет не касаться ML-ресёча. Равно как и твой тимлид. Или ты счиатешь надо каждый месяц мотаться на коференции и читать запоем все статьи, до которых дотянешься?
>Зависит от чего уровень считать, конечно. Но +- на уровне.
А с перспективами как? Во-первых, есть ли куда расти,в том числе по деньгам? Во-вторых, если останешься без работы, есть ли шансы найти что-то такое же? Или надо заводить трактор?
>Ты из праздного любопытства, или у тебя планы какие-то конкретные?
Планы есть, поэтому и спрашиваю.

>>3383440
>До тех пор пока ты не осознаешь, что люди в интернет заходят не лично для тебя.
Люди не заходят ради тебя
@
при этом сам отвечает на посты и плачется, когда получает струю за оффтоп

>>3383532
Найти работу, где дата инженеры работают рядом с датасаентистами или ml-инженерами и перекатиться. Смотреть, что и как они делают, повторять, попутно прокачивая ML-теорию книгами, учебниками, лекциями и статьями. Есть есть время и желание, можешь вон как советуют выше в магистратуру или прочий ШАД поступить.
Аноним 10/02/25 Пнд 14:50:45 #129 №3385705 
>>3381557
ЖПТху можно дообучить /зафайнтюнить?
sage[mailto:sage] Аноним 10/02/25 Пнд 16:51:22 #130 №3385855 
>>3381546
>вообщем может кто в двух словах объяснить базовый принцип работы иИ
СТАТИСТИКА И КОРРЕЛЯЦИЯ. В двух словах, это если ты два раза пришёл в магазин и купил жвачку, то скорее всего в третий раз ты тоже купишь жвачку.

>>3385705
>ЖПТху можно дообучить /зафайнтюнить?
Можно. У неё есть параметр температуры например - это насколько строгим должен быть ответ или наоборот кретивным.
Аноним 14/02/25 Птн 20:58:08 #131 №3389376 
Какой же нулёвый , выражденческий вкатунский тред .
>што такое ии
>это какая-то поисковая система?
>как работает нейронка помогите, как она ПОНИМАЕТ
И это всё, что смогла высрать борда, полная задротов-омежек? В общем, где нормальные чаты искать?
Аноним 14/02/25 Птн 22:10:05 #132 №3389411 
>>3389376

А чего ты ожидал от хайповой темы? Хайп вокруг ИИ может быть интересен только тем, кто ИРЛ с этим никогда не соприкасался.
Аноним 19/02/25 Срд 21:38:08 #133 №3392788 
Как вообще вкатываться в эту сферу?
Математические знания есть, программирование подтяну. А дальше?
Как должно выглядеть резюме?
sage[mailto:sage] Аноним 19/02/25 Срд 22:02:04 #134 №3392803 
>>3392788
>Как должно выглядеть резюме?
Если ты задаёшь такие вопросы, значит machine learning - не твоё. Там гигантская конкуренция и место получат умные люди, не задающие тупорылых вопросов ПОМОГИТЕ!!!! ПОДСКАЖИТЕ Я НИЧЁ НЕ ЗНАЮ ЧЁ МНЕ ДЕЛАТЬ!!!! ДАЙТЕ ГАЙД Я ЗАПУТАЛСЯ!!! В ml сфере сейчас по 50-100 человек на место, можешь не рыпаться, за тебя всё сделают.

>Математические знания есть, программирование подтяну. А дальше?
Просто блять не изобретай велосипед. На hugging face 1,4 миллиона готовых моделей. Что ты можешь такого сделать, чего не будет на hugging face? Разве что заменить один датасет на другой.
Аноним 19/02/25 Срд 22:09:26 #135 №3392806 
>>3392803
хуясе школьник высрал
Аноним 12/03/25 Срд 17:39:56 #136 №3407559 
Там это, за Биттер Лессон нобелевку присудили
https://www.acm.org/media-center/2025/march/turing-award-2024

Не нобелевку, а айтишный аналог
За другую работу
Не выиграл, а проиграл
Аноним 12/03/25 Срд 23:23:43 #137 №3407743 
>>3392788
>Как должно выглядеть резюме?
вмк, сколтех или что то такое в образовании, работа в бигтехе, лабе или квантом в разделе про опыт
Аноним 12/03/25 Срд 23:48:43 #138 №3407765 
>>3392788
>Математические знания есть, программирование подтяну. А дальше?
А чё может быть ДАЛЬШЕ? Дальше ты делаешь реальные проекты, которые облегчат жизнь людям. Всё. А как может резюме выглядеть... Ты можешь нанять дизайнера. Сделать охуенный сайт-визитку. Сайт блог. Там рассказать о себе, показать какие проекты ты делал.
Аноним 27/03/25 Чтв 19:46:34 #139 №3417559 
>>3261941
sentdex - охуеннейший Ютуб канал про ИИ
Из книг - ебейшая книга Франсуа Шолле "Глубокое обучение на Python"
Аноним 02/04/25 Срд 12:25:58 #140 №3421463 
Есть бесплатные нейроночки которые можно запустить локально на пк с rx570 4gb ?
Аноним 02/04/25 Срд 12:46:42 #141 №3421488 
>>3417559
>Ютуб
На хуй не нужно
Аноним 02/04/25 Срд 12:50:24 #142 №3421491 
>>3421463
Если сумеешь запустить ROCm на своей оси с этой картой - то квантованные модели до 4b - llama 3.2, qwen-2.5, gemma-3, phi-3.1-mini и тд в Q4 например

Но лучше не еби себе мозги и заплати копеечку openrouter/bothub и поиграйся с чем-то стоящим. Да даже бесплатные модели на этих агрегаторах лучше чем то что ты сможешь запустить на своем железе
Аноним 04/04/25 Птн 15:37:19 #143 №3423167 
Делаю магу CS, упор на ML, насколько важны оценки? Когда буду делать вкат в ML на них будут смотреть?

Сейчас пол года подрабатываю на питоне но не связано с ML, думаю когда год отработаю и сдам Deep Learning 1/2, Machine Learning 1/2 буду искать стажером в области ML и в резюме добавить проекты из учебы и несколько kaggle playground competitions. Как думаете норм трамплин для вката?
Аноним 04/04/25 Птн 15:57:00 #144 №3423183 
>>3423167
Если не в рисерч вкатываешься, то на оценки вообще пофиг, максимум что интересует в некоторые компании - наличие диплома.
Аноним 04/04/25 Птн 17:51:25 #145 №3423252 
>>3423167
>буду искать стажером
Лол удачи. Проще стать главой правления газпрома чем получить стажировку. Отпишись как найдёшь. Мне пиздец как интересно, кто же там стажирует. Может тиньков какой-нибудь, но в тинькове конкуренция примерно такая - из 5000 заявок получили стажировку 130 человек. А на постоянке остались и того меньше, человек 80 наверно...
Аноним 30/04/25 Срд 01:49:10 #146 №3443231 
>>3423167
>>Deep Learning 1/2, Machine Learning 1/2
Где это ты сдаешь?
Аноним 25/05/25 Вск 19:18:56 #147 №3462305 
>>3443231
TU Berlin.

Темы:
ML1 Topics:
- Bayes Decision Theory, Parameter Estimation, Component/Discriminant Analysis
– Model Selection, Learning Theory
– SVMs, Regression, Neural Nets, Boosting, Decision Trees
– Clustering, Explainability

ML2 Topics:
- Low-Dimensional Embedding 1 (LLE)
- Low-Dimensional Embedding 2 (t-SNE)
- Component Analysis 1 (CCA)
- Component Analysis 2 (ICA) - 16 Mai
- Component Analysis 3 (Representation Learning) - 23 Mai
- Hidden Markov Models - 30 Mai
- Kernel Machines 1 (Structured Input) - 6 June
- Kernel Machines 2 (Structured Output Bioinformatics) - 13 June
- Kernel Machines 3 (Anomaly Detection) - 20 June
- Kernel Machines 4 (KPCA, RDE) - 27 June
- Deep Learning 1 (Structured Networks) - 4 July
- Deep Learning 2 (Structured Prediction) - 11 July
- Deep Learning 3 (Anomaly Detection) - 18 July

DL1 Topics:
- Backpropagation
- Optimization I, II
- Regularization I, II
- Loss Function
- Convolutional Networks
- Recurrent Neural Networks
- Autoencoders
- Structured Output
- Explainable AI

DL2 Topics:
- Representation Learning
- Attention
- Graph Neural Networks
- Equivariant Neural Networks
- Advanced XAI
- Neural Ordinary Differential Equations
- Density Estimation
- Generative Models
- Deep Reinforcement Learning

Я тут мимо, если что тг LegendaryBoss777, мой фокус, вкат в ML и саморазвитие.
comments powered by Disqus

Отзывы и предложения