24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Активный
502
Итак, я прочитал роман Питера Уоттса “Ложная — Итак, я прочитал роман Питера Уоттса “Ложная слепота” и поделюсь мнением. Сразу предупреждаю, что будут спойлеры. Роман обычно приводится как пример выдающейся современной “твёрдой научной фантастики”. Иногда даже - как пример “сложного чтива” не для всякого читателя (Питер Уоттс - доктор биологических наук, морской биолог). На самом же деле “Ложная слепота” - довольно легкое чтиво, с которым можно справиться за день. Возможно потому, что оно вызывает любопытство и не воспринимается как “культурный долг” (в отличие от некоторых “признанных” образцов “внежаровой” литературы). Я не думаю, что для того, чтобы оценить “Ложную слепоту” нужен особый научный бэкграунд. Главный тезис романа, которым Уоттс видимо очень гордится, не имеет отношения к профессиональной компетенции автора - биологии. Это чистая философия сознания, которой в современном мире занимаются в основном аналитические философы науки вроде Дэниела Деннет или Дэвида Чалмерса и апологеты трансгуманизма вроде Рэймонда Курцвейла или Ника Бустрёма. В остальном же это чисто жанровый научно-фантастический роман про контакт с пришельцами (“Свидание с Рамой”, “Контакт” Карла Сагана и так далее) с весьма характерными тропами. Я бы сказал, что “Ложная слепота” по использованным тропам ближе всего к “Фиаско” и “Непобедимому” Станислава Лема (которые всё-же интереснее, оригинальнее и лучше написаны). Короче говоря, это роман достаточно увлекательный, но не особенно оригинальный, столпы жанра он не переворачивает и эзотерических тайн не открывает. Одним из серьёзных литературных минусов романа являются плохо прописанные персонажи. По сути, это говорящие функции: и вовсе не люди-функции в технократической антиутопии (что было бы совершенно понятно, с учетом того, что все они - фрики), а именно литературные функции автора на нарративном уровне. И служат для авторского монолога. Читателя также может оттолкнуть и то, что в твердо-фантастическом романе есть буквальный вампир (пускай и “вымерший человеческий подвид, воскрешенный в духе Майкла Крайтона”). Этот вампир не играет никакой обязательной или оригинальной функции, кроме того, чтобы быть “нечеловеческим персонажем в человеческом коллективе” (в конце он оказывается персонажем, абсолютно взаимозаменяемым по сюжетной функции с бортовым искусственным интеллектом; возможно, это просто отвлекающая уловка, чтобы избежать жанрового клише о “вредном искусственном интеллекте на космическом корабле”). Вообще, у подобных жанровых историй обычно два пути: либо это истории антропоцентрические, в которых момент рождения искусственного интеллекта - это некое “обретение сознания”, которое обычно означает появление дурного характера и склонности к инфантильным выводам (бесконечные вариации на тему создания против создателя в духе “У меня нет рта, но я должен кричать” и всевозможных матриц и терминаторов), а пришельцы - это актёры в резиновых масках, которые происходят с планеты, вся культура определена каким-то одним единственным этническим или культурным стереотипом (“Планета Шляп”); либо это истории апофатические, в которых нечеловеческий разум описывается негативным образом, через то, чем он не является (как это делает Платон с идеей Единого в диалоге “Парменид”, восточно-христианское мистическое богословие и излюбленные сюжеты Станислава Лема). Уоттс, конечно же, идет вторым путем. Но главная особенность, главная “фишка” романа, которая отличает его от аналогов и как будто является главным предметом гордости автора - это идея о том, что “сознание не является обязательным условием интеллектуальности”. Подается это как “шокирующее экзистенциальное открытие”. В английском языке есть термин edgy, которому нет прямого аналога на русском. Что-то вроде смеси показного нигилизма, за которым скрывается эпатаж. Так вот, Питер Уоттс - тот ещё edgelord, бравирующий своим обесцениванием сознания, которое подается практически в прямом авторском монологе. Это, кстати, ещё один серьезный литературный минус романа - публицистичность. Я понимаю, что показать то, о чём говорит Уоттс, куда сложнее, чем просто рассказать об этом (в особенности, если мы говорим о скользких вопросах философии). Но в то же время у Лема подобное неоднократно получалось.
11 марта 1:57
Сохранен
502
Исследования ИИ тред #1 /research/ — Исследования ИИ тред #1Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Я ничего не понимаю, что делать?Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже. Где узнать последние новости?https://www.reddit.com/r/MachineLearning/http://www.datatau.com/https://twitter.com/ylecun На реддите также есть хороший FAQ для вкатывающихся Какая математика используется?В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus Как работает градиентный спуск?https://cs231n.github.io/optimization-2/ Почему python?Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python Можно не python?Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет Что почитать для вкатывания?http://www.deeplearningbook.org/Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материалаФрансуа Шолле — Глубокое обучение на Pythonhttps://d2l.ai/index.htmlВсе книги и статьи фактически устаревают за год. В чем практиковаться нубу?http://deeplearning.stanford.edu/tutorial/https://www.hackerrank.com/domains/aihttps://github.com/pytorch/exampleshttps://github.com/ChristosChristofidis/awesome-deep-learning#tutorials Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента. Где работать? https://www.indeed.com/q-deep-learning-jobs.html Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел Есть ли фриланс в машобе? Есть, https://www.upwork.com/search/jobs/?q=machine+learning Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой Где посмотреть последние статьи? http://www.arxiv-sanity.com/ https://paperswithcode.com/ https://openreview.net/ Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском Где посмотреть must read статьи? https://github.com/ChristosChristofidis/awesome-deep-learning#papers https://huggingface.co/transformers/index.html То, что обозревает Килхер тоже зачастую must read Где ещё можно поговорить про анализ данных? http://ods.ai/ Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is/ Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах. Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
18 февраля 2024
Сохранен
502
15 апреля 2021
Сохранен
500
19 мая 2022
Сохранен
498
20 декабря 2024
Сохранен
495
1 февраля 2016
Сохранен
492
Наносеки-смузихлёбы, вам пизда. Теперь 100%, пойдёте на мороз уже в этом году. Новая модель ChatGPT — Наносеки-смузихлёбы, вам пизда. Теперь 100%, пойдёте на мороз уже в этом году. Новая модель ChatGPT Strawberry справляется с олимпиадными задачами по математике и программированию на уровне золотых медалистов международного тура. По физике в сложных тестовых заданиях, устойчивых к решению с использованием поисковика Google, она сравнима с PhD-level студентом. OpenAI планирует выпустить новую модель ИИ под названием «Strawberry», способную рассуждать и анализировать, в качестве части ChatGPT в ближайшие две недели, сообщает The Information, ссылаясь на двух человек, протестировавших модель. Цель проекта — дать возможность искусственному интеллекту генерировать ответы на запросы и самостоятельно проводить тщательное исследование различных ресурсов в интернете, чего не удавалось достичь предыдущим моделям ИИ. Следует отметить, что новая функция в значительной степени повысит качество ответов. Основная фишка - новые модели могут решать более сложные задачи в областях науки и программирования. Но им требуется больше времени на ответ. В ходе обучения они совершенствуют процесс размышления, пробуют различные стратегии и осознают свои ошибки. Интересно, что разработчики говорят о том, что "мы стремимся к тому, чтобы будущие версии думали часами, днями и даже неделями". Звучит странно, вроде хочется ответ получить побыстрей, но тут логика такая, что чем дольше модель ворочает нейромозгами, тем ответ качественней. Сейчас o1 думает несколько секунд. Первая "превью"-модель уже интегрирована в чат-бот ChatGPT и API. Также выпущена облегченная модель o1-mini, ориентированная конкретно на программирование. Промпты для новой модели можно использовать простые - o1 всё понимает, нет необходимости в обширных объяснениях.
14 сентября 2024
Сохранен
481
9 июля 2019
Сохранен
479
18 декабря 2016
Сохранен
474
10 марта 2020
Сохранен
468
22 октября 2017
Сохранен
464
24 июня 2015
Сохранен
459
23 мая 2024
Сохранен
436
9 февраля 2019
Сохранен
435
10 мая 2020
Сохранен
435
21 сентября 2015
Сохранен
434
1 февраля 2021
Сохранен
414
4 августа 2019
Сохранен
412
25 июня 2015
Сохранен
409
29 марта 2023
Сохранен
408
8 июня 2015
Сохранен
404
21 мая 2024
Сохранен
401
17 апреля 2024
Сохранен
395
13 апреля 2019
Сохранен
393
28 марта 2017

Отзывы и предложения