Сохранен 46
https://2ch.hk/b/res/250596203.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Аноним 10/07/21 Суб 20:38:04 #1 №250596203 
1CWIJiiIi3j-LAm-wcZmw.png
150Cr7WuDDSPHBXxfX2ocsw.gif
В 2019 году два студента китайского университета выполняли проект с ИИ, представлявший собой простую игру «волки против овец». Старший участник команды, учащийся в Китае гражданин Таиланда, после выпуска из университета переехал работать в Австралию, поэтому проект оказался заброшенным.

Младший участник команды начал преподавать. В марте 2021 года он рассказал в переписке одному своему студенту о результатах эксперимента. Студента так развеселила эта история, что он сделал скриншот текста и разослал его своим друзьям.

Эти скриншоты стали виральными в китайских соцсетях и породили небольшую сенсацию.


Лучше смерть от камня, чем поимка овцы

Игра была простой. Компьютер случайным образом располагал на игровом поле двух волков и шесть овец. Волкам нужно было за 20 секунд поймать всех овец и уклоняться от камней.

Чтобы мотивировать ИИ-волка повышать свою производительность, разработчики также создали простую систему очков.

Если волк ловил овцу, то он получал 10 очков. Если он сталкивался с камнем, то вычиталось 1 очко. Чтобы волки имели стимул ловить овец как можно быстрее, за каждую прошедшую секунду у волков отнималось 0,1 очка.

У волков были и другие способности — они знали, в каком направлении смотрят, что находится перед ними, где расположена овца, собственная скорость, скорость овцы и т.д., а также множество других параметров, которые должны были помогать волкам в их охоте.

Цель проекта заключалась в том, чтобы проверить, смогут ли ИИ-волки путём обучения и переобучения найти способ максимизировать количество получаемых очков.

Спустя 200 000 итераций исследователи обнаружили, что чаще всего волки просто ударялись о камни, чтобы совершить самоубийство.


Булыжниковые камикадзе

Авторы потратили три дня на анализ и поняли, почему ИИ-волки готовы скорее совершить самоубийство, чем поймать овцу.

В первых итерациях волки чаще всего не могли поймать овец, что приводило к серьёзным штрафам за время. Поэтому они решили, что если в начале игры они находятся достаточно близко к камням, то, «логически размышляя», мгновенный суицид приведёт к меньшей потере очков, чем трата времени на поимку овец.

Таким извращённым способом харакири ИИ-волк «оптимизировал» свою производительность, минимизируя штраф за потраченное время.

Результат оказался таким, потому что ИИ беспокоился только о том, как оптимизировать свою производительность математически, как это и бывает в большинстве случаев применения алгоритмов машинного обучения.


Непредусмотренные последствия «чёрных ящиков»


Забавно, что эта бесстрастная реакция искусственного интеллекта на условия простой игры породила эмоциональный отклик среди китайских пользователей Интернета, благодаря чему история о волках-камикадзе распространилась по различным социальным сетям страны.

Разумеется, это возродило и привычные дискуссии об этике и безопасности ИИ. В одном посте в Zhihu (китайском аналоге Quora) опубликован список того, как эксперименты с эволюционным ИИ приводили в прошлом к искажённым результатам. Некоторые из них были шокирующими или даже потенциально опасными.

Например, в эксперименте 1994 года по эволюции организмов обнаружился один вид ИИ-организмов, который выяснил, что вместо того, чтобы перемещаться в ИИ-мире, занимаясь охотой на еду и поисками пары для продления рода, оптимальным решением будет оставаться на одном месте и «спариваться друг с другом, бороться друг с другом, убивать друг друга и поедать павших».

Этот вид исследователи довольно метко прозвали «ленивыми каннибалами».

В ещё одном эксперименте учёные использовали ИИ для оптимизации давления разрыва, прикладываемого к кабелю на посадочной площадке авианосца, когда приземляющийся самолёт зацепляется за него для торможения.

Вместо того, чтобы выполнять правильные расчёты, ИИ выяснил, что при приложении достаточно большой силы в системе возникало «переполнение» и регистрировалась нулевая сила. Это позволило ИИ добиться кажущегося идеальным приземления, однако в реальности такое решение привело бы к катастрофе.


Корпоративные волки и их недосягаемые овцы


Обсуждение приобрело и философский поворот: молодые деморализованные сотрудники китайских корпораций увидели в волке-самоубийце идеальную метафору себя: нового класса «белых воротничков», которых часто убеждают работать в режиме 996 (с 9 утра до 9 вечера шесть дней в неделю) в стремлении за мечтой о повышении, увеличении зарплаты, удачной женитьбе… но она, несмотря на все их усилия, всё сильнее ускользает от них.

Настолько сильно, что, как и ИИ-волк, многие просто решают, что если уж изначальные условия плохи, лучше просто отказаться от охоты. Спокойное отношение и более хаотичный образ жизни кажется гораздо лучшей тактикой, чем подвергать себя стрессу и рисковать здоровьем.

Этот феномен даже стал причиной появления в современной китайской лексике нового понятия — "躺平", что буквально означает «лежать плашмя».

«Как и в реальной жизни, страховочная сетка установлена слишком низко, стимулов слишком мало, а из-за „штрафов за время“ многие считают, что лучшее решение — это „лежать плашмя“ (сдаться)»


Пробовать снова и снова


Однако вся история начатого в 2019 году проекта не закончилась на суицидальных волках. На самом деле, если прочитать переписку до конца, то можно узнать, что исследователи усовершенствовали сценарии обучения и увеличили количество итераций.

Спустя «пять поколений» по два миллиона итераций каждая, ИИ-волки наконец начали понимать, как ловить овец. Хотя они время от времени повторяли свой манёвр «булыжниковых камикадзе», теперь у них имелся приличный шанс поймать всех овец за 25 секунд геймплея.

В конечном итоге, студент и преподаватель пришли к двум выводам:

Изначальное причудливое поведение волков просто стало результатом «абсолютной и неразумной рациональности», демонстрируемой системами ИИ.
Сложно прогнозировать, какие условия будут важны для нейросети, а какие неважны.

Некоторые Интернет-пользователи указывали и на то, что структура эксперимента изначально была плохой. Если бы штраф за столкновение с камнем был гораздо выше, чем 1 очко, то ИИ-волки не прибегали бы к суициду как к простому способу выиграть игру.

К сожалению, жизнь — это не игра с ИИ. У нас не так много попыток и возможностей начать заново. Но мы имеем гораздо более мощные когнитивные способности, чем ИИ-волки, а также историю и опыт, на которых можем учиться. Не говоря уже о постоянно эволюционирующих правилах и среде человеческого общества.

Возможно, главный урок этого эксперимента заключается не в беспомощности и необходимости сдаться. Нужно подниматься, пробовать снова и снова, оставаясь в игре до самого конца.
Аноним 10/07/21 Суб 20:39:03 #2 №250596244 
бамп
Аноним 10/07/21 Суб 20:40:13 #3 №250596293 
P.S.: после того, как эта история стала виральной, один из авторов загрузил видео с окончательной версией игры, которую они создали. В реальности ИИ-волки всё равно время от времени демонстрировали некорректное поведение — сталкивались с границами игрового поля, оказывались «пойманными» овцами, отказывались съедать овцу, проходящую прямо перед ними (и совершали пресловутое «самоубийство об камень»).
Аноним 10/07/21 Суб 20:44:05 #4 №250596444 
бамп
Аноним 10/07/21 Суб 20:44:13 #5 №250596451 
Волк - двачер.
Аноним 10/07/21 Суб 20:45:49 #6 №250596527 
>>250596451
/thread
Аноним 10/07/21 Суб 20:52:06 #7 №250596829 
главный урок в том что педерастическая ии система блядского ютуба в которую вложили понятные и простые алгоритмы выдает перманентные баны за помидор в кадре потому что думает что это свастика.
Аноним 10/07/21 Суб 20:52:14 #8 №250596834 
За нейронками вообще интересно наблюдать. В большинстве случаев, они выдают решение, о котором человек даже и не думал. Что, кстати, показывает, что порой, самосознание лишь тормозит и ограничивает интеллект.
Аноним 10/07/21 Суб 20:57:01 #9 №250597058 
123.jpg
>>250596203 (OP)
лежу плашмя с 2013 года
Аноним 10/07/21 Суб 21:00:51 #10 №250597244 
оп треда лежит плашмя и не бампает
Аноним 10/07/21 Суб 21:01:40 #11 №250597282 
бамп
Аноним 10/07/21 Суб 21:02:28 #12 №250597321 
бамп
Аноним 10/07/21 Суб 21:03:16 #13 №250597364 
бамп
Аноним 10/07/21 Суб 21:04:55 #14 №250597438 
бамп
Аноним 10/07/21 Суб 21:05:52 #15 №250597478 
>>250596203 (OP)
Я порядком проигрываю с этого выдуманного жизнелюбивого вывода, который прямо противоречит и модели, и результатам.
Мол, "надо жить несмотря ни на что", лол, нахуя оставаться в игре где ты уже проиграл?
Аноним OP 10/07/21 Суб 21:07:33 #16 №250597549 
Я устал бампать. Вероятность взлёта треда низкая, поэтому я полежу плашмя
Аноним 10/07/21 Суб 21:08:48 #17 №250597601 
1543622795136-dvach-b-199717958.png
Как раз эта статья где-то открыта.
Аноним 10/07/21 Суб 21:10:35 #18 №250597686 
>>250596834
>Что, кстати, показывает, что порой, самосознание лишь тормозит и ограничивает интеллект.
Нейронки находят, вернее, нащупывают, какой-то локальный минимум/максимум функции в пространстве состояний, не озадачиваясь вопросом устойчивости, шириной области допустимых возмущений, робастности и прочей неважной чепухи. Ведь тут как в анекдоте про математика: задача имеет решение, а остальное похрен.
Аноним 10/07/21 Суб 21:20:50 #19 №250598154 
image.png
>>250596203 (OP)
Блять. Ебучие волки умнее меня.
Аноним 10/07/21 Суб 21:21:23 #20 №250598183 
16140873797960.mp4
Аноним 10/07/21 Суб 21:23:54 #21 №250598301 
Можешь навернуть Code Bullet на ютубчике, там много охуительных историй про нейронки.
Аноним 10/07/21 Суб 21:28:46 #22 №250598500 
>>250596203 (OP)
> Возможно, главный урок этого эксперимента заключается не в беспомощности и необходимости сдаться. Нужно подниматься, пробовать снова и снова, оставаясь в игре до самого конца.
Нет, пошёл нахуй. Я наберу минимально необходимое для скромной жизни, а потом буду нихуя не делать и наконец сдохну. Хуй вам, а не потребитель говна, маркетологи ебаные!
Аноним 10/07/21 Суб 21:35:33 #23 №250598842 
>>250598500
Нет, ты всё-таки возьмёшь айфон в кредит. Возьмёшь.
Аноним 10/07/21 Суб 21:36:24 #24 №250598885 
>>250596203 (OP)
Эт ещё хуета. Когда задаёшь свободы отработки алгоритмов, вообще не успеваешь понять не вдупляешь, что и нахуя творит нейронка. А если ещё и результат достигнут, то месяц будешь волосы на жопе рвать.
Аноним 10/07/21 Суб 21:39:26 #25 №250599051 
>>250596203 (OP)
Основной вывод: надо вводить штрафы за увольнение и самоубийство, чтобы быдло РАБотало лудче.
Аноним 10/07/21 Суб 21:42:35 #26 №250599226 
>>250599051
можно посадить всех в гулаги и заставлять работать из под палки.
Аноним 10/07/21 Суб 21:53:24 #27 №250599771 
>>250596203 (OP)
Ну ахуеть, дети узнали об обучении с подкреплением.

До конца не читал. во-первых, единственным триггером, оканчивающим эпизод обучения, должна быть поимка овцы, а не встреча с камнем. Встреча с камнем просто должна отнимать баллы так же, как они отнимаются за каждый сделанный безрезультатный шаг. Волк не должен знать, что удар об камень приведёт к его смерти, он просто должен научиться в любой ситуации избегать его.

Во-вторых, любой хищник по идее находится в sparke-системе(разряженной системе, где редко встречается отклик награды, либо он трудно достижим), и ему нужна внутрення награда (что-то типа животной одержимости, как у Хайдеггера - benommenheit), которая мотивирует его исследовать окружающий мир, снижая вероятность попадания в локальные оптимумы.

Признавайся, ты этот кал с пикабу скопипастил?
Аноним 10/07/21 Суб 21:53:36 #28 №250599779 
2d6d44d7-1303-46ac-a46e-15b33ea34461.mp4
Аноним 10/07/21 Суб 21:55:43 #29 №250599885 
>>250598885
Там вся суть в задании ограничений, ибо результаты бывают веселые.
Есть известная байка, когда разработчик решил обучить робо-пылесос максимально быстро, но без столкновений с препятствиями пылесосить всю комнату. Для этого поставил штрафы за столкновение и начал обучать нейронку.
В итоге пылесос летал по комнатам задом, врезаясь во все, что только можно. Почему? Да потому, что датчики приближения/столкновения у него были только спереди. А так - задача решена, условия не нарушены, все заебись.
Аноним 10/07/21 Суб 21:57:09 #30 №250599958 
>>250599771
Эта статья на хабре.
Аноним 10/07/21 Суб 21:57:14 #31 №250599964 
>>250599771
>sparke
Бля. Я на полном серьёзе полез гуглить эту хуйню, прежде чем понял, что ты просто написал "sparce" с Житомирским прононсом. Какой позор: я затроллирован хайдеггероёбом.
Аноним 10/07/21 Суб 21:59:41 #32 №250600107 
>>250599958
Однав хуйня.
>>250599964
Да, моя вина, сорри. Я не хайдегерроёб, мне термин нравится.
Аноним 10/07/21 Суб 22:11:31 #33 №250600781 
>>250596203 (OP)
нахуя было делать штраф в 0,1 очко каждую сек для мотивации
логичнее было бы чтобы ценность овец падала с каждой секундой, например если за 1 секунды игры волк поймал овцу ему давалось бы 200 очков, а если спустя 10 сек ловил то ему давали бы уже 100 очков, а если на последней то вообще 10
Вахуе с этих даунов
Аноним 10/07/21 Суб 22:14:29 #34 №250600922 
>>250600781
>нахуя было делать штраф в 0,1 очко каждую сек для мотивации
Это подход эффективных менеджеров с их KPI и штрафами за всю хуйню для мотивации. Поэтому народ валит с таких работ, предпочитает убиваться об камни или лежать плашмя
Аноним 10/07/21 Суб 22:17:19 #35 №250601053 
Это все вопрос установления красных линий. Т.е. проебался чел который устанавливал правила. И также при создании роботов можно соснуть и вымрет человечество.

Вот здесь тоже весело как ИИ находит баги программиста
https://www.youtube.com/watch?v=Lu56xVlZ40M
Аноним 10/07/21 Суб 22:19:26 #36 №250601141 
>>250596203 (OP)
>Спокойное отношение и более хаотичный образ жизни кажется гораздо лучшей тактикой, чем подвергать себя стрессу и рисковать здоровьем.
Пиздец, у них там китайского Диогена никогда не было? Почему базовое знание о жизни у них обретает философские черты?
Аноним 10/07/21 Суб 22:21:20 #37 №250601237 
>>250596834
У нейроники неограниченное число попыток. У тебя одна. Там, где можно пытаться снова и снова человек даёт лучшие результаты. Спидраны не нейроникой разрабатываются
sageАноним 10/07/21 Суб 22:25:16 #38 №250601425 
>>250596203 (OP)
Придумали дебильные условия и удивляются, ещё и уроки какие-то выносят, лол.
Аноним 10/07/21 Суб 22:27:25 #39 №250601538 
>>250601053
>Т.е. проебался чел который устанавливал правила. И также при создании роботов можно соснуть и вымрет человечество.
До роботов даже не дойтет, не успеет.
Это вопрос создания правил-законов. Сейчас такие долбоебы создают законы для общества, что проще всего убиваться об камни или лежать плашмя
Аноним 10/07/21 Суб 22:52:22 #40 №250602844 
>>250601538
>Сейчас такие долбоебы создают законы для общества, что проще всего убиваться об камни или лежать плашмя
Сначала такой еблуешь всю молодость, а потом ой блять где денюшки взять ой пойду полежу.
Аноним 10/07/21 Суб 23:25:35 #41 №250604490 
>>250602844
Сейчас бы в молодости гоняться за овцами и биться о камни, когда можно просто лежать плашмя.
Аноним 10/07/21 Суб 23:29:59 #42 №250604713 
Слишком хуево поставленная и так же жопошно реализованная задача. С учётом того, что в вузах учат как это правильно именно это делать, мне кажется история пахнет пиздежом.

Вообще при подходе к такой проблеме, для того чтобы называть её ИИ, нужно обозначить решающую систему так, чтобы исполняющая функция сама ставила ценность событий. Ей на вход поступает формализованная абстракция, описывающая ландшафт системы, а на выходе она даёт такой же чёткий, формализованный ответ.

А код-логика зависимая система это игра в бесконечный перебор, с самим собой, по заранее навязанным правилам. Есть Deep Blu, который любого гроссмейстера вздрючит в шахматы, но от этого он не станет ИИ.

Аноним 10/07/21 Суб 23:34:24 #43 №250604943 
>>250599885
Ну это дебилизм. Можно было понять что ИИ найдёт самое простое решение, удивительно почему у них робот просто не встал на месте
Аноним 10/07/21 Суб 23:59:00 #44 №250606195 
>>250604943
>удивительно почему у них робот просто не встал на месте
А зачем стоять на месте, если можно гонять задом невозбранно?
Два условия выполняются, максимум модуль скорости, ноль столкновений, т.к. датчиков на жопе нет. Ура, у нас эффективное решение!

Я когда-то, лет 10-15 назад ржал от ответа "ну у нас компьютер так посчитал", из уст бухгалтерш и прочих тупых теток.
А сейчас что-то не смешно. Когда все больше отдают на откуп нейросетям, для которых такие вот тетки ставят граничные условия, то мне становится страшно.
Аноним 11/07/21 Вск 00:16:51 #45 №250607007 
>>250601237
Не угадал. Нейронка обыграла людей в шахматы, го и во многих других дисциплинах, на которые, миллионы людей потратили сотни лет обучения. В покер например, тоже, нейронные сети показывают охуенные результаты. К тому же, во многих glitchless спидранах, и в некоторых обыкновенных, нейронки таки тоже ебут все рекорды.
Аноним 11/07/21 Вск 00:17:48 #46 №250607055 
>>250596203 (OP)
Волк - инцел. Нахуя вьебывать ради баб, когда можно просто дрочить и не ебать мозги
comments powered by Disqus

Отзывы и предложения