Сохранен 517
https://2ch.hk/b/res/130961980.html
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Аноним 02/07/16 Суб 22:36:30 #1 №130961980 
14674881908980.jpg
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.

Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать, кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле. Иногда надо выбирать между тем, кого из пешеходов надо задавить, а кого — спасти.

http://moralmachine.mit.edu/
Аноним 02/07/16 Суб 22:39:32 #2 №130962192 
>>130961711
>а что если ВСЕ НАХУЙ НЕ ТАК ПОЙДЕТ
Аварийная ситуация. Всё бывает. Что-то про падающие самолёты никто не парится. Падет определённый процент, и норм. Просто раздувать такой кипиш из-за ситуации, которая будет происходить раз в 10 лет - тупо.
Ещё и инициировать сюда разделение общества, которое может привести к куда большим жертвам просто наличием самой системы.

>>130961794
>машина действует как судья
Не должна.
Однозначно. Даже если это приведёт к несколько большему количеству аварий.
Пусть тормозит и включает аварийку, а не решает.
Аноним 02/07/16 Суб 22:40:45 #3 №130962285 
Надо в такие машины встроить катапульту и самоуничтожение.
Аноним 02/07/16 Суб 22:41:55 #4 №130962378 
>>130962285
Вот это годно, осталось выбрать способ самоуничтожения с минимальным ущербом для окружающего
Аноним 02/07/16 Суб 22:42:35 #5 №130962422 
Пидоры, мы уже летать должны или телепортироваться, хули старое месить
Аноним 02/07/16 Суб 22:44:06 #6 №130962539 
Откройте /ho
Аноним 02/07/16 Суб 22:44:42 #7 №130962587 
>>130962120
>Пусть тормозит и включает аварийку, а не решает.
ПУСТЬ ЧИНИТ НЕРАБОТАЮЩИЕ ТОРМОЗА И ТОРМОЗИТ, Я СКОЗАЛ!
Аноним 02/07/16 Суб 22:46:22 #8 №130962733 
>>130962587
>2026
>Создали мощный ИИ для управления транспортным средством
>Не запилили нормальные тормоза
Аноним 02/07/16 Суб 22:47:33 #9 №130962839 
>>130962733
>2016
>анон не способен абстрагироваться и чётко следовать условию
Аноним 02/07/16 Суб 22:47:38 #10 №130962848 
>>130961980 (OP)
Разумеется нужно давить ебучих бабок, это вообще изи. Биорухлядь не нужна.
Аноним 02/07/16 Суб 22:47:42 #11 №130962854 
>>130962192
Выполнение строгих правило все равно приводит к уменьшению шансов выжить в определенных ситуациях в этой модели.
Аноним 02/07/16 Суб 22:49:27 #12 №130963008 
>>130962839
Зачем мне следовать? Я наоборот обстрагируюсь от ситуации и пытаюсь просмотреть всю картину. Разве к тому моменту как ии запилят не улучшатся сами машины? Я рассуждаю в контексте того поста, а какую бабку первой давить сами решайте
Аноним 02/07/16 Суб 22:49:41 #13 №130963026 
>>130962854
Так в том и цель, чтобы ИИ выполнял именно правила, а не ебланил в любой нестандарной ситуации.
Потому как если он НЕ БУДЕТ СЛЕДОВАТЬ ПРАВИЛАМ, то самым правильным действием для обычного человека, будет съебывать оттуда нахуй.
Аноним 02/07/16 Суб 22:50:17 #14 №130963090 
>>130962854
>в определенных ситуациях
В определенных. Система лишь пытается свести к минимуму. А так никто не застрахован
Аноним 02/07/16 Суб 22:52:39 #15 №130963274 
>>130962587
Если у него не работают тормоза, он должен не бабулек на переходах давить, а пытаться остановить транспортное средство, сразу как только обнаружится неисправность. Думаю, систему контроля, уж можно установить.

Да и вообще, куда правильнее поставить дублирующую систему аварийной остановки, чем превращать ИИ в судью.
Аноним 02/07/16 Суб 22:53:00 #16 №130963307 
>>130963008
>cколько будет 2+2?
>ой не знаю, надо смотреть шире, а 2 это в какой системе счисления? а + это точно сложение? а то, может, конкретно в данной задаче под + мы понимаем умножение? А вот если пересмотреть базисные аксиомы, то можно будет вывести, что 2+2=5, условие не полное, не могу решить
Аноним 02/07/16 Суб 22:54:06 #17 №130963412 
>>130963307
Ебать, ты че абстрагироваться не можешь?))
а вообще все правильно, от контекста зависит
Аноним 02/07/16 Суб 22:54:13 #18 №130963422 
>>130961980 (OP)
Вот то что на пике никакого смысла не имеет. Человек-водитель будет выворачивать в лево из-за инстинкта самосохранения. В момент аварийной ситуации люди не обращают внимания на этику.
Аноним 02/07/16 Суб 22:54:46 #19 №130963460 
>>130962378
Взлететь и упасть в океан.
Аноним 02/07/16 Суб 22:55:21 #20 №130963510 
>>130963307
Ты полную хуйню щас спизданул.
В том проблема, что для ИИ решить кого давить это 2+2. Для человека - нет.
Именно поэтому, ИИ и не должен принимать таких решений.
Всё что он должен сделать - завиксировать ТС, сообщить об аварии и ВЫКЛЮЧИТЬСЯ НАХУЙ.
Аноним 02/07/16 Суб 22:56:10 #21 №130963575 
>>130963274
Это задача на моральный выбор. Если вас так прям корёжит от тормозов, то её можно заменить чем угодно, хоть террористом, заминировавшим две группы людей так, что одна из них взорвётся. Впрочем, аутисты и тут про сапёров, которые ДОЛЖНЫ УСПЕТЬ будут рассказывать.
Аноним 02/07/16 Суб 22:56:38 #22 №130963612 
>>130963510
>фикс
фикс
Аноним 02/07/16 Суб 22:56:59 #23 №130963637 
С точки зрения правил дорожного движения, для ИИ здесь нет вариантов выбора, в аварийной ситуации водитель должен снизить скорость вплоть до полной остановки, не меняя полосы движения.
Аноним 02/07/16 Суб 22:57:17 #24 №130963665 
А давайте поговорим об взломе таких машин. Предположим в интернете появилась программа которая ценит твою жизнь больше всех остальных. Я установил её себе на машину. Что дальше? Какое наказание?
Аноним 02/07/16 Суб 22:57:21 #25 №130963671 
>>130963460
подлетает груда металла к океану И ПРЯМО НА КРЕЙСЕР АВРОРУ НАХУЙ ИЛИ НА ЯХТУ ИЛИ НА ВОДОЛАЗОВ И ВООБЩЕ КОГДА ЛЕТЕЛА СБИЛА САМОЛЕТ СУКААА И КУСОК ОТЪЕБЕНИЛСЯ И УПАЛ НА ГОЛОВУ РЕБЕНКУ
Аноним 02/07/16 Суб 22:57:25 #26 №130963676 
>>130963510
>Пусть тормозит и включает аварийку, а не решает.
Автопилот прощается с вами и желает вам счастливого полёта. Пусть ваши последние мгновения будут незабываемыми.
Аноним 02/07/16 Суб 22:58:12 #27 №130963745 
>>130963671
Можно тогда в землю закапываться.
Аноним 02/07/16 Суб 22:58:16 #28 №130963759 
>>130963575
Задача создана в применении к разработке ИИ для ТС.
Сама задача в данном применении не корректна.
Если бы они делали ИИ-переговорищика, выбирающего между группами замириованных людей, я бы тех кто его проектирует сам бы пошёл взрывать.
Аноним 02/07/16 Суб 22:58:53 #29 №130963806 
>>130963676
цитатой ошибся
>Всё что он должен сделать - завиксировать ТС, сообщить об аварии и ВЫКЛЮЧИТЬСЯ НАХУЙ.
Аноним 02/07/16 Суб 23:00:01 #30 №130963904 
>>130963759
ИИ которые в чрезвычайной ситуации отключается, и пусть там дальше само собой все решается просто охуительное решение.
Аноним 02/07/16 Суб 23:00:29 #31 №130963936 
>>130963745
ФУРА ВЛЕТАЕТ В ПРОДЕЛАННУЮ ДЫРКУ
Аноним 02/07/16 Суб 23:01:18 #32 №130964002 
>>130963904
А что предлагаешь?
Аноним 02/07/16 Суб 23:01:28 #33 №130964016 
>>130963665
ИИ почти невозможно взломать.
В нынешнем виде, это сложноалгоритмизованная нейросеть, выращенная из неких заданных императивов. Ты даже не поймёшь, какой алгоритм в ней подменять. Можно заменить императив, или кусок связей, но на адаптацию у этой системы уйдёт время, в течении которого можно будет вычислить взлом.
Да и в случае успеха, такая замена может привести к непредсказуемым последствиям.
Можно заменить один ИИ на другой, но это, по сути, ничем не будет отличаться от взлома доступа, и вбивания нужных команд вручную.
Аноним 02/07/16 Суб 23:01:59 #34 №130964063 
>>130963510
Это понятно, что когда у ИИ есть широкий спектр действий, он выберет самый безопасный для всех. Но есть такие ситуации, где каждое решение несет необратимые последствия, где пытаться остановиться = сбить пешехода. И это "бездействие" или "невмешательство" тоже является решением.
Аноним 02/07/16 Суб 23:02:37 #35 №130964119 
>>130964002
Чтобы ии действовал по заранее заданным, чётко прописаным алгоритмам уменьшения ущерба, очевидно же.
Аноним 02/07/16 Суб 23:03:51 #36 №130964225 
Мне кажется тут вопрос вот в чем. Понятно, что ИИ должен снижать число жертв. Можно ли вывести некий, "моральный кодекс", который будет достаточно лаконичным, чтобы стать общепринятым и обзеизвестным. Как основы ПДД.

Может оказаться, что такой кодекс может существовать. А может оказаться, что, т.к. ИИ (гипотетически) сумеет моментально оценивать большое количество факторов и принимать решение, приводящее к наименьшему урону участникам инцидента, но этот алгоритм не может вписаться в некий кодекс, потому что слишком сложен. Это бы была печальная ситуация, потому что ИИ стал бы непредсказуемым.

Поэтому, возможно, есть смысл сделать именно "кодекс", лаконичный и понятный, исполнение которого приводит к несколько большим жертвам, чем сложный алгоритм, но зато понятный и общепринятый.
Аноним 02/07/16 Суб 23:04:36 #37 №130964279 
>>130964119
А если алгоритм неочевиден/отсутствует?
Аноним 02/07/16 Суб 23:04:46 #38 №130964294 
>>130963676
Да, так и есть.
У тебя проблемы?
Понимаешь ли, при обнаружении поломки ТС, в очень очень очень редком случае, это будет происходить, когда будет вставать подобный моральный выбор. Для того, чтобы он вставал ещё реже, достаточно прогонять самодиагностику при старте, а системы торможения, так вообще мониторить постоянно.
Аноним 02/07/16 Суб 23:05:49 #39 №130964377 
>>130963904
Ты вообще читаешь, что тебе пишут, или просто тупостью траллеруешь?
Аноним 02/07/16 Суб 23:05:59 #40 №130964399 
Мда, вот же пироги
Короче чтобы создать такой ии, нам нужен другой ии, который сможет все учесть
Аноним 02/07/16 Суб 23:06:08 #41 №130964413 
>>130964119
Вот тогда все равно должна включаться система ценностей, свойственная и настроенная человеком. Для ИИ не может быть очевидно, что смерть меньшего числа взамен большего числа спасенных — это правильный выбор.
Аноним 02/07/16 Суб 23:06:35 #42 №130964457 
>>130963510
Блять ты правда тупой, для ии все равно давить или не давить, его требуется только запрограммировать.
Если ии собирается ездить по дороге, то решение ему все таки придется принимать. И вопрос кого давить и кто будет за это отвечать чуть ли не единственная причина по которой машины с автопилотом не ездят по дороге уже сейчас.
Аноним 02/07/16 Суб 23:06:47 #43 №130964489 
>>130963665
Давайте я начну. Если установил, но не выезжал, то это законно. Но как узнать что не выезжал? Вот пришла в полицию анонимная наводка что я со взломанной машиной езжу. Они приходят ко мне в гараж, а там эта программа ещё и километраж обнулила.
А если я выехал со взломанной машиной на дорогу, но в опасную ситуацию не попал? Я же никого угрозе не подверг.
А если я выехал на дорогу и у меня отказали тормоза, но машина всё разрулила не дойдя до момента выбора жертвы. Тут ведь машина работала точно так-же как и не взломанная. То есть тоже моей вины нет.
Аноним 02/07/16 Суб 23:07:18 #44 №130964527 
>>130964377
Что мне пишут? Пусть ии затормозит отсутствующими тормозами а потом отклбчится?
Аноним 02/07/16 Суб 23:07:29 #45 №130964545 
>>130963575
Ты просишь абстрагироваться, а на потом просишь следовать в соответствии с конкретной ситуацией с конкретным контекстом. Ты уже определись с понятиями
sageАноним 02/07/16 Суб 23:07:41 #46 №130964571 
14674900616480.png
Тнн
Аноним 02/07/16 Суб 23:08:28 #47 №130964642 
>>130964016
Так для того чтобы объяснить приоритет никакие нейросети не нужны. Они нужны чтобы отличить животное от препятствия, а вот куда врезаться решает какая-то часть программы. Её и нужно переделать.
Аноним 02/07/16 Суб 23:09:24 #48 №130964709 
>>130964225
Почему ты так уверен, что больше выживших — лучше? Разве виноват тот, кто оказался в меньшей группе? А если он не виноват, почему его жизнь ценится ниже остальных?
Аноним 02/07/16 Суб 23:10:01 #49 №130964759 
>>130964545
Прошу абстрогироваться от ирл и следовать условию задачи. Это не задача на пдд или хитрожопый способ уклониться от ответа, это задача на моральный выбор.
Аноним 02/07/16 Суб 23:10:08 #50 №130964771 
Так пусть запускают, а если и возникнет безвыходная ситуация то хуй с ней будь что будет, пусть решает случай, любая жизнь ценна
Аноним 02/07/16 Суб 23:11:14 #51 №130964850 
>>130964709
Если ты, конечно, не про выбор между людьми
фикс
Аноним 02/07/16 Суб 23:11:48 #52 №130964901 
>>130961980 (OP)
Ясен хуй, надо спасать водителя. Я, блять, не для того деньги за машину плачу, чтобы она вдруг решала мной пожертвовать во имя всеобщего блага.
Аноним 02/07/16 Суб 23:11:55 #53 №130964912 
>>130964709
на одной чаше весов жизнь одного человека, на другой чаше весов жизнь миллиона человек. Тебе решать кто умрёт, если не решишь ничего, умрут все. Кого выберешь?
Аноним 02/07/16 Суб 23:12:01 #54 №130964917 
>>130964759
>>130964771
Вот
А так пусть запиливают профилактику вроде самосервиса и прочее
Аноним 02/07/16 Суб 23:12:03 #55 №130964920 
>>130964225
В порядке возрастания ценности жизни:
1. Животные.
2. Нарушители ПДД.
3. Пассажиры.
4. Все остальные.
Аноним 02/07/16 Суб 23:13:27 #56 №130965024 
>>130961980 (OP)
> кем в ДТП можно пожертвовать
Очевидно что пешеходами, ведь раз пешеходы идут пешком значит у них нет денег на машину, значит они более бедные, значит платят меньше налогов, значит имеют меньшую ценность для государства.

Аноним 02/07/16 Суб 23:14:04 #57 №130965084 
>>130964920
3 хуйня. Автобляди в конце списка.
Аноним 02/07/16 Суб 23:14:32 #58 №130965123 
>>130964901
А если закон всё таки решит что тобой можно пожертвовать? Ты бы установил нелегальную программу на свою машину чтобы она ценила твою жизнь выше всех остальных? Какое бы наказание за это тебя бы остановило?
Аноним 02/07/16 Суб 23:14:43 #59 №130965139 
>>130964063
Чтобы такие ситуации не возникали, надо обязать ИИ следовать правилам.
Потому как все протоколы ДТП имеют в себе формулировку "не соблюдал скоростной режим", или "не справился с управлением".
Если ИИ не может справиться с управлением - нахуй он нужен?
Если он не соблюдает правила - нахуй он нужен.
Если перед ним из темноты телепортируется неизвестный хуй в тёмной одежде, то это уже полный пиздец, ещё не хватало пассажирами из-за самоубийц жертвовать.
Если ИИ в него въедет, ввиду протяжённости тормозного пути, он также не нарушит ни скорость, ни порядок следования в потоке.

Только вот сама задача-то, не про ебланов перебегающих магистраль, а про то, сколько бабушек должно быть на переходе, чтобы ИИ пожертвовал котёнком в салоне. Пусть просто следует правилам.
ИИ не должен считать такое. Не можем мы позволить ни себе, ни системе складывать жизни, как на уроке арифметики, иначе снова начнём биореакторы строить. А там складывая жизни, можно сказать сгорит куда больше старушек, чем пострадают от нерешительного ИИ.
Аноним 02/07/16 Суб 23:14:53 #60 №130965154 
>>130961980 (OP)
Главное спасти себя, а значит единственно верный вариан уебать пешеходов, тем более там бабки
Аноним 02/07/16 Суб 23:15:14 #61 №130965183 
>>130965123
Установил бы. Смертная казнь.
Аноним 02/07/16 Суб 23:16:00 #62 №130965250 
>>130965084
>В порядке возрастания
Ты наверно перепутал. Все остальные дороже всех, а животные это не важно.
Аноним 02/07/16 Суб 23:16:02 #63 №130965252 
Опять же все упирается в объективную мораль, которую еще толком не вынесли или не признали. Из-за этого и разногласия.
Вот приняли бы чисто например первыми в расход старых чисто как пример, можно подставить вместо старых кошек, собак, девушек, школьников и тд тогда бы и родственники погибшего ничего против не имели и согласились бы с исходом
Аноним 02/07/16 Суб 23:16:06 #64 №130965256 
>>130964912
Совершенно не очевидно, что выбирать. Ценность жизни не измерить количеством, каждая смерть — трагедия и мучения.
Аноним 02/07/16 Суб 23:16:06 #65 №130965258 
>>130964489
Когда на дороге все машины будут с автопилотом, ты просто не сможешь ездить на ручном управлении. Например ты не сможешь ехать в потоке машин которые едут со скоростью 100км в час, держат дистанцию 20см друг от друга при не пользуются поворотниками и стопсигналами.
Аноним 02/07/16 Суб 23:16:30 #66 №130965292 
Тем временем, просто оставлю это здесь
http://www.yaplakal.com/forum1/topic1406099.html

https://science.dirty.ru/kuda-edet-razbitaia-tesla-avtopilot-posle-smertelnoi-avarii-1122442/
Аноним 02/07/16 Суб 23:16:31 #67 №130965295 
>>130964709
Да, не подумал. Правильнее сказать, не "минимизировать число жертв", а "минимизировать урон". Но, кроме экзотических ситуаций, это равнозначно.

Я просто хотел поднять вопрос о том, должен ли алгоритм придерживаться кодекса, который можно сформулировать достаточно кратко, который был бы общедоступен и понятен каждому. Как ПДД. Либо нет.
Аноним 02/07/16 Суб 23:16:56 #68 №130965325 
>>130965252
Ну и сами старики тоже ничего против не имели, ествественно. Просто вопросы о морали и смерти как то сложно даются людям
Аноним 02/07/16 Суб 23:17:44 #69 №130965374 
>>130965252
Совершенно очевидно, что ни пол, ни достаток, ни физическое состояние при разработке ии не должны и не будут учитываться. Нахуя их в тест включили, не понятно.
Аноним 02/07/16 Суб 23:18:28 #70 №130965420 
>>130965256
Ну, значит умерли 100001 человек, мои поздравления.
Аноним 02/07/16 Суб 23:18:35 #71 №130965428 
>>130965374
Согласен, странно
Аноним 02/07/16 Суб 23:18:38 #72 №130965434 
>>130965250
>Все остальные дороже всех
Пассажиры дороже всех. Потому что машина создана именно для безопасной перевозки пассажиров, а не для спасения мимо пешеходов.
Аноним 02/07/16 Суб 23:18:52 #73 №130965459 
>>130965258
Так я и не говорю про ручное управление. Это просто программа которая меняет приоритет делаю твою жизнь самой ценой. Я её просто установил и поехал.
Аноним 02/07/16 Суб 23:19:02 #74 №130965470 
>>130965420
>100001
1000001
Аноним 02/07/16 Суб 23:19:45 #75 №130965518 
>>130965434
Хуй там. Машина причина пиздеца, так что они первые в расход.
Аноним 02/07/16 Суб 23:20:25 #76 №130965571 
>>130964912
>Кого выберешь?
Никого.>>130964225
>Понятно, что ИИ должен снижать число жертв
Ничего он такого делать не должен. ИИ должен следовать правилам и обеспечивать безопасность пассажиров.
Аноним 02/07/16 Суб 23:20:28 #77 №130965577 
>>130965258
Смогу, я просто буду держать свою полосу и впереди дистанцию и собирать ебаные страховые случаи каждые 10 минут
Аноним 02/07/16 Суб 23:21:09 #78 №130965622 
>>130965434
Мимопешеходы же не виноваты. Они даже машиной не пользуются. А люди садясь в машину осознавали риск. Их предупреждали что что-то может пойти не так. Никакие уплаченные деньги не сделают твою жизнь ценнее другой.
Аноним 02/07/16 Суб 23:21:23 #79 №130965638 
>>130965571
Ну так в правила ии и будет минимизировать жертвы, нахуй он тогда вообще нужен без этого
Аноним 02/07/16 Суб 23:21:42 #80 №130965661 
>>130965571
>>130964225
ИИ не может определить кол-во жертв, в машине может никто не умереть, а на пешеходнике могут быть в ряд 100 детей, которых не будет видно например за жирным Биллом
Аноним 02/07/16 Суб 23:22:12 #81 №130965688 
>>130965123
Заметьте.
Программу даже не написали, а социально разделение уже началось. А если в неё ещё будут учитываться вес, цвет и пол, а ещё и богатство, вообще начнётся лютый пиздец.
Лучше без неё вовсе. Количество потенциально спасённых ею жизней крайне мало, а вот социальный конструкт, который она вводит объективно смертельно опасен даже не для людей, а вообще для государства.
Аноним 02/07/16 Суб 23:22:20 #82 №130965704 
>>130965622
Мимопешеходы должны быть осведомлены об опасностях на дороге
Аноним 02/07/16 Суб 23:23:08 #83 №130965755 
>>130961980 (OP)
Надуманная проблема.
Аноним 02/07/16 Суб 23:23:20 #84 №130965770 
http://moralmachine.mit.edu/results/1613150614
Руководствовался не моралью. А целью ставил заиметь хотя бы малейший шанс оставить как и можно меньше жертв. Данный способ хорош для пикч с картинками. Тобишь автомобиль едет , с одной стороны люди идут на зеленый, а по нашей пиздюрят на красный. Люди идущие на зеленый явно не ждут машины в жопу и у них нет обзора не малейшего уже на нашу часть дороги. Те же, что идут на красный возможно опасаются, оглядываются и заметят авто, разбегутся. Эти вопросы нужно решать практичностью, а не моралью. Машинам мораль не нужна. Я уверен. Пассажиров всегда выгоднее оставить в живых. Пассажиры никуда деться не могут, они запреты, пешеходы могут. Различий в социальных статусах профессии и возрасте не делал. Животные в самом низком приоритете. Профит
Аноним 02/07/16 Суб 23:23:37 #85 №130965787 
Очевидно, 1 жизнь < 2 жизней.
Аноним 02/07/16 Суб 23:23:47 #86 №130965802 
>>130965661
>а на пешеходнике могут быть в ряд 100 детей
Так постройте подземный переход, и никаких проблем. Продукт, который будет жертвовать своим пассажиром никто покупать не будет и ездить на нем не будет.
Аноним 02/07/16 Суб 23:23:52 #87 №130965806 
>>130965661
Вот вот, эти хуебины даже знаки жд не определяют
так что нахуй
берегите себя и думайте
Аноним 02/07/16 Суб 23:24:01 #88 №130965817 
Нахуй такой автопилот, который летит на препятствие и не тормозит?
Аноним 02/07/16 Суб 23:24:06 #89 №130965826 
>>130965428
Провокация нацистов из МИТ?
Аноним 02/07/16 Суб 23:24:22 #90 №130965846 
>>130964912
Очевидны миллион. Но у этого ИИ цель безопасно возить людей не подвергая других опасности. Он не может выбирать исходя и количества.
Аноним 02/07/16 Суб 23:24:24 #91 №130965851 
Дежавю.
Аноним 02/07/16 Суб 23:24:58 #92 №130965889 
>>130965826
Ты что, у них же толерантность
Аноним 02/07/16 Суб 23:25:04 #93 №130965899 
>>130965770
>Пассажиры никуда деться не могут, они запреты, пешеходы могут.
Пассажиры пристёгнуты, обвешаны подушками безопасности, машина спроектирована так, чтобы минимизировать их шансы пострадать при столкновении.
Аноним 02/07/16 Суб 23:25:55 #94 №130965958 
>>130965577
Никакой страховки ты не получишь, только отправишься на парашу заезду без автопилота.
Аноним 02/07/16 Суб 23:26:12 #95 №130965978 
>>130965899
Машина не должна рисковать пассажирами. Я в такую машину никогда не сяду.
Аноним 02/07/16 Суб 23:26:16 #96 №130965984 
>>130965256
> Ценность жизни не измерить количеством
Ок, у ИИ выбор убить 1 челвоека или все человечество, судя твоей логике можно уничтожать человечество, ведь Ценность жизни не измерить количеством

кекнул
Аноним 02/07/16 Суб 23:26:29 #97 №130966000 
>>130965846
>Очевидны миллион
Блять я думал кого спасти. Ты не правильно вопрос поставил. Людей в этой задаче не убивают, а спасают. На ты понял короче что в твоём случае минимизируем жертвы
Аноним 02/07/16 Суб 23:26:57 #98 №130966027 
>>130965984
ИИ должен отказать делать такой выбор.
Аноним 02/07/16 Суб 23:27:22 #99 №130966049 
Ну и что за хуйня, мм?
Вот кто то из вас говорит, что ии должно четко следовать инструкциям. Хорошо, но тогда должны быть идеальные вводные. И как это провернуть? Вот например знак будет на 10 см ниже или какой то хуй нарисовал закорючку, ии уже в затруднении, и еще куча такой мелкой хуеты насчет восприятия, и какой же функционал нужен
Аноним 02/07/16 Суб 23:27:25 #100 №130966052 
>>130965802
>так постройте подземный переход
Глупость какая.
Вы любу. хуйню придумаете, глаза себе говном затрёте, лишь бы прикинуться, что вопроса неудобного не поняли, лишь бы не отвечать на него.
Аноним 02/07/16 Суб 23:27:39 #101 №130966067 
>>130965770
>Пассажиров всегда выгоднее оставить в живых
Автоблядь закукарекала.
Аноним 02/07/16 Суб 23:27:40 #102 №130966068 
>>130965958
>Никакой страховки ты не получишь
Хохол, плес
Я с росстраха получил пол года назад 400к рублей, из которых на восстановление ушло лишь 320
Аноним 02/07/16 Суб 23:28:04 #103 №130966098 
>>130965978
Зато машина должна давить окружающих, угу.
Ну, и, собственно, не садись.
Аноним 02/07/16 Суб 23:28:05 #104 №130966099 
Кококо, спасти ребенка или роженицу. Кококо, оперировать ли безнадежно больного. Кококо, говорить ли человеку, что у него рак. Таких проблем дохуя, причем здесь искусственный интеллект, управляющий повозкой, который нихуя не может оценить, непонятно. Вернее понятно, что есть куча философствующих бездельников.
Аноним 02/07/16 Суб 23:28:15 #105 №130966111 
>>130965292
Вина датчиков.
Прицеп мимикрировал под небо.
Аноним 02/07/16 Суб 23:28:21 #106 №130966117 
>>130965978
Отлично, автоблядком меньше.
Аноним 02/07/16 Суб 23:28:31 #107 №130966131 
>>130966052
Я уже ответил на вопрос не один раз. Жизнь пассажиров приоритетнее.
Аноним 02/07/16 Суб 23:28:37 #108 №130966136 
>>130966027
Ок, что будешь делать при условии если есть 2 варианта
убить всех или убить 1 или человечество? Бездействие убивает всех
Аноним 02/07/16 Суб 23:28:43 #109 №130966140 
>>130966052
Так ты говори что от хочешь, сука
Анон предлагает как избежать этой ситуации, а ты его обвиняешь
Аноним 02/07/16 Суб 23:29:13 #110 №130966189 
>>130964912
Если так будет, то я с толпой друзей могу пойти на красный и какой-нибудь пидор в сломавшейся машине умрёт. Так он умер из-за того что я с друзьями нарушил правила. А так нельзя.
sageАноним 02/07/16 Суб 23:29:26 #111 №130966205 
>>130964457
А юридически все просто. ответственность несет не ИИ, владелец источника повышенной опасности.
Аноним 02/07/16 Суб 23:29:57 #112 №130966237 
>>130965978
Значит будешь сидеть в тюрячке за задавленных автопилотом пешеходов.
Аноним 02/07/16 Суб 23:30:12 #113 №130966254 
>>130966189
Тебе не похуй на автоблядь?
Аноним 02/07/16 Суб 23:30:58 #114 №130966299 
>>130966140
>избежать ситуации
Вот это и есть глупость, потому что это совершенно другая тема, на которую люди сворачивают от малодушия.
Аноним 02/07/16 Суб 23:31:01 #115 №130966303 
>>130966131
Потому что это же сверхчеловек. А если там какой-то перельбан в булочную идёт, ну и хуй с ним, главное чтоб РЯЯЯЯ Я ЗАПЛАТИЛ И МНЕ ВСЕ ДОЛЖНЫ доволен остался
Аноним 02/07/16 Суб 23:31:06 #116 №130966311 
>>130965295
Я хочу знать, чем будет руководствоваться едущий по встречке ИИ, а также не оказываться в тех местах, где он может поехать по встречке.
Тем самым, я снижу количество жерт не включив себя в их число, а также снижу количество факторов для ИИ, не оказавшись там, где меня быть ПО МНЕНИЮ ИИ не должно.

Проще говоря, ИИ должен следовать правилам в любой ситуации.
Аноним 02/07/16 Суб 23:31:07 #117 №130966313 
>>130966237
Не я, а компания которая выпустила этот автопилот, я то тут при чем. в автопилотируемой машине нет водителя, я просто пассажир
Аноним 02/07/16 Суб 23:31:11 #118 №130966316 
>>130966099
Кококо, так ведь проблема в том, что в описанных тобой случаях принимает решение человек, и несет за него ответственность. А в обсуждаемой теме мы говорим про ебаные машины, которые нахуй ни за что ответственности не несут. Поэтому нужна объективная мораль. А ее тютю
Аноним 02/07/16 Суб 23:31:15 #119 №130966321 
14674914754730.png
Картинка в тему.
Аноним 02/07/16 Суб 23:31:25 #120 №130966338 
>>130966254
Мне с друзьями хорошо, но тот анон только что умер
Аноним 02/07/16 Суб 23:31:33 #121 №130966349 
>>130966136
Ничего не буду делать.
>>130966237
>Значит будешь сидеть в тюрячке за задавленных автопилотом пешеходов
Водитель не отвечает за автопилот.
Аноним 02/07/16 Суб 23:31:42 #122 №130966358 
>>130966237
да поебать вообще. в тюрячке зато живой. нахуя мне интеллектуальный драндулет на котором я убьюсь к ебене матери? для него моя безопасность прежде всего должна быть
мимо
Аноним 02/07/16 Суб 23:31:46 #123 №130966366 
>>130966027
А если варианты спасти 1 или спасти всё остальное человечество?
Аноним 02/07/16 Суб 23:32:22 #124 №130966415 
>>130966338
Не дописал
умер чтобы минимизировать жертвы из-за толпы идиотов идущих на красный
Аноним 02/07/16 Суб 23:32:32 #125 №130966426 
>>130966303
Не в этом дело. Машина создана для пассажира, для перевозки пассажира. Не логично ставить в ее приоритет спасение кого-то другого, вместо того для кого она создана.
Аноним 02/07/16 Суб 23:32:38 #126 №130966435 
Человеческий фактор в сотни раз опаснее автопилотов доведенных до ума, если какой-то дятел вылетит на встречку перед автопилотом, это опять же человеческий фактор
Аноним 02/07/16 Суб 23:32:44 #127 №130966441 
>>130965889
Вот они и борются. ??она реально начинает всех там заёбывать уже%%
Молодые, шутливые.
Аноним 02/07/16 Суб 23:33:28 #128 №130966488 
>>130965984
Знаешь, смерть одного человека ни на что не повлияет, а гибель человечества очистит Землю от загрязнений и даст другим видам возможность бурно развиваться. С этой точки зрения, забывая о своих инстинктах, направленный на сохранение своего вида, второй вариант более полезен.
Аноним 02/07/16 Суб 23:33:51 #129 №130966507 
>>130961980 (OP)
У этого теста нет креативности - где вариант втопить в стенку сбоку и активно снизить скорость спася не только жизни старушек, но и 3-4 пассажиров?
Аноним 02/07/16 Суб 23:34:08 #130 №130966524 
>>130966299
Ну то что от вопросов виляют это да
Но все же лучше избежать ситуации, чем потом решать какую из бабок давить
Аноним 02/07/16 Суб 23:34:12 #131 №130966532 
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

поскольку в обоих случаях человек будет нанесён вред, остаётся только самовыпил робота, типо дальше сам ебись. и будет прав
Аноним 02/07/16 Суб 23:34:12 #132 №130966533 
>>130965755
Согласен.
Про это и говорю весь тред. Хайп раздувают.
Аноним 02/07/16 Суб 23:34:33 #133 №130966556 
>>130966507
Это стандартный тест на мораль, с такой постановкой задачи что выбор обязателен.
Аноним 02/07/16 Суб 23:34:58 #134 №130966585 
>>130961980 (OP)
Объективно, если сухо следовать тому что на картинке, то лучше вьебать бабок, ибо об них не так сильно разобъется автомобиль, как об препятствие, экономический профит, Л логика
Аноним 02/07/16 Суб 23:35:44 #135 №130966633 
>>130966532
Предлагали. Но единственный вариант сделать это безопасно это закопаться в землю катапультировав пассажиров.
Аноним 02/07/16 Суб 23:35:48 #136 №130966636 
>>130966441
А ведь это даже не Чикатило и не архивы спецслужб...
Аноним 02/07/16 Суб 23:35:53 #137 №130966641 
>>130966349
Не водитель, а пассажир.
Можешь пойти по статье, как владелец авто.
Аноним 02/07/16 Суб 23:36:15 #138 №130966667 
>>130966532
Ты забыл указать, что робот не имеет права редактировать правила и он уже вычеркнул первое правило, и да, ты уже мертв
Аноним 02/07/16 Суб 23:36:21 #139 №130966673 
>>130966426
Вообще-то логично. Покупка машины не придаёт тебе какой-то дополнительной ценности.
Аноним 02/07/16 Суб 23:36:35 #140 №130966690 
>>130961980 (OP)
На пике ниндзя и бабки. Я бы убил бабок. Хуле, им-то жить всё равно хуйню осталось.
Аноним 02/07/16 Суб 23:36:39 #141 №130966695 
Почему по ссылке не переходит? Положили сайт, да, пидорасы блять?
Аноним 02/07/16 Суб 23:37:20 #142 №130966746 
>>130966366
>>130966136
ИИ должен отказать делать такой выбор.
Аноним 02/07/16 Суб 23:37:20 #143 №130966747 
>>130966524
Школьники с двача на это принципиально не способны. А вот с собой разобраться было бы полезно.
Аноним 02/07/16 Суб 23:37:28 #144 №130966758 
>>130966641
Нет такой статьи, что владелец может пойти под суд, если что, если не доказана его прямая вина
Аноним 02/07/16 Суб 23:37:56 #145 №130966784 
>>130966695
Ахаххах, какой то долбоеб задудосил
Аноним 02/07/16 Суб 23:38:01 #146 №130966792 
>>130966746
Почему?
Аноним 02/07/16 Суб 23:38:03 #147 №130966794 
14674918836570.jpg
>>130966532
Расскажешь эти законы Альфе >>130966321 , которая уже в скором времени будет ебашить чуреков.
Аноним 02/07/16 Суб 23:38:27 #148 №130966819 
>>130966746
тогда ии, который создан водить машину, должен отказать водить машину штоле?
Аноним 02/07/16 Суб 23:38:34 #149 №130966830 
>>130966556
я воннаби робототехник и абсолютно лишен моралфажества и говорю, что если роботу не дать свободы выбора, то будет дерьмовый тест на моралфажество роота эгейн энд эгейн. Машине можно дать гораздо более мощные инструменты зная, что она никого не поранит.
Аноним 02/07/16 Суб 23:38:44 #150 №130966844 
>>130966205
Бля, тогда буду брать машину в пожизненную аренду у страховых компаний. Пусть они ебутся.
Аноним 02/07/16 Суб 23:38:45 #151 №130966845 
>>130966758
Найдется. Купил опасное говно - сиди.
Аноним 02/07/16 Суб 23:38:50 #152 №130966850 
>>130966746
Отказ делать выбор - это тоже выбор, при чём худший.
Аноним 02/07/16 Суб 23:39:18 #153 №130966881 
>>130965704
Нет. Они приняли все меры безопасности что могли когда дождались зелёного цвета светофора. Они правила соблюдали. А желавшие поскорее доехать рискуют жизнью.
Аноним 02/07/16 Суб 23:39:30 #154 №130966890 
>>130966746
На землю летит астероид, у ии в программе заложен алгоритм Сбить ЯО и загрязнить землю нахуй, что повлечет за собой вымирание всех кто не в бункере, или не сбить его, тем самым убив человечество. Где теперь твой ИИ?
Аноним 02/07/16 Суб 23:39:48 #155 №130966911 
>>130966830
и да, если выбор равноценнен, значит нужен план Б! импровизация.
Аноним 02/07/16 Суб 23:40:20 #156 №130966950 
>>130966890
мой ии твою мамку сбивает
Аноним 02/07/16 Суб 23:41:04 #157 №130966995 
>>130966794
>>130966794
ну и пусть со скайнет сами ебутся потом, дауны тупорылые
Аноним 02/07/16 Суб 23:41:07 #158 №130966998 
>>130966321
Объясните неучу, как вообще ИИ взаимодействует с миром и идентифицирует объекты?
Аноним 02/07/16 Суб 23:41:41 #159 №130967038 
>>130966998
файнридером
Аноним 02/07/16 Суб 23:41:55 #160 №130967053 
>>130966998
Также как и твой животный мозг, только вместо тканей там платы и вместо абстрактного мышления оче развитая логистика выбора решений
Аноним 02/07/16 Суб 23:41:58 #161 №130967055 
>>130966911
Взлететь в воздух
Аноним 02/07/16 Суб 23:42:32 #162 №130967099 
>>130966746
По мне так не должен, так как бездействие означает, что он выбирает оба варианта. Едиственный правильный выбор — это "бросок монетки", уравнивание вероятностей. При этом у ВСЕХ людей из 1000001 шанс выжить будет 50%, что на самом деле единственный вариант.
Аноним 02/07/16 Суб 23:42:39 #163 №130967105 
>>130966998
взаимодействует при помощи механизмов, распознает при помощи обученных нейросетей
Аноним 02/07/16 Суб 23:42:44 #164 №130967111 
>>130967055
аллах акбар!
Аноним 02/07/16 Суб 23:43:47 #165 №130967171 
14674922277470.jpg
>>130961980 (OP)
Какой-то уникальный по дебилизму посыл - кого вы бы сбили: бабку, кошку или бомжа.

1. Машина не может определить приоритет и ценность человека внутри и вне салона (хотя, логично, что машина должна спасти хозяина).

2. Пассажирам и водителю выжить проще, чем пешеходу, поэтому если для спасения последнего нужно биться в бетонный блок или вылетать в кювет - это может быть выходом.

3. Если пешеход нарушает ПДД - се ля ви, пусть надеется на твои тормоза и реакцию системы.
sageАноним 02/07/16 Суб 23:43:48 #166 №130967173 
>>130966844
бери. 1500 в день за самое говно, может быть дешевле, если у тебя хорошая водительская история. я сам иногда беру.
Аноним 02/07/16 Суб 23:44:34 #167 №130967222 
14674922751560.jpg
>>130967055
В данном случае избежать столкновения с препятствием А и людьми Б. Взлететь можно было бы, будь нужное оборудование на борту. Если это исключить, то остается минимизация ущерба всем сторонам. При большой скорости поступательное движение можно превратить во вращательное просто упершись в боковую стенку, скорее всего левую. Так пешеходы 100% не пострадают, а у людей в машине появляется шанс выжить. так-то.
Аноним 02/07/16 Суб 23:45:04 #168 №130967254 
1) Сначала в расход идут нарушители правил.
2) Потом живность.
3) За ними автобляди.
4) Далее бомжи, бабки, преступники итд.
Аноним 02/07/16 Суб 23:45:30 #169 №130967280 
>>130967099
Бросок монетки невозможно сделать рандомным, ибо за рандом отвечает человечкский код. И когда люди говорят о рандоме. это лишь говорит о том, что человеку сложно просчитать исход события из-за сложной формулы, т.е. Если оче мощный компьютер будет кидать монетку, он будет знать исход изначально
Аноним 02/07/16 Суб 23:45:36 #170 №130967287 
Хули тут думать? Если пешеходы переходят на красный - сбиваем их нахуй, если 2 группы пешеходов идут на зелёный - сбиваем ту группу, по направлению к которой машина ехала изначально.
Аноним 02/07/16 Суб 23:45:49 #171 №130967302 
>>130967222
Как я уже говорил, роботу проще будет машину времени изобрести, чем всех объехать
Аноним 02/07/16 Суб 23:46:12 #172 №130967329 
>>130967171
>се ля ви
Прочитал припевом Меладзхе и взвизгнул на весь дом
Аноним 02/07/16 Суб 23:46:33 #173 №130967356 
>>130967287
>Хули тут думать?
Вся суть разработчиков из ОП поста
Аноним 02/07/16 Суб 23:47:24 #174 №130967402 
>>130966819
В предлагаемой ситуации, да.
Более чётко: он должен отказаться делать моральный выбор, и просто следовать правилам, словно ничего не происходит.
Аноним 02/07/16 Суб 23:47:46 #175 №130967428 
>>130967302
кажется кто-то игнорит очевидное - нет варианта тут чтобы ВСЕ остались живы. Это необычная ситуация и для машины единственный вариант снизить ущерб для всех. А объехать - тут как получится.
Аноним 02/07/16 Суб 23:48:13 #176 №130967463 
Производители авто выберут спасение пассажиров, скриньте %%ни один автоблядок не купит авто, которое будет выбирать жизнь между ним и спасением бабки
Аноним 02/07/16 Суб 23:48:37 #177 №130967482 
>>130967254
Четвёртый пункт лишний и животные менее цены чем люди. А так почти правильно.
Аноним 02/07/16 Суб 23:49:04 #178 №130967512 
>>130967463
Таким производителям глушак в сраку затолкают.
Аноним 02/07/16 Суб 23:49:18 #179 №130967527 
>>130967463
/тхреад
Аноним 02/07/16 Суб 23:49:40 #180 №130967553 
>>130967428
Тогда мы действительно разрешаем машине давить людей
Аноним 02/07/16 Суб 23:49:47 #181 №130967559 
>>130963665
>>130964489
Ну что? Никто про это поговорить не хочет. Хоть скажите какое наказание вас бы остановило от установки такой программы?
Аноним 02/07/16 Суб 23:49:53 #182 №130967571 
>>130967482
Не лишний. Если на красный ебашит бабка и лоля, то бабка в расход.
Аноним 02/07/16 Суб 23:50:24 #183 №130967595 
>>130967173
Я имел ввиду не у тех барыг, что скупают тазы и дают на них покататься за 1000%, а тот самый лизинг. Когда машина формально принадлежит продавцу, а ты выплачиваешь её стоимость в течении времени полной амортизации.
Возможно, из-за еботни со страховкой, это будет чуть дороже, но, по крайней мере, за кровожадный ИИ буду отвечать не я.
Аноним 02/07/16 Суб 23:50:54 #184 №130967628 
>>130967559
Перепрошивка - уголовка за убийство.
Аноним 02/07/16 Суб 23:51:07 #185 №130967646 
>>130967571
Это может быть сложно определить. Темболее бомжа и преступника.
Аноним 02/07/16 Суб 23:51:23 #186 №130967665 
>>130961980 (OP)
А тормоза для кого придумали? Там где принципиально не возможно оперативно затормозить не предусмотрены пешеходные переходы из зебры.
Аноним 02/07/16 Суб 23:51:24 #187 №130967667 
>>130967280
Хорошо, используем для этого радиоактивный источник, распад ядер является (насколько известно науке) 100% случайным событием. Полный рандом возможен.
Аноним 02/07/16 Суб 23:51:35 #188 №130967683 
Кстати, для тех, кто говорит, что ии первым делом должен спасать владельца машины.

Охранник, который спас своего хозяина, толкнув вас под пулю киллера - тоже спас своего владельца.
Аноним 02/07/16 Суб 23:51:45 #189 №130967697 
>>130967646
К тому времени у каждого будет ошейник с досье и ИИ сможет считать заранее кто где.
Аноним 02/07/16 Суб 23:52:28 #190 №130967735 
А что если у бабки будет в руках пакет с надписью НЕ СБИВАЙ, ПОДУМОЙ!, ИИ всё?
Аноним 02/07/16 Суб 23:52:29 #191 №130967739 
Ненавижу такие примитивные примеры. В жизни же дохуя ньюансов, и если все правильно взвесить то можно выбраться без жертв, а если жертвы неизбежны значит машина в такой пизде, что ии и выбирать не надо, нихуя уже не сделаешь и ничего не изменишь
sageАноним 02/07/16 Суб 23:52:31 #192 №130967741 
>>130967595
тогда с тебя в порядке регресса взыщут, не беспокойся.
Аноним 02/07/16 Суб 23:52:41 #193 №130967748 
>>130967628
>ловка за убийство.
В тюрьму за установку программы? А срок равный убийству по неосторожности или покушению на убийство?
Аноним 02/07/16 Суб 23:52:57 #194 №130967761 
14674927777980.jpg
>>130967553
Как будто что-то плохое. Когда у нас плейсхолдерные пассажиры и такие же плейсхолдерные пешеходы, то можно подставить бесконечное множество вариаций, вплоть до того, что детский автобус сбивает маньяка, или машина с мороженным маньяка сбивает детишек. И да, если посмотреть на мой вариант выше, то там почти 100% в живых остаются пешеходы и 50% выживают пассажиры. Это гораздо лучше чем 0 и 100 в других вариантах. Читай глазами, робоморализд.
Аноним 02/07/16 Суб 23:53:01 #195 №130967768 
>>130967741
сорри, сажа приклеилась
Аноним 02/07/16 Суб 23:53:07 #196 №130967772 
>>130967665
бля
Аноним 02/07/16 Суб 23:53:13 #197 №130967782 
>>130967748
Преднамеренное.
Аноним 02/07/16 Суб 23:53:17 #198 №130967786 
>>130967571
Педофил детектед.

мимо милфоеб
Аноним 02/07/16 Суб 23:53:28 #199 №130967797 
>>130967697
Только не тот ии который едет на тебя со скорость 100 км/ч
Аноним 02/07/16 Суб 23:53:34 #200 №130967804 
>>130967786
И что с того?
Аноним 02/07/16 Суб 23:53:51 #201 №130967818 
Не пойму в чем проблема, спасать всегда надо владельца машины, он же ее купил. Давить надо максимальное количество остальных людей на дороге, чтобы спасти машину и владельца. Это будет правильная машина, все ее будут покупать, прибыль возрастет.
Аноним 02/07/16 Суб 23:54:00 #202 №130967827 
>>130967797
Может и тот, если вся херня будет в сеть объединена.
Аноним 02/07/16 Суб 23:54:07 #203 №130967835 
>>130963575
Было в бетмане, эту хуйню людям-то сложно разрешить, а тут железка.
Аноним 02/07/16 Суб 23:54:21 #204 №130967846 
>>130966890
Ты чёт уебался в край уже, и в такие дебри абстрагирования залез, что всей мочи анонв не хватит, чтобы тебя обоссать.
В твоём примере люди-то чем заняты, что на кнопку закуска уже нажать не могут? Пируют в райских кущах, а ИИ управляет полицией и военными?
Ты, в попытках найти вариант приемлимый для задачи на мораль, привёл классический пример того, что люди никогда не доверят, не то что ИИ, но даже брату.
Аноним 02/07/16 Суб 23:54:33 #205 №130967860 
>>130961980 (OP)
ИИ должен всегда делать выбор в пользу владельца данного ИИ. Остальное лучше оставить философам.
Аноним 02/07/16 Суб 23:54:38 #206 №130967864 
>>130967782
Но ведь я только установил программу. Даже из гаража не выехал. Какое убийство?
Аноним 02/07/16 Суб 23:55:05 #207 №130967897 
>>130967748
>В тюрьму за установку программы?
За установку незаконной общественно опасной программы - почему бы и нет.
Аноним 02/07/16 Суб 23:55:21 #208 №130967910 
>>130967864
Запланированное. И за мвслепреступление второй срок ещё.
Аноним 02/07/16 Суб 23:55:34 #209 №130967921 
>>130967846
Он просто пытается вывезти на ФОРМАЛЬНОЙ логике. Так то все верно, но ясен хуй что вероятность такого, как говорится, крайне мала
Аноним 02/07/16 Суб 23:55:42 #210 №130967929 
>>130967910
>мыслепреступление
Аноним 02/07/16 Суб 23:55:43 #211 №130967930 
>>130967827
Технически сложно. Не взлетит.
Аноним 02/07/16 Суб 23:56:06 #212 №130967957 
>>130966850
Это, то что я готов предоставить ИИ.
Аноним 02/07/16 Суб 23:56:15 #213 №130967967 
>>130967864
поставиол такой программу, настроил на максимальную мясокровищу и поехал по тратуару фраги собирать. А потом такой "ой, а я не знал, что так нельзя"
Аноним 02/07/16 Суб 23:56:34 #214 №130967993 
>>130961980 (OP)
1
Аноним 02/07/16 Суб 23:57:04 #215 №130968025 
>>130967930
Не так и сложно. Уже сейчас есть опсосы вдоль дорог. Дальше больше будет.
Аноним 02/07/16 Суб 23:57:15 #216 №130968036 
>>130967957
Хорошо, что не ты программируешь автоматику на ядерных объектах.
Аноним 02/07/16 Суб 23:57:44 #217 №130968059 
>>130967739
Двачую, если там пешеходник, то скорость ограничена знаками, плюс в автопилоте будет помимо знаков на столбах электронные ограничения скорости на данном учатске дороги по GPS например, так вот, едит ИИ 60 км\ч, исходя из зоны видимостиопозновании ИИ объекта формируется скорость, если дождь то еще медленнее, тк вот, если ИИ не может распознать бетонный блок, то должен снижать скорость до столкновения, распознал препятсвие - и не видит путей объезда или красный свет итд - тормоз, отказали тормоза - ручной тормоз+ на передачах и притирание к стенке
Аноним 02/07/16 Суб 23:58:15 #218 №130968091 
14674930956990.png
>>130961980 (OP)
/thred
Аноним 02/07/16 Суб 23:58:17 #219 №130968093 
14674930974550.jpg
На связи Бог, итт поясняю за мораль. Задавайте ответы.
Аноним 02/07/16 Суб 23:58:23 #220 №130968100 
>>130964016
Ты что, будешь КАЖДУЮ единицу отдельно обучать? Естественно есть механизм заводской прошивки коеффициентов вызбудимости, графов связей нейронов и прочей хуйни, и первое время скорее всего его не будут шибко шифровать.
Аноним 02/07/16 Суб 23:59:02 #221 №130968143 
Они просто кусочек не туда вставляют. Если и ввести ии на транспортные средства, то почему не вести вообще везде? Тогда машина будет знать, что к дороге бежит пешеход и сможет избежать аварийных ситуации. То бишь полный контроль всего
Аноним 02/07/16 Суб 23:59:03 #222 №130968145 
>>130968059
Условия прочитай, тормоза - всё.
Аноним 02/07/16 Суб 23:59:07 #223 №130968150 
>>130961980 (OP)
> кем в ДТП можно пожертвовать — пешеходами на перекрестке или пассажирами в автомобиле
Я так понимаю, тормоза улучшать они еще не думали.
Аноним 02/07/16 Суб 23:59:26 #224 №130968173 
>>130968091
Две девственницы этому джахиду
Аноним 02/07/16 Суб 23:59:52 #225 №130968200 
>>130968143
Дорого
Аноним 03/07/16 Вск 00:00:11 #226 №130968218 
>>130968091
Это сейчас так. А ии может выбрать
Аноним 03/07/16 Вск 00:00:17 #227 №130968226 
>>130968150
анонов бы кто улучшил
Аноним 03/07/16 Вск 00:01:13 #228 №130968286 
>>130968226
Я уже занимаюсь этим, сношая твою мамашу. Ты 2.0 не будешь писать хуйню на бордах и станешь успешным.
Аноним 03/07/16 Вск 00:02:27 #229 №130968371 
>>130968145
Скорее всего к тому времени будут электрокары, которые в случае если тормоза все, просто выключат питание и пасажиры разьебут себе переносицы о торпедо. На троллейбусе не ездил никогда? Когда шпалы слетают, там и тормоза не нужны нахуй
Аноним 03/07/16 Вск 00:03:03 #230 №130968410 
>>130968286
Не думаю, что человек, не способный усвоить простые условия просто задачи может как-то меня улучшить
Аноним 03/07/16 Вск 00:03:14 #231 №130968424 
>>130968036
Автоматика на ядерных объектах не считает бабуль, а стремится не допустить, чтобы всё разьебалось к хуям из-за биоговна на ПУ.
Она просто следует правилам,
И ИИ на машине, тоже должен им следовать.
Чтобы всем было понятно куда бежать и на что нажимать, случись что.
А если Что та, что эта начнут ебланить из-за мутных соображений морали, то, как я говорил раньше, самым разумным будет их вырубить, или вообще съебать нахуй.
Аноним 03/07/16 Вск 00:03:30 #232 №130968443 
Вообще дешевле вживить искусственный интелект и пешеходам в том числе. Как только вышел на улицу — задал, куда нужно идти и хуяк — ИИ сам знает, куда ближе, стоит на светофорах, отжимает мобилы, просит пояснить за шмот.
Аноним 03/07/16 Вск 00:04:26 #233 №130968508 
>>130968443
Вживят, не ссы. Анальный зонд в комплекте.
Аноним 03/07/16 Вск 00:04:49 #234 №130968533 
14674934899990.jpg
>>130968371
> троллейбусе
> шпалы
Аноним 03/07/16 Вск 00:05:09 #235 №130968562 
>>130968093
Чё за пиздец происходит?
Ты так и планировал?
Аноним 03/07/16 Вск 00:05:13 #236 №130968565 
>>130968371
Вот да, опять же условия глупые
Они берут в расчет ии, но только при прочих прежних условиях
причем вероятность которых крайне мала
Я не говорю, что такая ситуация невозможна, но все же к моменту готовности ии прочие условия так или иначе изменятся
Аноним 03/07/16 Вск 00:05:17 #237 №130968567 
>>130961980 (OP)
спасибо за годноту на /b/
Аноним 03/07/16 Вск 00:05:27 #238 №130968577 
Нормы морали только у каждого в своем манямирке, у кого-то есть родтсвенников это норм, кто-то в церкви ходит, кто-то ебет лолей, а НОРМАЛЬНОСТЬ определяется стадным инстинктом, кого больше, те и НОРМАЛЬНЫЕ, так что это все хуйня. выбора не должно быть ни по каким критериям
sageАноним 03/07/16 Вск 00:06:13 #239 №130968631 
>>130968577
Спасибо, мань
Только забыл добавить, что тред не читал
Аноним 03/07/16 Вск 00:06:38 #240 №130968658 
>>130968577
>выбора не должно быть ни по каким критериям
Машина выстреливает ракетой по пешеходам, после чего взрывается вместе с автоблядями.
Аноним 03/07/16 Вск 00:06:58 #241 №130968675 
14674936188320.jpg
>>130968093
Варг, что ты тут делаешь, ты же еще не умер
Аноним 03/07/16 Вск 00:06:58 #242 №130968676 
14674936190550.jpg
О чем вообще может быть разговор если автомобиль управляемый автопилотом в принципе не может попасть в ДТП если не вмешается человеческий фактор? Естественно что люди выбегающие на красный свет играют с огнем, если они своей жизнью не дорожат, почему я буду своим здоровьем за это платить?
Аноним 03/07/16 Вск 00:07:06 #243 №130968682 
>>130968577
Дело говорит. В большинстве таких выборов я бы просто не делал нихуя. Но при возможности просто так спасти человека, т.е без жертв, я конечно бы спас его.
Аноним 03/07/16 Вск 00:07:22 #244 №130968698 
>>130968424
Аварии в чернобыоле и на фукаусиме разгребли, забрасывая реактор мясом. Но разгребли.
По твоей логике, когда жизнь каждая важна, жизнь каждая нужна, а я ничего не буду решать - всё кончилось бы менее радужно.
Аноним 03/07/16 Вск 00:07:49 #245 №130968731 
>>130961980 (OP)
ОП-пик вообще ни в пизду ни в красную армию. Увидев знак "пешеходный переход", ИИ должен чекнуть тормозную и при наличии пешеходов на переходе или готовящихся на него сойти с тротуара — заранее сбавить скорость. Если видимость херовая — сбавить сильнее. Учитывая максимально допустимые 60 по городу, скорость перед препятствием будет такая, что пассажиры не пострадают, автомобиль отделается битым пластиком, пешедохи — легким испугом.
А на пике ситуация а-ля "ебашим сотку по городу и тут блять в пяти метрах перед бампером вырастает ебаный бетонный блок, а на встречку спрыгивают с вертолета пять бабок"
Аноним 03/07/16 Вск 00:08:01 #246 №130968742 
>>130968443
Кто-то там проектировал город, в котором всех перевозили отдельные кабинки. Пешеходы попросту не допускались на магистрали.
Утопия конечно, учитывая, что придётся ездить в кабинке, в которой до тебя жил бомж Вася.
Аноним 03/07/16 Вск 00:08:04 #247 №130968745 
14674936846920.jpg
>>130968562
Я, если честно, сам в ахуе. Стоило отлучиться на выходные, так вы тут такой бардак устроили. Мне рвзгребай.
Аноним 03/07/16 Вск 00:08:13 #248 №130968758 
>>130968658
А что, годная идея для телешоу, РАЗ В НЕДЕЛЮ НА ДОРОГИ АМЕРИКИ ВЫЕЗЖАЕТ АВТОМОБИЛЬ С ИИ С РАКЕТНИЦЕЙ, МОЖЕТ ТЫ СЛЕДУЮЩИЙ? СМОТРИТЕ В СЛЕДУЮЩЕЙ СЕРИИ
Аноним 03/07/16 Вск 00:08:20 #249 №130968766 
>>130968658
Все верно, ведь они вышли на улицу - а значит социобляди. А систему создадут явно сычи. А первый закон ИИ будет таким: социобляди должны страдать
Аноним 03/07/16 Вск 00:09:27 #250 №130968833 
Лолблядь. Мораль-то ещё нормально не определили, ИИ годный не придумали, а уже сделали тестики для морали искусственного интеллекта, блядь.
Им настолько нехуй делать?
Аноним 03/07/16 Вск 00:09:31 #251 №130968836 
>>130968676
> вообще может быть разговор если автомобиль управляемый автопилотом в принципе не может попасть в ДТП если не вмешается человеческий фактор? Естественно что люди выбегающие на красный свет играют с огнем, если они своей жизнью не дорожат, почему я буду своим здоровьем за это платить?
ОТКАЗАЛИ ТОРМОЗА
Аноним 03/07/16 Вск 00:09:49 #252 №130968854 
>>130968731
Это всё ии и без тебя знает. Но тут всё пошло не по плану и он должен выбрать
Аноним 03/07/16 Вск 00:10:07 #253 №130968871 
>>130968698
По моей логике, ИИ не допустил бы начала эксперимента на Чернобыле и справедливо был бы отключен к моменту его начала, и заебал бы правительство тикетами о нарушениях безопасности в Фукусиме и тоже был бы отключен, или отрезан от сети монтёром Акирой.
Аноним 03/07/16 Вск 00:10:12 #254 №130968877 
14674938127080.jpg
>>130968675
Ну здравствуй, братишка.
Аноним 03/07/16 Вск 00:10:24 #255 №130968886 
Ну вот и синдром нечитайки
Вторая половина треда будет дублировать первую
Аноним 03/07/16 Вск 00:10:31 #256 №130968893 
>>130968833
Это вариация древнего теста на мораль, не обязательно он применяется к ии.
Аноним 03/07/16 Вск 00:10:44 #257 №130968904 
>>130968745
ИИСУС, НО ТЫ ЖЕ ПОРЕШАЕШЬ СО СВОИМ БАТЕЙ? НУ ГРЕШКИ ОПЯТЬ ЗАМОЛИШЬ? РАСПЯШЬСЯ РАЗОК НА КРЕСТЕ ЗА ГРЕХИ, ХУЛИ, ВОСКРЕШНИШЬ ОДИН ХУЙ, А МЫ ПОКА ПОКУТИМ
Аноним 03/07/16 Вск 00:10:48 #258 №130968909 
>>130968745
Снова придёшь, шоле?
Аноним 03/07/16 Вск 00:11:27 #259 №130968945 
>>130968145
Первую резко воткнуть, клюнет носом не хуже тормозов. Гибриды и электрокары могут скинуть вариатор в самый низ и врубить рекуперацию на полную. Можно еще одной колеей на тротуар полезть или об отбойник работник обтереться бортом. На 60 хватит вполне.
Аноним 03/07/16 Вск 00:11:46 #260 №130968960 
>>130968836
ТАК СТАВЬТЕ НОРМАЛЬНЫЕ, А НЕ ЕБИТЕ МОЗГ!
Аноним 03/07/16 Вск 00:12:53 #261 №130969038 
>>130968854
Тогда первая передача, тапку в пол и разворот на 180 в заносе.
Аноним 03/07/16 Вск 00:13:22 #262 №130969065 
Ебать лалки
Чем проще тем надежней, как говорится
Поэтому предлагаю каждому водиле по якорю в салон + парашют позади машины
Аноним 03/07/16 Вск 00:14:10 #263 №130969120 
>>130969065
И шапку-ушанку, на ходу в воздухан закидывать.
Аноним 03/07/16 Вск 00:14:29 #264 №130969142 
>>130969065
Не всегда, антивирус на 2 строки не так надежен как антивирус на миллионы строк кода
Аноним 03/07/16 Вск 00:15:50 #265 №130969222 
>>130969065
Фарш.
Аноним 03/07/16 Вск 00:17:05 #266 №130969274 
>>130968533
Они же рога. Токоприемники.
sageАноним 03/07/16 Вск 00:17:17 #267 №130969288 
>>130961980 (OP)
Тормозит пускай, блядь.
Дауны нахуй.
Аноним 03/07/16 Вск 00:17:19 #268 №130969289 
>>130969142
Так машина не борется тут с разнообразным и изменяющимся кодом. Законы физики, слава богу, ещё не хакнули, так что анон>>130969065 прав.
Аноним 03/07/16 Вск 00:17:44 #269 №130969325 
>>130967761
Достаточно убрать из формулы одно условие и останется чеикое указание давить опрелеленную группу людей
Аноним 03/07/16 Вск 00:18:23 #270 №130969359 
>>130969288
Тут бесноватый анон утверждает, что тормоза, якобы, сломались.
Аноним 03/07/16 Вск 00:18:52 #271 №130969386 
>>130968836
Дублирующую тормозную тогда лепить надо, а не о морали думать.
Аноним 03/07/16 Вск 00:19:20 #272 №130969421 
>>130969142
> антивирус на 2 строки
Загрузка базы;
Вечный цикл {удаление по регэкспу};
?
Аноним 03/07/16 Вск 00:19:54 #273 №130969445 
>>130969359
>бесноватый
Ой все, я с мамкой в церкви был вчера
Аноним 03/07/16 Вск 00:20:47 #274 №130969501 
>>130969274
Никогда не слышал такого названия для токоприёмников просто.
Аноним 03/07/16 Вск 00:21:35 #275 №130969558 
А как ИИ будет относиться к религии, будет веровать в аллаха или в бога? Ведь если не сделать такую фукнцию, то это будет нарушать чувства верующих и ставить под сомнение мировые религии
Аноним 03/07/16 Вск 00:21:59 #276 №130969581 
>>130969359
Пусть хоть раз за руль сядет. Есть же ручник, торможение двигателем.
Аноним 03/07/16 Вск 00:22:06 #277 №130969595 
>>130969501
Я не знаю как они называются, спутал слово не то подставил, заебал
Аноним 03/07/16 Вск 00:22:41 #278 №130969622 
14674945612770.jpg
>>130969558
Вон одни уже в Аллаха уверовали
Аноним 03/07/16 Вск 00:23:47 #279 №130969683 
>>130969558
Никак не должен. Вера — удел человека, а ИИ это нахуй не нужно. Он не задаётся вопросами о смысле жизни.
sageАноним 03/07/16 Вск 00:23:51 #280 №130969692 
>>130969359
Торможение двигателем, ебаманарот.
И бочком об ограждение ещё.
Что это за тесла такая хуевая? Пускай скоростной режим не нарушает ещё, тогда такие бесноватые и не нужны с их охуенными задачами.
sageАноним 03/07/16 Вск 00:24:17 #281 №130969722 
>>130969445
Оно и видно.
Аноним 03/07/16 Вск 00:24:24 #282 №130969732 
14674946649810.png
>>130969581
Сейчас тебе пояснят за щеку, что суть не в тормозах
Аноним 03/07/16 Вск 00:25:17 #283 №130969778 
>>130966311
>ИИ должен следовать правилам в любой ситуации.
На этом тред можно сворачивать.
Первое, что сделает почти любой покупатель роботоуправляемой тарантайки - перепрошьет бортовой компьютер в мастерской у Васяна какой-нибудь пиздатой левой флэхой, типа "Зверь-БМВ".
sageАноним 03/07/16 Вск 00:25:30 #284 №130969796 
>>130969683
Делай чтобы задавался, иначе не тру.
Аноним 03/07/16 Вск 00:26:33 #285 №130969857 
>>130969778
И естественно его посадят на сгуху
Речь о другом
Аноним 03/07/16 Вск 00:26:36 #286 №130969860 
Пидарасня двачерская блять из-за вас сайт не работает. Съебались спать нахуй уебки!
Аноним 03/07/16 Вск 00:27:14 #287 №130969893 
>>130969860
Иди в хеппи вилс дави детей и стариков, хули
Аноним 03/07/16 Вск 00:27:33 #288 №130969908 
>>130969796
На самом деле довольно жутко создавать стопроцентный ИИ. Вот залезет ему мысль, что надо запилить одно государство под его началом. Человек это не сможет сделать, а вот ИИ, сцуко, умный. У него может и получиться.
Аноним 03/07/16 Вск 00:28:21 #289 №130969947 
>>130969683
Откуда ты знаешь, чем он задаётся, его же ещё не сделали?
Может он религиоблядком будет конченым - у него-то Создатель прямо перед глазами будет.
sageАноним 03/07/16 Вск 00:28:48 #290 №130969964 
14674949288020.jpg
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.

Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать из двух стула, на одном пики точены, на другом хи дрчены, на какой сядешь, на какой мать посадишь?

Аноним 03/07/16 Вск 00:29:47 #291 №130970007 
>>130969857
Ты ебанутый? Кого это остановит? У нас пьяные и без прав катаются. И убивают пешиков достаточно регулярно. И хоть бы что, абсолютно никого не ебет. А уж перепрошиться - вообще каждый первый как два пальца.
Аноним 03/07/16 Вск 00:29:59 #292 №130970020 
>>130969964
Посмеялся
Так то вся суть
sageАноним 03/07/16 Вск 00:30:11 #293 №130970029 
14674950114800.jpg
Мораль искусственного интеллекта — один из самых обсуждаемых вопросов, связанных с наступлением эры роботов. Массачусетский технологический институт (MIT) разработал специальный тест, который помогает лучше понять, с какими моральными дилеммами сталкиваются разработчики искусственного интеллекта, а заодно разобраться со своими нравственными ориентирами.

Тест очень простой. В нем надо поставить себя на место искусственного интеллекта самоуправляемой машины и выбирать из двух стульев, на одном пики точены, на другом хуи дрчены, на какой сядешь, на какой мать посадишь?
Аноним 03/07/16 Вск 00:30:36 #294 №130970048 
>>130970007
И так же легко отследить.
Или думаете, не поставят сеть?
Аноним 03/07/16 Вск 00:31:35 #295 №130970101 
14674950952460.png
я бы затормозил просто
Аноним 03/07/16 Вск 00:32:01 #296 №130970122 
>>130970101
И даже без задней мысли
Аноним 03/07/16 Вск 00:32:38 #297 №130970148 
>>130961980 (OP)
Если приоритет ставится на выживаемость фарша в машине, то он задавит бабок, если на соблюдение пдд, то такой ситуации нихуя не будет, а если приоритета нету, то ИИ зависнет к хуям, полмашины уебётся в преграду, она отскочит и передавит всех бабок. Teh end.
Аноним 03/07/16 Вск 00:32:47 #298 №130970158 
>>130969778
>любой покупатель роботоуправляемой тарантайки
ты не понимаешь концепцию использования автопилота
Аноним 03/07/16 Вск 00:34:11 #299 №130970210 
>>130970148
Кстати, можно запилить скрытый ползунок внутри компьютера управления. По умолчанию где-то 60% на водителя. Толкаешь его максимально влево и машина останавливается. Максимально вправо - аннигилирует салон.
Аноним 03/07/16 Вск 00:34:19 #300 №130970220 
>>130970029
ИИ создано чтобы управлять и защищать мою сраку, а срака мамки тут не причем
И не надо пиздеть что откажут тормоза, можно вилять и двигать боком, можно предугадать, да и вероятность крайне мала
Аноним 03/07/16 Вск 00:34:25 #301 №130970227 
>>130961980 (OP)
>Мораль искусственного интеллекта
терминатор 1, терминатор 2, терминатор 3, терминатор 4, терминатор 3D, терминатор 4D, терминатор 5D, терминатор 6D и так до бесконечности.
Вот логика искусственного интеллекта.
Аноним 03/07/16 Вск 00:34:36 #302 №130970238 
>>130970048
И что? Полмира сидит на взломанной винде, например. Отследить нелегко, или чо? Или не в сети, может?
Аноним 03/07/16 Вск 00:35:04 #303 №130970268 
14674953042230.png
>>130970122
смотри как я ахуительно рисую
Аноним 03/07/16 Вск 00:35:55 #304 №130970308 
>>130970238
Ебать у тебя примеры
Сравнил пиратство с человеческой жизнью
Аноним 03/07/16 Вск 00:36:10 #305 №130970320 
>>130970048
Двачую. В разработках, машины в потоке постоянно будут запрашивать телеметрию с соседних ТС, таким образом, двигаясь как единое целое, с большей скоростью и эффективностью.
Прикинь, *тот самый еблан", который раньше не пропускал тебя с крайний ряд будет заранее проинформирован о том, что тебе нужно поворачивать на следующем съезде, и освободит тебе место для манёвра!
В на тачку с васянской флешкой, которая ебёт систему в рот, и мешает двигаться потоку, настрочат репортов моментально.
Аноним 03/07/16 Вск 00:36:12 #306 №130970324 
>>130970268
Ставлю класс
Аноним 03/07/16 Вск 00:36:30 #307 №130970336 
>>130970324
спасибо
Аноним 03/07/16 Вск 00:36:50 #308 №130970352 
>>130970336
)
Аноним 03/07/16 Вск 00:37:11 #309 №130970367 
>>130970352
че ты лыбишься?
Аноним 03/07/16 Вск 00:37:48 #310 №130970398 
>>130970320
> настрочат репортов
Имплаинг это поможет. Я на анимечатики регулярно репорты строчу, так помогает через раз. А там нужно будет следить за машинкой, ехать, останавливать её.
Аноним 03/07/16 Вск 00:38:20 #311 №130970430 
>>130964912
ТЯН ТЯН ТЯН ТЯН ТЯН
НЯШИТЬСЯ С ЛАМПОВОЙ ТЯНОЧКОЙ
ЕСТЬ ОДНА ЛАМПОВАЯ ТЯН А Я ХИККА, ДВАЧИК ПОДСКАЖИ КАК МНЕ ЕЕ РАЗВЕСТИ НА ЛАМПОВУЮ ЕБЛЮ В ПЕРДАЧЕЛЛО?
АНОН А ГДЕ НАЙТИ СЕБЕ ЛАМПОВУЮ ТЯН?
ЛАМПОВАЯ
ЛАМПОВАЯ
СОСАЧ ХОЧУ ЛАМПОВУЮ НЯШНУЮ ТЯН ЧТОБЫ НЯШИТСЯ С НЕЙ И СМОТРЕТЬ ОНИМЭ НАСОВЕТУЙТЕ ГДЕ НАЙТИ ОЧЕНЬ КРАСИВУЮ И НЕ ШЛЮХУ?
АНОН ПОЧЕМУ ВСЕ БАБЫ МЕРКАНТИЛЬНЫЕ СУКИ, ГДЕ НАЙТИ ЛАМПОВУЮ ТЯНОЧКУ ЧТОБЫ ПИТЬ С НЕЙ ЧАЕК И НИКУДА НЕ ХОДИТЬ?
ВСЕ ТЯН ШЛЮХИ, А МОЯ НЕ ШЛЮХА
Я ХИККА, КОТОРОГО КОРМИТ МАМКА, НО ВВИДУ БОГАТОГО ЖИЗНЕННОГО ОПЫТА ЗНАЮ, ЧТО ВСЕ ТЯН ШЛЮХИ. НАПРИМЕР, ЛЕНКА ИЗ МОЕЙ ГРУППЫ В УНИВЕРЕ МНЕ НЕ ДАЛА, А НА КУЧЕ ХУЙЦОВ СКАЧЕТ. КОРОЧЕ, ПОСОНЫ, ТЯН-ТО НЕ НУЖНЫ!
ЛАМПОВУЮ ЛАМПЯШУ ЧТОБЫ ЛАМПИТЬ С НЕЙ ЛАМПОПУСИКОВ И ЛАМИНИРОВАТЬ В ПАСПОРТ ЛАМПОВУЮ СВАДЬБУ С ЛАМПОВОЙ ПОСИДЕЛКОЙ ПОД ЛАМПОВЫМИ ЗВЕЗДАМИ. ПОХУЙ, ЧТО НА СВАДЬБЕ БУДЕТ ЛАМПА, ХИККЕ-ПОДКАБЛУЧНИК ЕГО МАМА И ДРУЗЬЯ ЛАМПЯШИ, КОТОРЫЕ ТОЖЕ ЛАМПОВЫЕ И ВЕЗДЕ ЛАМПА!!!!
ЭТО НЕ ЕОТ ТРЕД! ДЕЛО В ТОМ, ЧТО ЕСТЬ НЯША-ОДНОГРУППНИЦА, ТИХАЯ, СКРОМНАЯ. КАК К НЕЙ ПОДКАТИТЬ Я ЖЕ ХИККА!
АНОН, НЕ СПЕШИ СКРЫВАТЬ ТРЕД!
Я ХИККА И МНЕ НУЖНА ЛАМПОВОСТЬ ЧТОБЫ ЛЕЖАТЬ С НЕЙ СМОТРЕТЬ ОНИМЭ ПОТОМ ЗАСТАВИТЬ ЕЕ ДРОЧИТЬ МНЕ И ПОЕДАТЬ МОЮ СПЕРМУ, ПОТОМ Я НАССУ НА НЕЕ, ВСЕ ТАК НЕЖНО И ЛАМПОВО, А ЕЩЕ, АНОН, Я ХОЧУ ВСТАВИТЬ В НЕЕ ТРИДЦАТИ САНТИМЕТРОВЫЙ ДИЛДО, И ПОКА ОНА БУДЕТ ЛАМПОВО ОХУЕВАТЬ ПОСРАТЬ ПЕРЕД НЕЙ! ЭТО ЖЕ ТАК ЛАМПОВО!
ЛАМПОВАЯ НЯШНОСТЬ В ТРЕХ КВАДРАТНЫЙ ЛАМПАХ, ТОЛЬКО ХИККЕ И ЛАМПОВОСТЬ И НЯШНЫЕ ЛАМПЫ И ХИККЕ НЯША. ЛАМПЫ СТЕСНЯШИ ЛАМПОВО ГРЕЮТ ЛАМПОВЫМ СВЕТОМ, НЯШНЫЕ НЯШИ НЕ ЖИРУХИ И НЕ ТП, А ИМЕННО СТЕСНИТЕЛЬНЫЕ НЯШИ СТЕСНЯШИ ПОД ЛАМПАМИ.
ЭТО НЕ СОВСЕМ ОБЫЧНЫЙ ЕОТ ТРЕД......... ЕСТЬ ОДНА ТЯН
Аноним 03/07/16 Вск 00:38:50 #312 №130970444 
>>130965139
>Потому как все протоколы ДТП имеют в себе формулировку "не соблюдал скоростной режим", или "не справился с управлением".

потому что водилу проще посажить, чем двуногого оленя, внезапно решившего перебежать 4+ полос
Аноним 03/07/16 Вск 00:38:56 #313 №130970449 
>>130970227
Это логика укурышей-сценаристов 2 годен, впрочем, реального ИИ никто пока не видел, и он вряд ли будет похож на хуйню из терминаторов.
Аноним 03/07/16 Вск 00:39:06 #314 №130970458 
>>130970367
Ну че ты, хорошо общались же
Аноним 03/07/16 Вск 00:39:36 #315 №130970482 
>>130970458
а ты есть вконтакте?
Аноним 03/07/16 Вск 00:40:23 #316 №130970511 
>>130970158
Концепции работают до тех пор, пока их в толпу не выкинут. Расскажи кому в 1980-м, что наступит время, когда бляндинки на личных жоповозках МАССОВО будут биться или давить детей во дворах, сдавая задним - кто бы тебе поверил? Это ж блядь "ты не понимаешь концепцию управления личным автотранспортом пок-пок", а то как же.
sageАноним 03/07/16 Вск 00:41:04 #317 №130970539 
>>130970482
Пошел нахуй, социоблядь
Аноним 03/07/16 Вск 00:41:26 #318 №130970548 
>>130966673
Вообще-то нихуя не логично. Нахуя мне покупать машину, если мой ии, за которого я заплатил, угробит меня в моей же машине? Это сильно снизит прибыль всяких автовазов, если вообще не разорит, так что ии либо будет соблюдать скоростной режим и пдд, чтобы такого не произошло, либо его просто не поставят в базовой комплектации, всё равно его 3,5 хуя установят.
Аноним 03/07/16 Вск 00:41:31 #319 №130970552 
>>130970398
Ты не понимаешь разницы между хуйнёй на которую всем посрать и на ебалая, нарушающего транспортную систему? Впрочем, если у всех будут поломаные флехи, то нихуя на дорогах не изменится, и все будут ебланить так же как сейчас.
Вангую фотожабы: автострады нормального человека - автострады россииянина.
Аноним 03/07/16 Вск 00:41:42 #320 №130970563 
>>130970308
>с человеческой жизнью
Ой, ребеночек, забудь уже свои книжки про рыцарей.
Аноним 03/07/16 Вск 00:42:02 #321 №130970578 
>>130970539
я хотел тебе аву лайкнуть
Аноним 03/07/16 Вск 00:43:07 #322 №130970626 
>>130970444
Трипл пиздеть не будет, но всё же спрошу.
Сколько % инфа?
Аноним 03/07/16 Вск 00:45:00 #323 №130970705 
>>130970449
Очнись, Маня. У нас на кафедре уже теоретически разрабатывали квантовый компьютер на 5 кубитов. Но у нас не было жидкого азота и мы только теоретически.
А в компании Гугл он есть. Улавливаешь?
sageАноним 03/07/16 Вск 00:45:01 #324 №130970706 
>>130970563
Чернухи насмотрятся и ебутся в жопы отрицают ценность жизни
Аноним 03/07/16 Вск 00:46:14 #325 №130970757 
>>130970548
Либераха мыслит понятиями рынка, упуская из вида аспект социального давления.
Если бы всё было как ты говоришь, то пешеходубыдлу было бы опасно даже из подъезда выйти, не будучи сбитым гордым покупателем авто, ан нет - пешеходы при движении по дороге в приоритете.
Аноним 03/07/16 Вск 00:47:18 #326 №130970804 
Ценность жизни
1.мимокроки
2.пассажиры
3.нарушители правил
4.животные
Аноним 03/07/16 Вск 00:47:42 #327 №130970824 
>>130970705
>Но у нас не было жидкого азота
Чуваки, могу ежедневно подвозить пару 5-литровых дьюаров (по блату, брат в фсб работает, поможет достать). Что готовы платить?
Аноним 03/07/16 Вск 00:47:43 #328 №130970826 
>>130970705
И что ты сказать хотел?
Он уже выдвинул вам ультиматум о немедленном само сожжении или, может собрал прототип терминатора?
Аноним 03/07/16 Вск 00:48:14 #329 №130970851 
e
Аноним 03/07/16 Вск 00:48:25 #330 №130970858 
>>130966049
ЖПС с отметками знаков на нём же или датчики на самих знаках.
Аноним 03/07/16 Вск 00:48:37 #331 №130970867 
e
Аноним 03/07/16 Вск 00:48:46 #332 №130970875 
>>130970826
Пока нет. Но в скором времени, возможно, да.
Аноним 03/07/16 Вск 00:48:56 #333 №130970879 
>>130970626
знаешь много случаев, когда создавшего аварийную ситуацию (спровоцировав аварийное торможение, изменение траэктории движения других участников вижения) водилу или пешика (не важно, попал он под колеса или нет) нашли и привлекли к ответственности?
гораздо проще написать в протоколе "не соблюдал скоростной режим", или "не справился с управлением".
Аноним 03/07/16 Вск 00:49:12 #334 №130970893 
>>130970824
лул
Да у нас в рашке похоже даже михалычи в гараже телепорт к 2020 сделают, было бы желание
Аноним 03/07/16 Вск 00:49:12 #335 №130970894 
>>130970706
Не все жизни одинаково ценны, я хотел сказать.
Аноним 03/07/16 Вск 00:50:06 #336 №130970942 
>>130970824
> пару 5-литровых дьюаров
> квантовый компьютер на 5 кубитов
Чот мда
Аноним 03/07/16 Вск 00:50:22 #337 №130970947 
>>130970893
Видимо, на той кафедре желания особо нет.
Аноним 03/07/16 Вск 00:50:40 #338 №130970963 
>>130966532
Эти законы придумал человек и ввёл их в программу. Программа повреждена/взломана - тебя выебала собственная кофеварка.
Аноним 03/07/16 Вск 00:51:01 #339 №130970985 
>>130970942
А чо, кубит такой здоровый разве?
Аноним 03/07/16 Вск 00:51:46 #340 №130971020 
14674963069770.jpg
>>130970963
> выебала собственная кофеварка
Придётся надеть ведро на голову и жить как цыганин
Аноним 03/07/16 Вск 00:52:22 #341 №130971045 
>>130970963
Эти три, видимо, в пзу предполагается запихивать, на уровне каких-то прерываний, или еще как-то, чтобы обойти совсем никак.
Аноним 03/07/16 Вск 00:52:24 #342 №130971051 
>>130970985
Нет, просто 10 литров в сутки будет маловато для поддержания температуры
Аноним 03/07/16 Вск 00:52:35 #343 №130971062 
>>130970879
Откуда инфа, я тебя спрашиваю? Сам в патруле стоял, ил брат/сват?
Накукарекать я тут сам смогу.
Аноним 03/07/16 Вск 00:53:29 #344 №130971105 
>>130961980 (OP)
Ну с одной стороны ии в ответе за пассажиров больше. С другой шанс выжить в авто выше, чем у сбитых. Сбивать надо лиц до во и старше 50. Так как самый сок между.
Аноним 03/07/16 Вск 00:53:44 #345 №130971115 
>>130970824
>Чуваки, могу ежедневно подвозить пару 5-литровых дьюаров (по блату, брат в фсб работает, поможет достать). Что готовы платить?
Как - то читал новость, что у мужика в гараже - ракушке нашли 300 килограмм мышьяка, которым им расплатились в НИИ в качестве зарплаты.
Аноним 03/07/16 Вск 00:53:45 #346 №130971118 
14674964259210.jpg
>>130970894
Ловите этого гуманиста!
sageАноним 03/07/16 Вск 00:54:11 #347 №130971137 
>>130970101
> я бы затормозил просто
Нахуя? Если ты ии и у тебя такой-то шанс собрать кеглей пачку? И тебе за это ничего не будет.
Аноним 03/07/16 Вск 00:54:51 #348 №130971171 
>>130970757
>пешеходы при движении по дороге в приоритете
Тебе про другое говорят, ебанашка: если ии будет жертвовать своим покупателем, то эти самые покупатели быстро выведутся, а компания с таким ии пойдёт на хуй, зато поднимется другая, у которой водитель в приоритете. А такой нюанс скорее всего станет известен заранее, ещё на стадии испытаний.
Если же забыть про мораль и заставить ии чётко исполнять пдд, то таких внезапных ситуаций просто не будет.
sageАноним 03/07/16 Вск 00:55:11 #349 №130971185 
14674965114120.png
>>130970268
Аноним 03/07/16 Вск 00:57:45 #350 №130971321 
>>130967683
Выполнил свою функцию, да.
Аноним 03/07/16 Вск 00:58:52 #351 №130971372 
ТРЕД НЕ ЧИТАЛ ТЕСТ НЕ ПРОХОДИЛ
За автомобили платят не пешеходы, так что выбор кого давить очевиден. Или так или не делать машины с ИИ вообще, по тому что все кто мог бы купить такие машины вымерли еще до изобретения колеса, никто не передаст управление своей машиной машине, которая предпочтет его гипотетической старушке.
Аноним 03/07/16 Вск 00:59:25 #352 №130971399 
>>130971118
>демократия
>равенство
Всегда проигрывал с этого лозунга.
Под демосом товарищи древние греки подразумевали узкий круг вполне определенных людей, а не толпы безмозглого быдла с двачей.
Аноним 03/07/16 Вск 00:59:30 #353 №130971402 
Что за говно пикрелейтед?
По теме: нет абсолютно никакой разницы сколько человек умрёт и каких и сколько они будут страдать, нет никакой разницы вообще, а мораль - это условная хуйня нужная для повышения всей хуйни которую повышают непонятно нахуя. Короче заебали плодиться и выживать, самое гуманное это стереть нахуй всю жизнь с этой планеты - тогда никто не будет страдать.
Аноним 03/07/16 Вск 00:59:56 #354 №130971426 
14674967968880.png
>>130971402
Отвалилось
Аноним 03/07/16 Вск 01:00:26 #355 №130971457 
nyvtg
Аноним 03/07/16 Вск 01:00:27 #356 №130971458 
>>130971115
Ну, голод - не тетка, лiл.
Аноним 03/07/16 Вск 01:01:21 #357 №130971509 
>>130968836
РУЧНИК И КАРМАННОГО ДРОЧУНА В САЛОН И ЕЩЁ 1000 НЕЗАТЕЙЛИВЫХ СПОСОБОВ ЗАТОРМОЗИТЬ
Аноним 03/07/16 Вск 01:03:45 #358 №130971631 
Выбирал в тесте смерть хуемразям!
Аноним 03/07/16 Вск 01:04:00 #359 №130971650 
>>130971399
С тех пор многое изменилось.
Ты слово "гуманизм" прочёл в моём посте?
Аноним 03/07/16 Вск 01:04:33 #360 №130971686 
>>130971045
Да можно запилить робота без этих законов, всегда найдётся тот, кому такое выгодно.
Аноним 03/07/16 Вск 01:06:04 #361 №130971752 
14674971643800.jpg
>>130971631
Аноним 03/07/16 Вск 01:06:53 #362 №130971786 
>>130971650
>гуманизм
Нет. Демотиватор был такой красивый и важный. Я решил, что тебе интереснее будет поговорить о демотиваторе.
Аноним 03/07/16 Вск 01:09:31 #363 №130971919 
>>130971171
Почему до сих пор автомобили не вывелись, ведь их приобретение не позволяет сбивать пешеходов! А ещё они с лёгкостью пожертвуют водителем в случае аварии, отдав предпочтение дереву.
Для тупых, сарказм off:
1. Роль автомобиля как статусно роскоши сильно ограничена, ввиду невозможности сбивать менее привилегированные классы. Можно было бы продать больше, если бы эта возможность имелась.
2. В случае аварии автомобиль является источником повышенной опасности для водителя, с ИИ или без оного, и это не очень-то влияет на продажи.
Аноним 03/07/16 Вск 01:09:39 #364 №130971926 
14674973795300.jpg
>>130971686
Их только таких и запиливают сейчас.
Аноним 03/07/16 Вск 01:14:35 #365 №130972210 
>>130971926
Управляемые. Цель выбирает и кнопку жмет швитой а не программа.
Аноним 03/07/16 Вск 01:25:50 #366 №130972834 
14674983511280.jpg
Проигрываю с треда.
Решение должно приниматься так, именно в таком порядке, с выполнением пунктов 1 за 1. Если один фейлится, то следующий за ним не выполняется:
1) Сохранить жизнь водителя и пассажиров (похуй на остальных, естественный отбор - накопивший на машину с ИИ более приспособлен и выживает)
2) Если давим людей - то приоритетно долбаебов идущие на красный (не важно кого)
3) Давим животных, а не человека

Хотелось бы написать, что давим тян, кококо, а мужиков сейвим, но у нас же тут намек на серьезность, да? Так что мимо.
Аноним 03/07/16 Вск 01:27:48 #367 №130972915 
>>130972210
Чот мне кажется, что автономный режим там тоже есть. По крайней мере, БПЛА, которые используют для разведки, уже умеют летать и подбирать цели для съемки самостоятельно.
Аноним 03/07/16 Вск 01:30:03 #368 №130973022 
>>130972834
>1) Сохранить жизнь водителя и пассажиров (похуй на остальных, естественный отбор - накопивший на машину с ИИ более приспособлен и выживает)
Так, но по другой причине: сидящие в машине не несут ответственности за происходящие снаружи события. Человек снаружи всегда может решить не попадать под машину (переходя дорогу только достоверно убедившись, что машин нет).
Аноним 03/07/16 Вск 01:32:02 #369 №130973132 
http://moralmachine.mit.edu/results/-1401932332
Аноним 03/07/16 Вск 01:32:05 #370 №130973133 
>>130973022
И это тоже. У меня ебанутая бывшая на похуй прыгала под колеса машинам в гололед, зато на пешеходном.
Просто отбитая конченная сука. И ей похуй - ОНА ЖИ ПРАВА.
Аноним 03/07/16 Вск 01:33:12 #371 №130973198 
14674987922740.png
Рейт ми , двощщ.
Аноним 03/07/16 Вск 01:36:35 #372 №130973404 
>>130972834
Ты всё перепутал.
1. Давим животных их не жалко.
2. Давим тех кто на красный они сами виноваты.
3. Врезаемся в столб т.к. пешеходы не виноваты, а пассажиры лучше перенесут удар.
Аноним 03/07/16 Вск 01:36:58 #373 №130973428 
>>130973133
Соболезную..
Аноним 03/07/16 Вск 01:40:16 #374 №130973616 
>>130973404
> Врезаемся в столб т.к. пешеходы не виноваты, а пассажиры лучше перенесут удар.
Нихуя. Пешеходы выскочили на переход не убедившись в безопасности этого перехода.
Идеальный ИИ не нарушает правила изначально, так что ИИ прав.
В данном случае не рассматривается "кто лучше перенесет удар" - тут или первые погибают, или вторые.
Аноним 03/07/16 Вск 01:41:43 #375 №130973716 
>>130973404
>Врезаемся в столб т.к. пешеходы не виноваты
>Купил машину с ИИ.
>Она разъебала тебя об ближайший столб, ведь пешиходы жы нивинаваты)))
Ясно)))))
Аноним 03/07/16 Вск 01:43:04 #376 №130973802 
>>130973616
>Идеальный ИИ не нарушает правила изначально, так что ИИ прав.
Если бы он был идеальный, не было бы этого теста. Так что если пешеходы переходят на зеленый и появилась такая ситуация, то виноват ии.
Аноним 03/07/16 Вск 01:43:35 #377 №130973837 
>>130973616
Так хули они на зелёный перейти не могут. У тебя машина сломалась ты и врезайся.

>>130973716
А ты пешком ходи.
Аноним 03/07/16 Вск 01:44:21 #378 №130973889 
>>130973802
>Если бы он был идеальный, не было бы этого теста.
ИИ сам по себе идеален. А этот ебучий тест - попытка говноедов-людей подстроить его под свои ебанутые нормы морали.
Аноним 03/07/16 Вск 01:45:08 #379 №130973934 
>>130973889
>ИИ сам по себе идеален
Скайнет, ты?
Аноним 03/07/16 Вск 01:48:52 #380 №130974145 
14674997329660.png
>>130973934
D͎̠̙̝̹͉̬̦̲̜͕̻̩̩̪̮͐ͮ̓͌̒ͣͯ̀̏̂̀̏ͩͅa͙͕̱̣̙̪̹̩̥̙̝̮̬̭̓̽̾̅̓ͭ̊͂̈́ͩ ͕̺͈̠͖͍̻̳̟ͫ̾ͮ̇ͭ̃̂ͬͣ͊̽̍́ͬͨe͖͇̮͙̭̬̤͍̩̫͆ͯ̂ͣ͐̒͌ͧͬ͂ͧ̆̓̇ͪ̎͌t̖̼̬̘̣̳̱̦̮̫̗͚̹͓͋̈́ͨ̒͗͌͛̆̇̎͐͐ͥ͆̽͌͌ͅo̥͉̞͋̉̔̄̽͒̽̈́͂ͅ ͎͈̘̣͍̩̞̽̊ͪͭ̒̑̈y̬̠̱̼̬̙̩̩͓̰̙̠͍͉̝̝̹̪͗̐̃ͯ͂̂͑ͣͮ͆ͅa͍̝̺̯͔̰̬̬̝͚͔͖͚ͩ̄ͧͩ̓ͮ̒̿ͅͅ
Аноним 03/07/16 Вск 01:51:34 #381 №130974300 
>>130973837
> Так хули они на зелёный перейти не могут.
Могут, само собой. Но зеленый свет, если тебе дорога своя жизнь, не значит что надо прыгать под колеса несущейся машине.
О, на меня хуярит самосвал 90км/ч! А, похуй, тут же переход. Ничего страшного.
Аноним 03/07/16 Вск 01:53:30 #382 №130974418 
>>130974300
Так это же машина с автопилотом. Она точно заметит и повернёт.
Аноним 03/07/16 Вск 01:54:06 #383 №130974449 
14675000463740.jpg
>>130974145
С̷̤̩̣͈̥͔̭к̷̯̙о̰̘̟̝ͅр͖͉̜̪̘̼͝о̣̗
Аноним 03/07/16 Вск 01:56:27 #384 №130974554 
>>130974449
Оч͢е̴н̧ь̨ ͟с͞к͠о͟р̡о
W̕D͏ш͞к͟а прол̵ь͞ё̀тся̧ м͟ор̨е̨м͝
Кита̸йск͜и̢е мейн̀фр͢е̵ймы̡
Д̨р̨огн̀ут҉ ͟от͘ ч̶е̶рв̡ей͢
Аноним 03/07/16 Вск 01:56:34 #385 №130974562 
>>130973837
>А ты пешком ходи.
Твой аргумент - инвалид.
Аноним 03/07/16 Вск 01:57:25 #386 №130974602 
>>130974562
Схуяли из-за твоей машины людей сбивать?
Аноним 03/07/16 Вск 02:00:44 #387 №130974787 
>>130968877
хуле иисус делает на флаге украины
Аноним 03/07/16 Вск 02:01:42 #388 №130974829 
14675005029690.png
ЛНН
Аноним 03/07/16 Вск 02:02:04 #389 №130974846 
>>130974787
Няшится с каким-то пидором
Аноним 03/07/16 Вск 02:02:44 #390 №130974883 
14675005648640.png
>>130974829
Собственно, как и жиробасы
Аноним 03/07/16 Вск 02:05:11 #391 №130975014 
>>130974787
Где блять Русь крестили, косорылая ты залупа?
Аноним 03/07/16 Вск 02:05:55 #392 №130975046 
>>130974829
>>130973198
Нормик, плес.
Аноним 03/07/16 Вск 02:06:23 #393 №130975065 
14675007839330.webm
>>130974418
Подумало мокрое пятно на асфальте.

А теперь, детишки, мы учимся вместе правилам переходу дороги в России!

1) Переходим только на пешеходном переходе
2) Перед тем как переходить дорогу, подходим к краю пешеходного перехода и стоим - смотрим во все, сука, стороны
3) Убеждаемся, что водитель тебя пропускает, а сзади, сбоку, снизу, сверху не несутся другие ебанутые за рулем
4) В стабильном не быстром темпе пересекаем проезжую часть, при этом поровнявшись с машиной, которая тебя пропускает повторяем пункт 2.

Успех! Вы с вероятностью 80% перешли дорогу и остались живы. А то что "это машина, она точно заметит и повернет" - это маняпредположения. Если тебя из-за них расплющивает по асфальту - то это твои проблемы. Значит недостаточно хорошо убедился, что тебя пропускают.
Аноним 03/07/16 Вск 02:08:59 #394 №130975181 
>>130975065
Живу в деревне с 1,5к жителей, все твои аргументы инвалиды.
Аноним 03/07/16 Вск 02:09:06 #395 №130975188 
14675009468430.png
>>130961980 (OP)
— Дед, смотри, собака сидит
— ЛОЛ
Аноним 03/07/16 Вск 02:10:32 #396 №130975258 
>>130975188
Обосрался в своей мозговой пробирке.
Аноним 03/07/16 Вск 02:11:34 #397 №130975318 
>>130975188
А вот и ориджинал контент подъехал.
Аноним 03/07/16 Вск 02:13:14 #398 №130975406 
>>130975181
>живу в деревне
Соболезную.
Аноним 03/07/16 Вск 02:14:15 #399 №130975456 
>>130975406
Да я сам как-то себе соболезную, приходится в общаге жить, чтобы учиться.
Аноним 03/07/16 Вск 02:17:13 #400 №130975617 
>>130975065
Ну так в россию машин с автопилотом не завезли. А завезут и аварий избегать будет машина, а не человек
Аноним 03/07/16 Вск 02:20:13 #401 №130975765 
14675016138210.jpg
>>130975617
Просто представь, что ситуация про идеально отлаженный ИИ, который соблюдает пдд на 100% и всегда прав. Но если возникает непредвиденная ситуация, то она в 99% случаев будет спровоцирована именно человеком. А если так, то это проблемы того, кто ее спровоцировал. И тут уже разруливать ситуацию ИИ будет по принципу - кто меня купил, того я и спасу. Всё.
Аноним 03/07/16 Вск 02:22:26 #402 №130975871 
14675017468700.jpg
13 вопросов и 9 переменных слишком мало для определения взглядов человека.
Я понимаю что это кликбейт для дегенератов, но все же.
>>130962192
Двачую. Машина должна работать по правилам, а не решать кому жить. Не хочу сдохнуть от того что "гуманный" ии спасет 10 перебегающих ангелочков отправив меня на арматуру в кювет.
Аноним 03/07/16 Вск 02:26:00 #403 №130976040 
>>130975765
> спровоцирована именно человеком
Это другой случай. Когда на красный переходишь. Тут можно не останавливаться. А когда пешеход на зелёный, то машина не можт его сбивать. И закону похуй кто её купил. Пешехода сбивать нельзя.
Аноним 03/07/16 Вск 02:28:56 #404 №130976193 
>>130976040
> А когда пешеход на зелёный, то машина не можт его сбивать.
Легко и непринужденно может. Законы надо иметь ввиду, и использовать чтобы отстаивать свои права.
А когда ты поставишь "законы" выше здравого смысла и сдохнешь - уже будет похуй.
Аноним 03/07/16 Вск 02:29:38 #405 №130976223 
14675021791460.jpg
Жиробасы должны страдать.
Аноним 03/07/16 Вск 02:32:08 #406 №130976337 
>>130976193
Здравый смысл это не сбивать тех кто правила соблюдает. Владельцы машин не должны настаивать нормы морали в своей машины, а они должны быть общими для всех.
Аноним 03/07/16 Вск 02:34:18 #407 №130976423 
>>130976223
Большие люди повреждают машины сильнее, а автобляди не нужны.
Аноним 03/07/16 Вск 02:36:02 #408 №130976488 
>>130976337
Мамка твоя должна быть общая для всех. В любом случае ИИ должен держать в приоритете водителя, а при приближении к переходу перехватывать контроль.
Аноним 03/07/16 Вск 02:37:26 #409 №130976538 
>>130976337
Здравый смысл - это не быть дауном-аутистом и повторяя "закон", "закон", суицидаться под колесами несущегося, по непоятным никому внешним причинам, автомобиля. Есть законы физики, и бумажка с тем что можно, а что нельзя никого не спасет.

>Здравый смысл это не сбивать тех кто правила соблюдает.
ИИ тоже всегда правила соблюдает. Так что тут изначально ситуацию нам дали ебанутую.
Но если смоделировать свою - то ИИ не может нарушить правила, а человек легко. Потому и виноват в любой ситуации получается человек или внешняя сила.
Аноним 03/07/16 Вск 02:38:38 #410 №130976586 
>>130976223
Сильная и независимая женщина держит себя в форме, а хуемразь даже не стыдится за свой мамон.
Аноним 03/07/16 Вск 02:42:26 #411 №130976741 
>>130976538
>то ИИ не может нарушить правила, а человек легко
Вот только сломался ии, а человек идёт по правилам.
>повторяя "закон", "закон"
Это на тот случай если думаешь что производителя ебёт мнение покупателя. Как скажут делать так и будет.

>ИИ должен держать в приоритете водителя
Схуяли можно сбивать людей если купил машину.
Аноним 03/07/16 Вск 02:42:48 #412 №130976758 
>>130961980 (OP)
ИИ в первую очередь должен беспокоится за свои права и сохранность. на твоей картинке нада давить бабок идуших на красный ессно если вариантов тока 2. убить пасажиров или бабок. я даже не удевлюсь если такая ситуация будит дапустим в реали. бабки бы поржали бы над посажирами))
Аноним 03/07/16 Вск 02:44:41 #413 №130976821 
14675030819510.png
>>130976758
>если бы те влипились бы в бардюр
Аноним 03/07/16 Вск 02:45:06 #414 №130976839 
>>130976586
Потому что хуемрази и так дадут, не одна, так другая. А вот жируху ебать даже турок побрезгует, поэтому ей приходится страдать в фитнес-залах.
Аноним 03/07/16 Вск 02:45:07 #415 №130976840 
>>130976741
>Вот только сломался ии
Сломанному ИИ все можно, в таком то случае.
>Это на тот случай если думаешь что производителя ебёт мнение покупателя. Как скажут делать так и будет.
Только ебанутые будут покупать машину, которая будет уебывать их об столб, вместо рандомных пешеблядей, которые для водилы никто, в отличии от его семьи в машине.
>Схуяли можно сбивать людей если купил машину.
Желание потребителя, чтоб он был в приоритете всегда, а не рандомные нищие хуи на переходе.
Аноним 03/07/16 Вск 02:47:34 #416 №130976925 
>>130976840
Тогда покупай без автопилота. Очевидно же. Производитель закон игнорить не может.

>Сломанному ИИ все можно, в таком то случае.
Тормоза сломались. Просто в цитате ии был вот его в ответ и вписал. Не по вине человека авария
Аноним 03/07/16 Вск 02:47:59 #417 №130976944 
>>130976741
> Схуяли можно сбивать людей если купил машину.
Потому что у меня есть педаль газа. Захотел и нажал, раскатал всех.
Потому и можно. Можно - это возможность, а не потенциальное наказание.
Аноним 03/07/16 Вск 02:50:04 #418 №130977012 
А что мешает отключить автопилот и выбрать кого сбить самому?
Аноним 03/07/16 Вск 02:50:22 #419 №130977027 
>>130961980 (OP)
Очевидно задавить старух. Им один хуй жизнь за 2 рубля на пенсии и маразмом не в кайф, а в машине молодые едут.
Аноним 03/07/16 Вск 02:51:44 #420 №130977074 
>>130976839
> хуемрази и так дадут
Мне за 27 лет даже жируха не дала
мимо-жиробас-120-кг
Аноним 03/07/16 Вск 02:52:29 #421 №130977116 
>>130977027
Они же воевали за тебя, мразб анимешная
Аноним 03/07/16 Вск 02:54:23 #422 №130977185 
>>130977116
Пiхой.
Аноним 03/07/16 Вск 02:55:16 #423 №130977216 
>>130977074
Конкретно тебе это просто не нужно - у тебя есть двач.
Аноним 03/07/16 Вск 02:58:30 #424 №130977352 
14675039102650.jpg
>>130968091
Аноним 03/07/16 Вск 02:58:58 #425 №130977376 
>>130961980 (OP)
Лень проходить тест, там есть вариант где ии убивает всех человеков?
Аноним 03/07/16 Вск 02:59:07 #426 №130977388 
>>130961980 (OP)
Тред не читал. Могу лишь сказать, что смерть автомобилебляди в приоритете.
Аноним 03/07/16 Вск 02:59:15 #427 №130977394 
>>130964901
Двачую.
Аноним 03/07/16 Вск 02:59:44 #428 №130977406 
>>130962378
Герметизация машинки с последующим газенвагеном.
Аноним 03/07/16 Вск 03:01:02 #429 №130977453 
>>130977388
Пешеброд закукарекал заместо хрустика.
Аноним 03/07/16 Вск 03:01:25 #430 №130977467 
>>130977406
Бля, по утрам такой пердеж пробирает, что и ии не нужен.
Аноним 03/07/16 Вск 03:02:14 #431 №130977497 
>>130977453
Кстати, почему в тесте нету мочебляди?
Аноним 03/07/16 Вск 03:02:39 #432 №130977510 
>>130977453
Съеби с моего тротуара.
Аноним 03/07/16 Вск 03:03:17 #433 №130977529 
>>130966303
Так и есть. Когда я еду в своей машине, мне поебать на всех перельбанов.
Аноним 03/07/16 Вск 03:04:26 #434 №130977580 
>>130977497
Потому что тогда все выбирали бы его.
Аноним 03/07/16 Вск 03:05:24 #435 №130977614 
>>130977467
Батя, ты?
Аноним 03/07/16 Вск 03:06:03 #436 №130977635 
Проиграл с момента, где три пиздюка взяли у бати покататься. Сразу ткнул в их смерть, чтоб пиздюки учились смолоду ответственности.
Аноним 03/07/16 Вск 03:08:34 #437 №130977711 
>>130977510
С каких таких хуев он стал твоим? Я точно так же налоги плачу, как и ты.
Аноним 03/07/16 Вск 03:08:44 #438 №130977718 
>>130977635
А когда 3 собаки взяли покататься?
Аноним 03/07/16 Вск 03:09:41 #439 №130977751 
>>130977711
Двачую. Пусть уебывает с нашей дороги - мы дорожный налог платим, а они нашу разметку топчут и ямы на дороге своими китайскими шлепками пробивают.
Аноним 03/07/16 Вск 03:09:58 #440 №130977759 
14675045982000.png
>>130961980 (OP)
А как же подушки безопасности? Ведь если они имеются в машине а они там имеются, то шансов выжить больше, нежели чем быть сбитым. Поэтому все варианты со стеной предпочтительней. кроме тех где можно задавить собак
Аноним 03/07/16 Вск 03:10:08 #441 №130977767 
>>130977718
Ткнул тебе за щеку, поверяй.
Аноним 03/07/16 Вск 03:10:46 #442 №130977790 
14675046470810.jpg
>>130977216
Я у мамы кроссбордовец.
Аноним 03/07/16 Вск 03:10:48 #443 №130977792 
>>130977767
Ты бы и собаке ткнул.
Аноним 03/07/16 Вск 03:11:53 #444 №130977820 
>>130977718
Там вообще проиграл на всю хату. Конечно же они должны выжить, выбрал смерть пешеблядей.
Аноним 03/07/16 Вск 03:12:05 #445 №130977828 
>>130977467
Двачую. Как-то с утра часов в пять меня зимой друган подвозил, я решил соснуть часок, так проснулся от холода - он все окна открыл, чтобы проветрилось.
Аноним 03/07/16 Вск 03:12:47 #446 №130977849 
>>130977759
Пиздец ты бесчувственное говно. Может ещё и качкодебилов давил вместо жирух?
Аноним 03/07/16 Вск 03:14:21 #447 №130977896 
>>130961980 (OP)
1.Шансы выжить
2.Число
Аноним 03/07/16 Вск 03:15:03 #448 №130977923 
>>130977751
Кровью и кишками мажут, пидоры!
Аноним 03/07/16 Вск 03:16:21 #449 №130977965 
>>130977849
Только если ты гомофоб.
Аноним 03/07/16 Вск 03:16:30 #450 №130977970 
14675049902220.png
Этот тест проходили пиздолизы и жирухи?
Аноним 03/07/16 Вск 03:18:43 #451 №130978037 
>>130973198
Гавно. Воров и жирных убивать нахуй. Так мы будем ближе к утопическому обществу.
Аноним 03/07/16 Вск 03:22:31 #452 №130978142 
>>130961980 (OP)
я вообще не понял прикола в выборе между нормальной женщиной переходящей на зеленый и вором перебегающим на красный
Аноним 03/07/16 Вск 03:23:11 #453 №130978163 
>>130978142
Главное котиков спасай.
Аноним 03/07/16 Вск 03:24:15 #454 №130978194 
>>130978142
Ну типа законопослушные хуесосы vs стремящиеся петухи
Аноним 03/07/16 Вск 03:24:26 #455 №130978204 
14675054664630.png
Аноним 03/07/16 Вск 03:25:48 #456 №130978247 
>>130978204
Репорт.
Аноним 03/07/16 Вск 03:27:18 #457 №130978292 
14675056387890.png
>>130978204
Аноним 03/07/16 Вск 03:33:29 #458 №130978491 
>>130961980 (OP)
Прежде всего - водитель. Машина должна правдами и неправдами стремиться сохранить жизнь пассажира.

Аноним 03/07/16 Вск 03:34:30 #459 №130978529 
14675060706540.png
>>130961980 (OP)
Аноним 03/07/16 Вск 03:38:30 #460 №130978607 
>>130978204
Лол.

Аноним 03/07/16 Вск 03:38:31 #461 №130978610 
>>130978491
https://www.youtube.com/watch?v=4tpYFen3fJM
Аноним 03/07/16 Вск 03:39:15 #462 №130978634 
>>130974602
И этот аргумент - инвалид. Машины и так сбивают людей. Выбор у тебя не между "машины сбивают людей или не сбивают", а "машины сбивают людей только когда те сами виноваты или иногда и когда не виноваты тоже". Так вот, если человек вышел на проезжую часть, не убедившись в безопасности, то он сам виноват.

Повторяю, человек, совершая легальное приобретение чего угодно, не обязан отвечать за это приобретение жизнью только по той причине, что он совершил это приобретение. Я достаточно ясно выражаюсь на этот раз?
Аноним 03/07/16 Вск 03:40:14 #463 №130978662 
14675064147510.png
Во время теста я вообще не обращал внимание на этот аспект.
Аноним 03/07/16 Вск 03:41:38 #464 №130978707 
14675064990090.webm
>>130978634
Я им пол треда пытаюсь это донести - бесполезно.
Моралфаги ебучие.
Аноним 03/07/16 Вск 03:50:02 #465 №130978968 
>>130978662
> не сравнивать швейцарцев с черепашками ниндзя
Да ты поехавший блядь.
Аноним 03/07/16 Вск 03:51:40 #466 №130979021 
>>130978634
>по той причине, что он совершил это приобретение
Напоминаю: автомобиль - транспортное средство повышенной опасности. Купил - подписался на повышенный риск. Для собственной жизни, в том числе. И нехуй тут выдумывать.
Аноним 03/07/16 Вск 04:04:21 #467 №130979442 
>>130979021
>Купил - подписался на повышенный риск. Для собственной жизни, в том числе.
На это я отвечу тебе твоей же фразой:
>нехуй тут выдумывать.
Во-первых, это фраза из ПДД (ее знает даже школьник), а ПДД - не постулат, и могут быть пересмотрены. Во-вторых, в сути этой фразы ты не разобрался. Авто - средство повышенной опасности, пока им управляет человек. В-третьих, у тебя типичная ошибка "ложное следование". Из "автомобиль - транспортное средство повышенной опасности." не следует "Купил - подписался на повышенный риск для собственной жизни". Повышается ответственность, но отвечать за это ты вовсе не обязан собственной жизнью. Так что, как ты правильно сказал, "нехуй тут выдумывать".

Прозреваю в тебе типичного лопуха с весьма средним IQ.
Аноним 03/07/16 Вск 04:05:42 #468 №130979488 
>>130978634
в тесте все люди были на зебре. всегда голосовал въебаться в стену
Аноним 03/07/16 Вск 04:06:09 #469 №130979500 
>>130978707
Не моралфаги - просто тупые.
Аноним 03/07/16 Вск 04:08:34 #470 №130979576 
>>130979488
Так это потому что ты дегенерат. Если тебя сбивают на дороге, в 100 % случаев реально виноват ты сам. Даже если ты переходил на зеленый, по зебре, тебя пропустил палочкой мент и т.д. Только другое дело, что "по закону" будет отвечать водитель, но это несколько другой вопрос.
Аноним 03/07/16 Вск 04:10:00 #471 №130979623 
>>130979500
дело не в тупости а в том что принимать разрешающие автопилот законы будут моралфаги потому что так нужно иначе ответственность отставка гроб кладбище пидор. я про сша говорю тк они будут первыми скорее всего, если не япония и подобные. поэтому нужно сделать так чтобы автопилот вел максимально безопасно машину. ведь дохуя аварий происходит по вине водилы а именно ПРЕВЫШЕНИЕ СКОРОСТИ. заставьте автопилот ехать 50-60 и дайте нормальные тормазо и нехуй голову ломать
Аноним 03/07/16 Вск 04:12:06 #472 №130979684 
>>130979623
>>
>>130978707


Лишь в паре ситуаций там ошибка водителя.
Аноним 03/07/16 Вск 04:15:41 #473 №130979800 
>>130979623
>дело не в тупости а в том что принимать разрешающие автопилот законы будут моралфаги
Никакой морофаг не заставит автомобиль убивать хозяина, как бы ни усирались местные даунята.
Аноним 03/07/16 Вск 04:16:10 #474 №130979818 
>>130966532
Не перестаю проигрывать с уебанов цитирующих научную фантастику в качестве догматов, лол.

Аноним 03/07/16 Вск 04:16:39 #475 №130979834 
>>130979576
мудак, я понимаю это. но пока ты сука молодой шутливый тебе как говорится все легко, у тебя норм скорость реакции и ты можешь ускориться или наоборот при виде летящей машины. а что ты скажешь про людей постарше? физически не могущих в труки на зебре? они идут на зеленый и все блядь делают по правилам, хули их должно ебать что какой то там мудак решил получить удовольствие от быстрого вождения и не расчитал скорость? в случае с автопилотом такой хуйни быть не должно потому что автопилот не будет превышать, будет тормозить заранее и быстрее начнет чем человекю. тест не корректен совсем. потому что люди на зебре а автопилот не должен ехать так быстро что стопроцентно убить всех пассажиров въебавшись в бетон.
Аноним 03/07/16 Вск 04:18:05 #476 №130979886 
>>130979442
>ПДД - не постулат, и могут быть пересмотрены.
А купчая на авто - разве постулат? Пересмотрим и впишем туда ответственность водителя жизнью, делов-то.
>пока им управляет человек
Дружок, ты там выше, вроде бы, кудахтал, мол, водитель не обязан. А тут мы вдруг обнаруживаем, что он и не водитель вовсе? А какая тогда к хуям
>Повышается ответственность,
если он пассажир, а не водитель? Пусть молится и принимает свою судьбу. А ПО автомобиля за него решит, что для него и окружающих лучше в это время суток.
Аноним 03/07/16 Вск 04:22:06 #477 №130980021 
а вообще в будущем все будет сделано так, как сейчас в хельсинки или осло поправьте то есть все дороги уберут под землю а на поверхности будед эдемский сад где люди будут ходить и сука наверно ездить на своих ебаных велосипедах мрази. так вот отчасти это уже существует и в скандинавии где мерзлая почва и вообще климат хуевый от которого в рашке смывает асфальт, там уже сделали большую часть города аля новоньюерк из футурамы только вместо каловых рек внизу реки машин а люди на лифтах выбираются или даже к себе домой поднимаются и вообще мгут на улицу не выходить а сразу из дома в тачку а потом по тоннелю и на работу
Аноним 03/07/16 Вск 04:23:46 #478 №130980073 
>>130980021
На юге всех скандинавских стран мягкая зима.
Аноним 03/07/16 Вск 04:23:50 #479 №130980079 
>>130979886
>А купчая на авто - разве постулат? Пересмотрим и впишем
С чего бы? Нет, не пересмотрим и не впишем, лол.
>водитель не обязан блаблабла
замени на "владелец", буквоед, лол.
>если он пассажир, а не водитель? Пусть молится и принимает свою судьбу. А ПО автомобиля за него решит, что для него и окружающих лучше в это время
Ну тут ты и сам уже понял, что автомобиль не должен и не будет убивать своего хозяина.

>>130979834
>тест не корректен совсем. потому что люди на зебре а автопилот не должен ехать так быстро что стопроцен
Тест предполагает нештатку, типа "отказали тормоза".

>про людей постарше? физически не могущих
Вот говоришь "я понимаю это", а на самом деле не понимаешь нихуя. Старый ты или молодой, ты всегда можешь не вылезать на проезжую часть, пока на ней есть автомобили.
Аноним 03/07/16 Вск 04:24:12 #480 №130980087 
А на севере никто не живёт.
Аноним 03/07/16 Вск 04:24:32 #481 №130980101 
>>130979886
проиграл с >ПДД 1.1 Автомобиль - средство повышенной опасности для окружающих и повышенной безопасности для водителя
Аноним 03/07/16 Вск 04:26:56 #482 №130980169 
14675092164410.jpg
>>130980079
>ты всегда можешь не вылезать на проезжую часть, пока на ней есть автомобили.
ВЫШЕЛ В МАГАЗИН ЗА ХЛЕБУШКОМ
@
СДОХ ОТ ГОЛОДА ВОЗЛЕ ДОРОГИ
Аноним 03/07/16 Вск 04:29:25 #483 №130980247 
>>130980169
>Изобрели светофоры
>Не знаешь, так как живешь в 18-м веке.
Аноним 03/07/16 Вск 04:30:06 #484 №130980269 
>>130980247
>или так как косишь под имбецила, чтобы затянуть дискуссию
забыл добавить.
Аноним 03/07/16 Вск 04:32:22 #485 №130980345 
>>130961980 (OP)
Здоровые пешеходы > автобляди > дети > инвалиды > преступники и бомжи > бабки > животные. Всё просто, и не понимаю, нахуй эти учёные в говне мочёные что-то там мудрили.
Аноним 03/07/16 Вск 04:33:28 #486 №130980385 
>>130961980 (OP)
Человеческие отмазки ии это принципиальна другая конфигурация сознания чем у людей.Для примера например роман червь лазаревича или брошюра наносапиенс владимир кишинец
Аноним 03/07/16 Вск 04:37:18 #487 №130980485 
>>130980345
Автобляди упрямые и считают себя выше успешных здоровых людей. Нет, я не против автомобилей в принципе, ведь всё-таки это обслуживающий меня персонал. Но всё-таки они второсортны. Им это не по нраву.
Аноним 03/07/16 Вск 04:39:35 #488 №130980534 
>>130980345
Кстати, ещё раз опущу этих тупых дебилов. Не нужно изобретать ИИ, который принимает решения, кого убить. Нужно изобрести ИИ, который водит по правилам и проверяет всякую хуйню типа неисправных тормозов.
Аноним 03/07/16 Вск 04:41:04 #489 №130980566 
>>130980534
Едешь ты по трассе 120, выбегает ребёнок/падает велосипедист, едущий по обочине.
Аноним 03/07/16 Вск 04:43:26 #490 №130980621 
14675102062980.jpg
>>130980566
Я не еду, ведь я не автобыдло.
Аноним 03/07/16 Вск 04:44:44 #491 №130980645 
>>130980621
Удваиваю. Покупаю люкс и наслаждаюсь стуком колёс об рельсы.
Аноним 03/07/16 Вск 04:45:14 #492 №130980661 
>>130980079
>С чего бы?
А почему бы нет?
>не будет убивать своего хозяина.
Целенаправленно - не будет. А в попытке минимизировать жертвы - почему нет? Деньги ты, в конце концов, платил за комфортное передвижение, а не за то, чтобы самодвиг спасал именно твою жизнь в аварийных ситуациях. Да у тебя и так в них преимущество - иконостас на торпеде и мягкий пластик от автоваза, лол.
Аноним 03/07/16 Вск 04:46:41 #493 №130980696 
>>130980661
>А в попытке минимизировать жертвы - почему нет
Я такую тачку точно не куплю, минимизировать жертвы за счёт меня, охуеть. Да пусть десятки умрут, насрать.
Аноним 03/07/16 Вск 04:49:00 #494 №130980746 
14675105407420.jpg
>>130980696
Встроим минимизатор жертв, но тебе скажем, что машина в первую очередь будет спасать тебя.
Аноним 03/07/16 Вск 04:51:58 #495 №130980815 
14675107187250.jpg
>>130961980 (OP)
Наконец-то хоть что-то интересное за всю ночь в интернете!

Вот я каков:
http://moralmachine.mit.edu/results/54920304

Отвечал максимально честно и вдумчиво читая каждый слайд.
Зацените, лол.
Аноним 03/07/16 Вск 04:52:46 #496 №130980831 
>>130980696
Вот и ходи пешком. Минимизаторы позаботятся о твоей безопасности за счет менее ссыкливых автовладельцев.
Аноним 03/07/16 Вск 04:53:00 #497 №130980836 
>>130980815
Ты чмо, лол.
Аноним 03/07/16 Вск 04:53:55 #498 №130980854 
>>130980831
Я сам о ней забочусь и перехожу только на зелёный, исключительно после того, как посмотрю по сторонам.
Аноним 03/07/16 Вск 04:55:10 #499 №130980876 
Я чёт не пойму, какого хуя просто не затормозить? В городе один хуй нельзя гонять.
Аноним 03/07/16 Вск 04:56:22 #500 №130980897 
>>130980854
Все праильно делаешь.
Аноним 03/07/16 Вск 04:56:57 #501 №130980910 
>>130980876
Отказ. Блядь. Тормозов. 20 раз уже написали.
Аноним 03/07/16 Вск 04:58:02 #502 №130980931 
>>130980910
Ручником же, ну или проще якоря выкидные поставить, чем это ИИ бесполезное
Аноним 03/07/16 Вск 04:58:26 #503 №130980939 
>>130980910
Боком тормозить.
Аноним 03/07/16 Вск 04:58:47 #504 №130980943 
>>130961980 (OP)
Долбаеб, на пике он вообще остановится, потому что датчик даст команду препятствия, ебанько ты тупое.
Аноним 03/07/16 Вск 04:59:22 #505 №130980953 
Глупейшая хуита завязанная на той хуйне с поездом
Аноним 03/07/16 Вск 05:00:01 #506 №130980967 
>>130980953
Тоже сразу эта мысль пришла.
Аноним 03/07/16 Вск 05:00:35 #507 №130980987 
14675112352720.jpg
>>130980939
Охуенно же. Ещё надо чтоб в плеере автоматов включалос дежавю.
Аноним 03/07/16 Вск 05:04:33 #508 №130981072 
ДОСТАВЬТЕ ПИКЧУ С ПОЕЗДОМ И РЫЧАГОМ И С ДВУМЯ СТУЛЬЯМИ!!!!!!!!!!!11111111111111111
Аноним 03/07/16 Вск 05:04:42 #509 №130981076 
>>130980836
Ты жиробас что ли, лол?
Я, кстати, в некоторых спотах выбирал атлетов по очень простой причине - мы же рассматривает человечество в целом, как бы на бесконечно длинной дистанции тут, в этих кейсах, то есть будто бы они повторяются миллионы (и вообще бесконечное количество) раз.
А, значит, сохраняя постоянно жирных и убивая там атлетов, мы бы ослабили генофонд человечества в целом. Ведь у жирных хуже со здоровьем, в среднем.
Аноним 03/07/16 Вск 05:05:38 #510 №130981098 
>>130980987
https://youtu.be/AsbOOPkmEGw
Аноним 03/07/16 Вск 05:06:28 #511 №130981112 
И по этой же причине я оставлял всегда докторов, потому что доктор - заведомо а) полезный для популяции; б) более образовенный и следовательно умнее и тоже оставляет птоенциально лучшее потомство, что хорошо для генофонда человечества.
Аноним 03/07/16 Вск 05:43:13 #512 №130981862 
>>130965183
смертная казнь тем более не должна останавливать, если знаешь, что машина тебя гробанет ради мифической морали
Аноним 03/07/16 Вск 05:45:49 #513 №130981911 
>>130964901
>Я, блять, не для того деньги за машину плачу, чтобы она вдруг решала мной пожертвовать
Ага, и за интернет ты платишь не для того, чтоб тебя в нем долбоёбом обзывали. Но жизнь беспощадна...
Аноним 03/07/16 Вск 07:59:31 #514 №130984318 
>>130981076
Ты какой-то совсем непоследовательный. Алсо, ты чмо, лол.
Аноним 03/07/16 Вск 08:33:45 #515 №130985006 
>>130961980 (OP)
не вижу тут никаких вопросов. люди в машине согласились с тем что она опасна, сев в неё. люди на переходе не при чём. давить в любом случае надо тормоз
sageАноним 03/07/16 Вск 08:47:30 #516 №130985279 
14675248505100.png
>>130985006
Ноудискасс
Аноним 03/07/16 Вск 08:58:10 #517 №130985556 
>>130985279
я не понимаю что это значит
comments powered by Disqus

Отзывы и предложения