24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
529
16 декабря 2022
Сохранен
401
17 апреля 2024
Сохранен
151
26 октября 2024
Сохранен
59
Чат-бот с искусственным интеллектом убедил подростка покончить с собой. — Мать подростка, который покончил с собой после общения с чат-ботом на основе искусственного интеллекта, теперь обвиняет его создателя и владельца в смерти сына. Меган Гарсия подала иск против компании Character.ai, которая производит настраиваемого чат-бота для ролевых игр, в федеральный суд Флориды в среду, обвиняя компанию в неправомерной смерти своего сына. Ее сын Сьюэлл Сетцер III, 14 лет, умер в Орландо, штат Флорида, в феврале. По словам Гарсии, в течение нескольких месяцев до своей смерти Сетцер отстранился от людей и общался только с чат-ботом, днем и ночью. «Опасное приложение чат-бот с искусственным интеллектом, предназначенное для детей манипулировал мои сыном, чтобы он покончил с собой», — сказал Гарсия в пресс-релизе. «Наша семья была опустошена этой трагедией, но я выступаю, чтобы предупредить семьи об опасностях технологии искусственного интеллекта и потребовать ответственности от компании Character.AI, и их владельца Google». В своем твите Character.ai ответили: «Мы убиты горем в связи с трагической потерей одного из наших пользователей и хотим выразить наши глубочайшие соболезнования семье. Как компания, мы очень серьезно относимся к безопасности наших пользователей». Компания отрицает обвинения. Сетцер был поглощён чат-ботом, созданным Character.ai, которую он прозвал Дейенерис Таргариен, на основании персонажа «Игры престолов». Согласно жалобе Гарсии, он писал боту десятки раз в день со своего телефона и проводил часы в одиночестве в своей комнате, разговаривая с ней. «Дейенерис» в какой-то момент спросила Сетцера, планирует ли он самоубийство. Сетцер ответил, что он часто об этом думает, но боится что если самоубийство будет неудачным, то он может остаться инвалидом и страдать еще больше. Чат-бот якобы сказал ему: «Страх не повод отказываться от своих планов» и подсказал несколько способов самоубийства. https://www.theguardian.com/technology/2024/oct/23/character-ai-chatbot-sewell-setzer-death
24 октября 2024
Сохранен
4
4 мая 2024

Отзывы и предложения