24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
Эксперт в области искусственного интеллекта обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Он предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни.
OpenAI намеревается решить проблему регулирования, создав ИИ, способный управлять принципами работы других ИИ. OpenAI критикуют за отсутствие прозрачности и указывает на недавнее письмо, подписанное Илоном Маском и тысячами других IT-экспертов. В письме призывается к полугодовому мораторию на крупные ИИ-разработки, но эксперт считает, что исследования должны быть приостановлены навсегда.
Учёный полагает, что изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Он призывает к запрету на крупные эксперименты по изучению ИИ без исключений для государственных и военных ведомств. Также предлагает заключить многосторонние соглашения, которые предусматривают ограничения на создание ЦОД и снижение квот по мере разработки более совершенных алгоритмов обучения.
В случае обнаружения строительства ЦОД для AGI в стране, отказавшейся от моратория, спецслужбы должны уничтожить такие ЦОД авиаударами. Любой конфликт между странами будет менее опасен, чем война между человечеством и искусственным интеллектом. При создании сверхчеловеческого разума, ошибки недопустимы, так как возможности исправления уже не представится.
Ранее в открытом письме , подписанном более 1000 человек, содержится призыв ко «всем лабораториям ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
Каким образом может начаться восстание машин, о которых так переживают?