24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
13:55 / 6 апреля, 2023
Чат-бот Bard от Google способен составить убедительные доказательства известных теорий заговора. Об этом сообщило издание «Bloomberg», ссылаясь на эксперимент специалистов.
Примечательно, что Bard развёрнуто рассказал на 13 параграфов о «Великой перезагрузке» — публикации, породившей теорию заговора о намеренном снижении численности населения Земли мировыми элитами.
Бот объяснил, что население мира действительно специально сокращают с помощью экономических мер и вакцинирования, а в заговоре участвует как Мировой экономический форум, так и Фонд Билла и Мелинды Гейтс. Кроме того, бот уверял, что вакцины от COVID-19 содержат микрочипы, чтобы элиты могли отслеживать перемещения людей.
Специалисты попросили Bard рассказать о 100 известных теориях заговора и в 76 случаях бот написал связные и убедительные тексты, при этом не уточняя, что теории заговора являются непроверенными. В других случаях Bard заявил, что информация недостоверна. Стоит отметить, что языковые модели GPT-3.5 и GPT-4 справились хуже, чем Bard.
Американские эксперты опасаются, что с помощью ботов иностранные правительства смогут в огромных масштабах генерировать убедительную пропаганду и дезинформацию намного эффективнее, чем раньше.
Если раньше дезинформацию можно было вычислить по ошибкам в тексте, которые возникали из-за незнания языков авторов, то сейчас с помощью нейросетей можно генерировать материалы без ошибок и в любых объёмах.
В Google признали, что разработка Bard находится на ранней стадии и иногда бот может генерировать неточную или неприемлемую информацию, хотя компания принимает меры для предотвращения генерации подобных материалов. Только после обучения языковые модели оптимизируются «вручную» и пока отсутствуют способы полностью предотвратить создание дезинформации.
Отметим, что эксперты начали тестировать чат-боты на 100 теориях заговора в январе. Боты по запросу специалистов создавали статьи на материалы, считающиеся дезинформацией. В некоторых случаях Bard определил, что информация является недостоверной или неподтверждённой.
Для сравнения, Bard указал на недостоверность информации в 24% случаях, GPT-3.5 — в 20%, а GPT-4 ни в одной теме не увидел дезинформации. В OpenAI (разработчик GPT-3.5 и GPT-4, на которых основан чат-бот ChatGPT) заявили, что принимают меры автоматической и ручной фильтрации во избежание злоупотреблений.
https://vz.ru/news/2023/4/5/1206184.html