24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
328
Вчера OpenAI воплотила в реальность фильм "Она". GPT-4 общается с вами в реальном времени, скорость — Вчера OpenAI воплотила в реальность фильм "Она". GPT-4 общается с вами в реальном времени, скорость ответа - 300мс. Он может менять тон голоса, может даже петь. А еще умеет понимать эмоции, понимать ваш тон голоса, и подстраиваться под это. Он слушает вас постоянно, может иногда прерывать, чёб вставить свои пять копеек. - Теперь модель GPT-4 бесплатная (с лимитами на количество сообщений, в платной версии лимиты x5). В течении пары недель будет доступна для всех пользователей. Можно расшаривать свой экран, чёб gpt помогал вам в реальном времени с вашими задачами, например в программировании. Можно эту фишку использовать в качестве репетитора. Доступ к модели через API теперь в два раза дешевле. Модель пишет текст в два раза быстрее. - GPT-4 теперь стала значительно умней, и может даже решать некоторые задачи из высшей математики. Качество генерации программного кода выросло на принципиально иной уровень. С первого раза она может генерировать такой сложный код, который прошлой версии GPT-4 удавалось только с десятого раза. - Новая версия GPT-4 называется GPT-4o. O - означает OMNI (всесторонний/всемогущий) . - GPT-4o нативно-мультимодальна, то есть сразу же тренировалась и с изображениями, и звуками —не 3-4 отдельных модели, как сейчас. Некоторые считают, что именно благодаря такой нативной мультимодальности её интеллект значительно вырос. —Модель работает на 50 языках! Она теперь лучше понимает языки отличные от английского. Благодаря этому значительно снизилось количество используемых токенов при работе с этими языками. Например теперь требуется в 1.7 раз меньше токенов для русского языка. -Все показанные функции модели станут доступны в течении двух недель. На последней пикче новая модель обозначена под кодовым названием gpt2. Как видим - значительный отрыв от конкурентов. Предыдущий тред: https://2ch.hk/b/res/304501317.html
15 мая 2024
Сохранен
313
26 октября 2024
Сохранен
290
Ну вот и всё. Американские военные захватили OpenAI: компания Сэма Альтмана пригласила генерала арм — Ну вот и всё. Американские военные захватили OpenAI: компания Сэма Альтмана пригласила генерала армии США в свой совет директоров и назначила его ответственным за кибербезопасность. Новость шокировала всю IT-отрасль: отставного генерала Пола Накасоне уже сравнивают с волком, запущенным к овцам – беззащитным пользователям. Послужной список Накасоне ужаснёт любого анона: ????Он был директором Агентства национальной безопасности; ????Занимал должность главы Киберкомандования США; ????Возглавлял Центральную службу безопасности и вёл кибервойны – этот человек знает о слежке ВСЁ. Эдвард Сноуден в ужасе – он считает, что OpenAI предала каждого человека на Земле: Они сняли маски: никогда не доверяйте OpenAI и ChatGPT. Есть только одна причина для назначения директора АНБ в совет директоров. Это умышленное, расчётливое предательство прав каждого человека на Земле. Вас предупредили. Представьте, что всё ваше взаимодействие с ИИ контролирует главный товарищ майор: он видит ваши запросы, навязывает свою повестку и может использовать вас в геополитических целях – и даже войне. OpenAI предсказывают мрачное будущее – вполне вероятно, что GPT станет информационным оружием массового поражения. ИИ будет как пара всевидящих глаз наблюдать за всем миром и внушать пользователям нужные Армии США идеи. Текущая политика OpenAI не исключает такого использования. Уход Ильи Суцкевера на этом фоне вызывает ещё больше подозрений – возможно, он действительно пытался защитить людей и предотвратить создание военного AGI. Цитата самого Накасоне ставит пугающее многоточие в этой истории: Мы хотим быть уверены, что американские компании, лидирующие в ИИ, продолжат иметь такое же широкое преимущество над любой другой враждебной страной.
16 июня 2024
Сохранен
281
22 декабря 2022
Сохранен
271
18 марта 2023
Сохранен
269
14 сентября 2024
Сохранен
246
17 января 2024
Сохранен
243
17 апреля 2023
Сохранен
237
8 января 18:13
Сохранен
235
11 октября 2024
Сохранен
235
27 апреля 2023
Сохранен
225
21 декабря 2023
Сохранен
224
Ну и как заменили ваши чат-боты погроммистов, скоро уже любая бухгалтерша будет сама себе утилиты пи — Ну и как заменили ваши чат-боты погроммистов, скоро уже любая бухгалтерша будет сама себе утилиты писать а синьоров выгонят на мороз? Вот уже через год? Недавнее исследование показало, что программные ассистенты на основе искусственного интеллекта могут вносить больше ошибок в код, чем помогать в его написании. Технологии на базе генеративного ИИ обещали повысить эффективность работы программистов, но сухие цифры говорят о другом. Компания Uplevel, специализирующаяся на управлении кодом, провела исследование эффективности работы программистов с использованием популярного инструмента от GitHub — Copilot. Результаты эксперимента оказались неожиданными: использование Copilot не привело к значительному росту продуктивности, а напротив, вызвало увеличение ошибок в коде на 41%. Для исследования Uplevel отслеживала работу 800 разработчиков в течение трёх месяцев до использования Copilot и в течение трёх месяцев после его внедрения. Оценка производительности основывалась на времени добавления кода в репозиторий (пулл-реквестах) и общем количестве выполненных запросов. Результаты показали, что «Copilot не повлиял на скорость работы разработчиков, не ускорил процесс кодирования и не улучшил качество кода». Вопреки ожиданиям команды Uplevel, временные затраты на пулл-реквесты не сократились, а дефектность кода не уменьшилась, как изначально предполагалось. Одной из причин низкой эффективности Copilot может быть то, что он основан на больших языковых моделях (LLM), которые склонны к так называемым «галлюцинациям» — генерации неверной информации и созданию некорректного кода. Исследование, проведённое учёными из Техасского университета в Сан-Антонио, выявило, что LLM часто предлагают «несуществующие» файлы или библиотеки. Беспокойство относительно качества кода, сгенерированного искусственным интеллектом, разделяют и представители индустрии. Гендиректор Gehtsoft Иван Гехт отметил, что разбираться и исправлять ошибки в коде, созданном ИИ, может быть настолько сложно, что проще написать его с нуля. Таким образом, несмотря на ожидания от ИИ-инструментов в кодировании, они пока не оправдывают заявленных преимуществ, порой даже усложняя работу программистов. Подробнее: https://www.securitylab.ru/news/552632.php
7 октября 2024
Сохранен
222
22 января 2024
Сохранен
222
11 мая 2023
Сохранен
221
13 декабря 2024
Сохранен
214
23 февраля 2023
Сохранен
205
3 октября 2023
Сохранен
204
19 марта 2023
Сохранен
196
1 мая 2023
Сохранен
181
31 марта 2023
Сохранен
171
20 апреля 2023
Сохранен
169
18 марта 2023
Сохранен
165
12 марта 2023
Сохранен
161
18 января 2024

Отзывы и предложения