24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Сортировка: за
Сохранен
285
16 августа 2024
Сохранен
122
СОЗДАНА ПРОГРАММА ВЕЧНОГО СЖАТИЯ ИНФОРМАЦИИ БЕЗ ПОТЕРЬ. Исходный код + программа на python Это пошаг — СОЗДАНА ПРОГРАММА ВЕЧНОГО СЖАТИЯ ИНФОРМАЦИИ БЕЗ ПОТЕРЬ. Исходный код + программа на python Это пошаговая версия. https://drive.google.com/file/d/1V6j4iDV0YeZXDTadlnpawXyUKgHgkfoW/view Вот автоматическая V5. https://drive.google.com/file/d/1SuTGcCMEDa_PVglfmwccYzJu_-pcQ8D8/view 900 ГБ СЛОВАРЯ ХВАТИТ ВСЕМ! Шеннон доказал, что существует предел, до которого можно сжать данные без потерь. Этот предел определяется энтропией источника. В идеальных условиях, если данные имеют энтропию ( H ), то их можно сжать до размера, близкого к ( H ) бит на символ. Но Шеннон не предполагал что можно создать словарь 4 уровня, где пары бинарного кода кодируются метками бинарного кода, а сами метки тоже бинарным кодом и так до 4 уровня. Таким образом достигается вечное сжатие в рекурсии! Вся информатика это бинарный код, все данные и программы. у 4 бит всего 16 комбинаций, если мы будем маркировать, и пары для пар в словаре ТО: Уровень 0: 16 пар 8 байт/пара = 128 байт Уровень 1: 256 пар 8 байт/пара = 2 КБ Уровень 2: 65 536 пар 8 байт/пара = 512 КБ Уровень 3: 4 294 967 296 пар 8 байт/пара = ~ 900 ГБ 34 гб описывают бесконечную рекурсию информации! Следовательно информацию и вычисления можно бесконечно сжимать и снова раскладывать без потерь! Код создан с нуля ИИ, по подсказкам метода Яна Слоота. Он работает медленно, любая попытка ИИ его улучить ломает код и работу программы Что нужно сделать: 1) переписать на С++ или CUDA 2) переписать логику что бы не ел 34 ГБ RАМ постоянного словаря а ток с SSD 3) Добавить рекурсию после сжатия для нового сжатия Принцип Работы, файл сжимается, размер его сохраняется но это теперь файл это ссылки на 34 гб словарь. Магия в том, что если поместить сжатый файл в ZIP и RAR то его размер в 10-20 раз МЕНЬШЕ ОРИГИНАЛА, И его можно восстановить из ОБЩЕГО СЛОВАРЯ. который постоянный 900 гб! код и метод выложен на общее обозрение в Open source - вы можете редактировать и изменять его, но уважайте себя и научное сообщество, метод даёт возможным сингулярность и AGI Получив бесконечные вычислительные мощности и память что будете делать с этим?
26 февраля 18:54

Отзывы и предложения