8

Ответ на пост «V2. Создана программа вечного сжатия и расжатия информации и любых файлов без потерь в 4-6 раз за 1 цикл ( Исходный Код )»

Это прикол? Скачал сие прогу. Ожидал чуда. А на деле "сжатые" файлы оказываются раза в 1.5 БОЛЬШЕ исходного файла.

16

Ответ на пост «V2. Создана программа вечного сжатия и расжатия информации и любых файлов без потерь в 4-6 раз за 1 цикл ( Исходный Код )»

ТС фармит минусы?

Их можно обменять на рубли? Нет?! Тогда зачем?!!

Посмотрел я код сего "чуда"...

Он читает 3 байта, кодирует их словарем в другие 3 байта и записывает в файл. Сжатие? Его нет!

В описании репы сказано, что прога увеличивает файл в 4-6 раз, зато потом rar сможет сжать его в 4-6 раз, т.е. вернуться к тому, что было...

Классный архиватор! (Сарказм).

107

Ответ на пост «V2. Создана программа вечного сжатия и расжатия информации и любых файлов без потерь в 4-6 раз за 1 цикл ( Исходный Код )»

ТС, прекрати тратить свой талант на бесполезные архиваторы и осчастливь уже человечество вечным двигателем!

V2. Создана программа вечного сжатия и расжатия информации и любых файлов без потерь в 4-6 раз за 1 цикл ( Исходный Код )

Теперь словарь 300мб. Исходный код 117 строк!

Теперь словарь 300мб. Исходный код 117 строк!



Каков метод работы? Все файлы это бинарный код, он несжимаемый бинарный код создаёт значения на сжимаемые те замена. по словарю.
по типу 1010101001001010010100101001 на 1111111111000000000000000
через общую постоянную базу данных.

Исходный код на Питоне:
https://drive.google.com/file/d/1WY0l79vVagq9pjx-F85zCNYYNXR...
Исходник + Описание на Гитхабе:

https://github.com/immortalmathematicquantum/3-byte-infinity...


( можете редактирвать ,копировать, присваивать, распространять, и строить свои методы )
( прошу показать и разослать код математикам, учёным и программистам )

Теперь 4 мб видео это 400 кб ссылок. ( упрощённого кода ) сжатие и расжатие без потерь.

Теперь 4 мб видео это 400 кб ссылок. ( упрощённого кода ) сжатие и расжатие без потерь.



Что говорит ИИ на счёт этого алгоритма по словарю? -

В этом алгоритме словари (и coder, и decoder) заполняются уникальными значениями, полученными из 3-байтовых блоков. Так как 3 байта могут принимать 2563=16 777 216256^3 = 16\,777\,2162563=16777216 возможных комбинаций, максимальное число уникальных значений, которое можно встретить, составляет 16 777 216 (при этом значение 0 обрабатывается отдельно, и для него не создаётся новая запись).

Если представить, что все возможные 3-байтовые комбинации встречаются, то:

  • В словаре coder окажется до 16 777 215 записей.

  • Аналогично, decoder будет содержать такое же число записей.

Фактический размер в памяти зависит от накладных расходов Python для хранения каждого элемента словаря. Для 64-битного Python можно ориентировочно принять, что один элемент (ключ+значение и внутренняя структура словаря) может занимать порядка 100 байт (это упрощённая оценка). Тогда один словарь с 16 777 21616\,777\,21616777216 элементами займёт примерно:

16 777 216×100 байт≈1.6 ГБ16\,777\,216 \times 100\,\text{байт} \approx 1.6\,\text{ГБ}16777216×100байт≈1.6ГБ

Поскольку используется два таких словаря (coder и decoder), суммарное потребление памяти может достигать порядка 3.2 ГБ в худшем случае.

Показать полностью 1
Отличная работа, все прочитано!