Этот баннер — требование Роскомнадзора для исполнения 152 ФЗ.
«На сайте осуществляется обработка файлов cookie, необходимых для работы сайта, а также для анализа использования сайта и улучшения предоставляемых сервисов с использованием метрической программы Яндекс.Метрика. Продолжая использовать сайт, вы даёте согласие с использованием данных технологий».
Политика конфиденциальности
|
|
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Возьмём файл сжатый очень хорошим (в пределе -- идеальным) архиватором. Содержимое этого сжатого файла можно рассматривать как строку битов S длины N. “Хорошее сжатие” означает, что информационная энтропия распределения битов в этой строке сильно минимизирована (в идеале -- сведена к минимальному значению, соответствующему “количеству информации” в исходном файле, подвергнутом сжатию). Маленькая энтропия означает, в частности, что если мы нарежем рассматриваемую строку S на последовательные “слова” одинаковой длины М и составим частотный словарь этих слов, то не только всё множество возможных “слов” длины М будет присутствовать в этом словаре, но и разброс частот этих слов будет минимальным. То есть -- существенно меньшим, чем разброс частот в аналогично препарированной случайной строке битов той же длин N. Можно сказать, что частоты “слов” в S “хорошо выровнены”. Возьмём теперь датчик случайных чисел (ДПСЧ), выберем произвольное начальное значение Х (не слишком длинное в битовой записи) и создадим на основании последовательности значений, возвращаемых этим ДПСЧ -- начиная с ДПСЧ(Х) -- (псевдо-)случайную строку Z той же самой длины N. Сложим побитово S и Z. Получившаяся строка R будет, вообще говоря, столь же (псевдо-)случайна, как и строка Z. То есть частоты входящих в неё “слов” совершенно не будут выровнены. А это значит, что, прогнав её (Z) через тот же самый хороший архиватор, мы сможем дополнительно её сжать. И есть хорошие шансы надеяться, что “выигрыш” (в числе битов) от этого сжатия будет больше, чем длина в битах записи числа Х. И даже (возможно, особенно если N велико) больше, чем длина в битах алгоритма нашего ДПСЧ, записанного на каком-то “экономном” байт-коде... Можно, наконец, явно произнести, что, зная только Х, мы всегда можем повторно сгенерировать строку Z и, вычтя её из R, получить исходную S. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 13:16 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Что-то не так. Хорошо сжатая последовательность как раз максимально похожа на случайную. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 15:19 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Вот сразу заявлю: не вижу paradoxa -- надеяться только можно. Вообще, оно конечно, если на серии опытов существует плотность распред F( S AND Y), то она м.б. весьма разнообразна и не связана с индивидуальными плотностями (умозрительно говоря). С другой стороны, давно уже было такое: Строим словарь С1 из "текста", нарезая его на кусочки ограниченной в целом длины (аналог ЛЗВ). Строим текст из ссылок на С1 Строим словарь С2 из текста. Строим текст из ссылок на С2 ...... На первых итерациях имеем квазикомбинаторный взрыв. В дальнейшем - сужаемость, похожая на треугольник. Его высота и полнота зависит от начальной "энтропийности" "текста". Чем "белее шум", тем тр-к брюхастее и выше, а чем больше повторяемость - тем ниже и менее беременный. Последний "текст"= единственная ссылка. Вот и сжатие. А есть ли paradox, хрз. Писал "текст" - т.к. в компе всё можно свести к послед-сти {0,1} ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 15:26 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Barlone, в случайной последовательности частоты "слов" распределены по какому-нибудь Пуассону (на вскидку). Значит есть слова, встречающиеся (заметно?) чаще или реже среднего. А префиксное кодирование, например, специально занимается тем, что выравнивает (как можно лучше) частоты слов. С учётом длин, конечно: все слова длиной 8 бит должны иметь частоты, в идеале, равные 1/256; а слова длиной 10 бит -- равные 1/1024 ... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 15:32 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXS. “Хорошее сжатие” означает, что информационная энтропия распределения битов в этой строке сильно минимизирована наоборот, максимизирована. Иван, вы бы почитали что-нибудь про все это, наконец. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 15:52 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
S.G., да, спасибо. Внимание всем: "энтропия минимизирована" читать (выше) как "энтропия максимизирована". ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:13 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
S.G., я просто физик по исходному. А там -- в термодинамике -- энтропия возрастает самопроизвольно, а чтобы её уменьшить, нужно специально усилия прикладывать. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:16 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSв случайной последовательности частоты "слов" распределены по какому-нибудь Пуассону (на вскидку)Да с чего бы? Равномерно. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:18 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
в смысле "равномерно" это как? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:19 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:28 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Barlone, Сами слова - равномерно. А их частота (сиречь количество одинаковых в выборке) - таки да, по Пуассону. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:34 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSВнимание всем: "энтропия минимизирована" читать (выше) как "энтропия максимизирована". После прочтения "парадокс" совсем пропал. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:35 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Соколинский Борис, так можно слова длиной 15 с частотами из правого крыла Пуассона (их, 15-буквенного Пуассона) перекодировать словами длины 14 с частотами из левого крыла Пуассона (их, 14-буквенного Пуассона). И наоборот, то есть взаимно? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:43 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
читать:Иван FXS(их, 14-буквенного Пуассона) ? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 16:45 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Кстати пользуюсь мнемоникой: возрастание Э интерпретируется как возрастание хаоса, что и ведёт к побелению шума. Всякая же структуризация ведёт к уменьшению Э. Ваще я полагаю, что выравнивание Э-й как самоцель нужно только для шифрования, а для сжатия нужна суммарная. Просто это не будет означать криптостойкость сжатого кода. Не помню, в Хаффмане вроде как раз тлько суммарность используется. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 17:31 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Ну и собственно к paradoxu. Он - в головах. Т.к. Ш-н относил всё к оптимальной "передаче инфы" на уровне канала связи. Да ещё наверное подразумевая, что передавать алгоритм вместе с кодом не требуется и что наверное этот алгоритм - вещь статическая. Мы же давно имеем глобальные сети + сетевой стек + возможность фреймворкать. Давно уже не надо на Ш как на икону смотреть. Т.е. оптимальность всегда д.б. относительно конретного фреймворка. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 17:43 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Кстати, в тему максимизации/минимизации энтропии: из двух сообщений одинаковой длины лучше будет сжиматься ("хорошим" архиватором) то, в котором больше информации? Или, наоборот, то, в котором меньше информации? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 18:04 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
В Э-ном смысле я полагаю, что в целом там, где удельная инфа выше. Если же фреймворкать, то скоко инфы в известной фразе? "Не верьте тому, кто пугает вас плохой погодой в Швейцарии. Здесь очень солнечно и тепло." А в исковерканной? "...в Лимпопо. Там ооооооооооооооооочень ХооооЛоооооооДНооооооо." ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 18:34 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
exp98, лучше будет сжиматься то сообщение, в котором удельная ("на единицу длины") инфа выше, -- я правильно вас понял? А как связана "фреймворковость" с обсуждением сравнительной сжимаемости (податливости сжатию) строк (сообщений) типа приведённого вами: " Там ооооооооооооооооочень ХооооЛоооооооДНооооооо " -- против " Там очень ХоЛоДНо ", например? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 18:43 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Соколинский БорисBarlone, Сами слова - равномерно. А их частота (сиречь количество одинаковых в выборке) - таки да, по Пуассону.А, ну действительно. Только это не поможет. Никакой архиватор случайную последовательность не сожмет. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 18:53 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSВозьмём теперь датчик случайных чисел (ДПСЧ), выберем произвольное начальное значение Х (не слишком длинное в битовой записи) и создадим на основании последовательности значений, возвращаемых этим ДПСЧ -- начиная с ДПСЧ(Х) -- (псевдо-)случайную строку Z той же самой длины N. Сложим побитово S и Z. Получившаяся строка R будет, вообще говоря, столь же (псевдо-)случайна, как и строка Z. То есть частоты входящих в неё “слов” совершенно не будут выровнены. А это значит, что, прогнав её (Z) через тот же самый хороший архиватор, мы сможем дополнительно её сжать. И есть хорошие шансы надеяться, что “выигрыш” (в числе битов) от этого сжатия будет больше, чем длина в битах записи числа Х. И даже (возможно, особенно если N велико) больше, чем длина в битах алгоритма нашего ДПСЧ, записанного на каком-то “экономном” байт-коде... ИМХО не сожмется. Результат тоже будет близок к случайному набору. Можешь затестить, в отличии от других твоих алгоритмов этот прост в реализации: 1. Взял какой-нибудь сжатый файл. i = 0 2. Инициализировал ГПСЧ значением i. 3. Поксорил файл с ГПСЧ 4. Пожал (например в ZIP) 5. Если результат размером меньше идеального (ранее найденного), то запомнил результат как идеальный. 6. Если i < ... то i++ и п.2 Думаю найдутся решения чуть поменьше исходного, но уменьшение будет в пределах 1%. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 19:05 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSтак можно слова длиной 15 с частотами из правого крыла Пуассона (их, 15-буквенного Пуассона) перекодировать словами длины 14 с частотами из левого крыла Пуассона (их, 14-буквенного Пуассона). Это все равно что повторно архивировать. Иван FXSКстати, в тему максимизации/минимизации энтропии: из двух сообщений одинаковой длины лучше будет сжиматься ("хорошим" архиватором) то, в котором больше информации? Или, наоборот, то, в котором меньше информации? Информация - многозначный термин. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 19:16 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXS, я вот что подумал: если ты прав, т.е. твоя идея рабочая, то можно жать что угодно до бесконечности. Ну хотя бы в десятки раз. Например дистрибутив виндовса сжать до 1 Мб, пусть даже 100 Мб, думаю ради этого MS запустил бы перебор на пару месяцев. Вывод: если бы это работало, то этим бы уже пользовались. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 19:48 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Dima T, потому и "парадокс". ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 20:05 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Соколинский БорисИван FXSтак можно слова длиной 15 с частотами из правого крыла Пуассона (их, 15-буквенного Пуассона) перекодировать словами длины 14 с частотами из левого крыла Пуассона (их, 14-буквенного Пуассона). Это все равно что повторно архивировать. задачка в том, как при таком перекодировании обойтись без "словаря перевода", либо с таким словарём, который не перекрыл бы (своей длиной) весь эффект сжатия. Соколинский БорисИнформация - многозначный термин. чувствуете подвох: получается, что абсолютно случайная последовательность битов не сжимается (хотя лично всё ещё тлеет надежда) из-за того, что в ней предельно много информации! ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 20:13 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXS задачка в том, как при таком перекодировании обойтись без "словаря перевода", либо с таким словарём, который не перекрыл бы (своей длиной) весь эффект сжатия. ИМХО, никак. Иван FXS чувствуете подвох: получается, что абсолютно случайная последовательность битов не сжимается (хотя лично всё ещё тлеет надежда) из-за того, что в ней предельно много информации! Так и есть. В абсолютно случайной последовательности ни один элемент не сводится к остальным, поэтому информация там максимальна. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 20:29 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSИ есть хорошие шансы надеяться, что “выигрыш” (в числе битов) от этого сжатия будет больше, чем длина в битах записи числа Х. И даже (возможно, особенно если N велико) больше, чем длина в битах алгоритма нашего ДПСЧ, записанного на каком-то “экономном” байт-коде... Можно, наконец, явно произнести, что, зная только Х, мы всегда можем повторно сгенерировать строку Z и, вычтя её из R, получить исходную S. Скорее всего нет. Потому-что для достижения такой точности мы должны будем параметризировать наш ДПСЧ очень точно. Считайте что калибровка начального параметра seed будет стоить столь-же дорого как и вся ваша сжимаемая последовательность. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 23:53 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
BarloneНикакой архиватор случайную последовательность не сожмет. сжать произвольную (в т.ч. "случайную") строку S можно (попробовать), например, так: 1. найти в ней 2 (прописью: две ) одинаковых подстроки Zi (Z1 и Z2), желательно подлиннее; 2. в выходной поток записать сначала три числа: длину Zi, адрес Z1, адрес Z2. Потом - саму подстроку Zi. Потом -- строку S', представляющую собой S, из которой выброшены Z1 и Z2. Как вы считаете, это очень редкая ситуация и трудная задача? Для достаточно длинной и достаточно случайной строки S -- очень ли велика вероятность, что в ней не удастся найти Z1 и Z2 такие, что длина Zi больше длины, необходимой, чтобы разместить три числа? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 10.01.2018, 23:56 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSА префиксное кодирование, например, специально занимается тем, что выравнивает (как можно лучше) частоты слов. С учётом длин, конечно: все слова длиной 8 бит должны иметь частоты, в идеале, равные 1/256; а слова длиной 10 бит -- равные 1/1024 ... Префиксное кодирование достаточно грубое. Особенно на частых значениях (там где префисное дерево сворачивает в листики на коротких ветвях). Если взять английский текст (где уже посчитана плотность сжатия в 2 бита на символ) и применить к нему хаффмена или шеннона-фано то вы ожидаемых 25% не получите. В идеале для частотного сжатия используют арифметический кодер (как в Winrar) но я подозреваю что подкапотом у хорошего текстового архиватора стоит целый конвейер методов. И арифметика это просто часть этого стека которая слегка улучшает энтропию. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:04 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
mayton, что такое "точность параметризации" ДПСЧ? И что такое калибровка начального параметра seed? Разве мы говорим про ДСЧ на основании "теплового шума" (какого-нибудь кристалла), а не про алгоритмический ДПСЧ (который абсолютно детерминирован, ибо суть алгоритм)? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:06 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSКак вы считаете, это очень редкая ситуация и трудная задача? Для достаточно длинной и достаточно случайной строки S -- очень ли велика вероятность, что в ней не удастся найти Z1 и Z2 такие, что длина Zi больше длины, необходимой, чтобы разместить три числа? (Я прошу прощения. Я отвечаю по топику и снизу одновременно). Я думаю что тут задача похожа на транспортную. Возможно мы будем стоять в условии выбора. Мы нашли 3 последовательности по 5 бит. И 5 последовательностей по 3 бита. И вообще... Мы не в состоянии спрогнозировать как будет выглядеть исходная последовательность ПОСЛЕ того как мы уже поджали ее. Возможно появятся цепочки бит которые снова можно поджать и т.д. А возможно стоит рекурсивно вернуться назад и взять 2 бита по 7. И еще раз... Вобщем это задача оуенно трудная. И что обидно - пока без перспективы выйти на какой-то гарантированный результат. P.S. маленькие но по три рубля большие по пять рублей (с) Роман Карцев ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:14 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSmayton, что такое "точность параметризации" ДПСЧ? И что такое калибровка начального параметра seed? Разве мы говорим про ДСЧ на основании "теплового шума" (какого-нибудь кристалла), а не про алгоритмический ДПСЧ (который абсолютно детерминирован, ибо суть алгоритм)? Все верно. Я имею в виду псевдо-случайный ГСЧ. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:15 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
maytonМы не в состоянии спрогнозировать как будет выглядеть исходная последовательность ПОСЛЕ того как мы уже поджали ее. почему "не в состоянии спрогнозировать", если мы производим с ней формальные операции? Может, нужен пример? Вот "случайная" последовательность (слегка подшаманенная, да): JHDBCEBVJEGGB ABCD KJFDBNCDKMNEJLLCMVPW ABCD ELHLMAKSHFIHJKDPPWL вот она же "сжатая": 4 К1 К2 ABCD JHDBCEBVJEGGB KJFDBNCDKMNEJLLCMVPW ELHLMAKSHFIHJKDPPWL maytonВозможно мы будем стоять в условии выбора. Мы нашли 3 последовательности по 5 бит. И 5 последовательностей по 3 бита. можем посчитать, что нам выгоднее, а можем, не заморачиваясь, взять "по 5". И для демонстрации принципиальной возможности сжатия достаточно однократного повторов подстроки. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:31 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Dima TИван FXS, я вот что подумал: если ты прав, т.е. твоя идея рабочая, то можно жать что угодно до бесконечности. Ну хотя бы в десятки раз. Например дистрибутив виндовса сжать до 1 Мб, пусть даже 100 Мб, думаю ради этого MS запустил бы перебор на пару месяцев. Вывод: если бы это работало, то этим бы уже пользовались. Я над этим давно думал. И пришел к концепции своего идеального архиватора текста. Я рассмотрел три уровня. Уровень символов (арифметика, хаффмен, PPM) уже все изпахано вдоль и поперек. Уровень слогов (LZW), слов, (Dictionaries). Тоже исследовано. Архиватор-справочник уже вошел в луркмоар и хабр как анекдот. Уровень предложений (sentences). Здесь - неизвестно. Никто не знает как они строятся. Вернее есть набор рулов. Но как описать творческий полёт пейсателя? Я подумал. А и не надо. Sentences даже в русском языке строятся по определенному шаблону. Мне достаточно проанализировать тексты одного автора. И построить по ним марковские модели (ММ). Грубо... это выглядит как FSM у которого переходы имеют вероятности. При этом выходом ММ является генерация шаблона sentences с привязкой к предыдущему sentence. Я утверждаю что для генерации текста по моей модели мне достаточно делать сигналы управления для данной ММ. При этом сигналы будут сжаты в силу заведомо известной мне энтропии. Еще вопрос который я для себя не решил - каков размер будет самого описания ММ вместе с структурой переходов. Другие уровни. Стили. Части. Главы. . Модель должна рекурсивно включать в себя другие модели. Например любое повествование содержит переходы от одного литературного стиля к другому. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:35 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSпочему "не в состоянии спрогнозировать", если мы производим с ней формальные операции? Может, нужен пример? Вот "случайная" последовательность (слегка подшаманенная, да): JHDBCEBVJEGGB ABCD KJFDBNCDKMNEJLLCMVPW ABCD ELHLMAKSHFIHJKDPPWL вот она же "сжатая": 4 К1 К2 ABCD JHDBCEBVJEGGB KJFDBNCDKMNEJLLCMVPW ELHLMAKSHFIHJKDPPWL Это не есть прогноз. Во первых вы - искусственно упростили исходные данные. Вместо битов - символы. Во вторых - вы подгадали алфавитную последовательность. Дайте мне биты и белый шум. Но давайте отвлечемся. В смежном топике два "перца" уже 2 месяца спорят о задаче расстановки 8 ферзей. Я даже потерял нить их диалога и не знаю о чем это. Фракталы, немцы какие-то конгрессы... Ну да бох с ним. Вобщем... Эту задачу еще решал Гаусс. Он искал аналитическое (формульное) решение которое бы дало сразу (мгновенно) ответ. По сути он хотел O(1) формулу. А ее нет. Дело в том что все комбинаторные задачи и шахматы в том числе не имеют формульного решения. Они рекурсивны по своей природе и мы не можем сделать оценку позиции пока не сделаем оценку позиции .... пока ... и так далее до шаха и мата. Я считаю что данная задача (а именно оценка эффективности сжатия после применения замен) - рекурсивна. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:46 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
maytonместо битов - символывсе, что есть в компе, суть биты. maytonДайте мне ... белый шум. где ж я его возьму - вынь да положь?! maytonискусственно упростили исходные данные Вообще, я сейчас полемизировал с утверждением: "никакой архиватор случайную последовательность не сожмет", причём даже его я слегка подшаманил -- до "никакой архиватор никакую случайную последовательность никогда никак не сожмет". И показал, что вполне тривиальный архиватор может иногда как-то сжимать некоторые случайные последовательности. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 00:59 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSвсе, что есть в компе, суть биты. Ох хитрец... maytonгде ж я его возьму - вынь да положь?! Linux есть? На сях кодишь? ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 01:06 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Еще подкину арихиватор над которым я думал. Если взять битовую последовательность длиной N и циклически сдвинуть ее на 1 бит и сложнить по модулю два с оригинальной то мы получим карту разностей. Если мы будем продолжать циклическое вращение N раз то мы получим N вариантов разностей. И если выберем ту разность где количество нулевых битов будет максимально - то скорее всего мы нашли большую битовую под-последовательность которая несколько раз встречается в оригинальной. Самоподобие или фрактал. Далее - дело техники. Выделяем самые длинные последовательности нулей в разности и решаем, добавлять их в справочник архиватора или нет. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 09:20 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSBarloneНикакой архиватор случайную последовательность не сожмет. сжать произвольную (в т.ч. "случайную") строку S можно (попробовать), например, так: 1. найти в ней 2 (прописью: две ) одинаковых подстроки Zi (Z1 и Z2), желательно подлиннее; 2. в выходной поток записать сначала три числа: длину Zi, адрес Z1, адрес Z2. Потом - саму подстроку Zi. Потом -- строку S', представляющую собой S, из которой выброшены Z1 и Z2. Как вы считаете, это очень редкая ситуация и трудная задача? Для достаточно длинной и достаточно случайной строки S -- очень ли велика вероятность, что в ней не удастся найти Z1 и Z2 такие, что длина Zi больше длины, необходимой, чтобы разместить три числа?Ну архиваторы примерно так и работают. Так что просто проверьте. Вот вам 16Мб случайная последовательность, сжимайте. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 09:24 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXS Вообще, я сейчас полемизировал с утверждением: "никакой архиватор случайную последовательность не сожмет", причём даже его я слегка подшаманил -- до "никакой архиватор никакую случайную последовательность никогда никак не сожмет". И показал, что вполне тривиальный архиватор может иногда как-то сжимать некоторые случайные последовательности.Ну так-то можно случайность по разному понимать. Конечно случайная последовательность может совершенно случайно начаться с пары сотен нулевых битов. или так https://xkcd.com/221/ ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 09:33 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Вот из нашего CardRaytracer. Линейный конгруэнтный. Константы M, J не единственные. Кастинг в double можно выбросить вобщем. Код: plaintext 1. 2. 3. 4. 5. 6. 7. 8. 9. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 09:44 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
BarloneКонечно случайная последовательность может совершенно случайно начаться с пары сотен нулевых битов.да, поэтому вопрос "сожмет ли архиватор случайную последовательность?" нужно понимать либо как "сожмет ли архиватор любую случайную последовательность хотя бы на 1 бит?" либо как "какое математическое ожидание величины сжатия архиватором случайной последовательности (с пониманием того, что некоторые он вообще не сожмёт)?" Ибо математические прикидки показывают, что, да, танки летают, но низенько-низенько ... ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 10:27 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSда, поэтому вопрос "сожмет ли архиватор случайную последовательность?" нужно понимать либо как "сожмет ли архиватор любую случайную последовательность хотя бы на 1 бит?" либо как "какое математическое ожидание величины сжатия архиватором случайной последовательности (с пониманием того, что некоторые он вообще не сожмёт)?" Ибо математические прикидки показывают, что, да, танки летают, но низенько-низенько ... Ну если учесть, что в случае неудачи сжатия архиватору надо будет добавить минимум 1 бит - признак "не сжато", для идеального архиватора матожидание величины сжатия будет нулевым, а для неидеального - отрицательным. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 11:32 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
BarloneВот вам 16Мб случайная последовательность, сжимайте. ... Может сжаться https://ru.wikipedia.org/wiki/Генератор_псевдослучайных_чисел#Недостатки_ГПСЧ Длина циклов ГПСЧ зависит от самого генератора и составляет около 2^(n/2) , хотя линейные конгруэнтные и РСЛОС-генераторы обладают максимальными циклами порядка 2^n , где n — размер внутреннего состояния в битах Никто не знает какой цикл у этого ГПСЧ получится. Для 32-бит цикл от 65536 может быть. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 13:38 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Иван FXSА как связана "фреймворковость" с обсуждением сравнительной сжимаемости (податливости сжатию) строк (сообщений) типа приведённого вами Иван , не придирайтесь, у меня привычка отвечать на смежные вопросы, тем более, что Вы тоже жонглируете, случается, терминами "с лёгкостью необыкновенной". Связана, чтобы это запомнилось или вызвало обсуждение. Сообщение предположительно кодировало ровно один бит информации, предназначенной для Потребителя (true). Искажённая фраза в результате "раскодировки" даст по-нашему NULL, те неопределеность, т.е. отсутствие ожидаемой инфы для Потребителя, и придётся повторить передачу. И там, и там кодировался 1 бит, а длины файлов, ушедших в эфир, разные. Идея примера была в этом. Согласен, что сравнивавемые строки не очень показательны. Информация для Потребителя - в этом заключалась моя фреймворковость. В отличие от информации для канала связи, по сути - от длины передаваемого файла. И, кстати, если подписать ЭЦП'ю, строка ведь удлиняется? (допустим, я подписал просто из прынцыпа, а не для того, чтобы удостоверить себя) Повторяю, разговоры про пардокс - пока это всё гипостазирование. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 16:53 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
exp98, всё-таки я вижу некоторую разницу между ситуацией, когда у отправителя стоит пакующий (сжимающий) алгоритм, а у получателя -- соответствующий ему (пакующему алгоритму) распаковывающий алгоритм; и отправляются, вообще говоря, произвольные сообщения ... и ситуацией, когда отправитель целенаправленно строит свои сообщения как цитаты (абзацы) из литературных классиков, а сообщения посылает в виде (имя автора; номер тома; страница; номер абзаца). ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 11.01.2018, 17:33 |
|
||
|
Об одном парадоксе информационной энтропии
|
|||
|---|---|---|---|
|
#18+
Dima TBarloneВот вам 16Мб случайная последовательность, сжимайте. ... Может сжаться https://ru.wikipedia.org/wiki/Генератор_псевдослучайных_чисел#Недостатки_ГПСЧ Длина циклов ГПСЧ зависит от самого генератора и составляет около 2^(n/2) , хотя линейные конгруэнтные и РСЛОС-генераторы обладают максимальными циклами порядка 2^n , где n — размер внутреннего состояния в битах Никто не знает какой цикл у этого ГПСЧ получится. Для 32-бит цикл от 65536 может быть.Да, по-хорошему конечно надо "правильный" ГПСЧ использовать. А так от реализации в компиляторе зависит. ... |
|||
|
:
Нравится:
Не нравится:
|
|||
| 12.01.2018, 09:54 |
|
||
|
|

start [/forum/topic.php?all=1&fid=16&tid=1340191]: |
0ms |
get settings: |
9ms |
get forum list: |
13ms |
check forum access: |
4ms |
check topic access: |
4ms |
track hit: |
166ms |
get topic data: |
10ms |
get forum data: |
2ms |
get page messages: |
66ms |
get tp. blocked users: |
1ms |
| others: | 291ms |
| total: | 566ms |

| 0 / 0 |
