Леус В.А.
Институт математики им. С.Л. Соболева СО РАН
A new approach to the notion about a probability space is suggested. The stochastic measure space is supplied with a geometric structure by means of determination the distance between elementary events. The probabilistic proximity space is used to generalize the entropy. The so made geometrical entropy is shown to have all former properties remained and at the same time to gain some useful unknown one. This leds to the new potentialities in the realm of information sciences.
Восходящее к Л.Больцману понятие энтропии вероятностного ансамбля из исходов с вероятностями, соответственно, ( ) не учитывает сходства - различия между исходами. В докладе предложено обобщение, позволяющее учитывать индивидуальные особенности исходов благодаря явно содержащемуся количественному критерию близости в виде рандомизированного расстояния -- неотрицательной вещественнозначной функции заданной на декартовом квадрате множества исходов и ограниченной сверху единицей. Геометризованная энтропия имеет вид: Введенная таким образом геометризованная энтропия обладает свойством единственности и подчиняется аддитивному закону при умножении нескольких вероятностных ансамблей. Геометризованная энтропия переходит в шенноновскую в пределе при устремлении всех где к единице.
Понятие энтропии и сам термин впервые были введены физиком Л.Больцманом в конце XIX века в связи с потребностями термодинамики. В 1928 году Р.Хартли предложил в качестве меры неопределенности выбора из возможностей аналогичную больцмановской энтропии величину Двумя десятилетиями позже К.Шеннон следующим образом обобщил это понятие.
Пусть имеется дискретный вероятностный ансамбль с основным множеством
взаимоисключающих исходов (элементарных событий)
с соответствующими вероятностями Энтропией по К.Шеннону
вероятностного ансамбля называется (см. например [2]) математическое ожидание
случайной величины
Энтропия является априорной мерой неопределенности выбора для данного вероятностного ансамбля и лежит в основе количественного измерения информации. В [2] говорится: "информация определяется только вероятностными свойствами сообщений. Все другие их свойства, например полезность для тех или других действий, принадлежность тому или иному автору и пр., игнорируются". Известна попытка изменения этой ситуации [1]. Целью настоящей работы является развитие высказанной в [3] "геометрической" идеи такого обобщения понятия энтропии, которое позволило бы содержательно учитывать индивидуальные особенности исходов.
Кроме "рандомизированной" меры введем на основном множестве вероятностного ансамбля еще и "рандомизированное" расстояние как симметричную неотрицательную вещественнозначную функцию от пар исходов, ограниченную сверху единицей:
(1) |
Обозначим буквой алгебру подмножеств основного множества и, понимая как принято под аддитивную меру на этой алгебре, далее под дискретным вероятностным ансамблем с расстоянием будем понимать четверку . Для обозначения его будем использовать ту же букву, которая обозначает основное множество, причем из контекста всегда будет ясно о чем именно идет речь. Пусть на основном множестве определены расстояние и расстояние
Теорема 1. Если для то
Доказательство
проводится "от противного". Предположим, что заключение в утверждении
теоремы неверно, т.е.
Тогда найдутся хотя бы два
различных исхода
такие, что
Рассмотрим
распределение вероятностей отличное от нуля только на исходах
т.е.
для
Согласно определению B-энтропии (1) имеем:
Рассмотрим разность
, которая по условию теоремы
равна нулю:
Для распределения , где
имеем:
Поскольку расстояние симметрично, то в силу монотонности логарифма последнее равенство влечет равенство нулю слагаемых. Это в свою очередь возможно, вопреки нашему допущению, только при равенстве значит что и требовалось.
Следствие. Между всевозможными расстояниями вводимыми на основном множестве , и всевозможными функционалами зависящими от всевозможных распределений на , имеет место одно-однозначное соответствие.
Действительно, каждому по формуле (1) соответствует один функционал а по доказанной теореме 1 двум различным расстояниям и соответствуют различные функционалы
Теорема 2. Для сложного вероятностного ансамбля
существует расстояние
(2) |
Сначала докажем следующую вспомогательную лемму.
Лемма. Для произведения двух вероятностных ансамблей
и с расстояниями, соответственно,
и распределениями
вероятностей существует расстояние такое, что
и оно выражается формулой
(3) |
Пусть в ансамбле исходов, а в ансамбле исходов.
Доказательство леммы начнем с выражения суммы B-энтропий данных ансамблей
согласно формуле (1). Имеем
Далее проводим преобразования, используя равенства
и
(4) |
Преобразуем выражение, стоящее в (4) под знаком логарифма в круглых скобках:
Доказательство теоремы проведем полной математической индукцией. Для двух ансамблей справедливость формулы (2) вытекает из леммы. Допустим, что формула (2) справедлива для и полученное с ее помощью расстояние используем в качестве отправного пункта индукции. Рассмотрим сложный ансамбль -- результат умножения ансамбля на некоторый новый ансамбль Для вычисления расстояния на сложном ансамбле применим формулу, справедливую в случае двух сомножителей:
(5) |
Расстояние симметрично, если симметричны и
Действительно, имеем
Шенноновская энтропия является частным случаем B-энтропии при специфическом расстоянии, принимающем значения только и : при Геометрической моделью здесь может служить размещение исходов в вершинах -мерного единичного симплекса. -энтропия предоставляет возможность размещать исходы в произвольных точках симплекса, но кроме того существует бесчисленное множество возможностей задания расстояний, отличающихся от такового в евклидовом симплексе.
Из формулы (1) видно, что при любом фиксированном распределении вероятностей -энтропия достигает максимального значения именно на "шенноновском" расстоянии. В самом деле, любое уменьшение значения некоторого по отношению к единице увеличивает сумму, стоящую под знаком логарифма, приближая ее к максимальному единичному значению. Тем самым абсолютное значение логарифма уменьшается, т.е. уменьшается и значение -энтропии. При сближении между собой исходов ансамбля -энтропия уменьшается и при нулевых расстояниях между всеми исходами она оказывается равной нулю, что интуитивно согласуется с отсутствием неопределенности выбора.
Рассмотрим простой пример. Имеются четыре сумки одинаковой стоимости -- 100 рублей каждая, но в них содержатся весьма различные денежные суммы, которые ниже мы будем указывать без обозначения единицы измерения: 1) 200, 2) 1000, 3) 5000, 4) 20200. Пусть производится случайный выбор номеров сумок, доставляющий выбирающему сумку с деньгами в собственность. В качестве расстояния между исходами возьмем разность соответствующих стоимостей, отнесенную к максимальной разнице стоимостей -- 20000.
В приводимой таблице данному варианту соответствует первая строка, где мера неопределенности составляет Далее в таблице приведены варианты с постепенно убывающей к нулю неопределенностью.
Стоимость 1 | Стоимость 2 | Стоимость 3 | Стоимость 4 | B-энтропия |
300 | 1100 | 5100 | 20300 | 0,8074 |
300 | 900 | 4000 | 18000 | 0,6728 |
300 | 800 | 3000 | 14000 | 0,4770 |
300 | 500 | 2000 | 9000 | 0,2828 |
300 | 400 | 1500 | 6000 | 0,1765 |
300 | 400 | 1500 | 4000 | 0,1150 |
300 | 400 | 500 | 1000 | 0,0200 |
300 | 350 | 400 | 500 | 0,0059 |
300 | 310 | 320 | 330 | 0,0009 |
В данном примере все "потребительские" достоинства выбираемых предметов спроецированы на одномерную шкалу стоимостей, хотя очевидно, что далеко не всегда "деньги решают все". Поэтому если в какой-то ситуации более важными оказываются, например, огнеупорность изделия, его герметичность, его вес, удобство открывания - закрывания, то, задавая эти качества в некоторых баллах, мы получаем возможность строить "многомерные" расстояния, и тогда -энтропия послужит более тонким критерием для оценивания неопределенности выбора.
Ваши комментарии |
[Головная страница] [Конференции] [СО РАН] |
© 2001, Сибирское отделение Российской академии наук, Новосибирск
© 2001, Объединенный институт информатики СО РАН, Новосибирск
© 2001, Институт вычислительных технологий СО РАН, Новосибирск
© 2001, Институт систем информатики СО РАН, Новосибирск
© 2001, Институт математики СО РАН, Новосибирск
© 2001, Институт цитологии и генетики СО РАН, Новосибирск
© 2001, Институт вычислительной математики и математической геофизики СО РАН, Новосибирск
© 2001, Новосибирский государственный университет
Дата последней модификации Saturday, 08-Sep-2001 19:39:58 NOVST