Вы здесь

  • Количество информации в теории информации – это количество информации в одном случайном объекте относительно другого. Пусть x {\displaystyle x} и y {\displaystyle y} – случайные величины, заданные на соответствующих множествах X {\displaystyle X} и Y {\displaystyle Y} . Тогда количество информации x {\displaystyle x} относительно y {\displaystyle y} есть разность априорной и апостериорной энтропий: I ( x , y ) = H ( x ) − H ( x y ) {\displaystyle I(x,y)=H(x)-H(x y)} , где H ( x ) = − ∑ x ∈ X p...