マル太の『道草日記』

ほぼ毎日更新――

情報の量は確率ではなく――

 ある時刻 t において、状態が 1 つに決まる確率を p (t) とすると――

 その状態の

 ――エントロピー(entropy)

 は、

  − ln p (t)

 で表され――

 そのエントロピーが、時間 Δt の間に、

  − ln p (t)

 から、

  − ln p ( t + Δt )

 へと減る時――

 情報は、

 

  − ln p (t) −(− ln p ( t + Δt ))

  = ln(p ( t + Δt ) / p (t))


 という量で伝わってくる――

 と、いえる――ただし、ln は高校の数学で学ぶ自然対数である。

 

 今は、時刻 t から時刻 t + Δt までを考えた。

 同じように、時刻 0 から時刻 t までを考えることもできる。

 

 その場合は――

 エントロピーが、時間 t の間に、

  − ln p (0)

 から、

  − ln p (t)

 へと減る時――

 情報は、

 

  − ln p (0) −(− ln p (t))

  = ln(p (t) / p (0))

 

 という量で伝わってくる――

 と、いえる。

 

 この際――

 もし、

  p (0) = 1

 と、みなせるならば、

  − ln p (0) = 0

 となり――

 伝わってくる情報の量は、単純に、

  −(− ln p (t))

 で表されるが――

 

 これでは、

 ――状態のエントロピーは負の値しかとらない。

 ということになって――

 奇妙である。

 

 よって、

  p (0)<1

 と、みなしたくなり――

 

 この時――

 伝わってくる情報の量は、

  C −(− ln p (t))

 となる。

 

 ただし、C は正数である。

 

 ……

 

 ……

 

 が――

 

 これでは――

 あまり判り易くない。

 

 おそらく――

 美しくもない。

 

 ……

 

 ……

 

 そこで――

 エントロピー

  − ln p (t)

 に、

  S (t)

 と名前を付け―― 

 エントロピー S (t) が、時刻 0 から時刻 t までに、

  S (0)

 から、

  S (t)

 へと減る時――

 情報は、

  S (0) − S (t)

 という量で伝わってくる――

 と、みなすと――

 

 いくらか判り易くなる。

 

 この時――

 時刻 0 で持っている情報の量を I (0) とすれば――

 時刻 t で持っている情報の量 I (t) は、

  I (t) = I (0) +(S (0) − S (t))

 となって、

 

  I (t) + S (t)

  = I (0) + S (0)

  = 一定

 

 となる。

 

 つまり――

 伝わってくる情報の量は、

 

  I (t) − I (0)

  = −(S (t) − S (0))

 

 である。

 

 あるいは――

 

 情報が、時刻 t から時刻 t + Δt までに、量 ΔI (t) だけ伝わってきたとみなすなら、

 

  ΔI (t)

  = I ( t + Δt ) − I (t)

  = −(S ( t + Δt ) − S (t))

  = − ΔS (t)

 

 となる。

 ただし、ΔS (t) は時刻 t から時刻 t + Δt までのエントロピーの変化である。

 

 要するに――

 

  ΔI (t) = − ΔS (t)

 である。

 

 伝わってくる情報の量 ΔI (t) は、確率 p (t) ではなく、エントロピー S (t) で記すほうが――

 より判り易く、より美しい。

 

 『随に――』