――情報の量
は、
――エントロピー(entropy)
の概念に着目をすると――
一般に、
ln W − ln(W / Δw)
= ln Δw
と記せそうなことが、わかる。
ただし、ln は高校の数学で学ぶ自然対数であり、Δw は W を定めうる要素の数――例えば、原子や分子などの数――の変化に伴う W の変化である。
いいかえれば――
――エントロピー
という名の、
――不確実性
が、
ln W
から、
ln(W / Δw)
へと減る時――
情報は、
ln W − ln(W / Δw)
という量で伝わってくる――
と一応は考えられそうである。
とはいえ――
この W や Δw という概念――状態の場合の数や、その場合の数を定めうる要素の数の変化に伴う変化という概念――は――
かなり、わかりにくい。
わかりにくいだけでなく――
扱いにくい。
そもそも、W や Δw は通常、原子や分子の数によって定められるので、膨大な数である。
加えて――
それぞれの場合について、
――実際に起こりうる確からしさ
に気を配る必要がある。
もし――
ある場合は起こりやすくて、ある場合は起こりにくい――
という傾向が明確になっていれば――
その傾向も踏まえて場合の数を求めねばならぬ。
よって、
――情報の量
を、
ln W − ln(W / Δw)
= ln Δw
と記すことは実用的でない。
では、どうするか。
……
……
――情報の量
を、
――不確実性
の変化で表そう――
というのが――
そもそもの試みであった。
W や Δw という概念は、たしかに、
――不確実性
と密接に関わってはいる。
が――
――不確実性
を扱う際に――
頻繁に用いたい概念ではない。
21世紀序盤の現代において、
――不確実性
を扱うのに最も実用的と思われる概念は1つだ。
――確率
である。
……
……
――確率
は、概ね、
――場合の数の逆数
である。
値は 0 から 1 までの実数しか、とらぬ。
場合の数と違って――
極端に大きな数になることはない。
また――
負の数をとることもない。
よって、
――情報の量
は、
――確率
で記すのが実用的――
と、いえそうである。
つまり、
ln(1 / p) − ln(Δp / p)
= ln(1 / Δp)
である。
ただし、
p = 1 / W
Δp = 1 / Δw
とする。
なお――
状態は、時間の経過によって刻一刻と変化をするから――
W は時間の関数であり、p も時間の関数である。
よって、
――情報の量
は――
ある時刻 t において、状態が 1 つに決まる確率を p (t) とすると――
より明瞭に記せる。
つまり、
――エントロピー
という名の、
――不確実性
が、時間 Δt の間に、
ln(1 / p (t))
から、
ln(1 / p ( t + Δt ))
へと減る時――
情報は、
ln(1 / p (t))− ln(1 / p ( t + Δt ))
= ln(p ( t + Δt ) / p (t))
という量で伝わってくる――
というように――
である。
『随に――』