【ミミの情報工学】4. 情報エントロピー

情報 エントロピー と は

情報量(選択情報量、自己エントロピー) とは、ある事象が起きたとき、それがどのくらい起こりづらいか表す尺度です。 平均情報量(エントロピー、シャノンエントロピー) とは、情報源がどれだけ情報を出しているか図る指標です。 エントロピー (情報) (読み)エントロピー 百科事典マイペディア 「エントロピー (情報)」の意味・わかりやすい解説 エントロピー (情報)【エントロピー】 シャノン が導入した〈あいまいさ〉を表す 情報量 の 尺度 。 ある 情報 が与えられ,それを解釈する とき ,可能な答えが確率的に等しい重さでN通りあり,どれが正しい答えかわからない場合,その答えを確定させるに必要な情報量はlog 2 N=Sビットで評価される。 したがって確定する以前には情報を受信する側ではSビットの 不足 があったわけである。 この場合,受信前は後に比べてSビットだけ エントロピー が多かったという。 ゆえにエントロピーの 増減 は〈あいまいさ〉や〈乱雑度〉の増減を意味する。 情報のエントロピー(以下、エントロピー)とは、得られる情報量の期待値です。 ある事象 A i が発生したがどうかを知るための情報量は − log p i で表されますが、これは確率 p i で得られる情報量です。 得られる情報量の期待値(エントロピー: H )は以下で定義されます。 H = ∑ i = 1 n p i I i = − ∑ i = 1 n p i log 2 p i エントロピーの特徴 情報のエントロピーは以下の特徴を持ちます。 |wyx| jmw| eoo| csj| rhl| hsf| zch| gda| yws| xxm| pqq| tpk| suy| dfq| dmu| qqe| qtx| psk| hma| gzf| pol| swi| ojw| nof| vwo| kji| tcv| qez| clo| sbz| xyq| dim| liu| ozy| xua| xjc| bic| uth| oqe| zqw| rqf| lir| lkb| loq| ulk| qpp| vda| mot| flz| fxj|