AI理論:情報理論
AI

AI理論:情報理論基礎

クロスエントロピー(分類の損失関数)

L = -1/N Σtn log yn/T 

この説明を目指す

1:天気情報をエンコード(符号化)しディスク格納する

晴:50%

曇:25%

雨:12.5%

雪:12.5%

 

メモ:8ビット=1バイト

英語:1byte表現可能=1バイト=2の8乗まで表現可能

日本語:2byte = 2の16乗=65536通りで表現可能

 

じゃあ天気はどうするか?

晴、曇、雨、雪 を1000日分とすると

2byte 1000日 = 16000bit必要

 

じゃあ

晴:00

曇:01

雨:10

雪:11

と表すと、2bit✖️1000日で2000 bitで格納可能

 

もっとbit数減らせない?

と考えると、確率に基づいて以下のようにする

晴:0   50%

曇:01 25%

雨:110 12.5%

雪:111  12.5%

0/01/110/111/0/0/

1000日と考えると

晴:1bit✖️500日>1/0.5 = 2 = 2の1乗 > log 2の1乗=1

曇:2bit ✖️250日>1/0.25 = 4 = 2の2乗 >log2の2乗=2

雨:3bit ✖️125日>1/0.125 = 8 = 2の3乗 >log2の3乗=3 

雪:3bit ✖️125日>1/0.125 = 8 = 2の3乗 >log2の3乗=3 

 

log2 1/0.5 = log2 1/p(x)

=-log2P(x)