超分かりやすいビットとバイトのお話
デジタル基本中の基本
1ビットは1個のデータです。SまたはN、表または裏、ONまたはOFFなどの1個で表現できる2通りと考えましょう。
ここでは、0または1と考えます。
1ビット=2通り(2)(0,1)
2ビット=4通り(2x2)(00,01,10,11)
3ビット=8通り(2x2x2)(000,001,010,011,100,101,110,111)
4ビット=16通り(2x2x2x2)(0000~1111)
5ビット=32通り(2x2x2x2x2)(00000~11111)
6ビット=64通り(2x2x2x2x2x2)(000000~111111)
7ビット=128通り(2x2x2x2x2x2x2)(0000000~1111111)
8ビット=256通り(2x2x2x2x2x2x2x2)(00000000~11111111)
8ビット=1バイト 0~255(256通り)
コンピュータではこの[1バイト]が基本単位になります。
ビットとバイトの表記は、基本的に小文字と大文字で分けられます。
1b=1ビット
1B=1バイト
例:
100Mbps=100メガビットパーセコンド
100MB=100メガバイト
100Mbps=100メガビットパーセコンド
100MB=100メガバイト
バイトをビットに変換するにはバイトを8倍にします。ビットの8分の1がバイトになります。
では、
1バイト(8ビット)を2個使用すると=2バイト=65,536通り(256x256)
英語アルファベット文字=256通り以内で表現できる=1バイト文字
日本語文字=256通りでは表現できない→65,536通り以内で表現できる=2バイト文字
コンピューターでは、16進数(0123456789ABCDEF)がよく使用されます。
4ビット=16通りなので16進数が使われ8ビット=16進数x16進数=1バイトになります。
例:
00=0
01=1
02=2
︙
FD=253
FE=254
FF=255
00=0
01=1
02=2
︙
FD=253
FE=254
FF=255
1バイトを2桁(00~FF)で表示するか3桁(0~255)で表示するかの違いになります。
コンピューターのデータ記録はビット単位で記録するのでとんでもなく莫大なビット数になります。
磁気データと考えると実際のデータはSとNの2種類保存になっているようです。