ビットとバイトの基本

パソコンやスマートフォンなどのいわゆるコンピューターは何らかのデータを処理しています。
データを処理することで、動画を表示したり、メッセージのやりとりが出来ているわけですが、このデータはビット(bit)とかバイト(byte)という単位で扱われています。

最小単位がビットで、ビットを8つまとめた物をバイトと言います。

最小単位のビットは電気のオンオフのように、あるかないかだけの情報しかありません。

これで表現できるデータの種類はオンとオフの2つだけです。

このあるかないかを8つ組み合わせたバイトの単位だと、オンとオフを8種類組み合わせてより多くのデータを扱えるようになります。

2の8乗(2を8回かける2×2×2×2×2×2×2×2)で256種類のデータを扱えます。

つまり1ビットだと2種類のデータしか扱えませんが、1ビットを8つまとめた1バイトだと256種類のデータを扱えるので、より複雑なことが出来るという事です。

現在、小さなデータを表す際や通信関連ではビットが使われていて、大きなデータを表す際にはバイトが使われています。
例えば画像のファイルサイズは5MB(5メガバイト)、スマートフォンのストレージ容量は128GB(ギガバイト)。
CPUは64ビット、通信速度は100MBps(100メガ・ビット・パー・セコンド)(1秒あたり100メガ・ビットという意味)のように使い分けられています。

なぜビットを8つまとめたてバイトになったのでしょうか。
1970年代くらいまでは7ビットを1バイト、9ビットを1バイトとして使っていたこともありましたが、1980年頃から8ビットが1バイトが一般的になりました。
その後、2008年に正式に国際規格(IEC 80000-13:2008)として8ビットが1バイトに決まりました。

タイトルとURLをコピーしました