El término "bit" fue acuñado en 1948 por Claude Shannon, matemático e ingeniero eléctrico considerado el padre de la teoría de la información. Shannon utilizó el término "bit" como abreviatura de "dígito binario", un concepto introducido por el matemático John Atanasoff en 1937.
Los bits se utilizan para medir la cantidad de datos que se pueden almacenar o transmitir a través de un canal de comunicación digital. Por ejemplo, una señal típica de televisión de alta definición (HD) requiere un ancho de banda de aproximadamente 10 megabits por segundo (Mbps), lo que significa que se transmiten 10 millones de bits de datos cada segundo.
Los datos también se pueden medir en unidades de bytes, kilobytes (1.024 bytes), megabytes (1.048.576 bytes) y gigabytes (1.073.741.824 bytes). A continuación se muestra una tabla que resume las diferentes unidades de medida de datos:
| Unidad | Número de bits |
|---|---|
| Poco | 1 |
| Byte | 8 |
| Kilobits (KB) | 1.024 |
| Megabits (Mb) | 1.048.576 |
| Gigabit (GB) | 1.073.741.824 |
| Kilobyte (KB) | 8.192 |
| Megabytes (MB) | 8.388.608 |
| Gigabytes (GB) | 8.589.934.592 |
Estas unidades de medida de datos se utilizan comúnmente en informática y telecomunicaciones para describir el tamaño de los archivos, la velocidad de las transferencias de datos y la cantidad de espacio de almacenamiento disponible en un dispositivo.