1. Bitts
El bit es la unidad mínima de información empleada
en informática, en cualquier dispositivo digital, o en
la teoría de la información. Con él, podemos representar
dos valores cuales quiera, como verdadero o falso, abierto
o cerrado, blanco o negro, norte o sur, masculino o
femenino, rojo o azul, etc. Basta con asignar uno de esos
valores al estado de "apagado" (0), y el otro al estado de
"encendido" (1).
Bits más y menos significativos
Un conjunto de bits, como por ejemplo un byte, representa
un conjunto de elementos ordenados. Se llama bit más
significativo (MSB) al bit que tiene un mayor peso (mayor
valor) dentro del conjunto, análogamente, se llama bit
menos significativo (LSB) al bit que tiene un menor peso
dentro del conjunto.
En un Byte, el bit más significativo es el de la posición 7, y
el menos significativo es el de la posición 0
Byte: Se usa comúnmente como unidad básica
de almacenamiento de datos en combinación con los
prefijos de cantidad. Originalmente el byte fue elegido para
ser un submúltiplo del tamaño de palabra de un ordenador,
desde cinco a doce bits. La popularidad de
la arquitectura IBM S/360 que empezó en los años 1960 y
la explosión de las microcomputadoras basadas en
microprocesadores de 8 bits en los años 1980 ha hecho
obsoleta la utilización de otra cantidad que no sean 8 bits.
El término "octeto" se utiliza ampliamente como un
sinónimo preciso donde la ambigüedad es indeseable (por
ejemplo, en definiciones de protocolos).
La unidad byte no tiene símbolo establecido
internacionalmente, aunque en países anglosajones es
frecuente la "B" mayúscula, mientras que en los
2. francófonos es la "o" minúscula (de octet); la ISO y
la IEC en la norma 80000-13:2008 recomiendan restringir
el empleo de esta unidad a los octetos (bytes de 8 bits).
Un byte es la unidad fundamental de datos en los
ordenadores personales, un byte son ocho bits contiguos.
El byte es también la unidad de medida básica para
memoria, almacenando el equivalente a un carácter.
Kilobyte: es una unidad de almacenamiento de
información cuyo símbolo es el kB (con la 'k' en
minúsculas) y equivale a 103 bytes. Aunque el
prefijo griego kilo-(χίλιοι) significa mil, el término kilobyte y
el símbolo kB se han utilizado históricamente para hacer
referencia tanto a 1024 (210) bytes como a 1000 (103)
bytes, dependiendo del contexto, en los campos de
la informática y de la tecnología de la información.Para
solucionar esta confusión, la Comisión Electrotécnica
Internacional publicó en 1998 un apéndice al estándar IEC
60027-2 donde se instauraban los prefijos binarios,
naciendo la unidadkibibyte para designar 210 bytes y
considerándose el uso de la palabra kilobyte no válido a
dichos efectos.
Terabyte: El terabyte es la unidad de almacenamiento
digital equivalente a 1024 gigabytes; a su vez, esto supone
un millón de megabytes y mil millones de kilobytes. Es un
término que se utiliza en informática, en todos los ámbitos.
Se representa con las letras TB, siempre en mayúscula.
Actualmente está cobrando popularidad debido al gran
avance en materia de hardware: los discos duros de los
ordenadores ya vienen con un terabyte de capacidad. El
término se confirmó como parte de las medidas
informáticas en 1960, y el prefijo que se eligió, “tera”,
proviene del idioma griego clásico y significa “monstruo”
3. (en clara alusión a una cantidad de información cuya
magnitud no se atrevían a soñar en aquella época).
No hay que caer en el error común de escribir “terabit”,
puesto que ésta es otra unidad con un valor totalmente
distinto. Los bits son conjuntos de unos y ceros, el
lenguaje de programación más básico, mientras que los
bytes son conjuntos de 8 bits y su unión forma un nuevo
carácter.