Origen del sistema decimal
Debido a que nuestros antepasados usaban los 10 dedos de las manos para hacer las cuentas, se hizo popular el sistema numérico decimal o "de base 10", representado por símbolos que van des- de el 0 hasta el 9. Reciben el nombre de "dígitos" por tener su origen en los dedos o "deditos".
El 0 y el 1 son los dos dígitos empleados en un sistema binario
Puesto que una computadora no tiene manos con dedos, ni un equivalente eléctrico con 10 niveles, ya que funciona con circuitos digitales que conducen impulsos eléctricos formados por sólo 2 niveles de voltaje (alto y bajo, o activo e inactivo), no puede manejar directamente los 10 dígitos decimales del sistema de numeración clásico.
En informática se tuvo que adoptar un sistema de numeración y de comunicación de sólo dos dígitos, el 0 y el 1, llamado binario. Su nombre se formó con el pre- fijo Bi que significa dos o doble: bifurcación, bicolor, bizco.
El 1 se representa usualmente con un pulso eléctrico activo, y el 0 con lo con trario: con apagado o un nivel de señal bajo. En álgebra de lógica Boole, el 0 equivale a Falso y el 1 a Verdadero.
Bit significa dígito binario. Su nombre es una abreviatura de BInary digiT. Un bit es la mínima unidad de información en un sistema binario, así como una letra es la mínima unidad en un sistema alfa- bético. Por ejemplo, la expresión 1101
0101 está formada por 8 bits.
Contemos en binario
La manera de contar con números binarios es muy similar a la que empleamos con el sistema decimal. En el sistema decimal comenzamos a contar desde el 0 (lo que hay antes de que llegue la primera unidad, o sea nada) y vamos diciendo
1, 2, 3, 4... etc.
Si los dígitos decimales sólo van del
0 al 9, ¿cómo indicar una cifra mayor? Muy sencillo: cuando se hayan utilizado los números del 1 al 9, se termina colocando un 0 en tal columna y se aumenta una unidad en la columna que le sigue:
1, 2, 3, 4 ... 8, 9, 10, 11, 12, 13.., 19, 20,
21, 22, 23... 97, 98, 99, 100, etc.
Continuando con el proceso en el sistema decimal, se podrá ver que un número en una columna representa un valor diez veces mayor que un número en una columna anterior. Por eso se dice columna de unidades, decenas, centenas, mil, diez mil, etc.
Cuando se cuenta en el sistema bina- rio, y se han cumplido las dos combina ciones posibles (0 y 1) en la columna de unidades, se coloca un 1 en la columna que sigue. Este 1, como se puede deducir, representa un valor dos veces mayor que el de la columna anterior.
Contemos en forma ascendente, pero utilizando números que sólo estén formados por unos y/o ceros: Cero (0), uno (1), diez (10), once (11), cien (100), ciento uno (101), ciento diez (110), ciento once (111), mil (1000), mil uno (1001), mil diez (1010), mil once (1011), mil cien (1100), mil ciento uno (1101), (1110), (1111), etc. En binario se dice "uno cero cero" y no cien, y "uno uno cero" en vez de seis.
0 ------- 0 1------- 1 2 ------ 10 3 ----- 11
4 ---- 100 5---- 101 6 ----- 110 7 ---- 111
8 ---1000 9---1001 10 - 1010 11 - 1011
12 -1100 13 -1101 14 --1110 15 - 1111
Igual que en el sistema decimal, el bit del extremo derecho representa las unidades. Se le denomina bit de menor peso, o menos significante (LSB). Observa que cuando este bit es un 1, el número resultante en la columna de los decimales es impar (3, 5, 7, etc.). Cuando el segundo bit a partir del extremo derecho es 1, equivale a tener el decimal 2. El 1 en la tercera posición representa al 4, el cuarto al 8, y así sucesivamente. Siempre se multiplica por 2 al valor del bit anterior.
El bit de mayor peso o significación dentro de un byte es el dígito de la iz quierda (MSB), y su valor equivalente en decimal resulta de elevar a la potencia "n" el número 2, siendo "n" el número que resulta de restar 1 a la posición que ocupa dicho bit dentro del byte, contando a partir del extremo derecho. Así, por ejemplo, el primer bit equivale a 20; el segundo equivale a 21; el tercero equivale a 22. El 2 elevado a la potencia 3 (23) es igual a 2x2x2=8.
Un byte es una palabra de 8 bits
Así como juntamos letras para formar palabras en un idioma, se pueden agrupar bits para formar palabras binarias o words que puedan interpretarse en informática. La palabra más común en informática está formada por 8 bits y se llama byte (se pronuncia "báit"). Las 256 combinaciones que permiten 8 bits, desde 0000 0000 hasta 1111 1111, son suficientes para representar los caracteres del inglés e idiomas similares, incluyendo los 10 números decimales, signos ortográficos, signos matemáticos y algunos elementos gráficos.
Múltiplos del bit
Un byte (se pronuncia báit) es un conjunto de 8 bits. Cuando un sistema trabaja a 32 bits, por ejemplo, quiere decir que procesa simultáneamente 4 bytes (8x4=32).
Puesto que con un conjunto de 8 bits
(unos y ceros) se pueden obtener hasta
256 combinaciones (resultado de elevar
2 a la octava potencia, ó 28), cada una de las cuales representa un carácter o símbolo del lenguaje alfanumérico, se dice que un byte es lo mismo que un carácter.
Un kilobyte (KB) es igual a 1.024 bytes ó 210 bytes. Se escribe con B mayúscula para diferenciarlo de Kb, que equivale a kilobits.
Fuera del campo de la informática, un kilo representa mil unidades. Sin embargo, como se puede ver de las equivalencias binarias, kilo en informática representa exactamente 1024 unidades.
Un megabyte (MB) es igual a
1.048.576 bytes, 1.024 KB ó 220 bytes.
Un gigabyte (GB) es igual a 1.024
MB, ó 230 bytes.
Un terabyte (TB) es igual a 1.024 GB,
1.099.511.627.776 bytes ó 240 bytes.
Un petabyte (PB) es igual a 1.024 TB, un millón de gigabytes, mil millones de bytes, 106 GB ó 1015 bytes.
Las tablas de caracteres
Las solas letras no sirven para comunicarnos. Es necesario crear un idioma que junte grupos de letras y les asigne algún significado a esas palabras. Y para facilitar la comunicación entre quienes hablan idiomas distintos, se hacen diccionarios que tienen las equivalencias de significados. "Come", por ejemplo, en español significa "ingerir alimentos", pero en inglés quiere decir "venir".
Puesto que los circuitos electrónicos de los computadores clásicos manejan solamente los dígitos binarios (0 y 1) - cosa diferente ocurre con los computa- dores cuánticos, que manejan una lógica multiestado más compleja- los caracteres que digitamos con el teclado y los que aparecen en la pantalla e impresora son procesados por un circuito "traductor" (codificador/descodificador) que los convierte al lenguaje binario, y viceversa. Tal circuito busca las equivalencias en un código de conversión que hace las veces de un diccionario con las equivalencias en bits unos y ceros para el alfabeto, los números y los signos de puntuación más usuales.
La IBM, pionera en el campo de los PC personales, adoptó el código ASCII. Se pronuncia asqui, y es la abreviatura de American Standard Code for Information
Interchange (Código Americano para Intercambio de Información). Fue creado en
1968 y tenía originalmente 128 palabras binarias de 8 bits (128 bytes), las cuales representaban a los 128 caracteres alfanuméricos más usados, como las letras de varios idiomas, caracteres acentuados, caracteres para control de la máquina, los números del 0 al 9, los signos matemáticos y de puntuación.
Posteriormente, dada la necesidad de una tabla que tuviese también equivalencias binarias para representar elementos gráficos, como líneas y tramas de puntos, se adoptó el código ANSI, el cual permitió a los usuarios del DOS mejorar los gráficos y ha sido el código típico de Windows. El código ANSI adoptó los 128 caracteres del ASCII y creó otros 128 más, para un total de 256 caracteres.
Por último, dadas las limitaciones del ASCII y del ANSI para representar caracteres de idiomas como el árabe y el chino, por ejemplo, se amplió la tabla de equivalencias a 65.536 caracteres y se le llamó código Unicode, el cual se usa en las versiones modernas de Windows.
No hay comentarios:
Publicar un comentario