Los inicios de los términos “bit”, “byte” y “palabra” en la informática

Los inicios de los términos “bit”, “byte” y “palabra” 
Los inicios de los términos “bit”, “byte” y “palabra” 

Los inicios de los términos “bit”, “byte” y “palabra” en los comienzos de la informática

El catedrático Brailsford describe para Computerphile un combate de la prehistoria de la informática sobre la procedencia de términos como bit y por extensión los bytes y lo que se designan palabras.

En 1947 el término bit lo estampó John Tukey, que laboraba en los Laboratorios Bill con Shannon. Es un monograma de binary digit, y es la alternativa más confortable y hábil de manipular la información en computación.

Como los bits se posteriormente se reúnen en bytes de 5, 6, 8 10 o mas dígitos y en palabras aun más grandes, aun es una historia totalmente diferente. Es así que a veces poseen una extensión diferente e indefinida.

Inicialmente la intención era adjuntarlos a fin de que pudiesen representar caracteres; letras alfabéticas. Por lo tanto era común apelar a códigos reconocidos como el Baudot (5 bits). Podían usarse alfabetos más extensos o variantes que incorporen mayúsculas y más signos, de aquel entonces perduran agrupaciones de 6 o 7 bits.

No obstante había un disentimiento relevante entre los bytes y las palabras, ninguno estaba muy bien especificado. Tal como expone Brailsford los informáticos de los primeros tiempos, eran matemáticos, su gran empeño consistía en realizar cálculos numéricos, pero mas que todo, sustentar la exactitud de dichos cálculos.

Los inicios de los términos “bit”, “byte” y “palabra” 

En aquel tiempo se empleaba aun las tablas de logaritmos para múltiples operaciones. Para computar con números decimales o binarios, había que tener presente el factor 3,322 que es Log2(10). Los estudiantes en cálculo empleaban de 4 a 0 dígitos decimales de exactitud, entonces requerían de 33 a 36 bits para señalar un valor con exactitud.

Mecanismos como el EDSAC poseìan “palabras” de 18 bits, por lo que juntando dos de ellas se lograban los valores acordes de 35 0 36 bits. Incluso ciertas maquinas como el EDVAC empleaban 40 bits y asì lograr 10 o 12 dígitos decimales precisos.

Al IBM empezó a tener relevancia como compañía, se estimaba que utilizar mas bits de los requeridos era casi una opulencia. Para IBM era muy provechoso porque asì vendía maquinas enormes y mas costosas. Asì que en lugar de múltiplos 2 y de 5 y 6 bits, empleaban caracteres de 8 bits.

De esta manera, IBM empezó a nombrar bytes a los grupos de 8 bits, que bastaban para mostrar algún carácter. Para hacer felices a matemáticos y científicos agrupando 4 bytes se podían crear palabras de 32 bits. Con ellas se lograba reservar números decimales de mucha exactitud para gran parte de los cálculos.

Es asì como IBM logró que un byte se empezara a interpretar indudablemente como 8 bits, hasta hoy día. ¿Conocías de estas terminologías? Coméntanos.

(Puedes leer también: Programa neurolingüísticamente tu liderazgo)