Los computadores fueron desarrollados como una herramienta para agilizar la realización repetitiva de operaciones aritméticas y lógicas básicas; con el tiempo fueron ganando complejidad, tanto por el número de operaciones como por la complejidad propia de los cálculos.
Hoy en día, se han convertido en un elementos imprescindibles en todos los campos de la ciencia, de la comunicación y del ocio.
A pesar de los grandes cambios que han ido sufriendo las máquinas, el procesamiento de los datos dentro de un computador continúa basado en la realización de operaciones aritméticas y lógicas sencillas sobre datos que se encuentran en la memoria principal.
La información es codificada de manera adecuada para poder ser tratada por un procesador digital.
Las características de la tecnología con la que se construyen los computadores obligan a trabajar con sólo dos símbolos diferentes: el 0 y el 1.
Toda la información que tenga que procesar un computador se tendrá que codificar usando únicamente estos dos símbolos.
Estos son, pues, los puntos de partida:
- Dentro de un computador toda la información se codifica como cadenas de ceros y unos.
- Una cadena de ceros y unos no tiene sentido por ella misma. Hay que conocer la manera cómo se codifica la información, esto es el formato en que están codificados los datos.
- El procesamiento que lleva a cabo un computador sobre las cadenas de ceros y unos consiste en operaciones aritméticas y lógicas sencillas.








