El microprocesador se originó en 1969, cuando Busicom , una empresa japonesa , contrató a Intel para producir un conjunto de chips de su nuevo producto calculadora. Ted Hoff , el ingeniero jefe del proyecto , cree que el proyecto de conjunto de chips 7 podría simplificarse a 4, con un manejo de todo el procesamiento de los datos .
Juntos, Busicom e Intel desarrollaron una serie de nuevas tecnologías y técnicas para producir la primera unidad central de procesamiento del mundo - una de chips multi- función para gestionar todo el procesamiento de datos. Esto se llama el Intel 4004 .
¿Cómo funciona el microprocesador ?
Un microprocesador se compone de una serie de secciones muy sencillas que todas las palancas y una tarea. El bus de direcciones indica una dirección en la memoria, el bus de datos lee o escribe en la memoria , la lectura y /o línea escribir digo la memoria para obtener la ubicación . Hay un reloj interno con sede fuera cierto número de hertz para calcular el tiempo y el uso de los contadores de tiempo para realizar un seguimiento de los diferentes programas. También hay una línea de reset para reiniciar los programas .
RAM
computadoras también tienen memoria de acceso aleatorio ( RAM). Aquí es donde los microprocesadores pueden poner instrucciones siempre que es necesario utilizar , por lo que no se sobreescriben con las nuevas instrucciones antes de cualquier trabajo que tienen que hacer los acabados. Cuando un equipo se queda sin memoria RAM , se ralentiza , ya que no hay más lugar para almacenar las instrucciones en ese momento y la CPU no sobrescribe las instrucciones anteriores sin la autorización de los programas .
Reescritura
la última función importante del microprocesador es manejar reescritura. Cuando el microprocesador hace una instrucción, se hace una copia de la instrucción en el disco duro principal de la computadora. Esto permite no sólo que el sistema tenga una copia de seguridad de todas las operaciones realizadas , sino que también permite que el usuario tenga un lugar para comprobar si algo profundo en el funcionamiento interno del sistema ha salido mal y quiere averiguar lo que es.
< Ley br> la ley de Moore
de Moore es una teoría popular desarrollado originalmente por el co -fundador de Intel, Gordon Moore. Moore miró a la tasa con la que los microprocesadores fueron avanzando y tomó nota de que la velocidad parecía duplicarse cada 18 meses. Amplió esto en una teoría que indica que la velocidad general de los ordenadores se duplicaría cada 18 meses hasta que se convirtió en una imposibilidad física .
Durante casi los últimos 40 años , esta declaración ha sido verdad , a menudo haciendo declaraciones anteriores - como Bill Gates, propuesta que nunca nadie necesita más de 20 megabytes de espacio en disco duro - parecen tontos en este día por
.