Historia de la computación

|


La primera generación de computadoras se establece desde 1946 hasta 1958, época en que la teconlogía electrónica era a base de tubos de vacío y con una comunicación de un nivel muy bajo, conocida como lenguaje de máquina. Se construye la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Ocupaba todo un sótano de la Universidad de Pennsylvania, tenía más de 18.000 tubos de vacío y consumía la enorme cantidad de 200kW de energía, además de que requería un sistema de aire acondicionado para refrigerarse.

La segunda generación de ordenadores va desde el 1958 hasta el 1965 y reemplazó las válvulas de vacío por los transistores. Estos son más pequeños, consumen menos electricidad que las anteriores y el lenguaje de estas nuevas computadores es más avanzado recibiendo el nombre de "lenguajes de alto nivel" o "lenguajes de programación". Los inventos más importantes en esta era se deben a IBM, compañía que inventó el primer sistema de disco magnético y también computadoras que tenían una memoria de núcleo magnético de aproximadamente 16.000 caracteres.

La tercera generación de la computación se debe gracias a la invención del circuito integrado (microchip). Esto supuso un gran avance para la tecnología de la época, a tal punto que la forma de programar sigue siendo similar que en las computadoras actuales. Durante este período (1964-71) hubo grandes cambios: menor consumo de energía, apreciable reducción del espacio, aumento de fiabilidad, teleproceso, multiprogramación, renovación de periféricos, computadoras pequeñas (también conocidas como minicomputadoras) y el poder calcular el número PI con 500.000 decimales.

La cuarta y última generación de los PCs que se da desde 1971 a la fecha es producto de poder reducir el tamaño de los microprocesadores de chips. Con éste invento, aparecieron las computadores personales. Hoy en día, parecería loco el que no tiene una computadora en casa pero hasta hace 10 o 15 años, esto aún era un mundo nuevo por descubrir y el uso comercial era menor que en la actualidad. Aunque el microprocesador es un elemento muy pequeño, es lo que hace más costoso el hardware de la computadora. El primer microprocesador fue desarrollado en 1971 y tenía 2.300 transistores. Con el tiempo la cantidad de transistores aumentó y en 1995 llegamos a tener hasta 5.5 millones de transistores en un microprocesador. Hoy a la fecha, este número parece muy pequeño comparado con los 1.500 millones de transistores que entrar en un microprocesador (Intel I7 entre otros).

0 comentarios:

Publicar un comentario

 

Copyright © 2012 El blog de Alejo Méndez Design by O Pregador | Blogger Theme by Blogger Template de luxo | Powered by Blogger