SlideShare une entreprise Scribd logo
1  sur  75
HISTORIA DE LOS
COMPUTADORES

 Luis Carlos Suárez
Antecedentes
Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar
sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que
calculan o computan, se remonta a muchos años antes de Jesucristo.
Dos principios han coexistido respecto a este
tema. Uno es usar cosas para contar, ya sea los
dedos, piedras, conchas, semillas. El otro es
colocar esos objetos en posiciones
determinadas. Estos principios se reunieron en
el ábaco, instrumento que sirve hasta el día de
hoy, para realizar complejos cálculos
aritméticos con enorme rapidez y precisión.

El ábaco es considerado como el más antiguo instrumento de cálculo, adaptado y apreciado
en diversas culturas. La época de origen del ábaco es indeterminada. En épocas muy
tempranas, el hombre primitivo encontró materiales para idear instrumentos de conteo. Es
probable que su inicio fuera en una superficie plana y piedras que se movían sobre líneas
dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en
China, donde el uso de este instrumento aún es notable al igual que en Japón. Otras opiniones
sostienen que el ábaco nació en el Sahara, donde los antecesores del actual ábaco eran
dameros rayados en la arena o en las rocas, usados tanto para realizar cálculos aritméticos
como para jugar a diversos juegos tradicionales de inteligencia, que en el Sahara y en las Islas
Canarias son muy abundantes.
En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las
investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre la relación
entre series aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se
encarga de marcar los logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de
Nappier y Gunter sobre un pedazo de madera, creando de esta manera la regla de cálculo.
Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndose en una
calculadora de bolsillo, extremadamente versátil.
La Pascalina
Blaise Pascal era hijo de un funcionario recaudador de impuestos. A los 18
años, Pascal, que ayudaba ocasionalmente a su padre a redactar sus informes oficiales, se
planteó el problema de cómo ahorrarle a su progenitor el engorro de las tediosas
operaciones aritméticas en las que debían sumarse interminables relaciones de números.

Con 19 años, Pascal regaló a su padre su primer modelo de calculadora mecánica, con la
que éste podía calcular con mayor rapidez y seguridad.

La pascalina abultaba algo menos que una caja de
zapatos y era de forma baja y alargada. En su interior e
disponían unas ruedas dentadas conectadas entre
sí, formando una cadena de transmisión, de modo que
cuando una rueda giraba completamente sobre su
eje, hacía avanzar un grado a la siguiente.

Las ruedas representaban el sistema decimal de numeración. Cada rueda constaba de diez
pasos, para lo cual estaba convenientemente marcada con números del 9 al 0. El número total
de ruedas era ocho, seis ruedas para representar los números enteros y dos ruedas más, en el
extremo izquierdo, para los decimales. Con esta disposición se podían manejar números enteros
entre 0'01 y 999.999'99.
Mediante una manivela se hacía girar las ruedas dentadas. Para sumar o restar no había más
que accionar la manivela en el sentido apropiado, con lo que las ruedas corrían los pasos
necesarios. Cuando una rueda estaba en el 9 y se sumaba 1, ésta avanzaba hasta la posición
marcada por un cero. En este punto, un gancho hacía avanzar un paso a la rueda siguiente. De
esta manera se realizaba la operación de adición.

A lo largo de los años, Pascal construyó una cincuentena de modelos o versiones de la
pascalina, en su afán de conseguir una calculadora que realmente le satisficiera. A pesar de la
calidad técnica del invento, y del prestigio que le granjeó a su autor, la pascalina no tuvo
repercusión en las oficinas reales ni gozó de la aceptación de los colegas de su padre. Por una
parte, los amanuenses y contables prefirieron seguir sus costumbres, tanto por rutina como por
temor a ser desbancados por la eficaz máquina. Por otra, los empleadores o empresarios no
vieron beneficio alguno en la compra de costosas máquinas, cuando el trabajo era resuelto
manualmente a muy bajo precio.
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta
máquina e inventó una que también podía multiplicar.
Leibniz fue el primero que propuso el uso de un sistema binario para realizar los cálculos. En
1671 desarrolló una máquina multiplicadora, conocida como la calculadora
universal, mejorando la de Blaise Pascal, ya que realizaba las operaciones de
sumar, restar, multiplicar, dividir y extraer raíces cuadradas, caracterizándose por hacer la
multiplicación de forma directa; y de hecho construyó dos de estas máquinas. Sin embargo, la
tecnología disponible le imposibilitaba la realización de las operaciones con exactitud, y por eso
nunca llegaron a ser más que diseños teóricos.




 Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las
 calculadoras análogas representadas por la regla de cálculo, eran de uso común en
 toda Europa.
En 1725 el francés Basile Bouchon construye el
                                             primer telar donde se controlan los hilos de la
                                             urdimbre con cintas de papel perforadas,
                                             permitiendo repetir complejos diseños sin errores.
                                             En 1728, en Lyon, el tejedor de seda francés Falcon
                                             perfecciona el te lar de Bouchon reemplazando las
                                             frágiles cintas de papel por tarjetas perforadas de
                                             cartón. El hábil ingeniero francés Jacques
                                             Vaucanson perfecciona poco después el
                                             dispositivo, pero es aún demasiad o complejo para
                                             ser práctico. En 1807 el francés Joseph-Marie
                                             Jacquard construye un telar práctico totalmente
                                             automático. Nació así el primer dispositivo
                                             mecánico completamente programable, antecesor
                                             de las modernas computadoras/ordenadores.


El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.

Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de
utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith
consiguió compilar la información estadística destinada al censo de población de 1890 de
Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre
contactos eléctricos.
Charles Babbage diseñó y parcialmente implementó una máquina a vapor, de diferencias
mecánicas para calcular tablas de números. También diseñó, pero nunca construyó, la máquina
analítica para ejecutar programas de tabulación o computación; por estos inventos se le
considera como una de las primeras personas en concebir la idea de lo que hoy llamaríamos una
computadora, por lo que se le considera como "El Padre de la Computación". En el Museo de
Ciencias de Londres se exhiben partes de sus mecanismos inconclusos. Parte de su cerebro
conservado en formol se exhibe en "The Royal College of Surgeons of England", sito en Londres.
                                        Babbage intentó encontrar un método por el cual se
                                        pudieran hacer cálculos automáticamente por una
                                        máquina, eliminando errores debidos a la fatiga o
                                        aburrimiento que sufrían las personas encargadas de
                                        compilar las tablas matemáticas de la época. Esta idea
                                        la tuvo en 1812. Tres diversos factores parecían
                                        haberlo motivado: una aberración al desorden, su
                                        conocimiento de tablas logarítmicas, y los trabajos de
                                        máquinas calculadoras realizadas por Blaise Pascal y
                                        Gottfried Leibniz. En 1822, en una carta dirigida a Sir
                                        Humphry Davy en la aplicación de maquinaria al
                                        cálculo e impresión de tablas matemáticas, discutió
                                        los principios de una máquina calculadora. Además
                                        diseñó un plano de computadoras.
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina
diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija
del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital
moderna.
Presentó un modelo que llamó máquina diferencial en la
Royal Astronomical Society en 1822. Su propósito era
tabular polinomios usando un método numérico llamado el
método de las diferencias. La sociedad aprobó su idea, y
apoyó su petición de una concesión de 1.500 £ otorgadas
para este fin por el gobierno británico en 1823. Babbage
comenzó la construcción de su máquina, pero ésta nunca
fue terminada. Dos cosas fueron mal. Una era que la
fricción y engranajes internos disponibles no eran lo
bastante buenos para que los modelos fueran terminados,
siendo también las vibraciones un problema constante. La
otra fue que Babbage cambiaba incesantemente el diseño
de la máquina. En 1833 se habían gastado 17.000 £ sin
resultado satisfactorio.
En 1991 el Museo de Ciencias de Londres, construyó una
máquina diferencial basándose en los dibujos de Babbage y
utilizando sólo técnicas disponibles en aquella época. La
máquina funcionó sin problemas.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos;
pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un
ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una memoria para guardar los datos, un procesador para las operaciones
matemáticas y una impresora para hacer permanente el registro.




Hace unos 175 años, Charles Babbage concibió una máquina de propósito general, que podía
ser programada por el usuario para ejecutar un repertorio de instrucciones en el orden deseado.
El diseño de la denominada “Máquina Analítica”, de naturaleza mecánica, incluye la mayoría de
las partes lógicas de un ordenador actual. Capaz de almacenar 1000 números de 50 dígitos cada
uno, nunca pudo ser construida por Babbage, dado que en esa época la tecnología disponible
no estaba a la altura del proyecto.
El descubrimiento de la electricidad abrió múltiples caminos para obtener inventos más
avanzados como el telégrafo, los cuales fueron transitados gracias a la perseverancia de grandes
hombres de ciencia. Entre los experimentos más importantes que condujeron a su invención, se
encuentran el del físico danés Hans Ch. Oersted (1777-1851), quien descubrió la relación entre
la electricidad y el magnetismo, cuando todavía se creía que eran dos fenómenos distintos.
Estableció por primera vez que la corriente eléctrica no circula sola por un alambre sino que va
acompañada de un invisible campo de fuerzas magnéticas. En 1819 cuando impartía una
conferencia en la Universidad de Copenhague, produjo una oscilación de la aguja al colocar un
hilo conductor de corriente eléctrica junto a una sencilla brújula marina. Esto ni siquiera llamó la
atención del auditorio; después en su laboratorio, repitió más experimentos obteniendo el
mismo resultado. Este fué el punto de partida para que, en 1831, el inglés Michael Faraday
(1791-1867) estableciera la inducción electromagnética y demostrara que el movimiento de un
imán (inventado por Sturgeon en 1823 y perfeccionado por Joseph Henry (1797-1878) en 1831)
podía inducir el flujo de corriente eléctrica en un conductor próximo a dicho imán.
En el año 1844, Samuel Morse envía un mensaje en telégrafo desde Washington a Baltimore
(EE.UU.). En 1854, George Boole publica "Una investigación sobre las leyes del pensamiento",
describiendo un sistema de lógica simbólica y razonamiento (que sería la base del diseño de
computadoras digitales).
En el año 1858 se tiende el primer cable telegráfico que cruza el Atlántico. En 1876, Alexander
Graham Bell inventa y patenta el Teléfono.
En 1820 se lanzaron las primeras calculadoras mecánicas de cuatro funciones. Éstas podían:
 Sumar
 Restar
 Multiplicar
 dividir
Para 1885, se estaban construyendo con teclados para introducir datos. Rápidamente los
motores eléctricos suplantaron a los sistemas manuales.
En el año 1904, John A. Fleming patenta la válvula de vacío, que permite mejorar las
comunicaciones por radio. En el año 1908, el británico Campbell Swinton describe un método
de escaneo electrónico que sería utilizado posteriormente en el tubo de rayos catódicos de los
televisores.

En el año 1911, la Tabulating Machine Company de Hollerith se une con otras dos compañías, y
forman la Calculating, Tabulating and Recording Company (CTR & Co.). En el año 1919, dos
físicos de los EE.UU., Eccles y Jordan, inventan el circuito de conmutación electrónica llamado
flip-flop, que sería crítico para los sistemas de cómputo electrónico. En el año 1920, a su vez, el
checo Karel Cepel utiliza por primera vez la palabra "Robot" (que significa "Trabajo obligatorio")
en una obra de teatro.
Vannevar Bush construye en el período 1925-1931, un calculador analógico. Este enfoque
diferente ha sido útil, pero limitado por la poca exactitud en los resultados y la complejidad del
modelo. Lo anterior aunado al bajo costo de los circuitos digitales, ha orientado la preferencia
en la actualidad hacia los modelos digitales.
A partir del año de 1930, Howard Aiken y George R. Stibitz inician el desarrollo de calculadores
automáticos a partir de componentes mecánicos y eléctricos. Como resultado de su actividad, se
producen 4 calculadores que se designaron con los nombres de MARK-1, MARK-2, MARK-3 y
MARK-4, este último, construido en el año de 1945, incorporaba algunos componentes
electrónicos (válvulas electrónicas), pero en su mayor parte estaba construido a partir de
elementos eléctricos (relevadores) y mecánicos.
Ordenadores electrónicos

1944 marca la fecha de la primera computadora, al modo actual, que se pone en
funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la
presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La
Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio
de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A
pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la
primer máquina en poseer todas las características de una verdadera computadora.
La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y
J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una
nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una
profunda modificación en el comportamiento de las sociedades.
En 1924, T.J. Watson. cambia el nombre de la CRT & Co. por
IBM (International Business Machines). En 1928 se usan
osciladores de cuarzo para lograr alta precisión en
mecanismos de medición de tiempo. Durante esta década
retoma vigor el desarrollo de máquinas para realizar cálculos.
Hartree construyó un "analizador diferencial", que usaba
como principio básico un disco rotando en contacto con otro.
A una velocidad de motor constante, la distancia transcurrida
sería la integral en el tiempo de la relación de variación.
En 1930, en el MIT (EE.UU.), Vannevar Bush
construye otro analizador diferencial. Este era
un dispositivo electromecánico que podía
usarse para integrar ecuaciones diferenciales.
La precisión de esta máquina no era alta (5 en
10.000), y tomaba entre 10 y 20 minutos
integrar una ecuación promedio. A pesar de
esto, al comparar con la velocidad humana
para realizar las mismas tareas, una ecuación
promedio puede constar de aproximadamente
unas 750 multiplicaciones, lo que hubiera
tomado a un hombre unas 7 horas.
La Z1 es considerada hoy en día como la primera computadora libremente programable del
mundo. Se concluyó en 1938 y fue completamente financiada con fondos privados. La primera
computadora de Konrad Zuse, construida entre 1936 y 1938, resultó destrozada durante los
bombardeos a Berlín de la Segunda Guerra Mundial, y lo mismo sucedió con todos los planos de
la construcción. En 1986, Konrad Zuse decidió reconstruir la Z1.

La Z1 contenía todas las partes presentes en una computadora moderna, por ejemplo: unidad
de control, memoria, micro secuencias, y lógica de punto flotante.


Konrad Zuse construyó la Z1 en el apartamento de sus padres, de hecho, ellos le permitieron
usar el salón para su construcción. En 1936 Zuse renunció a su trabajo de constructor en una
fábrica de aviones para construir la Z1. Sus padres no estaban entusiasmados con la idea, pero
de todos modos le ayudaron lo mejor que pudieron.

En 1986 Konrad Zuse se decidió a reconstruir la Z1. La razón fue que esa máquina contenía casi
todos los rasgos importantes de una computadora moderna. En 1986 tuvo que construir de
nuevo los miles de componentes de la Z1, ya que el original resultó destruido por las ofensivas
aéreas aliadas de 1943. En 1989 finalizó la reconstrucción de la Z1, y en la actualidad puede ser
visitada en el Deutsche Technik Museum Berlin-Kreuzberg.
Algunos datos interesantes: esta máquina experimental se construyó sin relés con finas chapitas
metálicas (unas 20.000) trabajadas con una sierra para metales. Su peso es de unos 500 kilos,
trabajaba a una frecuencia de un hertzio y su motor de ciclo eléctrico consumía
aproximadamente 1000 watios.
La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la Z1 añadiéndole
relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés, aunque todavía mantenía
componentes mecánicos. La Z2 fue finalizada en 1939, y al acabar Zuse ya estaba pensando en
la siguiente computadora la Z3 para que fuera completamente realizada con relés.
La Z2 también fue destruida durante un bombardeo en 1940. Las características técnicas de la
Z2 se asemejaban a la de la Z1 en cuanto al poder de cálculo. La Z2 fue para Zuse un modelo
experimental para probar el poder de la utilización de los relés telefónicos.
Para Zuse, la Z3 era la "primera computadora funcional del mundo controlada por
programas", otras máquinas equiparables a la Z3 fueron la Mark II, o la ENIAC que fueron
presentadas en 1943 o años posteriores, mientras que la Z3 fue presentada en 1941.
La Z3 fue construida en su totalidad con relés telefónicos. No existen fotos de la original Z3, las
fotografías que se muestran son de una reconstrucción realizada por Zuse entre 1960 y 1964.
Esta reconstrucción estuvo en la Exposición Universal de Montreal en 1967, y en la actualidad se
encuentra en el Museo Técnico Alemán de Berlín.




La Z3 estaba formada por partes tales como la unidad de control, la memoria, la unidad
aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos 2200 relés, 600
para la unidad numérica y 1600 para la unidad de almacenamiento. Realizaba una suma en 0.7
segundos, y una multiplicación o una división en 3 segundos. Pesaba unos 1000 kilogramos y
como sus hermanas fue destruida durante un bombardeo en 1944.
La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole una unidad
de lectura de tarjetas perforadas. La Z4 fue utilizada por numerosas instituciones hasta 1959, en
la actualidad se encuentra en el museo alemán de Múnich.



 La Z4 tenía una unidad para producir tarjetas
 perforadas con instrucciones para la propia Z4,
 con lo que no era demasiado complicado
 programarla. Y así también era posible realizar
 copias de los programas para poder hacer
 correcciones.


 La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados cálculos
científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba compuesta
aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por segundo y tenía una
memoria de 500 palabras de 32 bit. Pesaba unos 1000 kilogramos. La entrada de datos era o a
través de un teclado decimal o a través de tarjetas perforadas, y la salida era por una máquina
de escribir.
Un tiempo más adelante (1937), en los EE.UU., John Atanasoff (de la Iowa State University) y
George Stibbitz (de los Bell Labs) comienzan a diseñar (cada uno por su cuenta) calculadoras
digitales electromecánicas basadas en relés. La computadora de Atanasoff era muy avanzada
para la época: usaba aritmética binaria, y tenía una memoria de capacitores (que precisa
refrescos cada determinado tiempo para mantener sus valores, exactamente de la misma forma
que lo hacen los chips actuales de memoria dinámica). Esta computadora nunca llegó a estar
operativa, al igual que la de Babbage, por problemas de tecnología.

La computadora de Stibbitz era más primitiva, pero llegó a estar operativa.
También en el año 1937, el matemático británico Alan Turing presenta el trabajo "Acerca de
números computables", presentando el concepto de su máquina teórica.




Estrictamente hablando, el término computadora, que se emplea para designar a los equipos
de propósito general que son capaces de realizar cálculos arbitrarios, fue acuñado por el inglés
Alan Mathinson Turing con su histórico trabajo ``Computable Numbers'', publicado en 1937, en
el cual desarrolla la teoría de las máquinas de Turing, establece la imposibilidad de resolver
cierto tipo de problemas, entre otros, el problema de parar un proceso o completar un
procedimiento.
Las Generaciones de los Computadores
A partir de ese momento, la evolución de los computadores ha sido realmente sorprendente.
El objetivo inicial fue el de construir equipos más rápidos,
más exactos, más pequeños y más económicos. Este desarrollo se ha clasificado por
"generaciones de computadores", así:




Primera generación de computadores 1950 - 1958

En esta generación nace la industria de los computadores. El trabajo del ENIAC, del EDVAC, del
EDSAC y demás computadores desarrollados en la década de los 40 había sido básicamente
experimental. Tubos al Vacío. Se habían utilizado con fines científicos pero era evidente que su
uso podía desarrollarse en muchas áreas.
La primera generación es la de los tubos al vacío. Eran máquinas muy grandes y pesadas con
muchas limitaciones. El tubo al vacío es un elemento que presenta gran consumo de energía,
poca duración y disipación de mucho calor. Era necesario resolver estos problemas.
UNIVAC I fue adquirido por el Census Bureau de los Estados Unidos para realizar el censo de
1951. IBM perdió este contrato porque sus máquinas de tarjetas perforadas fueron desplazadas
por el computador. Fue desde ese momento que la IBM empezó a ser una fuerza activa en la
industria de los computadores.
En 1953 IBM lanzó su computador IBM 650, una máquina mediana para aplicaciones
comerciales. Inicialmente pensó fabricar 50, pero el éxito de la máquina los llevó a vender más
de mil unidades.
Para el momento en que Howard Aiken había
terminado la Mark II, las computadoras
basadas en relés ya eran obsoletas. El principal
estímulo para desarrollar computadoras
electrónicas estuvo en la segunda guerra
mundial. Los submarinos alemanes, que
destruían a la flota inglesa, se comunicaban
por radio con sus almirantes en Berlín. Los
británicos podían captar las señales de
radio, pero los mensajes estaban encriptados
usando un dispositivo llamado ENIGMA.
La inteligencia británica había podido obtener una máquina ENIGMA robada a los alemanes, pero
para quebrar los códigos era necesaria una gran cantidad de cálculo, que debía hacerse a alta
velocidad.


Para decodificar estos mensajes, el gobierno
británico construyó un laboratorio para
construir una computadora, llamada
COLOSSUS. Alan Turing, T. Flowers y M.
Newman construyeron esta computadora
(1943), que fue la primer computadora
electrónica de la historia.




La Colossus fue una computadora programable electrónica desarrollada en el Parque Bletchley
(Bletchley Park), que era la Unidad Secreta de Decodificación de Inteligencia Militar (Secret
Military Intelligence Decoding Unit) de Inglaterra, por el equipo MK ULTRA Decodificadores de
Códigos Secretos (Top Secret Code Breaking MK ULTRA).
La Colossus fue construida con el propósito de romper el código de encripción de los mensajes
de radio Nazis que habían sido codificados utilizando el Sistema de Cifrado Lorenz.
Estaba construida de válvulas de vacío y no tenía dispositivos
                                 electromecánicos. A pesar de ello, al ser un secreto militar, su
                                 construcción no tuvo ninguna influencia posterior.
                                 En EE.UU., simultáneamente, había interés de la armada para
                                 obtener tablas que pudieran usarse para mejorar la precisión en
                                 los disparos de artillería pesada (en particular para armas
                                 antiaéreas), ya que hacerlos manualmente era tedioso y
                                 frecuentemente con errores.
                                 En 1943, John Mauchly y uno de sus alumnos, un joven
                                 ingeniero llamado John P. Eckert obtienen un subsidio de la
                                 armada para construir una computadora electrónica, que
                                 llamaron Electronic Numerical Integrator and Computer
                                 (ENIAC).
John Mauchly propuso construir una computadora electrónica digital para reemplazar al
analizador diferencial, dando dos ventajas principales: la velocidad de la electrónica, y la
precisión del principio digital. La computadora consistía de 18000 válvulas de vacío y 1500 relés.
Consumía 140 KW/h y pesaba 30 toneladas.
Su hardware electrónico era 10 veces más rápidos que los del analizador diferencial y 100 veces
más rápido que un calculista humano: podía hacer 5000 sumas por segundo. La computadora
era programada por completo usando una técnica similar a los tableros de enchufes de las
antiguas máquinas de calcular (encendiendo y apagando llaves y enchufando y desenchufando
cables). Esta computadora no era binaria, sino decimal: los números se representaban en forma
decimal, y la aritmética se hacía en el sistema decimal. Tenía 20 registros que podían usarse
como un acumulador, cada uno de los cuales almacenaba números decimales de 10 dígitos.
Luego que la ENIAC estuvo operativa, y se vio que tomaba tiempo considerable en preparar un
programa e incorporarlo en el cableado, la máquina se modificó de tal forma que una secuencia
de instrucciones pudiera leerse como una secuencia de números de dos dígitos que se ponían
en una tabla de funciones. Para mantener la lógica simple, un solo registro quedó de
acumulador, y los demás fueron usados como memoria.
Como mencionamos, mientras la ENIAC era construida, en 1944 Mark I se puso operativa. En el
mismo año, prácticamente todas las máquinas de Zuse fueron destruidas por el bombardeo de
los aliados a Berlín , por ende, su trabajo no tuvo influencia en máquinas posteriores. La
computadora Z4, que entró en operación en 1945, sobrevivió al bombardeo y ayudó al
desarrollo de postguerra de computadoras científicas en Alemania. Contenía unos 2200 relés y
trabajaba con números binarios de punto flotante normalizado con una mantisa de 22 bits. Una
multiplicación tomaba entre 2.5 y 3 segundos. El programa se leía de dos lectoras de cinta
perforada, y seguía teniendo memoria mecánica (para almacenar hasta 64 números).

En este mismo año, John Von Neumann introduce el concepto de programa almacenado. Una
de las cosas que le molestaba de las computadoras era que su programación con llaves y cables
era lenta, tediosa e inflexible. Propuso que los programas se almacenaran de forma digital en la
memoria de la computadora, junto con los datos. Por otro lado, se dio cuenta que la aritmética
decimal usada por la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una
prendida y 9 apagadas -) podía reemplazarse usando aritmética binaria. Este diseño, conocido
como Arquitectura de Von Neumann, ha sido la base para casi todas las computadoras digitales.
En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC, llamada EDVAC
(Electronic Discrete Variable Automatic Computer). También en este año, Aiken comienza a
construir la Mark II. En el mismo año, trabajando con un prototipo de la Mark II, Grace Murray
Hopper encuentra el primer "bug": una polilla que provocó una falla en un relé.

En 1946, la ENIAC estaba operativa, funcionando en la Universidad de Pennsylvania. A pesar que
no pudo ser usada para su propósito original de cálculos de balística, la finalización de la ENIAC
provocó una explosión de interés de desarrollo de computadoras electrónicas. Luego que la
guerra terminó, comenzó una nueva era para la computación científica. Los recursos dedicados
a la guerra fueron liberados y dedicados a la ciencia básica. En particular, el departamento de
Marina y la Comisión de Energía Atómica de los EE.UU. decidieron continuar soportando el
desarrollo de computadoras. Las principales aplicaciones eran la predicción numérica del
tiempo, la mecánica de fluidos, la aviónica, el estudio de resistencia de los barcos a las olas, el
estudio de partículas, la energía nuclear, el cálculos de reactores, el modelado de
automóviles, etc.

En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el tambor
magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento para
computadoras. En este mismo año William Shockley, John Bardeen y Walter Brattain, de los
laboratorios Bell, inventaron la resistencia de transferencia (transfer resistor), comúnmente
conocida como Transistor. El concepto estuvo basado en el hecho de que el flujo de electricidad
a través de un sólido (como el silicio) puede controlarse agregándose impurezas con las
configuraciones electrónicas adecuadas. Las válvulas de vacío requieren cables, platos de
metal, una cápsula de vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.
En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En el mismo
año, entra en operación la Manchester Mark I, la primer computadora de programa
almacenado. Fue diseñada por F. C. Williams y T. Kilburn en la Universidad de Manchester, y era
un modelo experimental para probar una memoria basada en válvulas de vacío.

En 1949, Jay Forrester construye la computadora Whirlwind en el MIT. Contenía 5000 válvulas,
palabras de 16 bits, y estaba específicamente diseñada para controlar dispositivos en tiempo
real.
En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo operativa
en Cambridge. Era una computadora de programa almacenado, que fue diseñada por Maurice
Wilkes. Esta fue propuesta especialmente para resolver problemas reales, y pudo resolver
variedad de cálculos. Su primer programa (una tabla de raíces cuadradas) ejecutó el 6 de Mayo
de 1949, y siguió operando hasta 1958. La EDSAC tenía 512 palabras de 17 bits.
El diseño de la EDSAC era bastante útil para el usuario. Un botón de inicio activaba un
uniselector que cargaba un programa que estaba cableado a la Memoria, y este programa
cargaba programas que estaban escritos en cinta de papel en la memoria, y se comenzaba a
ejecutar. En esta época los cálculos se hacían bit por bit.

En 1949, el laboratorio de Los Alamos, se empieza a construir la computadora MANIAC I, que se
terminó en Marzo de 1952. Esta computadora tenía un tambor auxiliar de 10.000 palabras de 40
bits en paralelo, y la unidad de entrada/salida tenía una cinta de papel de 5 canales, y un drive
de cinta de un solo canal. También tenía una impresora de línea.
Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que sería el
primer lenguaje de programación de alto nivel.
En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se transformaría
mas adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer Corporation.

En 1951, Jay Forrester presenta, dentro del proyecto Whirlwind, una memoria no volátil: la
memoria de núcleos, que sería ampliamente difundida.
La primer UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina
de Censos. Esta computadora pasó a ser la número uno en el mercado comercial.

En el mismo año, Grace Murray Hopper construye el primer compilador, llamado A-0. También
en este año, Maurice Wilkes origina el concepto de microprogramación, una técnica que provee
una aproximación ordenada para diseñar la unidad de control de una computadora.

En 1952, Von Neumann, junto con Herman Goldstine, terminan de construir, en el Instituto de
Estudios Avanzados de Princeton (IAS - Institute of Advanced Studies) la computadora IAS. Esta
computadora también fue construida con el concepto de programa almacenado, y tenía otras
características importantes.
Por un lado, el diseño general de la máquina era el siguiente:

Existen cinco componentes básicos: la memoria, la Unidad Aritmético/Lógica, la Unidad de
Control de Programas, y el equipamiento de Entrada/Salida.
La Unidad Aritmético-Lógica ejecuta las operaciones básicas, y contiene un registro acumulador
de 40 bits (que también se usa se usa para entrada/salida). Las operaciones se hacen sobre
datos binarios.
La memoria almacena datos e instrucciones, y consistía de 4096 palabras de 40 bits. Cada
palabra contenía dos instrucciones de 20 bits, o un entero con 39 bits y signo. Las instrucciones
usaban 8 bits para el tipo de instrucciones, y 12 bits para especificar direcciones de memoria.
La Unidad de control interpreta las instrucciones en memoria, y hace que se ejecuten. El
equipamiento de entrada/salida era operado por la Unidad de Control.
La computadora opera de la siguiente forma:
1. La Unidad de Control sigue el flujo del programa y hace que se ejecute;
2. La salida de datos se hace a través del registro acumulador;
3. Se usa aritmética binaria
4. La ALU hace las operaciones aritmético/lógicas usando lógica bit-parallel.
En este año también se pone operativa la EDVAC , así como la ILLIAC I (de la Universidad de
Illinois) y la ORDVAC (construida por la armada): todas usan la arquitectura de Von Neumann. La
ILLIAC (una copia mejorada de la ORDVAC) tenía 1024 palabras de 40 bits. En estas máquinas
una suma tardaba nos 72 microsegundos, mientras que las multiplicaciones de punto fijo tenían
un promedio de unos 700 microsegundos.
Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía que
producía perforadoras de tarjetas y ordenadoras mecánicas de tarjetas. IBM no se interesó
en producir computadoras, hasta que en 1952 produjo la IBM 701. Esta computadora tenía
2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la primera de una serie de
computadoras científicas que dominaron la industria en la década siguiente.
En 1955 apareció la 704, que tenía 4K de memoria y hardware de punto flotante.
En 1953, la IBM 650 sale a la venta, y fue la primer computadora fabricada en serie.
Segunda generación 1959 - 1964

En 1947 tres científicos: W. Shockley, J. Bardeen y H.W. Brattain, trabajando en los laboratorios
Bell, recibieron el premio Nobel por inventar el transistor. Este invento nos lleva a la segunda
generación de computadores. El transistor es mucho más pequeño que el tubo al vacío,
consume menos energía y genera poco calor. Transistor

La utilización del transistor en la industria de la computación conduce a grandes cambios y una
notable reducción de tamaño y peso.


En esta generación aumenta la capacidad de
memoria, se agilizan los medios de entrada y
salida, aumentan la velocidad y programación
de alto nivel como el Cobol y el Fortran.

Entre los principales fabricantes se
encontraban IBM, Sperry -
Rand, Burroughs, General Electric, Control
Data y Honeywell. Se estima que en esta
generación el número de computadores en los
Estados Unidos pasó de 2.500 a 18.000.
A finales de la década de 1950 el uso del transistor
en los ordenadores marcó el advenimiento de
elementos lógicos más pequeños, rápidos y
versátiles de lo que permitían las máquinas con
válvulas.




Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a
su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas
ordenadores o computadoras de segunda generación. Los componentes se hicieron más
pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba
más barata.
La primer computadora puramente basada en
transistores fue la TX-0 (Transitorized experimental
computer 0), en el MIT. Esta fue un dispositivo
usado para probar la TX-2. Uno de los ingenieros
trabajando en este laboratorio, Kenneth Olsen,
abandonó el laboratorio para formar la compañía
DEC (Digital Equipment Company).


En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer
computadora comercial UNIVAC puramente basada en transistores.
En 1957 la EDSAC 2 estuvo operativa. Era una computadora con 1024 palabras de 40 bits, con
dos órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba núcleos de ferrita. La
ALU era bit- sliced. Se incluyeron operaciones de punto flotante para hacer los cálculos más
simples, que usaba una fracción de 32 bits y un exponente de 8 bits. La computadora era
microprogramada, con una ROM 768 palabras. La ROM permitía que diversas subrutinas útiles
(seno, coseno, logaritmos, exponenciales) estuvieran siempre disponibles. La memoria fija
incluía un ensamblador y un conjunto de subrutinas de impresión que permitían hacer
entrada/salida.
Los microprogramas permitieron que las
órdenes pudieran ser diseñadas
cuidadosamente, menos dependientes de
accidentes del hardware. La computadora
ejecutaba una instrucción simple en unos 20
microsegundos, y una multiplicación precisaba
250 microsegundos. La lectora de papel leía
1000 caracteres por segundo, y la perforadora
perforaba 300 caracteres por segundo. La
salida se seguía imprimiendo en una
telelimpresora.
En el mismo año, la computadora ERMETH se construyó en el ETH en Zúrich. Tenía palabras de
16 dígitos decimales, cada uno de los cuales contenía dos instrucciones y un número de punto
fijo de 14 dígitos o un número de punto flotante con una mantisa de 11 dígitos. Una suma de
punto flotante tomaba 4 milisegundos; una multiplicación, 18 milisegundos. Tenía un tambor
magnético que podía almacenar 1000 palabras. La máquina tenía unos 1900 válvulas de vacío y
unos 7000 diodos de germanio.



También en 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN
(formula translator).



En 1958 se funda la compañía Digital, como fue mencionado principalmente. Inicialmente la
DEC sólo vendía plaquetas con pequeños circuitos. En el mismo año, se producen los primeros
circuitos integrados basados en semiconductores (en las compañías Fairchild y Texas
Instruments), y también el proyecto Whirlwind se extiende para producir un sistema de control
de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos (CODASYL -
Commitee On Data Systems Language) para crear el lenguaje COBOL (Common Business
Oriented Language), y John Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de
inteligencia artificial.
En 1960, DEC introduce su primer computadora: la PDP-1. Esta computadora fue diseñada
tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo
de ciclo del procesador de aproximadamente 5 microsegundos (en comparación con la IBM
7090 que era una máquina de alta performance en la cual un ciclo procesador era de 2.5
microsegundos y su costo era de millones de dólares). Fue la primer máquina con monitor y
teclado, marcando el comienzo de las minicomputadoras.

En 1961, Fernando Corbató en el MIT desarrolla una forma que múltiples usuarios puedan
compartir el tiempo del procesador. También se patenta el primer robot industrial. En 1962,
Steve Russell del M.I.T. crea el Spacewar (el primer video juego). En 1963, el sistema de defensa
SAGE es puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de
la computadora.

En 1964, aparece el primer modelo de la computadora IBM 360. IBM había construido una
versión con transistores de la 709, llamada 7090, y posteriormente la 7094. Esta tenía un ciclo
de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la
computación científica en los '60s.
IBM también vendía una computadora orientada a negocios llamada 1401. Esta podía leer cintas
magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija.
Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit
administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria
a memoria movía datos de la fuente al destino hasta que encontraba el bit de fin de palabra
prendido.




El problema era la incompatibilidad de ambas computadoras: era imposible compartir el
software, y de hecho era necesario tener dos centros de cómputos separados con personal
especializado. La IBM System/360 fue una computadora diseñada con múltiples propósitos. Era
una familia e computadoras con el mismo lenguaje de máquina, pero mayor potencia. El
software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único
problema era que, al portar un programa de una versión poderosa a una versión anterior, el
programa podía no caber en memoria).
Todas las IBM 360 proveían soporte para multiprogramación. También existían emuladores de
otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser
modificados. Tenía un espacio de direcciones de 16 megabytes.




En este año se pone en operaciones la computadora CDC 6600 de la Control Data Corporation,
fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9
Mflops. (es decir, un orden de magnitud más que la IBM 7094), y es la primer
supercomputadora comercial.
El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias
unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo
divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutando a la
vez). En este mismo año, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz
desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code).



       En 1965, la DEC fabrica la
       PDP-8, que fue la primer
       minicomputadora con
       transistores en módulos de
       circuitos integrados. Esta
       tenía un único bus (o
       sea, un conjunto de cables
       paralelos para conectar los
       componentes de la
       computadora, en lugar de
       las líneas multiplexadas de
       las computadoras de Von
       Neumann tradicionales).
Tercera Generación: Circuitos Integrados
                               (1965-1980)

Como fue mencionado, a fines de los años '50, ingenieros en
Fairchild Semiconductor Co. y en Texas Instrument desarrollaron
el primer transistor plano, y mas adelante el primer circuito
integrado plano.


La invención del circuito integrado reveló el potencial para extender el
costo y los beneficios de operación de los transistores a todos los
circuitos producidos en masa. La invención del circuito integrado
permitió que docenas de transistores se pusieran en el mismo chip.
Este empaquetamiento permitió construir computadoras más
pequeñas, rápidas y baratas que sus predecesores con transistores. Las
primeras versiones de la IBM 360 eran transistorizadas, pero las
versiones posteriores no solo eran más rápidas y poderosas, sino que
fueron construidas en base a circuitos integrados.
En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del
primer circuito integrado) cuantificó el crecimiento sorprendente de las
nuevas tecnologías de semiconductores. Dijo que los fabricantes habían
duplicado la densidad de los componentes por circuito integrado a
intervalos regulares (un año), y que seguirían haciéndolo mientras el
ojo humano pudiera ver.
En 1967, Fairchild introduce un chip que contenía una ALU de 8 bits: el 3800.
Seymour Papert diseñó el LOGO como un lenguaje de computación para niños. Inicialmente
como un programa de dibujo, el LOGO controlaba las acciones de una 'tortuga' mecánica, que
trazaba su rastro en un papel.
IBM construyó el primer floppy disk.

En 1968, Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un
principio se dedica a fabricar chips de memoria. En este mismo año, la computadora CDC 7600
logra la velocidad de 40 Mflops..

Data General Corporation, compañía creada por un grupo de ingenieros que dejaron DEC,
introdujeron la computadora NOVA. Con 32 KB de memoria, era vendida a US$ 8 mil. La
arquitectura simple del conjunto de instrucciones inspiraron la Apple I, de Steve Wozniak, ocho
años más tarde.
Robert Noyce, Andy Grove y Gordon Moore fundan Intel.
En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de
hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la
UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar
el intercambio entre computadoras y periféricos.


En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la
tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y
baratos. En 1971, Intel fabrica el microprocesador de 4 bits 4004, la primer computadora en un
solo chip. Su objetivo era ser usado para una calculadora.
Ya en 1972, Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado por el
8080, debido al límite de memoria de 16k impuesto por los pins en el chip).

En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner
10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el
protocolo Ethernet para comunicación en redes locales.
Los investigadores de Xerox en 1974, en el centro de investigación en Palo Alto, proyectaron el
ALTO, la primera estación de trabajo con una entrada interna para mouse.
Intel y Zilog introdujeron nuevos microprocesadores.
David Silver, del MIT, proyectó el brazo de plata, un brazo mecánico para hacer ensamble de
pequeñas piezas por medio del feedback de los sensores de toque y de presión presentes en el
robot.
Scelbi anunció la computadora 8H, la primer computadora comercial anunciado en Estados
Unidos basada en el microprocesador Intel 8008.


En 1975, la primer computadora personal, la Altair 8800, aparece en la revista Popular
Electronics, explicando cómo construirla.
La computadora se vendía en forma de kit y requería trabajo y destreza para armarla.
Compuesta por microprocesador Intel 8080 con 256 bytes de memoria RAM. en menos de dos
meses la pequeña compañía MITS manejaba miles de pedidos .
Los usuarios programaban en lenguaje binario mediante interruptores en el panel frontal. La
salida se podía leer, en binario, en los LED's. No había ningún software disponible: los usuarios
tenían que escribir el suyo. Por eso es considerada la primera computadora personal.

   También en ese año, IBM introduce la primer impresora láser.
En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste
principalmente de un tablero de circuitos.


IBM introduce las impresoras a chorro de
tinta en ese mismo año




Y Cray Research introduce la Cray 1, una supercomputadora
con una arquitectura vectorial.
También Intel produce el 8085, un 8080 modificado con algunas características extra de
entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era una
computadora de 8 bits comparable al 8080. Fue utilizada como controlador en equipos
industriales. Fue seguido por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética
de 16 bits.

En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada
públicamente.



 En 1978, Intel produce el 8086, una CPU de 16
 bits en un chip. Este procesador es
 completamente combatible con el 8080, y
 también lo fue el 8088, que tenía la misma
 arquitectura y corría los mismos
 programas, pero con un bus de 8 bits en lugar
 de uno de 16, haciéndolo más lento y barato.
En este año DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular
para aplicaciones técnicas y científicas.
En 1979, Motorola introduce el procesador
68000 que sería más adelante el soporte para
las computadoras Macintosh, Atari, Amiga y
otras computadoras populares. Este
procesador no era compatible con el 6800 o el
6809. Es un híbrido entre arquitecturas de 16 y
32 bits, y puede direccionar 16 Mb de
memoria. De aquí en más los procesadores
680x0 siguen siendo muy similares desde el
punto de vista del programador, con pocas
instrucciones agregadas en cada versión
nueva. También en este año aparecen los
videodiscos digitales
Seagate Technology desarrolló el primer Hard Disk Drive para micro computadoras.
El disco almacenó 5 megabytes de datos, cinco veces más que la mayoría de los discos comunes
de la época.
Desarrollado por Philips, el primer disco óptico de almacenamiento de datos tenía una
capacidad de almacenamiento 60 veces mayor que un disco flexible de 5 ".
John Shoch, del centro de investigación de Xerox, en Palo Alto, inventó la computadora "Worm"
la cual traía un programa de alto desempeño para la búsqueda de información.


Se produce la primer computadora portable: la Osborne 1. David Patterson, en la UC. Berkeley,
introduce el concepto de RISC, y junto con John Hennessy, de Stanford, desarrollan el concepto.
Cuarta generación

En 1981 se lanza la computadora de arquitectura abierta IBM-PC, y un año mas tarde se produce
el primer "clon" de esta computadora.




El MS-DOS (Microsoft Disk Operating System) fue el software básico o sistema operativo lanzado
para la PC de IBM, estableciendo una larga asociación entre IBM y Microsoft.
Adam Osborne desarrolló la primer computadora portátil, el Osborne I.
Apollo Computer desarrolló la primera estación de trabajo, la DN100, con capacidad superior a
la de muchos mini computadoras de precios similares.
Además el primer ordenador portátil considerado como tal fue el Epson HX-20, desarrollado en
 este mismo año :
Anunciado en noviembre de 1981, aunque no se empezó a vender ampliamente hasta 1983.
Aclamado por la revista BusinessWeek como la "cuarta revolución en computación personal", es
generalmente considerado el primer computador tipo notebook portátil y es por esta razón que
es muy valorado entre coleccionistas.
Con las dimensiones aproximadas de una hoja tamaño A4, el Epson HX-20 cuenta con un
teclado, batería de níquel cadmio recargable, una pantalla LCD de 120 × 32 píxeles integrada
(más pequeña que la de cualquier aparato de telefonía móvil actual) y que permitía 4 líneas de
20 caracteres, dos microprocesadores Hitachi 6301 (configurado como Master-Slave) de 0,614
MHz, una impresora matricial del tamaño de una calculadora de bolsillo, el lenguaje de
programación EPSON BASIC, memoria RAM de 16 Kb expandible a 32 Kb y un dispositivo de
almacenamiento de datos en micro-casete integrado. Utiliza un sistema operativo propietario,
que consiste en el intérprete de Epson Basic y un programa de monitoreo del sistema, y pesa
aproximadamente 1.6 kg. Los colores más conocidos de la máquina son plateado y crema,
aunque que algunos prototipos eran gris oscuro. La HX-20 venía acompañada de un maletín gris.
Un acoplador acústico externo, el CX-20, estaba disponible para la HX-20, igual que un
dispositivo de almacenamiento de datos para disquete externo, el TF-20, y un "Artefacto
aumentador de comunicación" sintetizador de voz externo (ACD, por sus siglas en inglés),
llamado "RealVoice". La vida de la batería de la HX-20 era aproximadamente de 50 horas. Y un
costo de 800 dólares.
La posterior y más popular línea del TRS-80 Modelo 100, diseñada por Kyocera, le debió gran
parte de su diseño a la HX-20.
Una queja común encontrada en la mayoría de
los computadores HX-20 actualmente es la
falla de la batería recargable interna de Ni-Cd.
Puede ser fácilmente remplazada por una
batería de Ni- Mh (o equivalente). No se
considera que este cambio reduzca el valor de
coleccionista de la computadora, ya que el
hacerlo no provoca ningún daño interno.
Un fácil arreglo consiste en remplazarla con
cuatro pilas eléctricas tamaño AA, pero no es
recomendable.
Quinta Generación.

En 1982 Mitch Kapor desarrolló el Lotus 1-2-3, software desarrollado para la computadora
personal de IBM. La revista Time provocó euforia en su tradicional elección del "Hombre del
Año" al seleccionar una COMPUTADORA como la "Máquina del Año".
El uso de gráficos generados por computadoras para películas dio un gran paso a través de la
realización de la película "Tron", lanzado por Disney.


1983; la primer computadora personal con interfaz gráfica es desarrollada por Apple.
Compaq Computer Corporation introdujo su primer computadora personal (PC), que usaba el
mismo software que la PC de IBM.
Microsoft anunció el procesador de textos Word, llamado anteriormente Multi-Tool Word.
Ademas anunció el lanzamiento del sistema operativo Windows.
El MIDI (Musical Instrument Digital Interfaz) es mostrado en la primera muestra North American
Music Manufactures, en Los Angeles .
1984 Apple Computer Corporation lanzó el Macintosh, la primer computadora con mouse e
interfaz gráfica, con un valor de US$ 1,5 millones de dólares.
El diskette de 3 ", o " floppy", fue ampliamente aceptado por el mercado, ayudado por la
decisión de Apple Computer de integrarlo en el nuevo Macintosh.

 BM lanzó la PC Jr y la PC-AT. La PC Jr.
 fracasó, pero la PC-AT, varias veces más
 rápido que la PC original y basado en la
 plataforma Intel 80-286, se fue un éxito
 debido a su óptima performance y gran
 capacidad de almacenamiento, todos
 esos recursos por aproximadamente US$
 4 mil. William Gibson, en su libro
 Neuromancer, inventó el término
 Cyberspace ó Ciber espacio
En el año de 1985 Internet avanzó otro gran paso cuando el National Science Foundation
estructuró el NSFNET conectando cinco supercomputadores en las Universidades de
Princeton, Pittsburgh, California, Illinois y Cornell.




                                             Con capacidad para almacenar 550Mb de
                                             informacion, los nuevos CD- ROMs
                                             expandieron el mercado de CDS de música.



                                            Aldus lanzó el programa PageMaker para el uso
                                            en computadoras Macintosh, mostrando su
                                            interés en Desktop Publishing . Dos años más
                                            tarde, Aldus desarrolló la versión para IBMs y
                                            computadoras compatibles. El lenguaje de
                                            programación C++ surgió y dominó la industria
                                            de computadoras cuando Bjarne Stroustrup
                                            publicó el libro "The C++ Programming
                                            Language."
1986. En este año, David Miller, de AT&T Bell Labs, patentó el transitor óptico SEED (Self-
ElectroOptic-Effect Device), un componente digital para computadoras.
Daniel Hillis, de la Thinking Machines Corporation, impulsó la inteligencia artificial cuando
desarrolló el concepto compacto de conexión paralela.
IBM y MIPS desarrollaron las primeras estaciones de trabajo PC/RT y R2000 basadas en RISC.
Compaq desbancó a IBM en el mercado cuando anunció el Deskpro 386, la primer computadora
en el mercado a usar el nuevo procesador Intel 386.
Más adelante , en 1897 Motorola desarrolló el microprocesador 68030.
IBM introdujo al mercado las computadoras PS/2, fabricadas con drives de 3 ".
William Atkinson, ingeniero de Apple, proyectó HyperCard, un software que simplificaba el
desarrollo de aplicaciones domésticas.
El Co-fundador de Apple, Steve Jobs en 1988, dejó Apple para fundar su propia compañía, Next.
Compaq y otros fabricantes de PC desarrollaron EISA (Enhanced Industry Standart
Architecture), una arquitectura standard.




Pixar's "Tin Toy" hizo la primera película realizada en computadoras que posteriormente ganara
un premio Oscar de la Academia por mejor dibujo animado en cortometraje.
Robert Morris envió un virus a través de Internet, que causó problemas a aproximadamente un
10% de los 60 mil usuarios de la red.
En el 1989 Intel lanzó el microprocesador 80486 y el i860 chip RISC/coprocesador, cada uno
contiendo más de 1 millón de transistores.
Motorola anunció el microprocesador 68040, con aproximadamente 1,2 millón transistores.
Maxis lanzó el SimCity, un juego de video game que utilizaba una serie de simuladores. La
ciudad era usada frecuentemente en ambientes educativos.
El concepto de la realidad virtual fue el tema principal en la convención de Siggraph's, realizada
en Boston, Massachussets.

 Además en1990 Microsoft anunció el Windows
 3.0, el día 22 de mayo.
 Compatible con DOS, la primera versión del
 Windows ofrecía satisfacción y performance a
 los usuarios de PC.
 La World Wide Web nació cuando Tim Berners
 Lee, un investigador del CERN, desarrolló el
 HTML (HiperText Markup Language).

 Y en 1991 la Power PC de la alianza IBM,
 Motorola, y Apple es presentado en Julio.
 Investigaciones de Cray revelan el Cray Y-MP
 C90 con 16 procesadores y una velocidad de
 16 Gflops.
1992; DEC presenta el primer chip a implementar la arquitectura RISC Alpha 64-bit.
En marzo de 1992, el primer audio multicast M- bone es transmitido por Internet.
Después de generar una enorme preocupación en todos los usuarios de computadoras, el virus
Michelangelo realiza un estrago de pequeñas proporciones.


Apple presenta Newton, el primer PDA (personal digital assistant).
El Pentium de Intel es presentado en marzo de 1993.
La Universidad de Illinois desarrolla una interfaz gráfica para navegación por Internet llamada
NCSA Mosaic.


 Leonard Adleman de la University of Southern
 California demuestra que el ADN puede ser un
 medio computacional.
 Jim Clark y Marc Andreesen fundan Netscape
 Communications (originalmente Mosaic
 Communications).
 El primer navegador (browser) de Netscape se
 lanza y genera un rapido crecimiento de
 navegantes de la Web
Toy Story es el primer largometraje enteramente generado por computadora. Windows 95 es
lanzado el 24 de agosto con una gran campaña de marketing. El lenguaje de programación Java
, lanzado en mayo, permite el desarrollo de aplicaciones independientes de plataformas. "Duke"
es el primer applet.
En el 96´ es presentado el Pentium Pro de Intel.
La IEEE Computer Society celebra sus 50 años.
El IEEE es una asociación técnico-profesional
sin fines de lucro dedicada a la
estandarización, que agrupa a profesionales de
la ingeniería
eléctrica, electrónica, mecatrónica, computaci
ón, informática y biomédica. Cuenta con más
de 400.000 miembros y voluntarios en 180
países. Su misión es promover la creatividad, el
desarrollo y la integración, compartir y aplicar
los avances en las tecnologías de la
información, electrónica y ciencias en general
para beneficio de la humanidad y de los
mismos profesionales. Produce más del 30%
de la literatura publicada en el mundo sobre
los temas de su ámbito, organiza más de 1000
conferencias al año en todo el mundo, y posee
cerca de 900 estándares activos, con otros 700
más bajo desarrollo.
El Netscape Navigator 2.0 es lanzado en 1997. Fue el primer navegador (browser) con soporte
para Javascript.
Intel lanza el procesador Pentium de 150,166 & 200 MHz. Ellos tiene el equivalente a 3.3
millones de transistores.
La IBM Deep Blue, fue la primer computadora en ganarle al campeón mundial de ajedrez Gary
Kasparov en un juego.

 Luego es lanzado el procesador Pentium II 333 MHz, más rapido
 que el antiguo.
 Microsoft lanza el Windows 98.
En el ´99 Linux es lanzado. El número de
personas que usan LINUX es estimado en más de
10 millones .



AMD lanza el AMD de 1GHz en el 2000. Intel
lanza una cantidad limitada del Pentium III. Es
decretado el fin del TELEX.




Es lanzado el Linux Kernel.
Se lanza al mercado de computadoras el
Windows XP todo esto en el 2001.
Mac OS X 10.2 “Jaguar” El 25 de agosto de 2002 fue lanzada esta versión y Apple prosiguió con
la andadura de su sistema operativo con el lanzamiento de Mac OS X v10.2 “Jaguar” y que
contaba con un nuevo incremento en su rendimiento, un nuevo y depurado look y más de 150
mejoras, entre estas estaba el mayor soporte para redes de Microsoft Windows, Quartz Extreme
para que la composición de gráficos sea procesada directamente por la tarjeta de video y un
filtro contra spam.

Apple Address Book para almacenar la
información de contactos, también agregaba el
sistema de red Rendezvous; iChat que consistía
en un programa de chateo con soporte de AOL
Instant Messenger, y por último incluía un
renovado Finder con búsquedas integradas en
cada ventana.

el teclado virtual: Otra idea salida de la ciencia ficción, el
teclado virtual, es un artefacto desarrollado por dos
compañías, pensado para las PDA y los Tablet PC. El canesta
corresponde a un láser que proyecta un teclado de luz roja
en un área lisa. Funciona gracias a sensores infrarrojos que
con el mismo sistema que usan las cámaras digitales -
mediante la reflexión de la luz- es capaz de reconocer la
“presión” sobre las teclas. La gracia del Canesta es que
desaparece cuando no se está usando.
Earth Simulator — En 1997 un equipo de ingenieros imaginó una máquina que fuera capaz de
simular todos los aspectos del clima de la tierra, para lo cual la compañía NEC desarrolló en
2002 el Earth Simulator, el supercomputador más rápido creado hasta ahora. Ubicado en la
ciudad japonesa de Yokohama, esta máquina realiza 35,86 billones de cálculos por segundo, una
velocidad más de cuatro veces y media superior a la del supercomputador que le sigue en la
clasificación. La máquina, financiada por el gobierno japonés, tuvo un costo de 350 millones de
dólares y ocupa el tamaño de una cancha de tenis. Desde el país asiático recoge información del
clima alrededor de la tierra en tiempo real, gracias a las conexiones que mantiene con satélites
geoestacionarios y boyas que navegan en mar abierto.
Los buscadores, que ocuparon el centro del escenario en 2004
gracias -en parte- a que Google se reveló por fin públicamente
como empresa comercial, y al ingreso de Microsoft al cada vez más
competitivo campo de los buscadores, deberán ser más
sofisticados, al tiempo que la llamada tecnología de "inferencia
semántica" intentará llenar el vacío entre aquello que se encuentra
y lo que se quiere encontrar.

Dicho en pocas palabras, la tecnología de inferencia semántica
ayudará a que las búsquedas sean más precisas, examinando no
sólo el contenido sino también el contexto de los documentos en
la web. Es ésta una explicación simple para una compleja
tecnología, pero el resultado final será para el usuario un
mejoramiento de las búsquedas con menor esfuerzo. Decía el
clarín en su edición martes 4 de enero de 2005.
Un pronóstico elaborado por expertos en ciencia y tecnología, medios especializados,
universidades y empresas de hardware determinó cuáles serán los hits tecnológicos de nuestra
generación.
Grafeno
Llamado "el material del futuro", este descubrimiento significó el Premio Nobel de Física 2010
para Andre Geim y Kostya Novoselov. Este material, que será utilizado para los procesadores se
enrolla y se pliega, es 10 veces más rápido que el silicio y es un buen conductor, que solucionará
la cuestión de llamada "conectividad total".
Letreros interactivos
Son pantallas LCD táctiles e interactivas con cristal holográfico que responden a la demanda de
los consumidores por experiencias conectadas a redes en el punto de venta. La interface es
sensible al tacto con video y reconocimiento del rostro. Ofrecen información sobre el producto y
su aplicación.




Robots enfermeras
Las enfermeras del futuro son humanoides capacitados para realizar análisis de sangre, guiar a
los pacientes por el hospital y asistirlos en la sala de espera, además de tomarles la presión y la
fiebre. Algunos hospitales de Japón ya las implementaron, con buena recepción por parte de los
pacientes, que encontraron la espera más entretenida gracias a los videos que estas enfermeras
cibernéticas muestran a través de su pecho.
Vehículos inteligentes
Ya habíamos presentado al primer auto que twittea. Pero, si bien Ford tuvo la primicia en ese
aspecto, ya hay varios fabricantes abocados a la creación de vehículos con Internet. Esta
combinación permite al usuario, entre otras cosas, conocer el estado de las rutas y disfrutar de
contenidos interactivos durante el viaje.




Celulares 3D
Julien Flack, director de tecnología de Dynamic Digital Depth es el autor de un software que le
demandó una década de trabajo, y permite que la imagen en el celular salte de 2D a
3D, ofreciendo una experiencia mucho más real. Dicho software fue desarrollado para el
Samsung W960, lanzado en Corea del Sur en Marzo de este año.
Redes de sensores inalámbricos
Son redes de nodos o computadoras en miniatura equipadas para una tarea común. Son auto
configurables, de fácil instalación y capaces de concretar el proceso de emisión y recepción de
datos en pocos segundos. Pueden detectar actividad sísmica, el estado del tránsito y
movimientos militares.




TV de LED
Estas pantallas, cuyo costo se espera que descienda al ritmo de su demanda creciente, son
ecologicas, generan menos calor, no utilizan materiales tóxicos ni generan residuos. Además,
brindan una mejor experiencia visual, no deforman la imagen ni cambian el color.
Computación ubicua
También conocida como Ubicomp, refiere a la integración de la informática en el entorno
humano o real, al punto que la computadora no sea percibida como un objeto diferenciado.
Se espera que el hombre interactúe con chips informáticos para realizar sus tareas cotidianas
dando órdenes sólo con la voz.




Implantes cibernéticos
Se trata de prótesis basadas en materiales ópticos y electrónicos capaces de almacenar datos
sobre el estado de salud e historial del paciente, además de monitorear sus signos vitales.
FIN

OJALÁ LE GUSTE

Contenu connexe

Tendances

Historia de la computadora
Historia de la computadoraHistoria de la computadora
Historia de la computadorajesus
 
Eras de la computación-linea del tiempo
Eras de la computación-linea del tiempoEras de la computación-linea del tiempo
Eras de la computación-linea del tiempoAstrid Meneses Romero
 
Antecedentes de la computadora
Antecedentes de la computadoraAntecedentes de la computadora
Antecedentes de la computadora96luzelena
 
Linea del tiempo historia del computador
Linea del tiempo historia del computadorLinea del tiempo historia del computador
Linea del tiempo historia del computadorandersonaguanary
 
partes de un computador y evolucion
partes de un computador y evolucion partes de un computador y evolucion
partes de un computador y evolucion ArieskaQuero
 
La computadora historia
La computadora historia La computadora historia
La computadora historia patriciarab
 
Cultura paracas carlos bravo
Cultura paracas  carlos bravoCultura paracas  carlos bravo
Cultura paracas carlos bravocarlos bravo
 
Evolucion de la_computacion
Evolucion de la_computacionEvolucion de la_computacion
Evolucion de la_computacionFely Condesa
 
Línea de tiempo de las generaciones de computadoras
Línea de tiempo de las generaciones de computadorasLínea de tiempo de las generaciones de computadoras
Línea de tiempo de las generaciones de computadorasZune Navarro
 

Tendances (13)

Historia de la computadora
Historia de la computadoraHistoria de la computadora
Historia de la computadora
 
Cultura Tallan
Cultura TallanCultura Tallan
Cultura Tallan
 
Eras de la computación-linea del tiempo
Eras de la computación-linea del tiempoEras de la computación-linea del tiempo
Eras de la computación-linea del tiempo
 
Antecedentes de la computadora
Antecedentes de la computadoraAntecedentes de la computadora
Antecedentes de la computadora
 
Linea del tiempo historia del computador
Linea del tiempo historia del computadorLinea del tiempo historia del computador
Linea del tiempo historia del computador
 
TECNOLOGÍA Y CIENCIA: INVENTOS Y DESCUBRIMIENTOS QUE CAMBIARON LA HISTORIA
TECNOLOGÍA Y CIENCIA: INVENTOS Y DESCUBRIMIENTOS QUE  CAMBIARON LA HISTORIATECNOLOGÍA Y CIENCIA: INVENTOS Y DESCUBRIMIENTOS QUE  CAMBIARON LA HISTORIA
TECNOLOGÍA Y CIENCIA: INVENTOS Y DESCUBRIMIENTOS QUE CAMBIARON LA HISTORIA
 
partes de un computador y evolucion
partes de un computador y evolucion partes de un computador y evolucion
partes de un computador y evolucion
 
Linea de Tiempo de la Computacion
Linea de Tiempo de la ComputacionLinea de Tiempo de la Computacion
Linea de Tiempo de la Computacion
 
La computadora historia
La computadora historia La computadora historia
La computadora historia
 
Cultura paracas carlos bravo
Cultura paracas  carlos bravoCultura paracas  carlos bravo
Cultura paracas carlos bravo
 
Evolucion de la_computacion
Evolucion de la_computacionEvolucion de la_computacion
Evolucion de la_computacion
 
Trabajo linea del tiempo del computador
Trabajo linea del tiempo del computadorTrabajo linea del tiempo del computador
Trabajo linea del tiempo del computador
 
Línea de tiempo de las generaciones de computadoras
Línea de tiempo de las generaciones de computadorasLínea de tiempo de las generaciones de computadoras
Línea de tiempo de las generaciones de computadoras
 

Similaire à Historia de los computadores

Historia de la informatica
Historia de la informaticaHistoria de la informatica
Historia de la informaticaMelissa Aviles
 
Historia De La Informatica
Historia De La InformaticaHistoria De La Informatica
Historia De La Informaticadeisy paola
 
Historia de las_computadoras
Historia de las_computadorasHistoria de las_computadoras
Historia de las_computadorasXofoEsteban
 
Historia de la computacion
Historia de la computacionHistoria de la computacion
Historia de la computacionbefalasg
 
Historia+de+la+evolución
Historia+de+la+evoluciónHistoria+de+la+evolución
Historia+de+la+evoluciónErick_Carlo
 
Historia+de+la+evolución de la informatica
Historia+de+la+evolución de la informaticaHistoria+de+la+evolución de la informatica
Historia+de+la+evolución de la informaticaEdison Moran
 
Anexo historia de la computacion
Anexo historia de la computacionAnexo historia de la computacion
Anexo historia de la computacionRonaldoForonda
 
Historia de la Computadoras y sus creadores
Historia de la Computadoras y sus creadoresHistoria de la Computadoras y sus creadores
Historia de la Computadoras y sus creadoresHUGOZOMBER
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computaciónMegamovil
 
Trabajo de la historia de la informática
Trabajo de la historia de la informáticaTrabajo de la historia de la informática
Trabajo de la historia de la informáticasakura_sandra
 

Similaire à Historia de los computadores (20)

Historia de la informatica
Historia de la informaticaHistoria de la informatica
Historia de la informatica
 
Tema 2 antecedentes
Tema 2 antecedentesTema 2 antecedentes
Tema 2 antecedentes
 
Historia De La Informatica
Historia De La InformaticaHistoria De La Informatica
Historia De La Informatica
 
Historia de las_computadoras
Historia de las_computadorasHistoria de las_computadoras
Historia de las_computadoras
 
Teoría Computacional
Teoría ComputacionalTeoría Computacional
Teoría Computacional
 
Teora computacional488
Teora computacional488Teora computacional488
Teora computacional488
 
Teora computacional488
Teora computacional488Teora computacional488
Teora computacional488
 
Historia de la computacion
Historia de la computacionHistoria de la computacion
Historia de la computacion
 
Historia+de+la+evolución
Historia+de+la+evoluciónHistoria+de+la+evolución
Historia+de+la+evolución
 
Historia+de+la+evolución de la informatica
Historia+de+la+evolución de la informaticaHistoria+de+la+evolución de la informatica
Historia+de+la+evolución de la informatica
 
Anexo historia de la computacion
Anexo historia de la computacionAnexo historia de la computacion
Anexo historia de la computacion
 
Anexo historia de la computación
Anexo historia de la computaciónAnexo historia de la computación
Anexo historia de la computación
 
Anexo historia de la computación
Anexo historia de la computaciónAnexo historia de la computación
Anexo historia de la computación
 
Anexo historia de la computación
Anexo historia de la computaciónAnexo historia de la computación
Anexo historia de la computación
 
Tantalean slidehare
Tantalean slidehareTantalean slidehare
Tantalean slidehare
 
Historia de la Computadoras y sus creadores
Historia de la Computadoras y sus creadoresHistoria de la Computadoras y sus creadores
Historia de la Computadoras y sus creadores
 
Anexo historia de la computación
Anexo historia de la computaciónAnexo historia de la computación
Anexo historia de la computación
 
Linea Compu
Linea CompuLinea Compu
Linea Compu
 
Historia de la computación
Historia de la computaciónHistoria de la computación
Historia de la computación
 
Trabajo de la historia de la informática
Trabajo de la historia de la informáticaTrabajo de la historia de la informática
Trabajo de la historia de la informática
 

Historia de los computadores

  • 1. HISTORIA DE LOS COMPUTADORES Luis Carlos Suárez
  • 2. Antecedentes Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo. Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea los dedos, piedras, conchas, semillas. El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos aritméticos con enorme rapidez y precisión. El ábaco es considerado como el más antiguo instrumento de cálculo, adaptado y apreciado en diversas culturas. La época de origen del ábaco es indeterminada. En épocas muy tempranas, el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio fuera en una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aún es notable al igual que en Japón. Otras opiniones sostienen que el ábaco nació en el Sahara, donde los antecesores del actual ábaco eran dameros rayados en la arena o en las rocas, usados tanto para realizar cálculos aritméticos como para jugar a diversos juegos tradicionales de inteligencia, que en el Sahara y en las Islas Canarias son muy abundantes.
  • 3. En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre la relación entre series aritmética y geométricas, creando tablas que llama logaritmos. Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es perfeccionada, convirtiéndose en una calculadora de bolsillo, extremadamente versátil.
  • 4. La Pascalina Blaise Pascal era hijo de un funcionario recaudador de impuestos. A los 18 años, Pascal, que ayudaba ocasionalmente a su padre a redactar sus informes oficiales, se planteó el problema de cómo ahorrarle a su progenitor el engorro de las tediosas operaciones aritméticas en las que debían sumarse interminables relaciones de números. Con 19 años, Pascal regaló a su padre su primer modelo de calculadora mecánica, con la que éste podía calcular con mayor rapidez y seguridad. La pascalina abultaba algo menos que una caja de zapatos y era de forma baja y alargada. En su interior e disponían unas ruedas dentadas conectadas entre sí, formando una cadena de transmisión, de modo que cuando una rueda giraba completamente sobre su eje, hacía avanzar un grado a la siguiente. Las ruedas representaban el sistema decimal de numeración. Cada rueda constaba de diez pasos, para lo cual estaba convenientemente marcada con números del 9 al 0. El número total de ruedas era ocho, seis ruedas para representar los números enteros y dos ruedas más, en el extremo izquierdo, para los decimales. Con esta disposición se podían manejar números enteros entre 0'01 y 999.999'99.
  • 5. Mediante una manivela se hacía girar las ruedas dentadas. Para sumar o restar no había más que accionar la manivela en el sentido apropiado, con lo que las ruedas corrían los pasos necesarios. Cuando una rueda estaba en el 9 y se sumaba 1, ésta avanzaba hasta la posición marcada por un cero. En este punto, un gancho hacía avanzar un paso a la rueda siguiente. De esta manera se realizaba la operación de adición. A lo largo de los años, Pascal construyó una cincuentena de modelos o versiones de la pascalina, en su afán de conseguir una calculadora que realmente le satisficiera. A pesar de la calidad técnica del invento, y del prestigio que le granjeó a su autor, la pascalina no tuvo repercusión en las oficinas reales ni gozó de la aceptación de los colegas de su padre. Por una parte, los amanuenses y contables prefirieron seguir sus costumbres, tanto por rutina como por temor a ser desbancados por la eficaz máquina. Por otra, los empleadores o empresarios no vieron beneficio alguno en la compra de costosas máquinas, cuando el trabajo era resuelto manualmente a muy bajo precio.
  • 6. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. Leibniz fue el primero que propuso el uso de un sistema binario para realizar los cálculos. En 1671 desarrolló una máquina multiplicadora, conocida como la calculadora universal, mejorando la de Blaise Pascal, ya que realizaba las operaciones de sumar, restar, multiplicar, dividir y extraer raíces cuadradas, caracterizándose por hacer la multiplicación de forma directa; y de hecho construyó dos de estas máquinas. Sin embargo, la tecnología disponible le imposibilitaba la realización de las operaciones con exactitud, y por eso nunca llegaron a ser más que diseños teóricos. Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda Europa.
  • 7. En 1725 el francés Basile Bouchon construye el primer telar donde se controlan los hilos de la urdimbre con cintas de papel perforadas, permitiendo repetir complejos diseños sin errores. En 1728, en Lyon, el tejedor de seda francés Falcon perfecciona el te lar de Bouchon reemplazando las frágiles cintas de papel por tarjetas perforadas de cartón. El hábil ingeniero francés Jacques Vaucanson perfecciona poco después el dispositivo, pero es aún demasiad o complejo para ser práctico. En 1807 el francés Joseph-Marie Jacquard construye un telar práctico totalmente automático. Nació así el primer dispositivo mecánico completamente programable, antecesor de las modernas computadoras/ordenadores. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
  • 8. Charles Babbage diseñó y parcialmente implementó una máquina a vapor, de diferencias mecánicas para calcular tablas de números. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación; por estos inventos se le considera como una de las primeras personas en concebir la idea de lo que hoy llamaríamos una computadora, por lo que se le considera como "El Padre de la Computación". En el Museo de Ciencias de Londres se exhiben partes de sus mecanismos inconclusos. Parte de su cerebro conservado en formol se exhibe en "The Royal College of Surgeons of England", sito en Londres. Babbage intentó encontrar un método por el cual se pudieran hacer cálculos automáticamente por una máquina, eliminando errores debidos a la fatiga o aburrimiento que sufrían las personas encargadas de compilar las tablas matemáticas de la época. Esta idea la tuvo en 1812. Tres diversos factores parecían haberlo motivado: una aberración al desorden, su conocimiento de tablas logarítmicas, y los trabajos de máquinas calculadoras realizadas por Blaise Pascal y Gottfried Leibniz. En 1822, en una carta dirigida a Sir Humphry Davy en la aplicación de maquinaria al cálculo e impresión de tablas matemáticas, discutió los principios de una máquina calculadora. Además diseñó un plano de computadoras.
  • 9. También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. Presentó un modelo que llamó máquina diferencial en la Royal Astronomical Society en 1822. Su propósito era tabular polinomios usando un método numérico llamado el método de las diferencias. La sociedad aprobó su idea, y apoyó su petición de una concesión de 1.500 £ otorgadas para este fin por el gobierno británico en 1823. Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal. Una era que la fricción y engranajes internos disponibles no eran lo bastante buenos para que los modelos fueran terminados, siendo también las vibraciones un problema constante. La otra fue que Babbage cambiaba incesantemente el diseño de la máquina. En 1833 se habían gastado 17.000 £ sin resultado satisfactorio. En 1991 el Museo de Ciencias de Londres, construyó una máquina diferencial basándose en los dibujos de Babbage y utilizando sólo técnicas disponibles en aquella época. La máquina funcionó sin problemas.
  • 10. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Hace unos 175 años, Charles Babbage concibió una máquina de propósito general, que podía ser programada por el usuario para ejecutar un repertorio de instrucciones en el orden deseado. El diseño de la denominada “Máquina Analítica”, de naturaleza mecánica, incluye la mayoría de las partes lógicas de un ordenador actual. Capaz de almacenar 1000 números de 50 dígitos cada uno, nunca pudo ser construida por Babbage, dado que en esa época la tecnología disponible no estaba a la altura del proyecto.
  • 11. El descubrimiento de la electricidad abrió múltiples caminos para obtener inventos más avanzados como el telégrafo, los cuales fueron transitados gracias a la perseverancia de grandes hombres de ciencia. Entre los experimentos más importantes que condujeron a su invención, se encuentran el del físico danés Hans Ch. Oersted (1777-1851), quien descubrió la relación entre la electricidad y el magnetismo, cuando todavía se creía que eran dos fenómenos distintos. Estableció por primera vez que la corriente eléctrica no circula sola por un alambre sino que va acompañada de un invisible campo de fuerzas magnéticas. En 1819 cuando impartía una conferencia en la Universidad de Copenhague, produjo una oscilación de la aguja al colocar un hilo conductor de corriente eléctrica junto a una sencilla brújula marina. Esto ni siquiera llamó la atención del auditorio; después en su laboratorio, repitió más experimentos obteniendo el mismo resultado. Este fué el punto de partida para que, en 1831, el inglés Michael Faraday (1791-1867) estableciera la inducción electromagnética y demostrara que el movimiento de un imán (inventado por Sturgeon en 1823 y perfeccionado por Joseph Henry (1797-1878) en 1831) podía inducir el flujo de corriente eléctrica en un conductor próximo a dicho imán. En el año 1844, Samuel Morse envía un mensaje en telégrafo desde Washington a Baltimore (EE.UU.). En 1854, George Boole publica "Una investigación sobre las leyes del pensamiento", describiendo un sistema de lógica simbólica y razonamiento (que sería la base del diseño de computadoras digitales). En el año 1858 se tiende el primer cable telegráfico que cruza el Atlántico. En 1876, Alexander Graham Bell inventa y patenta el Teléfono.
  • 12. En 1820 se lanzaron las primeras calculadoras mecánicas de cuatro funciones. Éstas podían:  Sumar  Restar  Multiplicar  dividir Para 1885, se estaban construyendo con teclados para introducir datos. Rápidamente los motores eléctricos suplantaron a los sistemas manuales.
  • 13. En el año 1904, John A. Fleming patenta la válvula de vacío, que permite mejorar las comunicaciones por radio. En el año 1908, el británico Campbell Swinton describe un método de escaneo electrónico que sería utilizado posteriormente en el tubo de rayos catódicos de los televisores. En el año 1911, la Tabulating Machine Company de Hollerith se une con otras dos compañías, y forman la Calculating, Tabulating and Recording Company (CTR & Co.). En el año 1919, dos físicos de los EE.UU., Eccles y Jordan, inventan el circuito de conmutación electrónica llamado flip-flop, que sería crítico para los sistemas de cómputo electrónico. En el año 1920, a su vez, el checo Karel Cepel utiliza por primera vez la palabra "Robot" (que significa "Trabajo obligatorio") en una obra de teatro.
  • 14. Vannevar Bush construye en el período 1925-1931, un calculador analógico. Este enfoque diferente ha sido útil, pero limitado por la poca exactitud en los resultados y la complejidad del modelo. Lo anterior aunado al bajo costo de los circuitos digitales, ha orientado la preferencia en la actualidad hacia los modelos digitales.
  • 15. A partir del año de 1930, Howard Aiken y George R. Stibitz inician el desarrollo de calculadores automáticos a partir de componentes mecánicos y eléctricos. Como resultado de su actividad, se producen 4 calculadores que se designaron con los nombres de MARK-1, MARK-2, MARK-3 y MARK-4, este último, construido en el año de 1945, incorporaba algunos componentes electrónicos (válvulas electrónicas), pero en su mayor parte estaba construido a partir de elementos eléctricos (relevadores) y mecánicos.
  • 16. Ordenadores electrónicos 1944 marca la fecha de la primera computadora, al modo actual, que se pone en funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos, quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de información. La Mark I funcionaba eléctricamente, instrucciones e información se introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud comparada con los equipos actuales, fue la primer máquina en poseer todas las características de una verdadera computadora. La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo tecnológico, y de una profunda modificación en el comportamiento de las sociedades.
  • 17. En 1924, T.J. Watson. cambia el nombre de la CRT & Co. por IBM (International Business Machines). En 1928 se usan osciladores de cuarzo para lograr alta precisión en mecanismos de medición de tiempo. Durante esta década retoma vigor el desarrollo de máquinas para realizar cálculos. Hartree construyó un "analizador diferencial", que usaba como principio básico un disco rotando en contacto con otro. A una velocidad de motor constante, la distancia transcurrida sería la integral en el tiempo de la relación de variación. En 1930, en el MIT (EE.UU.), Vannevar Bush construye otro analizador diferencial. Este era un dispositivo electromecánico que podía usarse para integrar ecuaciones diferenciales. La precisión de esta máquina no era alta (5 en 10.000), y tomaba entre 10 y 20 minutos integrar una ecuación promedio. A pesar de esto, al comparar con la velocidad humana para realizar las mismas tareas, una ecuación promedio puede constar de aproximadamente unas 750 multiplicaciones, lo que hubiera tomado a un hombre unas 7 horas.
  • 18. La Z1 es considerada hoy en día como la primera computadora libremente programable del mundo. Se concluyó en 1938 y fue completamente financiada con fondos privados. La primera computadora de Konrad Zuse, construida entre 1936 y 1938, resultó destrozada durante los bombardeos a Berlín de la Segunda Guerra Mundial, y lo mismo sucedió con todos los planos de la construcción. En 1986, Konrad Zuse decidió reconstruir la Z1. La Z1 contenía todas las partes presentes en una computadora moderna, por ejemplo: unidad de control, memoria, micro secuencias, y lógica de punto flotante. Konrad Zuse construyó la Z1 en el apartamento de sus padres, de hecho, ellos le permitieron usar el salón para su construcción. En 1936 Zuse renunció a su trabajo de constructor en una fábrica de aviones para construir la Z1. Sus padres no estaban entusiasmados con la idea, pero de todos modos le ayudaron lo mejor que pudieron. En 1986 Konrad Zuse se decidió a reconstruir la Z1. La razón fue que esa máquina contenía casi todos los rasgos importantes de una computadora moderna. En 1986 tuvo que construir de nuevo los miles de componentes de la Z1, ya que el original resultó destruido por las ofensivas aéreas aliadas de 1943. En 1989 finalizó la reconstrucción de la Z1, y en la actualidad puede ser visitada en el Deutsche Technik Museum Berlin-Kreuzberg.
  • 19. Algunos datos interesantes: esta máquina experimental se construyó sin relés con finas chapitas metálicas (unas 20.000) trabajadas con una sierra para metales. Su peso es de unos 500 kilos, trabajaba a una frecuencia de un hertzio y su motor de ciclo eléctrico consumía aproximadamente 1000 watios.
  • 20. La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la Z1 añadiéndole relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés, aunque todavía mantenía componentes mecánicos. La Z2 fue finalizada en 1939, y al acabar Zuse ya estaba pensando en la siguiente computadora la Z3 para que fuera completamente realizada con relés. La Z2 también fue destruida durante un bombardeo en 1940. Las características técnicas de la Z2 se asemejaban a la de la Z1 en cuanto al poder de cálculo. La Z2 fue para Zuse un modelo experimental para probar el poder de la utilización de los relés telefónicos.
  • 21. Para Zuse, la Z3 era la "primera computadora funcional del mundo controlada por programas", otras máquinas equiparables a la Z3 fueron la Mark II, o la ENIAC que fueron presentadas en 1943 o años posteriores, mientras que la Z3 fue presentada en 1941. La Z3 fue construida en su totalidad con relés telefónicos. No existen fotos de la original Z3, las fotografías que se muestran son de una reconstrucción realizada por Zuse entre 1960 y 1964. Esta reconstrucción estuvo en la Exposición Universal de Montreal en 1967, y en la actualidad se encuentra en el Museo Técnico Alemán de Berlín. La Z3 estaba formada por partes tales como la unidad de control, la memoria, la unidad aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos 2200 relés, 600 para la unidad numérica y 1600 para la unidad de almacenamiento. Realizaba una suma en 0.7 segundos, y una multiplicación o una división en 3 segundos. Pesaba unos 1000 kilogramos y como sus hermanas fue destruida durante un bombardeo en 1944.
  • 22. La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por numerosas instituciones hasta 1959, en la actualidad se encuentra en el museo alemán de Múnich. La Z4 tenía una unidad para producir tarjetas perforadas con instrucciones para la propia Z4, con lo que no era demasiado complicado programarla. Y así también era posible realizar copias de los programas para poder hacer correcciones. La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000 kilogramos. La entrada de datos era o a través de un teclado decimal o a través de tarjetas perforadas, y la salida era por una máquina de escribir.
  • 23. Un tiempo más adelante (1937), en los EE.UU., John Atanasoff (de la Iowa State University) y George Stibbitz (de los Bell Labs) comienzan a diseñar (cada uno por su cuenta) calculadoras digitales electromecánicas basadas en relés. La computadora de Atanasoff era muy avanzada para la época: usaba aritmética binaria, y tenía una memoria de capacitores (que precisa refrescos cada determinado tiempo para mantener sus valores, exactamente de la misma forma que lo hacen los chips actuales de memoria dinámica). Esta computadora nunca llegó a estar operativa, al igual que la de Babbage, por problemas de tecnología. La computadora de Stibbitz era más primitiva, pero llegó a estar operativa. También en el año 1937, el matemático británico Alan Turing presenta el trabajo "Acerca de números computables", presentando el concepto de su máquina teórica. Estrictamente hablando, el término computadora, que se emplea para designar a los equipos de propósito general que son capaces de realizar cálculos arbitrarios, fue acuñado por el inglés Alan Mathinson Turing con su histórico trabajo ``Computable Numbers'', publicado en 1937, en el cual desarrolla la teoría de las máquinas de Turing, establece la imposibilidad de resolver cierto tipo de problemas, entre otros, el problema de parar un proceso o completar un procedimiento.
  • 24. Las Generaciones de los Computadores A partir de ese momento, la evolución de los computadores ha sido realmente sorprendente. El objetivo inicial fue el de construir equipos más rápidos, más exactos, más pequeños y más económicos. Este desarrollo se ha clasificado por "generaciones de computadores", así: Primera generación de computadores 1950 - 1958 En esta generación nace la industria de los computadores. El trabajo del ENIAC, del EDVAC, del EDSAC y demás computadores desarrollados en la década de los 40 había sido básicamente experimental. Tubos al Vacío. Se habían utilizado con fines científicos pero era evidente que su uso podía desarrollarse en muchas áreas.
  • 25. La primera generación es la de los tubos al vacío. Eran máquinas muy grandes y pesadas con muchas limitaciones. El tubo al vacío es un elemento que presenta gran consumo de energía, poca duración y disipación de mucho calor. Era necesario resolver estos problemas. UNIVAC I fue adquirido por el Census Bureau de los Estados Unidos para realizar el censo de 1951. IBM perdió este contrato porque sus máquinas de tarjetas perforadas fueron desplazadas por el computador. Fue desde ese momento que la IBM empezó a ser una fuerza activa en la industria de los computadores. En 1953 IBM lanzó su computador IBM 650, una máquina mediana para aplicaciones comerciales. Inicialmente pensó fabricar 50, pero el éxito de la máquina los llevó a vender más de mil unidades. Para el momento en que Howard Aiken había terminado la Mark II, las computadoras basadas en relés ya eran obsoletas. El principal estímulo para desarrollar computadoras electrónicas estuvo en la segunda guerra mundial. Los submarinos alemanes, que destruían a la flota inglesa, se comunicaban por radio con sus almirantes en Berlín. Los británicos podían captar las señales de radio, pero los mensajes estaban encriptados usando un dispositivo llamado ENIGMA.
  • 26. La inteligencia británica había podido obtener una máquina ENIGMA robada a los alemanes, pero para quebrar los códigos era necesaria una gran cantidad de cálculo, que debía hacerse a alta velocidad. Para decodificar estos mensajes, el gobierno británico construyó un laboratorio para construir una computadora, llamada COLOSSUS. Alan Turing, T. Flowers y M. Newman construyeron esta computadora (1943), que fue la primer computadora electrónica de la historia. La Colossus fue una computadora programable electrónica desarrollada en el Parque Bletchley (Bletchley Park), que era la Unidad Secreta de Decodificación de Inteligencia Militar (Secret Military Intelligence Decoding Unit) de Inglaterra, por el equipo MK ULTRA Decodificadores de Códigos Secretos (Top Secret Code Breaking MK ULTRA). La Colossus fue construida con el propósito de romper el código de encripción de los mensajes de radio Nazis que habían sido codificados utilizando el Sistema de Cifrado Lorenz.
  • 27. Estaba construida de válvulas de vacío y no tenía dispositivos electromecánicos. A pesar de ello, al ser un secreto militar, su construcción no tuvo ninguna influencia posterior. En EE.UU., simultáneamente, había interés de la armada para obtener tablas que pudieran usarse para mejorar la precisión en los disparos de artillería pesada (en particular para armas antiaéreas), ya que hacerlos manualmente era tedioso y frecuentemente con errores. En 1943, John Mauchly y uno de sus alumnos, un joven ingeniero llamado John P. Eckert obtienen un subsidio de la armada para construir una computadora electrónica, que llamaron Electronic Numerical Integrator and Computer (ENIAC). John Mauchly propuso construir una computadora electrónica digital para reemplazar al analizador diferencial, dando dos ventajas principales: la velocidad de la electrónica, y la precisión del principio digital. La computadora consistía de 18000 válvulas de vacío y 1500 relés. Consumía 140 KW/h y pesaba 30 toneladas. Su hardware electrónico era 10 veces más rápidos que los del analizador diferencial y 100 veces más rápido que un calculista humano: podía hacer 5000 sumas por segundo. La computadora era programada por completo usando una técnica similar a los tableros de enchufes de las antiguas máquinas de calcular (encendiendo y apagando llaves y enchufando y desenchufando cables). Esta computadora no era binaria, sino decimal: los números se representaban en forma decimal, y la aritmética se hacía en el sistema decimal. Tenía 20 registros que podían usarse como un acumulador, cada uno de los cuales almacenaba números decimales de 10 dígitos.
  • 28. Luego que la ENIAC estuvo operativa, y se vio que tomaba tiempo considerable en preparar un programa e incorporarlo en el cableado, la máquina se modificó de tal forma que una secuencia de instrucciones pudiera leerse como una secuencia de números de dos dígitos que se ponían en una tabla de funciones. Para mantener la lógica simple, un solo registro quedó de acumulador, y los demás fueron usados como memoria. Como mencionamos, mientras la ENIAC era construida, en 1944 Mark I se puso operativa. En el mismo año, prácticamente todas las máquinas de Zuse fueron destruidas por el bombardeo de los aliados a Berlín , por ende, su trabajo no tuvo influencia en máquinas posteriores. La computadora Z4, que entró en operación en 1945, sobrevivió al bombardeo y ayudó al desarrollo de postguerra de computadoras científicas en Alemania. Contenía unos 2200 relés y trabajaba con números binarios de punto flotante normalizado con una mantisa de 22 bits. Una multiplicación tomaba entre 2.5 y 3 segundos. El programa se leía de dos lectoras de cinta perforada, y seguía teniendo memoria mecánica (para almacenar hasta 64 números). En este mismo año, John Von Neumann introduce el concepto de programa almacenado. Una de las cosas que le molestaba de las computadoras era que su programación con llaves y cables era lenta, tediosa e inflexible. Propuso que los programas se almacenaran de forma digital en la memoria de la computadora, junto con los datos. Por otro lado, se dio cuenta que la aritmética decimal usada por la ENIAC (donde cada dígito era representado por 10 válvulas de vacío - una prendida y 9 apagadas -) podía reemplazarse usando aritmética binaria. Este diseño, conocido como Arquitectura de Von Neumann, ha sido la base para casi todas las computadoras digitales.
  • 29. En 1945, Eckert y Mauchly comienzan a trabajar en un sucesor de la ENIAC, llamada EDVAC (Electronic Discrete Variable Automatic Computer). También en este año, Aiken comienza a construir la Mark II. En el mismo año, trabajando con un prototipo de la Mark II, Grace Murray Hopper encuentra el primer "bug": una polilla que provocó una falla en un relé. En 1946, la ENIAC estaba operativa, funcionando en la Universidad de Pennsylvania. A pesar que no pudo ser usada para su propósito original de cálculos de balística, la finalización de la ENIAC provocó una explosión de interés de desarrollo de computadoras electrónicas. Luego que la guerra terminó, comenzó una nueva era para la computación científica. Los recursos dedicados a la guerra fueron liberados y dedicados a la ciencia básica. En particular, el departamento de Marina y la Comisión de Energía Atómica de los EE.UU. decidieron continuar soportando el desarrollo de computadoras. Las principales aplicaciones eran la predicción numérica del tiempo, la mecánica de fluidos, la aviónica, el estudio de resistencia de los barcos a las olas, el estudio de partículas, la energía nuclear, el cálculos de reactores, el modelado de automóviles, etc. En 1947, la Mark II estuvo operativa en Harvard. En el mismo año se introduce el tambor magnético, un dispositivo de acceso aleatorio que puede usarse como almacenamiento para computadoras. En este mismo año William Shockley, John Bardeen y Walter Brattain, de los laboratorios Bell, inventaron la resistencia de transferencia (transfer resistor), comúnmente conocida como Transistor. El concepto estuvo basado en el hecho de que el flujo de electricidad a través de un sólido (como el silicio) puede controlarse agregándose impurezas con las configuraciones electrónicas adecuadas. Las válvulas de vacío requieren cables, platos de metal, una cápsula de vidrio y vacío; en cambio, el transistor es un dispositivo de estado sólido.
  • 30. En 1948, Claude Shannon presenta su "Teoría matemática de las comunicaciones". En el mismo año, entra en operación la Manchester Mark I, la primer computadora de programa almacenado. Fue diseñada por F. C. Williams y T. Kilburn en la Universidad de Manchester, y era un modelo experimental para probar una memoria basada en válvulas de vacío. En 1949, Jay Forrester construye la computadora Whirlwind en el MIT. Contenía 5000 válvulas, palabras de 16 bits, y estaba específicamente diseñada para controlar dispositivos en tiempo real. En el mismo año, la EDSAC (Electronic Delayed Storage Automatic Computer) estuvo operativa en Cambridge. Era una computadora de programa almacenado, que fue diseñada por Maurice Wilkes. Esta fue propuesta especialmente para resolver problemas reales, y pudo resolver variedad de cálculos. Su primer programa (una tabla de raíces cuadradas) ejecutó el 6 de Mayo de 1949, y siguió operando hasta 1958. La EDSAC tenía 512 palabras de 17 bits. El diseño de la EDSAC era bastante útil para el usuario. Un botón de inicio activaba un uniselector que cargaba un programa que estaba cableado a la Memoria, y este programa cargaba programas que estaban escritos en cinta de papel en la memoria, y se comenzaba a ejecutar. En esta época los cálculos se hacían bit por bit. En 1949, el laboratorio de Los Alamos, se empieza a construir la computadora MANIAC I, que se terminó en Marzo de 1952. Esta computadora tenía un tambor auxiliar de 10.000 palabras de 40 bits en paralelo, y la unidad de entrada/salida tenía una cinta de papel de 5 canales, y un drive de cinta de un solo canal. También tenía una impresora de línea.
  • 31. Se dice que en este año, John Mauchly desarrolla el lenguaje "Short Order Code", que sería el primer lenguaje de programación de alto nivel. En 1950 la EDVAC se pone operativa, pero la Remington Rand Corporation (que se transformaría mas adelante en la Unisys Corporation) compra la Eckert-Mauchly Computer Corporation. En 1951, Jay Forrester presenta, dentro del proyecto Whirlwind, una memoria no volátil: la memoria de núcleos, que sería ampliamente difundida. La primer UNIVAC I (Universal Automatic Computer) es puesta en funcionamiento en la Oficina de Censos. Esta computadora pasó a ser la número uno en el mercado comercial. En el mismo año, Grace Murray Hopper construye el primer compilador, llamado A-0. También en este año, Maurice Wilkes origina el concepto de microprogramación, una técnica que provee una aproximación ordenada para diseñar la unidad de control de una computadora. En 1952, Von Neumann, junto con Herman Goldstine, terminan de construir, en el Instituto de Estudios Avanzados de Princeton (IAS - Institute of Advanced Studies) la computadora IAS. Esta computadora también fue construida con el concepto de programa almacenado, y tenía otras características importantes.
  • 32. Por un lado, el diseño general de la máquina era el siguiente: Existen cinco componentes básicos: la memoria, la Unidad Aritmético/Lógica, la Unidad de Control de Programas, y el equipamiento de Entrada/Salida. La Unidad Aritmético-Lógica ejecuta las operaciones básicas, y contiene un registro acumulador de 40 bits (que también se usa se usa para entrada/salida). Las operaciones se hacen sobre datos binarios. La memoria almacena datos e instrucciones, y consistía de 4096 palabras de 40 bits. Cada palabra contenía dos instrucciones de 20 bits, o un entero con 39 bits y signo. Las instrucciones usaban 8 bits para el tipo de instrucciones, y 12 bits para especificar direcciones de memoria. La Unidad de control interpreta las instrucciones en memoria, y hace que se ejecuten. El equipamiento de entrada/salida era operado por la Unidad de Control. La computadora opera de la siguiente forma: 1. La Unidad de Control sigue el flujo del programa y hace que se ejecute; 2. La salida de datos se hace a través del registro acumulador; 3. Se usa aritmética binaria 4. La ALU hace las operaciones aritmético/lógicas usando lógica bit-parallel. En este año también se pone operativa la EDVAC , así como la ILLIAC I (de la Universidad de Illinois) y la ORDVAC (construida por la armada): todas usan la arquitectura de Von Neumann. La ILLIAC (una copia mejorada de la ORDVAC) tenía 1024 palabras de 40 bits. En estas máquinas una suma tardaba nos 72 microsegundos, mientras que las multiplicaciones de punto fijo tenían un promedio de unos 700 microsegundos.
  • 33. Durante todos estos desarrollos, IBM se había transformado en una pequeña compañía que producía perforadoras de tarjetas y ordenadoras mecánicas de tarjetas. IBM no se interesó en producir computadoras, hasta que en 1952 produjo la IBM 701. Esta computadora tenía 2K de palabras de 36 bits, con dos instrucciones por palabras. Fue la primera de una serie de computadoras científicas que dominaron la industria en la década siguiente. En 1955 apareció la 704, que tenía 4K de memoria y hardware de punto flotante. En 1953, la IBM 650 sale a la venta, y fue la primer computadora fabricada en serie.
  • 34. Segunda generación 1959 - 1964 En 1947 tres científicos: W. Shockley, J. Bardeen y H.W. Brattain, trabajando en los laboratorios Bell, recibieron el premio Nobel por inventar el transistor. Este invento nos lleva a la segunda generación de computadores. El transistor es mucho más pequeño que el tubo al vacío, consume menos energía y genera poco calor. Transistor La utilización del transistor en la industria de la computación conduce a grandes cambios y una notable reducción de tamaño y peso. En esta generación aumenta la capacidad de memoria, se agilizan los medios de entrada y salida, aumentan la velocidad y programación de alto nivel como el Cobol y el Fortran. Entre los principales fabricantes se encontraban IBM, Sperry - Rand, Burroughs, General Electric, Control Data y Honeywell. Se estima que en esta generación el número de computadores en los Estados Unidos pasó de 2.500 a 18.000.
  • 35. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
  • 36. La primer computadora puramente basada en transistores fue la TX-0 (Transitorized experimental computer 0), en el MIT. Esta fue un dispositivo usado para probar la TX-2. Uno de los ingenieros trabajando en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company). En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primer computadora comercial UNIVAC puramente basada en transistores.
  • 37. En 1957 la EDSAC 2 estuvo operativa. Era una computadora con 1024 palabras de 40 bits, con dos órdenes por palabras. Estaba hecha con válvulas, y la memoria usaba núcleos de ferrita. La ALU era bit- sliced. Se incluyeron operaciones de punto flotante para hacer los cálculos más simples, que usaba una fracción de 32 bits y un exponente de 8 bits. La computadora era microprogramada, con una ROM 768 palabras. La ROM permitía que diversas subrutinas útiles (seno, coseno, logaritmos, exponenciales) estuvieran siempre disponibles. La memoria fija incluía un ensamblador y un conjunto de subrutinas de impresión que permitían hacer entrada/salida. Los microprogramas permitieron que las órdenes pudieran ser diseñadas cuidadosamente, menos dependientes de accidentes del hardware. La computadora ejecutaba una instrucción simple en unos 20 microsegundos, y una multiplicación precisaba 250 microsegundos. La lectora de papel leía 1000 caracteres por segundo, y la perforadora perforaba 300 caracteres por segundo. La salida se seguía imprimiendo en una telelimpresora.
  • 38. En el mismo año, la computadora ERMETH se construyó en el ETH en Zúrich. Tenía palabras de 16 dígitos decimales, cada uno de los cuales contenía dos instrucciones y un número de punto fijo de 14 dígitos o un número de punto flotante con una mantisa de 11 dígitos. Una suma de punto flotante tomaba 4 milisegundos; una multiplicación, 18 milisegundos. Tenía un tambor magnético que podía almacenar 1000 palabras. La máquina tenía unos 1900 válvulas de vacío y unos 7000 diodos de germanio. También en 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN (formula translator). En 1958 se funda la compañía Digital, como fue mencionado principalmente. Inicialmente la DEC sólo vendía plaquetas con pequeños circuitos. En el mismo año, se producen los primeros circuitos integrados basados en semiconductores (en las compañías Fairchild y Texas Instruments), y también el proyecto Whirlwind se extiende para producir un sistema de control de tráfico aéreo. En 1959 se forma el Comité en Lenguajes de sistemas de Datos (CODASYL - Commitee On Data Systems Language) para crear el lenguaje COBOL (Common Business Oriented Language), y John Mc. Carthy desarrolla el Lisp (List Processing) para aplicaciones de inteligencia artificial.
  • 39. En 1960, DEC introduce su primer computadora: la PDP-1. Esta computadora fue diseñada tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de ciclo del procesador de aproximadamente 5 microsegundos (en comparación con la IBM 7090 que era una máquina de alta performance en la cual un ciclo procesador era de 2.5 microsegundos y su costo era de millones de dólares). Fue la primer máquina con monitor y teclado, marcando el comienzo de las minicomputadoras. En 1961, Fernando Corbató en el MIT desarrolla una forma que múltiples usuarios puedan compartir el tiempo del procesador. También se patenta el primer robot industrial. En 1962, Steve Russell del M.I.T. crea el Spacewar (el primer video juego). En 1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de la computadora. En 1964, aparece el primer modelo de la computadora IBM 360. IBM había construido una versión con transistores de la 709, llamada 7090, y posteriormente la 7094. Esta tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la computación científica en los '60s.
  • 40. IBM también vendía una computadora orientada a negocios llamada 1401. Esta podía leer cintas magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija. Tenía 4K de bytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a memoria movía datos de la fuente al destino hasta que encontraba el bit de fin de palabra prendido. El problema era la incompatibilidad de ambas computadoras: era imposible compartir el software, y de hecho era necesario tener dos centros de cómputos separados con personal especializado. La IBM System/360 fue una computadora diseñada con múltiples propósitos. Era una familia e computadoras con el mismo lenguaje de máquina, pero mayor potencia. El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único problema era que, al portar un programa de una versión poderosa a una versión anterior, el programa podía no caber en memoria).
  • 41. Todas las IBM 360 proveían soporte para multiprogramación. También existían emuladores de otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados. Tenía un espacio de direcciones de 16 megabytes. En este año se pone en operaciones la computadora CDC 6600 de la Control Data Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9 Mflops. (es decir, un orden de magnitud más que la IBM 7094), y es la primer supercomputadora comercial.
  • 42. El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutando a la vez). En este mismo año, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code). En 1965, la DEC fabrica la PDP-8, que fue la primer minicomputadora con transistores en módulos de circuitos integrados. Esta tenía un único bus (o sea, un conjunto de cables paralelos para conectar los componentes de la computadora, en lugar de las líneas multiplexadas de las computadoras de Von Neumann tradicionales).
  • 43. Tercera Generación: Circuitos Integrados (1965-1980) Como fue mencionado, a fines de los años '50, ingenieros en Fairchild Semiconductor Co. y en Texas Instrument desarrollaron el primer transistor plano, y mas adelante el primer circuito integrado plano. La invención del circuito integrado reveló el potencial para extender el costo y los beneficios de operación de los transistores a todos los circuitos producidos en masa. La invención del circuito integrado permitió que docenas de transistores se pusieran en el mismo chip. Este empaquetamiento permitió construir computadoras más pequeñas, rápidas y baratas que sus predecesores con transistores. Las primeras versiones de la IBM 360 eran transistorizadas, pero las versiones posteriores no solo eran más rápidas y poderosas, sino que fueron construidas en base a circuitos integrados. En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los fabricantes habían duplicado la densidad de los componentes por circuito integrado a intervalos regulares (un año), y que seguirían haciéndolo mientras el ojo humano pudiera ver.
  • 44. En 1967, Fairchild introduce un chip que contenía una ALU de 8 bits: el 3800. Seymour Papert diseñó el LOGO como un lenguaje de computación para niños. Inicialmente como un programa de dibujo, el LOGO controlaba las acciones de una 'tortuga' mecánica, que trazaba su rastro en un papel. IBM construyó el primer floppy disk. En 1968, Gordon Moore, Robert Noyce y Andy Grove establecen la compañía Intel, que en un principio se dedica a fabricar chips de memoria. En este mismo año, la computadora CDC 7600 logra la velocidad de 40 Mflops.. Data General Corporation, compañía creada por un grupo de ingenieros que dejaron DEC, introdujeron la computadora NOVA. Con 32 KB de memoria, era vendida a US$ 8 mil. La arquitectura simple del conjunto de instrucciones inspiraron la Apple I, de Steve Wozniak, ocho años más tarde. Robert Noyce, Andy Grove y Gordon Moore fundan Intel.
  • 45. En el año 1969, el departamento de defensa de los EE.UU. encarga la red Arpanet con el fin de hacer investigación en redes amplias, y se instalan los primeros cuatro nodos (en la UCLA, UCSB, SRI y Universidad de Utah). También se introduce el estándar RS-232C para facilitar el intercambio entre computadoras y periféricos. En 1970 aparecen los discos flexibles y las impresoras margarita. También comienza a usarse la tecnología de MOS (Metal-Oxide semiconductor) para circuitos integrados más pequeños y baratos. En 1971, Intel fabrica el microprocesador de 4 bits 4004, la primer computadora en un solo chip. Su objetivo era ser usado para una calculadora.
  • 46. Ya en 1972, Intel fabrica el 8008, primer microprocesador de 8 bits (que es reemplazado por el 8080, debido al límite de memoria de 16k impuesto por los pins en el chip). En 1973, las técnicas de integración a gran escala (LSI - Large Scale Integration) permiten poner 10.000 componentes en un chip de 1 cm. cuadrado. En el mismo año, John Metcalfe propone el protocolo Ethernet para comunicación en redes locales.
  • 47. Los investigadores de Xerox en 1974, en el centro de investigación en Palo Alto, proyectaron el ALTO, la primera estación de trabajo con una entrada interna para mouse. Intel y Zilog introdujeron nuevos microprocesadores. David Silver, del MIT, proyectó el brazo de plata, un brazo mecánico para hacer ensamble de pequeñas piezas por medio del feedback de los sensores de toque y de presión presentes en el robot. Scelbi anunció la computadora 8H, la primer computadora comercial anunciado en Estados Unidos basada en el microprocesador Intel 8008. En 1975, la primer computadora personal, la Altair 8800, aparece en la revista Popular Electronics, explicando cómo construirla.
  • 48. La computadora se vendía en forma de kit y requería trabajo y destreza para armarla. Compuesta por microprocesador Intel 8080 con 256 bytes de memoria RAM. en menos de dos meses la pequeña compañía MITS manejaba miles de pedidos . Los usuarios programaban en lenguaje binario mediante interruptores en el panel frontal. La salida se podía leer, en binario, en los LED's. No había ningún software disponible: los usuarios tenían que escribir el suyo. Por eso es considerada la primera computadora personal. También en ese año, IBM introduce la primer impresora láser.
  • 49. En el año 1976, Steve Jobs y Steve Wozniak diseñan y construyen la Apple I, que consiste principalmente de un tablero de circuitos. IBM introduce las impresoras a chorro de tinta en ese mismo año Y Cray Research introduce la Cray 1, una supercomputadora con una arquitectura vectorial.
  • 50. También Intel produce el 8085, un 8080 modificado con algunas características extra de entrada/salida. Poco más tarde, Motorola introduce el procesador 6800, que era una computadora de 8 bits comparable al 8080. Fue utilizada como controlador en equipos industriales. Fue seguido por el 6809 que tenía algunas facilidades extra, por ejemplo, aritmética de 16 bits. En 1977, Steve Jobs y Steve Wozniak fundan Apple Computer, y la Apple II es anunciada públicamente. En 1978, Intel produce el 8086, una CPU de 16 bits en un chip. Este procesador es completamente combatible con el 8080, y también lo fue el 8088, que tenía la misma arquitectura y corría los mismos programas, pero con un bus de 8 bits en lugar de uno de 16, haciéndolo más lento y barato.
  • 51. En este año DEC introduce la VAX 11/780, una computadora de 32 bits que se hizo popular para aplicaciones técnicas y científicas. En 1979, Motorola introduce el procesador 68000 que sería más adelante el soporte para las computadoras Macintosh, Atari, Amiga y otras computadoras populares. Este procesador no era compatible con el 6800 o el 6809. Es un híbrido entre arquitecturas de 16 y 32 bits, y puede direccionar 16 Mb de memoria. De aquí en más los procesadores 680x0 siguen siendo muy similares desde el punto de vista del programador, con pocas instrucciones agregadas en cada versión nueva. También en este año aparecen los videodiscos digitales
  • 52. Seagate Technology desarrolló el primer Hard Disk Drive para micro computadoras. El disco almacenó 5 megabytes de datos, cinco veces más que la mayoría de los discos comunes de la época. Desarrollado por Philips, el primer disco óptico de almacenamiento de datos tenía una capacidad de almacenamiento 60 veces mayor que un disco flexible de 5 ". John Shoch, del centro de investigación de Xerox, en Palo Alto, inventó la computadora "Worm" la cual traía un programa de alto desempeño para la búsqueda de información. Se produce la primer computadora portable: la Osborne 1. David Patterson, en la UC. Berkeley, introduce el concepto de RISC, y junto con John Hennessy, de Stanford, desarrollan el concepto.
  • 53. Cuarta generación En 1981 se lanza la computadora de arquitectura abierta IBM-PC, y un año mas tarde se produce el primer "clon" de esta computadora. El MS-DOS (Microsoft Disk Operating System) fue el software básico o sistema operativo lanzado para la PC de IBM, estableciendo una larga asociación entre IBM y Microsoft. Adam Osborne desarrolló la primer computadora portátil, el Osborne I. Apollo Computer desarrolló la primera estación de trabajo, la DN100, con capacidad superior a la de muchos mini computadoras de precios similares.
  • 54. Además el primer ordenador portátil considerado como tal fue el Epson HX-20, desarrollado en este mismo año : Anunciado en noviembre de 1981, aunque no se empezó a vender ampliamente hasta 1983. Aclamado por la revista BusinessWeek como la "cuarta revolución en computación personal", es generalmente considerado el primer computador tipo notebook portátil y es por esta razón que es muy valorado entre coleccionistas. Con las dimensiones aproximadas de una hoja tamaño A4, el Epson HX-20 cuenta con un teclado, batería de níquel cadmio recargable, una pantalla LCD de 120 × 32 píxeles integrada (más pequeña que la de cualquier aparato de telefonía móvil actual) y que permitía 4 líneas de 20 caracteres, dos microprocesadores Hitachi 6301 (configurado como Master-Slave) de 0,614 MHz, una impresora matricial del tamaño de una calculadora de bolsillo, el lenguaje de programación EPSON BASIC, memoria RAM de 16 Kb expandible a 32 Kb y un dispositivo de almacenamiento de datos en micro-casete integrado. Utiliza un sistema operativo propietario, que consiste en el intérprete de Epson Basic y un programa de monitoreo del sistema, y pesa aproximadamente 1.6 kg. Los colores más conocidos de la máquina son plateado y crema, aunque que algunos prototipos eran gris oscuro. La HX-20 venía acompañada de un maletín gris. Un acoplador acústico externo, el CX-20, estaba disponible para la HX-20, igual que un dispositivo de almacenamiento de datos para disquete externo, el TF-20, y un "Artefacto aumentador de comunicación" sintetizador de voz externo (ACD, por sus siglas en inglés), llamado "RealVoice". La vida de la batería de la HX-20 era aproximadamente de 50 horas. Y un costo de 800 dólares. La posterior y más popular línea del TRS-80 Modelo 100, diseñada por Kyocera, le debió gran parte de su diseño a la HX-20.
  • 55. Una queja común encontrada en la mayoría de los computadores HX-20 actualmente es la falla de la batería recargable interna de Ni-Cd. Puede ser fácilmente remplazada por una batería de Ni- Mh (o equivalente). No se considera que este cambio reduzca el valor de coleccionista de la computadora, ya que el hacerlo no provoca ningún daño interno. Un fácil arreglo consiste en remplazarla con cuatro pilas eléctricas tamaño AA, pero no es recomendable.
  • 56. Quinta Generación. En 1982 Mitch Kapor desarrolló el Lotus 1-2-3, software desarrollado para la computadora personal de IBM. La revista Time provocó euforia en su tradicional elección del "Hombre del Año" al seleccionar una COMPUTADORA como la "Máquina del Año". El uso de gráficos generados por computadoras para películas dio un gran paso a través de la realización de la película "Tron", lanzado por Disney. 1983; la primer computadora personal con interfaz gráfica es desarrollada por Apple. Compaq Computer Corporation introdujo su primer computadora personal (PC), que usaba el mismo software que la PC de IBM. Microsoft anunció el procesador de textos Word, llamado anteriormente Multi-Tool Word. Ademas anunció el lanzamiento del sistema operativo Windows. El MIDI (Musical Instrument Digital Interfaz) es mostrado en la primera muestra North American Music Manufactures, en Los Angeles .
  • 57. 1984 Apple Computer Corporation lanzó el Macintosh, la primer computadora con mouse e interfaz gráfica, con un valor de US$ 1,5 millones de dólares. El diskette de 3 ", o " floppy", fue ampliamente aceptado por el mercado, ayudado por la decisión de Apple Computer de integrarlo en el nuevo Macintosh. BM lanzó la PC Jr y la PC-AT. La PC Jr. fracasó, pero la PC-AT, varias veces más rápido que la PC original y basado en la plataforma Intel 80-286, se fue un éxito debido a su óptima performance y gran capacidad de almacenamiento, todos esos recursos por aproximadamente US$ 4 mil. William Gibson, en su libro Neuromancer, inventó el término Cyberspace ó Ciber espacio
  • 58. En el año de 1985 Internet avanzó otro gran paso cuando el National Science Foundation estructuró el NSFNET conectando cinco supercomputadores en las Universidades de Princeton, Pittsburgh, California, Illinois y Cornell. Con capacidad para almacenar 550Mb de informacion, los nuevos CD- ROMs expandieron el mercado de CDS de música. Aldus lanzó el programa PageMaker para el uso en computadoras Macintosh, mostrando su interés en Desktop Publishing . Dos años más tarde, Aldus desarrolló la versión para IBMs y computadoras compatibles. El lenguaje de programación C++ surgió y dominó la industria de computadoras cuando Bjarne Stroustrup publicó el libro "The C++ Programming Language."
  • 59. 1986. En este año, David Miller, de AT&T Bell Labs, patentó el transitor óptico SEED (Self- ElectroOptic-Effect Device), un componente digital para computadoras. Daniel Hillis, de la Thinking Machines Corporation, impulsó la inteligencia artificial cuando desarrolló el concepto compacto de conexión paralela. IBM y MIPS desarrollaron las primeras estaciones de trabajo PC/RT y R2000 basadas en RISC. Compaq desbancó a IBM en el mercado cuando anunció el Deskpro 386, la primer computadora en el mercado a usar el nuevo procesador Intel 386.
  • 60. Más adelante , en 1897 Motorola desarrolló el microprocesador 68030. IBM introdujo al mercado las computadoras PS/2, fabricadas con drives de 3 ". William Atkinson, ingeniero de Apple, proyectó HyperCard, un software que simplificaba el desarrollo de aplicaciones domésticas.
  • 61. El Co-fundador de Apple, Steve Jobs en 1988, dejó Apple para fundar su propia compañía, Next. Compaq y otros fabricantes de PC desarrollaron EISA (Enhanced Industry Standart Architecture), una arquitectura standard. Pixar's "Tin Toy" hizo la primera película realizada en computadoras que posteriormente ganara un premio Oscar de la Academia por mejor dibujo animado en cortometraje. Robert Morris envió un virus a través de Internet, que causó problemas a aproximadamente un 10% de los 60 mil usuarios de la red.
  • 62. En el 1989 Intel lanzó el microprocesador 80486 y el i860 chip RISC/coprocesador, cada uno contiendo más de 1 millón de transistores. Motorola anunció el microprocesador 68040, con aproximadamente 1,2 millón transistores. Maxis lanzó el SimCity, un juego de video game que utilizaba una serie de simuladores. La ciudad era usada frecuentemente en ambientes educativos. El concepto de la realidad virtual fue el tema principal en la convención de Siggraph's, realizada en Boston, Massachussets. Además en1990 Microsoft anunció el Windows 3.0, el día 22 de mayo. Compatible con DOS, la primera versión del Windows ofrecía satisfacción y performance a los usuarios de PC. La World Wide Web nació cuando Tim Berners Lee, un investigador del CERN, desarrolló el HTML (HiperText Markup Language). Y en 1991 la Power PC de la alianza IBM, Motorola, y Apple es presentado en Julio. Investigaciones de Cray revelan el Cray Y-MP C90 con 16 procesadores y una velocidad de 16 Gflops.
  • 63. 1992; DEC presenta el primer chip a implementar la arquitectura RISC Alpha 64-bit. En marzo de 1992, el primer audio multicast M- bone es transmitido por Internet. Después de generar una enorme preocupación en todos los usuarios de computadoras, el virus Michelangelo realiza un estrago de pequeñas proporciones. Apple presenta Newton, el primer PDA (personal digital assistant). El Pentium de Intel es presentado en marzo de 1993. La Universidad de Illinois desarrolla una interfaz gráfica para navegación por Internet llamada NCSA Mosaic. Leonard Adleman de la University of Southern California demuestra que el ADN puede ser un medio computacional. Jim Clark y Marc Andreesen fundan Netscape Communications (originalmente Mosaic Communications). El primer navegador (browser) de Netscape se lanza y genera un rapido crecimiento de navegantes de la Web
  • 64. Toy Story es el primer largometraje enteramente generado por computadora. Windows 95 es lanzado el 24 de agosto con una gran campaña de marketing. El lenguaje de programación Java , lanzado en mayo, permite el desarrollo de aplicaciones independientes de plataformas. "Duke" es el primer applet.
  • 65. En el 96´ es presentado el Pentium Pro de Intel. La IEEE Computer Society celebra sus 50 años. El IEEE es una asociación técnico-profesional sin fines de lucro dedicada a la estandarización, que agrupa a profesionales de la ingeniería eléctrica, electrónica, mecatrónica, computaci ón, informática y biomédica. Cuenta con más de 400.000 miembros y voluntarios en 180 países. Su misión es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Produce más del 30% de la literatura publicada en el mundo sobre los temas de su ámbito, organiza más de 1000 conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo.
  • 66. El Netscape Navigator 2.0 es lanzado en 1997. Fue el primer navegador (browser) con soporte para Javascript. Intel lanza el procesador Pentium de 150,166 & 200 MHz. Ellos tiene el equivalente a 3.3 millones de transistores. La IBM Deep Blue, fue la primer computadora en ganarle al campeón mundial de ajedrez Gary Kasparov en un juego. Luego es lanzado el procesador Pentium II 333 MHz, más rapido que el antiguo. Microsoft lanza el Windows 98.
  • 67. En el ´99 Linux es lanzado. El número de personas que usan LINUX es estimado en más de 10 millones . AMD lanza el AMD de 1GHz en el 2000. Intel lanza una cantidad limitada del Pentium III. Es decretado el fin del TELEX. Es lanzado el Linux Kernel. Se lanza al mercado de computadoras el Windows XP todo esto en el 2001.
  • 68. Mac OS X 10.2 “Jaguar” El 25 de agosto de 2002 fue lanzada esta versión y Apple prosiguió con la andadura de su sistema operativo con el lanzamiento de Mac OS X v10.2 “Jaguar” y que contaba con un nuevo incremento en su rendimiento, un nuevo y depurado look y más de 150 mejoras, entre estas estaba el mayor soporte para redes de Microsoft Windows, Quartz Extreme para que la composición de gráficos sea procesada directamente por la tarjeta de video y un filtro contra spam. Apple Address Book para almacenar la información de contactos, también agregaba el sistema de red Rendezvous; iChat que consistía en un programa de chateo con soporte de AOL Instant Messenger, y por último incluía un renovado Finder con búsquedas integradas en cada ventana. el teclado virtual: Otra idea salida de la ciencia ficción, el teclado virtual, es un artefacto desarrollado por dos compañías, pensado para las PDA y los Tablet PC. El canesta corresponde a un láser que proyecta un teclado de luz roja en un área lisa. Funciona gracias a sensores infrarrojos que con el mismo sistema que usan las cámaras digitales - mediante la reflexión de la luz- es capaz de reconocer la “presión” sobre las teclas. La gracia del Canesta es que desaparece cuando no se está usando.
  • 69. Earth Simulator — En 1997 un equipo de ingenieros imaginó una máquina que fuera capaz de simular todos los aspectos del clima de la tierra, para lo cual la compañía NEC desarrolló en 2002 el Earth Simulator, el supercomputador más rápido creado hasta ahora. Ubicado en la ciudad japonesa de Yokohama, esta máquina realiza 35,86 billones de cálculos por segundo, una velocidad más de cuatro veces y media superior a la del supercomputador que le sigue en la clasificación. La máquina, financiada por el gobierno japonés, tuvo un costo de 350 millones de dólares y ocupa el tamaño de una cancha de tenis. Desde el país asiático recoge información del clima alrededor de la tierra en tiempo real, gracias a las conexiones que mantiene con satélites geoestacionarios y boyas que navegan en mar abierto. Los buscadores, que ocuparon el centro del escenario en 2004 gracias -en parte- a que Google se reveló por fin públicamente como empresa comercial, y al ingreso de Microsoft al cada vez más competitivo campo de los buscadores, deberán ser más sofisticados, al tiempo que la llamada tecnología de "inferencia semántica" intentará llenar el vacío entre aquello que se encuentra y lo que se quiere encontrar. Dicho en pocas palabras, la tecnología de inferencia semántica ayudará a que las búsquedas sean más precisas, examinando no sólo el contenido sino también el contexto de los documentos en la web. Es ésta una explicación simple para una compleja tecnología, pero el resultado final será para el usuario un mejoramiento de las búsquedas con menor esfuerzo. Decía el clarín en su edición martes 4 de enero de 2005.
  • 70. Un pronóstico elaborado por expertos en ciencia y tecnología, medios especializados, universidades y empresas de hardware determinó cuáles serán los hits tecnológicos de nuestra generación. Grafeno Llamado "el material del futuro", este descubrimiento significó el Premio Nobel de Física 2010 para Andre Geim y Kostya Novoselov. Este material, que será utilizado para los procesadores se enrolla y se pliega, es 10 veces más rápido que el silicio y es un buen conductor, que solucionará la cuestión de llamada "conectividad total".
  • 71. Letreros interactivos Son pantallas LCD táctiles e interactivas con cristal holográfico que responden a la demanda de los consumidores por experiencias conectadas a redes en el punto de venta. La interface es sensible al tacto con video y reconocimiento del rostro. Ofrecen información sobre el producto y su aplicación. Robots enfermeras Las enfermeras del futuro son humanoides capacitados para realizar análisis de sangre, guiar a los pacientes por el hospital y asistirlos en la sala de espera, además de tomarles la presión y la fiebre. Algunos hospitales de Japón ya las implementaron, con buena recepción por parte de los pacientes, que encontraron la espera más entretenida gracias a los videos que estas enfermeras cibernéticas muestran a través de su pecho.
  • 72. Vehículos inteligentes Ya habíamos presentado al primer auto que twittea. Pero, si bien Ford tuvo la primicia en ese aspecto, ya hay varios fabricantes abocados a la creación de vehículos con Internet. Esta combinación permite al usuario, entre otras cosas, conocer el estado de las rutas y disfrutar de contenidos interactivos durante el viaje. Celulares 3D Julien Flack, director de tecnología de Dynamic Digital Depth es el autor de un software que le demandó una década de trabajo, y permite que la imagen en el celular salte de 2D a 3D, ofreciendo una experiencia mucho más real. Dicho software fue desarrollado para el Samsung W960, lanzado en Corea del Sur en Marzo de este año.
  • 73. Redes de sensores inalámbricos Son redes de nodos o computadoras en miniatura equipadas para una tarea común. Son auto configurables, de fácil instalación y capaces de concretar el proceso de emisión y recepción de datos en pocos segundos. Pueden detectar actividad sísmica, el estado del tránsito y movimientos militares. TV de LED Estas pantallas, cuyo costo se espera que descienda al ritmo de su demanda creciente, son ecologicas, generan menos calor, no utilizan materiales tóxicos ni generan residuos. Además, brindan una mejor experiencia visual, no deforman la imagen ni cambian el color.
  • 74. Computación ubicua También conocida como Ubicomp, refiere a la integración de la informática en el entorno humano o real, al punto que la computadora no sea percibida como un objeto diferenciado. Se espera que el hombre interactúe con chips informáticos para realizar sus tareas cotidianas dando órdenes sólo con la voz. Implantes cibernéticos Se trata de prótesis basadas en materiales ópticos y electrónicos capaces de almacenar datos sobre el estado de salud e historial del paciente, además de monitorear sus signos vitales.