La historia de la computadora se remonta a muchos años antes de Jesucristo, cuando los humanos comenzaron a usar objetos como los dedos, piedras y semillas para contar. A lo largo de los siglos, los humanos desarrollaron dispositivos como el ábaco para realizar cálculos numéricos con rapidez y precisión. La evolución histórica del procesamiento de datos incluye las técnicas de registro, dispositivos de cálculo, programas de tarjetas perforadas y los primeros ordenadores electrónicos analógicos y digital
procedimiento paran la planificación en los centros educativos tipo v(multig...
Presentacion informatica
1. Informática
La informática, también llamada computación en América latina,1 es una ciencia que
estudia métodos, técnicas, procesos, con el fin de almacenar, procesar y transmitir
información y datos en formato digital. La informática se ha desarrollado rápidamente a
partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito
integrado, el Internet, y el teléfono móvil. Se define como la rama de la tecnología que
estudia el tratamiento automático de la información.
En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un
documento denominado Informatik: Automatische Informationsverarbeitung (Informática:
procesamiento automático de información). El soviético Alexander Ivanovich Mikhailov fue
el primero en utilizar Informatik con el significado de «estudio, organización, y la
diseminación de la información científica», que sigue siendo su significado en dicha
lengua.[cita requerida] En inglés, la palabra informatics fue acuñada independiente y casi
simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa
denominada Informatics General, Inc.[cita requerida].
2. Orígenes
• En los inicios del proceso de información, con la informática sólo se facilitaban los
trabajos repetitivos y monótonos del área administrativa. La automatización de esos
procesos trajo como consecuencia directa una disminución de los costes y un incremento
en la productividad. En la informática convergen los fundamentos de las ciencias de la
computación, la programación y metodologías para el desarrollo de software, la
arquitectura de computadores, las redes de computadores, la inteligencia artificial y
ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a
la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a
numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo:
gestión de negocios, almacenamiento y consulta de información, monitorización y
control de procesos, industria, robótica, comunicaciones, control de transportes,
investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas
multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede
tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el
control de procesos críticos. Actualmente, es difícil concebir un área que no use, de
alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de
funciones, que van desde las más simples cuestiones domésticas hasta los cálculos
científicos más complejos.
3. ReseñaHistoriade laInformatica
• Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente
tipo para realizar sus trabajos, para hacerlos mas simples y rápidos. La
historia conocida de los artefactos que calculan o computan, se remonta a
muchos años antes de Jesucristo.
Dos principios han coexistido con la humanidad en este tema: Uno es usar
cosas para contar, ya sea los dedos, piedras, conchas, semillas. El otro es
colocar esos objetos en posiciones determinadas.
La historia de la computadora es muy interesante ya que muestra como el
hombre logra producir las primeras herramientas para registrar los
acontecimientos diarios desde el inicio de la civilización, cuando grupos
empezaron a formar naciones y el comercio era ya medio de vida.
5. HISTORIA DE LA COMPUTADORA
Por siglos los hombres han tratado de usar fuerzas y
artefactos de diferente tipo para realizar sus trabajos, para
hacerlos más simples y rápidos. La historia conocida de los
artefactos que calculan o computan, se remonta a muchos
años antes de Jesucristo.
Dos principios han coexistido con la humanidad en este
tema. Uno es usar cosas para contar, ya sea los dedos,
piedras, semillas, etc. El otro es colocar esos objetos en
posiciones determinadas. Estos principios se reunieron en el
ábaco, instrumento que sirve hasta el día de hoy, para
realizar complejos cálculos aritméticos con enorme rapidez y
precisión.
6. Los PrimerosOrdenadores
• Los ordenadores analógicos comenzaron a construirse a principios del siglo
XX. Los primeros modelos realizaban los cálculos mediante ejes y
engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones
numéricas de ecuaciones demasiado difíciles como para poder ser
resueltas mediante otros métodos. Durante las dos guerras mundiales se
utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde
eléctricos, para predecir la trayectoria de los torpedos en los submarinos y
para el manejo a distancia de las bombas en la aviación.
•
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado
para manipular la entrada de datos en términos de, por ejemplo, niveles de
tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos
7. Electrónicos
• Durante la II Guerra Mundial (1939-1945), un equipo de científicos y
matemáticos que trabajaban en Bletchley Park, al norte de Londres,
crearon lo que se consideró el primer ordenador digital totalmente
electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que
incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado
por el equipo dirigido por Alan Turing para descodificar los mensajes de
radio cifrados de los alemanes. En 1939 y con independencia de este
proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo
de máquina electrónica en el Iowa State College (EEUU). Este prototipo y
las investigaciones posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el desarrollo del Calculador e integrador numérico
electrónico (en inglés ENIAC, Electronic Numerical Integrator and
Computer) en 1945
8. Digitales
• Todo lo que hace un ordenador digital se basa en una operación: la
capacidad de determinar si un conmutador, o ‘puerta’, está abierto o
cerrado. Es decir, el ordenador puede reconocer sólo dos estados en
cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja
tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la
cual el ordenador realiza este acto tan sencillo lo que lo convierte en una
maravilla de la tecnología moderna. Las velocidades del ordenador se
miden en megahercios, o millones de ciclos por segundo. Un ordenador
con una velocidad de reloj de 100MHz, velocidad bastante representativa
de un microordenador o microcomputadora, es capaz de ejecutar 100
millones de operaciones discretas por segundo. Las microcomputadoras de
las compañías pueden ejecutar entre 150 y 200 millones de operaciones
por segundo, mientras que las supercomputadoras utilizadas en
aplicaciones de investigación y de defensa alcanzan velocidades de miles
de millones de ciclos por segundo.
9. • Por siglos los hombres han tratado de usar fuerzas y artefactos de
diferente tipo para realizar sus trabajos, para hacerlos más simples y
rápidos. La historia conocida de los artefactos que calculan o
computan, se remonta a muchos años antes de Jesucristo.
• Dos principios han coexistido con la humanidad en este tema.
Uno es usar cosas para contar, ya sea los dedos, piedras, semillas, etc.
El otro es colocar esos objetos en posiciones determinadas. Estos
principios se reunieron en el ábaco, instrumento que sirve hasta el día
de hoy, para realizar complejos cálculos aritméticos con enorme
rapidez y precisión.
HISTORIADE LA COMPUTADORA
10. Generaciones
• 1° Generación: Entre 1940 y 1952. Los ordenadores son de uso militar exclusivamente, son caros, enormes, complejos, y difíciles
de operar. Además necesitan salas completas para ellos, amén de ventilación y temperatura reguladas.
2° Generación: Entre 1952 a 1964. Aparece el transistor, que resulta ser una revolución total en la electrónica. De este modo
aparecen los primeros ordenadores comerciales, que aún son enormes y aunque no tan complejos, siguen resultando
excesivamente caros, con lo que su destino suele ser bancos o grandes multinacionales
• 3° Generación: Entre 1964 y 1971. Aparecen los circuitos integrados, que permiten abaratar muchísimo los costes. Además, los
sistemas operativos y los lenguajes de programación se vuelven más complejos y capaces. A pesar de todo siguen siendo
demasiado caros y grandes.
• 4° Generación: Entre 1971 y 1981. Aparece el microprocesador, que, a grandes , integra gran parte de los componentes de los
antiguos ordenadores en un solo chip. Esto abarata aún más los costes y reduce los tamaños. Aparecen tímidamente los primeros
ordenadores que, aunque no son personales
• 5° Generación: Desde 1981 hasta hoy. Se caracteriza por la aparición del ordenador personal (principal impulsor IBM), que,
aunque comparativamente con el precio de los ordenadores actuales eran realmente caros, las familias pudientes sí podían
permitirse comprar uno para tenerlo en casa. Desde entonces la informática se desarrolló a un ritmo vertiginoso hasta que, en
torno al año 2006
• 6º Generación: Las computadoras de esta generación cuentan con arquitecturas combinadas paralelo vectorial, con cientos de
microprocesadores vectoriales trabajando a tiempo.
•