El documento describe la evolución del concepto de información desde sus orígenes hasta la era digital moderna. Comenzó con los intentos de distinguir entre forma y sentido, y las necesidades de comunicación a distancia que llevaron al desarrollo del telégrafo y el teléfono. Más tarde, inventos como el telar de Jacquard introdujeron el código binario. Luego, trabajos como los de Boole y Shannon establecieron las bases matemáticas de la teoría de la información y el bit como unidad básica. Finalmente, Turing describió la
2. El origen.
• El origen de la noción moderna de
información puede buscarse en tres
direcciones:
• Movimiento de ideas para distinguir
entre la forma y el sentido.
• Técnicas surgidas de las necesidades del
transporte de mensajes.
• Tradición de búsqueda de las
condiciones de verdad de los
enunciados.
3. El paso de mensajes.
• La preocupación por la comunicación a
distancia es relativamente tardía a pesar
de los intentos de los seres humanos por
transmitir mensajes durante toda la
historia.
• No es hasta el siglo XVIII cuando se
organiza una red sistemática de
comunicación a distancia.
• Hasta ese momento en la cultura
occidental se utilizaba el mensajero a pie, a
caballo o en carroza.
4. El paso de mensajes.
• Uno de los inventos que mejoró el
paso de mensajes es el telégrafo.
• Su invención no puede atribuirse sólo
a una persona sino a un conjunto de
científicos, técnicos o inventores.
• Fue Samuel F.B. Morse (1791-
1872), pintor de profesión, el que
construyó un telégrafo
verdaderamente práctico y un
alfabeto para enviar los mensajes.
5. El paso de mensajes.
• El alfabeto de Morse estaba
compuesto por rayas y puntos.
• Es el llamado código Morse.
• Siete años después de su invención,
en 1844, se empezó a utilizar al
instalarse la primera línea telegráfica
experimental, de unos 64 kilómetros,
entre Washington y Baltimore.
6. El paso de mensajes
La palabra "informática" escrita en
Morse quedaría así:
.. -. ..-. --- .-. -- .- - .. -.-. .-
7. El paso de mensajes.
• Otro gran invento para el paso de
mensajes es el <<oído artificial>>,
mas conocido como teléfono.
• El físico americano de origen
inglés, Alexandre Graham Bell
(1847-1922), lo inventó en 1.875.
8. El código binario.
• El inventor del código binario fue el
filósofo inglés Francis Bacon (1561-
1626).
• La codificación se basaba en dos
operaciones:
Transformar cada letra del alfabeto en una
combinación de dos símbolos.
La otra operación hacia que un texto
correspondiera a cada símbolo, a o b, una
tipografía diferente.
9. El código binario.
• Una de las primeras veces que se
utilizó este código en una máquina
fue en el telar del ingeniero francés
Joseph Marie Jacquard (1752-1834).
• El telar automático está controlado
por tarjetas perforadas.
• Solo con cambiar la secuencia de
tarjetas se podía diseñar cualquier
dibujo.
10. El código binario.
Se pueden considerar a las tarjetas
perforadas como el primer sistema de
control programado.
11. La Teoría de la Información
• El matemático inglés George Boole
(1815-1864) creó los fundamentos de la
lógica matemática mediante el álgebra
simbólica, o también conocida como
álgebra de Boole.
• Claude Shannon (1916-2001) es
considerado el padre de la Teoría de la
información.
• Shannon estudió las leyes de
pensamiento de Boole y con ese trabajo
encontró la solución a sus problemas.
12. La Teoría de la Información
• Consideró que falso, o cero, era lo
mismo que estar apagado y
verdadero, o uno, lo mismo que estar
encendido.
• Para realizar circuitos, utilizaba las
operaciones lógicas del algebra de
Boole, AND (conjunción),OR
(disyunción) y NOT (negación).
14. La Teoría de la Información
• Otra de las contribuciones de
Shannon es el bit.
• El bit es la unidad mínima de
información empleada en la Teoría de
la Información.
• Con él, podemos representar dos
valores cuales quiera, como por
ejemplo verdadero o falso, abierto o
cerrado, etc.
15. La Teoría de la Información.
• Los elementos principales de la
teoría de la información son cuatro:
Una fuente es cualquier cosa que emita
mensajes.
El mensaje es un paquete de datos que
viaja por la red en representación binaria.
El código es el conjunto de ceros y unos
utilizado para representar un mensaje.
La información que es el conjunto de bits
que se requieren para representar el
mensaje.
16. La máquina de Turing.
• El matemático árabe Al-Khwarizmi
introdujo el concepto de algoritmo.
• Es el matemático inglés Alan Turing
(1912-1954), el que le dio la forma
que conocemos actualmente.
• Un algoritmo es el conjunto completo
de reglas que permiten la resolución
de un problema dado.
17. La máquina de Turing
• Para resolver los algoritmos, Turing
describió una máquina de tipo
conceptual.
• Su intención era precisar qué se
entiende por procedimiento
mecánico para resolver los
problemas.
18. La máquina de Turing
Estaría compuesta por:
• Una banda de papel
ilimitada.
• Un listero que tendría
la capacidad de leer,
escribir o borrar
diferentes símbolos.
Tendría una serie de reglas que se pudiesen aplicar
secuencialmente a unos datos de entrada.