2. El microprocesador (o simplemente procesador) es el circuito integrado central y
más complejo de un sistema informático; a modo de ilustración, se le suele llamar
por analogía el «cerebro» de un computador. Es un circuito integrado conformado
por millones de componentes electrónicos. Constituye la unidad central de
procesamiento (CPU) de un PC catalogado como microcomputador
Es el encargado de ejecutar los programas, desde el sistema operativo hasta
las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje
de bajo nivel, realizando operaciones aritméticas lógicas simples, tales
como sumar, reatar, multiplicar , dividirlas lógica binarias accesos a memoria.
Por eso es importante recordar que un microcontrolador se puede configurar de
diferentes maneras, siempre y cuando se respete el tamaño de memoria que este
requiera para su correcto funcionamiento.
3. Un microcontrolador (abreviado μC, UC o MCU) es un circuito
integrado programable, capaz de ejecutar las órdenes grabadas en su memoria.
Está compuesto de varios bloques funcionales, los cuales cumplen una tarea
específica. Un microcontrolador incluye en su interior las tres principales unidades
funcionales de una computadora: procesamiento, memoria y periféricos
de entrada y salida
4. Los DSP son microprocesadores diseñados para procesamiento digital de señales (manipulación
matemática de señales representadas digitalmente). El procesamiento digital de señales es una tecnología
cuyas aplicaciones están creciendo rápidamente, como en el caso de comunicaciones sin hilo,
procesamiento de audio y vídeo y control industrial. A la vez que aumenta la popularidad de las
aplicaciones DSP la variedad de procesadores DSP ha aumentado espectacularmente desde la
introducción de los primeros chips comerciales a principios de los ochenta.
Los procesadores de hoy son dispositivos sofisticados con características impresionantes. En este
documento tratamos explicar las características comunes de los DSPs comerciales en la actualidad,
analizando algunas de las diferencias principales entre ellos, centrándonos en las características que el
diseñador del sistema debe examinar para encontrar el procesador que más se ajusta a su aplicación.
A lo largo de la última década, la aparición y posterior desarrollo de los dispositivos especializados en el
procesado digital de señales o DSPs ha supuesto la apertura de una nueva vía de evolución hacia niveles
superiores en el tratamiento de datos.
En este corto espacio de tiempo, debido a su bajo costo y gran rendimiento, los DSPs han reemplazado
casi por completo a la tecnología analógica tradicional en campos como telecomunicaciones, procesado
de audio y vídeo y control industrial. Según un estudio de mercado de la empresa Forward Conceps, la
estimación de venta de estos dispositivos solo en Estados Unidos para el presente año es de $2.5
billones. Se ha generalizado el diseño de soluciones en este campo por parte de empresas de primer nivel,
desarrolladores independientes y universidades.
Por todo lo anterior, al corto tiempo de vida de esta tecnología y a la escasa literatura disponible, ya que su
avance se ha realizado en gran medida en el campo profesional, nuestro estudio se ha centrado en
recopilar, analizar e interpretar todos los datos disponibles sobre esta tecnología a la que sus prestaciones
y posibilidad de desarrollo convierten en un elemento indispensable de los sistemas del futuro.
5. DIFERENCIAS:
La configuración mínima básica de un Microprocesador esta constituida por un Micro de 40
Pines, Una memoria RAM de 28 Pines, una memoria ROM de 28 Pines y un decodificador de direcciones de
18 Pines;
Microcontrolador incluye todo estos elementos del Microprocesador en un solo Circuito Integrado por lo que
implica una gran ventaja en varios factores: En el circuito impreso por su amplia simplificación de circuitería.
El costo para un sistema basado en Microcontrolador es mucho menor, mientras que para del
Microprocesador, es muy alto en la actualidad.
Los Microprocesadores tradicionales se basan en la arquitectura de Von Newmann, mientras que los
microcontroladores trabajan con arquitectura de harvard.
El tiempo de desarrollo de su proyecto electrónico es menor para los Microcontroladores.
Se puede observar en las gráficas # 2 y 6, que la principal diferencia entre ambos radica en la ubicación
del registro de trabajo, que para los PIC’s se denomina W (Working Register), y para los tradicionales es el
Acumulador (A).
En los microcontroladores tradicionales todas las operaciones se realizan sobre el acumulador. La salida
del acumulador esta conectada a una de las entradas de la Unidad Aritmética y Logica (ALU), y por lo tanto
este es siempre uno de los dos operandos de cualquier instrucción, las instrucciones de simple operando
(borrar, incrementar, decrementar, complementar), actúan sobre el acumulador.
En los microcontroladores PIC, la salida de la ALU va al registro W y también a la memoria de datos, por lo
tanto el resultado puede guardarse en cualquiera de los dos destinos.
La gran ventaja de esta arquitectura(Microcontroladores ) es que permite un gran ahorrode instrucciones ya
que el resultado de cualquier instrucción que opere con la memoria, ya sea de simple o doble
operando, puede dejarse en la misma posición de memoria o en el registro W, según se seleccione con un
bit de la misma instrucción . Las operaciones con constantes provenientes de la memoria de programa
(literales) se realizan solo sobre el registro W.
6. Originalmente, el término Arquitectura Harvard hacía referencia a las arquitecturas de computadoras que utilizaban
dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la Arquitectura
de von Neumann). El término proviene de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas
perforadas y los datos en interruptores.
Todas las computadoras constan principalmente de dos partes, la CPU que procesa los datos, y la memoria que guarda los
datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran
almacenados (odirección). Los dos son importantes para la CPU, pues muchas instrucciones frecuentes se traducen a algo así
como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que
contienen los datos.
En los últimos años la velocidad de las CPUs ha aumentado mucho en comparación a la de las memorias con las que trabaja,
así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si,
por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la
velocidad de la CPU (este problema es conocido como limitación de memoria).
Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto. La solución, por tanto, es proporcionar una
pequeña cantidad de memoria muy rápida conocida con el nombre de memoria caché. Mientras los datos que necesita el
procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la
memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.
La arquitectura Harvard ofrece una solución particular a este problema. Las instrucciones y los datos se almacenan en cachés
separadas para mejorar el rendimiento. Por otro lado, tiene el inconveniente de tener que dividir la cantidad de caché entre los
dos, por lo que funciona mejor sólo cuando la frecuencia de lectura de instrucciones y de datos es aproximadamente la misma.
Esta arquitectura suele utilizarse en DSPs, o procesador de señal digital, usados habitualmente en productos para
procesamiento de audio y video.
7. La arquitectura de von Neumann es una familia de arquitectura que utilizan el mismo dispositivo de
almacenamiento tanto para las instrucciones como para los datos (a diferencia de la arquitectura Harvard).
La mayoría de computadoras modernas están basadas en esta arquitectura, aunque pueden incluir otros
dispositivos adicionales (por ejemplo, para gestionar las interrupciones de dispositivos externos como
ratón, teclado, etc.). El nacimiento u origen de la arquitectura Von Neumann surge a raíz de una
colaboración en el proyecto ENIAC del matemático de origen húngaro, John Von Neumann. Éste trabajaba
en 1945 en el Laboratorio Nacional Los Álamos cuando se encontró con uno de los constructores de la
ENIAC. Compañero de Albert Einstein, Kurt Gödel y Alan Turing en Princeton, Von Neumann se interesó
por el problema de la necesidad de reconfigurar la máquina para cada nueva tarea. Los ordenadores con
esta arquitectura constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control,
la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de
los datos entre las distintas partes.
8. VON NEUMANN
HARVARD
• Enciende el ordenador y obtiene la siguiente
instrucción desde la memoria en la
dirección indicada por el contador de programa y
la guarda en el registro de instrucción.
• Aumenta el contador de programa en la longitud
de la instrucción para apuntar a la siguiente.
• Decodifica la instrucción mediante la unidad de
control. Ésta se encarga de coordinar el resto de
componentes del ordenador para realizar una
función determinada.
• Se ejecuta la instrucción. Ésta puede cambiar el
valor del contador del programa, permitiendo así
operaciones repetitivas. El contador puede
cambiar también cuando se cumpla una cierta
condición aritmética, haciendo que el ordenador
pueda 'tomar decisiones', que pueden alcanzar
cualquier grado de complejidad, mediante la
aritmética y lógica anteriores.
• Ofrece una solución particular a este
problema. Las instrucciones y los
datos se almacenan en cachés
separadas para mejorar el
rendimiento. Por otro lado, tiene el
inconveniente de tener que dividir la
cantidad de caché entre los dos, por
lo que funciona mejor sólo cuando la
frecuencia de lectura de
instrucciones y de datos es
aproximadamente la misma. Esta
arquitectura suele utilizarse en
DSPs, o procesador de señal digital,
usados habitualmente en productos
para procesamiento de audio y
video.
9. En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español
Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente
utilizado en microprocesadores o micro controladores con las siguientes características fundamentales:
RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones
pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente
utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones
más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC
para uso interno antes de su ejecución.
Filosofía de diseño antes de RISC
Uno de los principios básicos de diseño para todos los procesadores es añadir velocidad al proveerles
alguna memoria muy rápida para almacenar información temporalmente, estas memorias son conocidas
como registros. Por ejemplo, cada CPU incluye una orden para sumar dos números. La operación básica
de un CPU sería cargar esos dos números en los registros, sumarlos y almacenar el resultado en otro
registro, finalmente, tomar el resultado del último registro y devolverlo a la memoria principal.
10. •
•
•
•
En arquitectura computacional, CISC (del inglés Complex Instruction Set Computer, en
español Computador con Conjunto de Instrucciones Complejas) es un modelo de
arquitectura de computadores. Los microprocesadores CISC tienen un conjunto de
instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas
entre operandos situados en la memoria o en los registros internos, en contraposición a
la arquitectura RISC.
Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que, en la
actualidad, la mayoría de los sistemas CISC de alto rendimiento implementan un
sistema que convierte dichas instrucciones complejas en varias instrucciones simples
del tipo RISC, llamadas generalmente microinstrucciones.
Los CISC pertenecen a la primera corriente de construcción de procesadores, antes
del desarrollo de los RISC. Ejemplos de ellos son: Motorola 68000, Z ilog Z80 y toda
la familia Intelx86, AMD x86-64 usada en la mayoría de las computadoras
personales actuales.
Hay que hacer notar, sin embargo que la utilización del término CISC comenzó tras la
aparición de los procesadores RISC como nomenclatura despectiva por parte de los
defensores/creadores de éstos últimos. Véase Retr ónimo
11. ARQUITECTURA RISC
ARQUITECTURA CISC
• El primer sistema que pudiera ser
considerado en nuestros días como RISC
no lo era así en aquellos días; era
la supercomputadora CDC 6600,
diseñada en 1964 por Seymour Cray.
• La investigación de Berkeley no fue
comercializada directamente, pero el
diseño RISC-II fue utilizado por Sun
Microsystems para desarrollar el SPARC,
por Pyramid Technology para desarrollar
sus máquinas de multiprocesador de
rango medio, y por casi todas las
compañías unos años más
• Los CISC pertenecen a la primera corriente de
construcción de procesadores, antes del desarrollo
de los RISC. Ejemplos de ellos son: Motorola
68000, Zilog Z80 y toda la
familia Intelx86, AMD x86-64 usada en la mayoría
de las computadoras personales actuales.
• Este tipo de arquitectura dificulta el paralelismo
entre instrucciones, por lo que, en la actualidad, la
mayoría de los sistemas CISC de alto rendimiento
implementan un sistema que convierte dichas
instrucciones complejas en varias instrucciones
simples del tipo RISC, llamadas
generalmente microinstrucciones.