2. COMPUTACION PARALELA
La computación Paralela, es muy
importante actualmente, al permitir
mejorar la velocidad en la solución
de grandes problemas, de modo
que se mejora el rendimiento de
computo.
3. La computación paralela es una forma de
cómputo en la que muchas instrucciones se
ejecutan simultáneamente, operando sobre el
principio de que problemas grandes, a menudo
se pueden dividir en unos más pequeños, que
luego son resueltos simultáneamente en
paralelo.
4. PARALELISMO
El paralelismo se ha empleado durante
muchos años, sobre todo en la
computación de altas prestaciones,
pero el interés en ella ha crecido
últimamente debido a las limitaciones
físicas que impiden el aumento de la
frecuencia. Como el consumo de
energía y por consiguiente la
generación de calor
5. TIPOS DE PARALELISMO
Paralelismo a nivel de BIT
Paralelismo a nivel de Instrucción
Paralelismo de datos
Paralelismo de tareas
6. PARALELISMO A NIVEL DE BIT
Es cuando se aumenta el tamaño de
la palabra en la computadora esto
reduce el número de instrucciones
que el procesador debe ejecutar
para realizar una operación en
variables cuyos tamaños son
mayores que la longitud de la
palabra.
7. PARALELISMO A NIVEL DE
INSTRUCCION
Es cuando un grupo de instrucciones
que compone un programa son
ejecutadas paralelamente sin cambiar el
resultado final del programa.
8. PARALELISMO DE DATOS
Es cuando se distribuyen los datos a
través de diferentes nodos de
computo para que los procesen en
paralelo y las tareas que realizan son
comunes y el resultado es uno solo.
9. PARALELISMO DE TAREAS
El paralelismo de tareas es la
característica de un programa
paralelo en la que «cálculos
completamente diferentes se
pueden realizar en cualquier
conjunto igual o diferente de
datos».
10. MEMORIA Y COMUNICACION
La memoria principal en un
ordenador en paralelo puede
ser compartida—compartida
entre todos los elementos de
procesamiento en un
único espacio de direcciones, o
distribuida
11. La comunicación procesador-procesador y
procesador-memoria se puede implementar en
hardware de varias maneras:
a través de memoria compartida —ya sea
multipuerto o multiplexado
un conmutador de barras cruzadas (crossbar
switch)
un bus compartido o una red interconectada de
una gran variedad
de topologías como estrella, anillo,
árbol, hipercubo, hipercubo grueso —un
hipercubo con más de un procesador en un nodo.
13. COMPUTACION MULTINUCLEO
Un procesador multinúcleo es un
procesador que incluye
múltiples unidades de ejecución (núcleos)
en el mismo chip. Los procesadores
superescalares pueden ejecutar múltiples
instrucciones por ciclo de un flujo de
instrucciones (hilo).
14. MULTIPROCESAMIENTO
SIMETRICO
Un multiprocesador simétrico (SMP)
es un sistema computacional con
múltiples procesadores idénticos que
comparten memoria y se conectan a
través de un bus.
15. COMPUTADORAS PARALELAS
ESPECIALIZADAS
Dentro de la computación paralela,
existen dispositivos paralelos
especializados que generan interés.
Aunque no son específicos para un
dominio, tienden a ser aplicables sólo
a unas pocas clases de problemas
paralelos.
16. El cómputo reconfigurable: es el uso de un arreglo de
compuertas programables
El cómputo de propósito general en las unidades de
procesamiento de gráficos (GPGPU) es una tendencia
relativamente reciente en la investigación de ingeniería
informática.
Se han diseñado varios circuitos integrados de
aplicación específica (ASIC) para hacer frente a las
aplicaciones paralelas. Debido a que un ASIC (por
definición) es específico para una aplicación dada,
puede ser completamente optimizado para esa
aplicación.
Un procesador vectorial es un CPU o un sistema
computacional que puede ejecutar la misma
instrucción en grandes conjuntos de datos.
17. LENGUAJE DE PROGRAMACION
EN PARALELO
Han sido creados para la programación de
computadores paralelos. Estos
generalmente se pueden dividir en clases
basadas en las suposiciones que se hacen
sobre la arquitectura de memoria
subyacente: compartida, distribuida, o
compartida-distribuida.