1. OPTIMIZACIÓN DE SISTEMAS Y FUNCIONES
Republica Bolivariana De Venezuela
Instituto Universitario Politécnico
“Santiago Mariño” Extensión Maracay
PROFESORA: YSABEL FLORES AUTOR: PABLO ROSALES
SECCION:“SL” C.I = 20.245.891
MARACAY, 26 DE NOVIEMBRE DE 2016
2. CONCEPTOS BASICOS-DEFINICION
Empezaremos con Qué es Optimización:
Se conoce como Optimización que es la acción y efecto de
optimizar. Este verbo hace referencia a buscar la mejor manera de
realizar una actividad. El término se utiliza mucho en el ámbito de
la informática. En general, la optimización es empleada para que una
tarea se realice más rápidamente. Pero este no siempre es el motivo;
por ejemplo, en determinados casos lo más importante es que se
consuma menos memoria, por lo tanto, se deben crear programas más
lentos, pero que estén optimizados con respecto al consumo de la
memoria. La optimización se hace siempre con respecto a uno o
más recursos como ser: tiempo de ejecución, uso de memoria, espacio
en disco, ancho de banda , consumo de energía, etc. Muchas veces la
optimización de un recurso se hace a expensas de otros recursos.
3. Optimización de Sistemas:
La optimización de software o de sistemas lo que busca es
adaptar los programas informáticos para que realicen sus tareas de la
forma más eficiente posible. Virtualmente, existen infinitas maneras
de desarrollar una misma aplicación, y uno de los factores más
influyentes a la hora de crear el diseño es la arquitectura de hardware
con la cual se desea trabajar. En pocas palabras, conseguir el mejor
rendimiento en una plataforma enfocada en el tipo y la cantidad
memoria es muy diferente a hacerlo en una cuyo fuerte es la velocidad
de los procesadores. la optimización intenta aportar respuestas a un
tipo general de problemas que consiste en seleccionar el mejor entre
un conjunto de elementos.
A nivel general, la optimización puede realizarse en diversos
ámbitos, pero siempre con el mismo objetivo: mejorar el
funcionamiento de algo o el desarrollo de un proyecto a través de
una gestión perfeccionada de los recursos. La optimización puede
realizarse en distintos niveles, aunque lo recomendable es concretarla
hacia el final de un proceso.
4. FORMAS DE LA FUNCION OBJETIVO
Se identifica por la infinidad de soluciones factibles pero con
ningún punto de soluciones posibles, es decir no se soluciona el punto
optimo ya que siempre habrá una solución aun mejor de la encontrada
que es llamada exactamente una función optima. Este es el campo de
la optimización dedicado a maximizar o minimizar una función
lineal, denominada función objetivo, de tal forma que las variables de
dicha función estén sujetas a una serie de restricciones expresadas
mediante un sistema de inecuaciones también lineales. Los métodos
más recurridos para resolver problemas de programación lineal
son algoritmos de pivote, en particular los algoritmos simplex.
5. Métodos de Optimización:
MÉTODO DE MULTIPLICADORES DE LAGRANGE:
En los problemas de optimización, el método de los
multiplicadores de Lagrange, llamado así en honor a Joseph Louis
Lagrange, es un procedimiento para encontrar los máximos y mínimos
de funciones de múltiples variables sujetas a restricciones. Este
método reduce el problema restringido con n variables a uno sin
restricciones de n + k variables, donde k es igual al número de
restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente.
Estas nuevas variables escalares desconocidas, una para cada
restricción, son llamadas multiplicadores de Lagrange.
El método dice que los puntos donde la función tiene un extremo
condicionado con k restricciones, están entre los puntos estacionarios
de una nueva función sin restricciones construida como una
combinación lineal de la función y las funciones implicadas en las
restricciones, cuyos coeficientes son los multiplicadores. La
demostración usa derivadas parciales y la regla de la cadena para
funciones de varias variables. Se trata de extraer una función implícita
de las restricciones, y encontrar las condiciones para que las derivadas
parciales con respecto a las variables independientes de la función
sean iguales a cero.
6. Métodos de Optimización:
CONDICIONES DE KARUSH-KUHN-TUCKER:
Albert William Tucker Albert William Tucker (28 de noviembre
de 1905 – 25 de enero de 1995) fue un matemático estadounidense
nacido en Canadá que realizó importantes contribuciones a la
Topología, Teoría de juegos y a la Programación no lineal. En
programación matemática, las condiciones de Karush-Kuhn-Tucker
(también conocidas como las condiciones KKT o Kuhn-Tucker) son
condiciones necesarias y suficientes para que la solución de un
problema de programación matemática sea óptima. Es una
generalización del método de los Multiplicadores de Lagrange. La
importancia de este teorema radica en que nos muestra que podemos
asociar una función de utilidad a unas preferencias, esto nos abre la
puerta de la potente herramienta del análisis matemático para el
estudio del comportamiento.
7. Métodos de Optimización:
Métodos iterativos:
usados para resolver problemas de programación no
lineal difieren según lo que evalúen: Hessianas, gradientes, o
solamente valores de función. Mientras que evaluando Hessianas (H)
y gradientes (G) mejora la velocidad de convergencia, tales
evaluaciones aumentan la complejidad computacional(o costo
computacional) de cada iteración. En algunos casos, la complejidad
computacional puede ser excesivamente alta.
Un importante criterio para los optimizadores es justo el número
de evaluaciones de funciones requerido, como este con frecuencia es
de por sí un gran esfuerzo computacional, usualmente mucho más
esfuerzo que el del optimizador en sí, ya que en su mayoría tiene que
operar sobre N variables. Las derivadas proveen información detallada
para los optimizadores, pero son aún más costosas de calcular, por
ejemplo aproximando el gradiente toma al menos N+1 evaluaciones
de funciones.
8. Formulación de un problema:
Para formular un problema de Optimización, seguir los siguientes
lineamientos generales después de leer con atención el enunciado del problema
varias veces .Todo programa consta de cuatro partes: un conjunto de variables
de decisión, los parámetros, la función objetivo y un conjunto de restricciones.
Preguntas importantes a la hora de analizar un problema de optimización:
¿Cuáles son las variables de decisión? Es decir, ¿cuáles con las entradas
controlables? Defina las variables de decisión con precisión utilizando nombres
descriptivos. Cuáles son los parámetros? Vale decir ¿cuáles son las entradas no
controlables? Por lo general, son los valores numéricos constantes dados.
Defina los parámetros con precisión utilizando nombres descriptivos. ¿Cuál es
el objetivo? ¿Cuál es la función objetivo? Es decir, ¿qué quiere el dueño del
problema? ¿De qué manera se relaciona el objetivo con las variables de
decisión del dueño del problema? ¿Es un problema de maximización o
minimización? El objetivo debe representar la meta del decisor. ¿Cuáles son las
restricciones? Es decir, ¿qué requerimientos se deben cumplir? ¿Debería utilizar
un tipo de restricción de desigualdad o igualdad? ¿Cuáles son las conexiones
entre las variables? Escríbalas con palabras antes de volcarlas en forma
matemática.
Recuerde que la región factible tiene poco o nada que ver con la función
objetivo (minim. o maxim.). Estas dos partes en cualquier formulación de PL
generalmente provienen de dos fuentes distintas. La función objetivo se
establece para cumplir con el deseo (objetivo) del decisor mientras que las
restricciones que forman la región factible generalmente provienen del entorno
del decisor que fija algunas limitaciones / condiciones para lograr su objetivo.
9. Procedimiento general para resolver un
problema de optimización:
Los problemas de optimización son aquellos que se ocupan de
elegir la decisión óptima de un problema, es decir, encontrar cual es el
máximo o mínimo de un determinado criterio (una función) sujeto a unas
condiciones que nos da el problema, seguiremos una serie de pasos:
1) En primer lugar, establecemos cuál o cuáles son las incógnitas que nos
plantea el problema.
2º. A continuación tenemos que buscar y plantear qué es lo que tenemos
que maximizar o minimizar: f(x,y).
3) Después buscamos la condición que se nos plantea. En la mayoría de
los problemas que nos encontremos, la función a maximizar o minimizar
dependerá de dos variables, por tanto la condición nos permitirá
relacionar estas dos variables para poner una en función de la otra.
4) Una vez, que hemos despejado una variable en función de la otra,
supongamos y en función de x. Sustituimos en nuestra función a
optimizar, quedándose ahora en función de una sola variable: f(x)
10. Procedimiento general para resolver un
problema de optimización:
5) Derivamos la función y la igualamos a cero: f´(x)=0.
6) Una vez obtenidas las soluciones nos falta el último paso, comprobar si
realmente se trata de un máximo o un mínimo, para ello, realizamos la
segunda derivada de tal forma que:
– si f´´(x)0, entonces se trata de un mínimo.
7) El último paso, una vez que ya tenemos x, sería irnos al paso 3, donde
habíamos despejado y, y hallar el valor de y, y damos la solución.
11. Problema de Optimización:
Un taller tiene tres (3) tipos de máquinas A, B y C; puede fabricar
dos (2) productos 1 y 2, todos los productos tienen que ir a cada máquina
y cada uno va en el mismo orden:
Primero a la máquina A, luego a la B y luego a la C. La tabla
siguiente muestra:
1. Las horas requeridas en cada máquina, por unidad de producto
2. Las horas totales disponibles para cada máquina, por semana
3. La ganancia por unidad vendida de cada producto
Tipo de Máquina = A, B, C
Producto 1 = 2, 1, 4
Producto 2 = 2, 2, 2
Horas disponibles por semana = 16, 12, 28
Ganancias por Unidades = 1, 1,50.
12. Problema de Optimización:
¿Que cantidad de cada producto (1 y 2) se debe manufacturar cada semana,
para obtener la máxima ganancia? ¿Cuantas horas semanales sobran en cada
departamento?
Formulación
1) Definición de las variables:
Xj = Unidades semanales a producir del articulo j-ésimo ( j=1 y 2) 2)
2) Función objetivo:
Maximizar Z = X1 + 1.5 X2 Con las siguientes restricciones (S.A:):
3) Restricciones:
2X1 + 2X2 ≤ 16 Restricción debida a las horas disponibles por semana de la MQ
A X1 + 2X2 ≤ 12 Restricción debida a las horas disponibles por semana de la
MQ
B 4X1 + 2X2 ≤ 28 Restricción debida a las horas disponibles por semana de la
MQ C
4) Condición de no negatividad:
Xj =0 ; j = 1 y 2
13. Problema de Optimización:
5) Solución óptima
x1= 4
x2=4
Z=10
Tiempo sobrante de cada máquina:
Máquina A= Se usan todas las horas semanales disponibles
Máquina B= Se usan todas las horas semanales disponibles
Máquina C= Sobran 4 horas semanales