jueves, 6 de diciembre de 2012

Optimización y Matrices

 La optimización, Matrices matemáticas y Toma de decisiones 



Realizador por:
Cardozo, María 
García, Ana
Silva, Jesús 


Contenido:
Matríz Jacobiana
Método Lagrange
Condiciones de Karush-Kuhn-Tucker
La Optimización y la Toma de Decisiones



Matríz Jacobiana 
Por: María Cardozo


        La matriz Jacobiana es una matriz formada por las  derivadas  parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar      función la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n-dimensional a otro espacio euclidiano m-dimensional. Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:


Esta matriz es notada por:

                                                                                                   o como
Funciones Paramétricas
En algunos casos la ecuación de una función o de una relación no está dada

En la forma 

Como en las igualdades
 sino que está determinada por un par de ecuaciones en términos de una misma variable.  Por ejemplo, consideremos  las  ecuaciones  entérminos   de una   misma  variable.

Por     ejemplo,   consideremos    las    ecuaciones:

se   tiene  que   ver   cada   valor   de t  le   corresponde  un  punto  (X,Y) del   plano, el conjunto de los cuales determinara una relación   R 

La   siguiente   tabla   de valores : 

Nos permite hacer la representación gráfica de la relación de la siguiente manera:










Método Lagrange
Por: Ana García 
       En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.
      Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.

  • Polinomios de Lagrange

Suponiendo que se conoce por lo menos
se propone:
para  
por lo tanto: 
para 
 








Condiciones de Karush-Kuhn-Tucker
por: Jesus Silva

       Estas condiciones deben ser satisfechas por la solución óptima de cualquier problema

lineal y la mayoría de los problemas no lineales. Constituyen la base para el desarrollo de muchos algoritmos computacionales y proporcionan un criterio de parada para muchos otros, permitiendo establecer cuando ha sido alcanzado un óptimo local restringido. En los problemas diferenciables de optimización no restringida la condición necesaria para que una solución sea un mínimo local es que se anule el gradiente. Por el contrario, esta propiedad no es cierta para problemas diferenciables restringidos. Las condiciones de Karush–Kuhn–Tucker generalizan la condición necesaria desarrollada para problemas no restringidos a los problemas con restricciones ecuaciones

       En programación matemática, las condiciones de Karush-Kuhn-Tucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son condiciones necesarias y suficientes para que la solución de un problema de programación matemática séa óptima. Es una generalización del método de los Multiplicadores de Lagrange.

Problema General de optimizacion
Consideremos el siguiente problema general:
 \text{min }\; f(x)
 \text{sujeto a }\
\ g_i(x) \le 0\ \ i = 1,\ldots,m
\ h_j(x) = 0\ \ j = 1,\ldots,l

donde f(x) es la función objetivo a minimizar, g_{i}(x) son las restricciones de desigualdad y h_{j}(x) son las restricciones de igualdad, con m y l el número de restricciones de desigualdad e igualdad, respectivamente.
Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por primera vez en la Tesis doctoral de W. Karush, aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker.


La Optimizacion y la Toma de Decisiones
Por: María Cardozo
         Una de las características del ser humano es su capacidad para tomar decisiones, lo que incluye, básicamente, su capacidad para analizar las alternativas y evaluarlas en términos de su comportamiento respecto de los objetivos que desea conseguir. Es una actividad tan cotidiana que prácticamente no le prestamos atención. En muchos casos hemos ‘automatizado’ ese proceso de toma de decisiones como fruto de la experiencia. Sin embargo, cuando el problema al que nos enfrentamos es muy complejo, hay muchas alternativas posibles, y son graves sus consecuencias, por lo que resulta difícil realizar este proceso de análisis y evaluación.




          Los problemas que surgen en las grandes organizaciones, tanto en el sector privado como en el público, son tan complejos que no pueden resolverse usando exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones sobre la manera ‘óptima’ de usar los recursos disponibles, generalmente escasos, para lograr unos ciertos objetivos. 






Toma de decisiones desde el puntos de vista empresarial





Toma de Decisiones y el Estimulo




No hay comentarios:

Publicar un comentario