La optimización, Matrices matemáticas y Toma de decisiones
Realizador por:
Cardozo, María
García, Ana
Silva, Jesús
Contenido:
Matríz Jacobiana
Método Lagrange
Condiciones de Karush-Kuhn-Tucker
La Optimización y la Toma de Decisiones
Matríz Jacobiana
Por: María Cardozo
La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar función la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F: Rn → Rm es una función que va del espacio euclidiano n-dimensional a otro espacio euclidiano m-dimensional. Esta función está determinada por m funciones reales: y1(x1,..., xn),..., ym(x1,..., xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:
Esta matriz es notada por:
![]() |
o como |
Funciones Paramétricas
En algunos casos la ecuación de una función o de una relación no está dada
En la forma
Como en las igualdades

Por ejemplo, consideremos las ecuaciones:
se tiene que ver cada valor de t le corresponde un punto (X,Y) del plano, el conjunto de los cuales determinara una relación R
La siguiente tabla de valores :
Nos permite hacer la representación gráfica de la relación de la siguiente manera:
Método Lagrange
Por: Ana García
En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.
Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
- Polinomios de Lagrange
Suponiendo que se conoce por lo menos
se propone:
Condiciones de Karush-Kuhn-Tucker
por: Jesus Silva
Estas condiciones deben ser satisfechas por la solución óptima de cualquier
problema
lineal y la mayoría de los problemas no lineales.
Constituyen la base para el desarrollo de muchos algoritmos computacionales y
proporcionan un criterio de parada
para muchos otros, permitiendo establecer cuando ha sido alcanzado un óptimo
local restringido. En los problemas diferenciables de optimización no
restringida la condición necesaria para que una solución sea un mínimo local es
que se anule el gradiente. Por el contrario, esta propiedad no es cierta
para problemas diferenciables restringidos. Las condiciones de
Karush–Kuhn–Tucker generalizan la condición necesaria desarrollada para problemas no restringidos a los problemas con
restricciones ecuaciones.
En programación matemática, las condiciones de Karush-Kuhn-Tucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son condiciones necesarias y suficientes para que la solución de un problema de programación matemática séa óptima. Es una generalización del método de los Multiplicadores de Lagrange.
Problema General de optimizacion
Consideremos el siguiente problema general:
-
-
-
,
-
,
-
donde
es la función objetivo a minimizar,
son las restricciones de desigualdad y
son las restricciones de igualdad, con
y
el número de restricciones de desigualdad e igualdad, respectivamente.





Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por primera vez en la Tesis doctoral de W. Karush, aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker.
La Optimizacion y la Toma de Decisiones
Por: María Cardozo
Una de las características del ser humano es su capacidad para tomar decisiones, lo que incluye, básicamente, su capacidad para analizar las alternativas y evaluarlas en términos de su comportamiento respecto de los objetivos que desea conseguir. Es una actividad tan cotidiana que prácticamente no le prestamos atención. En muchos casos hemos ‘automatizado’ ese proceso de toma de decisiones como fruto de la experiencia. Sin embargo, cuando el problema al que nos enfrentamos es muy complejo, hay muchas alternativas posibles, y son graves sus consecuencias, por lo que resulta difícil realizar este proceso de análisis y evaluación.
Los problemas que surgen en las grandes organizaciones, tanto en el sector privado como en el público, son tan complejos que no pueden resolverse usando exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones sobre la manera ‘óptima’ de usar los recursos disponibles, generalmente escasos, para lograr unos ciertos objetivos.
Toma de decisiones desde el puntos de vista empresarial
Toma de Decisiones y el Estimulo