{"id":918,"date":"2026-04-04T18:56:51","date_gmt":"2026-04-05T00:56:51","guid":{"rendered":"https:\/\/victortercero.com\/?p=918"},"modified":"2026-04-05T23:49:19","modified_gmt":"2026-04-06T05:49:19","slug":"analisis-de-componentes-principales-fundamento-del-control-multivariado","status":"publish","type":"post","link":"https:\/\/victortercero.com\/index.php\/2026\/04\/04\/analisis-de-componentes-principales-fundamento-del-control-multivariado\/","title":{"rendered":"An\u00e1lisis de Componentes Principales: Fundamento del Control Multivariado"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">\u00bfQu\u00e9 es el An\u00e1lisis de Componentes Principales?<\/h2>\n\n\n\n<p>El <strong>An\u00e1lisis de Componentes Principales<\/strong> (ACP) es la llave maestra de la estad\u00edstica multivariada y, por consiguiente, del control multivariado. Encierra un conjunto de procedimientos que nos ayudan a entender la variabilidad conjunta de nuestros datos, y es la base de muchas otras metodolog\u00edas aplicadas al mundo multivariado.<\/p>\n\n\n\n<p>Entender el ACP es entender la variabilidad multivariada, base para el control, y dominar estos conceptos te abre las puertas para entrar a un mundo que parec\u00eda complejo, pero que en realidad no ten\u00eda que serlo.<\/p>\n\n\n\n<p>Entender ACP te permite, de forma directa, acceder a<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>dise\u00f1ar sistemas de control multivariado,<\/li>\n\n\n\n<li>medir la multicolinealidad,<\/li>\n\n\n\n<li>reducir dimensiones,<\/li>\n\n\n\n<li>identificar variables latentes,<\/li>\n\n\n\n<li>potenciar la clasificaci\u00f3n y la regresi\u00f3n de componentes principales,<\/li>\n\n\n\n<li>e identificar puntos at\u00edpicos,<\/li>\n\n\n\n<li>entre otras cosas.<\/li>\n<\/ul>\n\n\n\n<p>\u00bfTodav\u00eda no est\u00e1s convencido? Aqu\u00ed te va m\u00e1s, entender ACP facilita, de forma indirecta, el entendimiento de los \u00abprimos\u00bb metodol\u00f3gicos como:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>regresi\u00f3n y clasificaci\u00f3n por m\u00ednimos cuadrados parciales,<\/li>\n\n\n\n<li>an\u00e1lisis discriminante  lineal,<\/li>\n\n\n\n<li>an\u00e1lisis de factores<\/li>\n<\/ul>\n\n\n\n<p>Todos estos m\u00e9todos trabajan con un mismo ADN matem\u00e1tico: proyectan nuestros datos en nuevos ejes que simplifican la estructura de los mismos. Si hay una metodolog\u00eda en la que vale la pena profundizar, esa es el ACP. Haciendo una analog\u00eda, esto es como aprender tu primer lenguaje de programaci\u00f3n, una vez entiendes la l\u00f3gica de uno, entiendes a los dem\u00e1s, pues en el fondo sabes que comparten el mismo ADN.<\/p>\n\n\n\n<p>Por supuesto, no lo voy a negar, puedes saltarte el entendimiento del ACP y pasar directo a la aplicaci\u00f3n. Pero esto ser\u00eda usar recetas para hacer estad\u00edstica sin entender primero qu\u00e9 significa la variabilidad. S\u00ed, puedes hacerlo, de forma mec\u00e1nica, siguiendo recetas de cocina creadas por alguien m\u00e1s, pero las aplicar\u00edas sin tener ese entendimiento y habilidad fina que s\u00f3lo el conocimiento de la causa te da. Creo que eres mejor que eso.<\/p>\n\n\n\n<p>En este art\u00edculo ahondaremos en los conceptos que est\u00e1n detr\u00e1s del ACP, le daremos un sentido geom\u00e9trico intuitivo al proceso, y paso a paso iremos recorriendo la terminolog\u00eda, definiciones, y herramientas matem\u00e1ticas y computacionales para detonar su potencial. En este art\u00edculo nos centraremos en el caso de s\u00f3lo dos variables, pues es m\u00e1s intuitivo y lo podemos graficar. Sin embargo, a trav\u00e9s del uso del \u00e1lgebra encontraremos que la generalizaci\u00f3n a m\u00e1s variables es directa y transparente.<\/p>\n\n\n\n<p>Prep\u00e1rate para abrir los ojos en un viaje del que no te arrepentir\u00e1s.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">El Concepto<\/h3>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">El ACP es el an\u00e1lisis de la variabilidad conjunta de los datos por medio de la identificaci\u00f3n de las principales direcciones de variaci\u00f3n alrededor de su centro de masa.<\/mark><\/p>\n\n\n\n<p>Los datos tienen variaci\u00f3n, y la direcci\u00f3n en que oscilan, o var\u00edan, es a lo que llamamos en este contexto un <strong>componente<\/strong>. De todas las direcciones en que pueden variar los datos, hay unas direcciones que destacan por su magnitud y relaci\u00f3n.<\/p>\n\n\n\n<p>Estas direcciones de variaci\u00f3n que m\u00e1s destacan entre nuestros datos, bajo algunos criterios que formalizaremos, las llamamos <strong>componentes principales<\/strong>, un nombre corto para indicar los vectores, o direcciones, principales de la variaci\u00f3n conjunta. La palabra variaci\u00f3n viene impl\u00edcita y usualmente no se agrega al nombre de la metodolog\u00eda.<\/p>\n\n\n\n<p>En el ejemplo de la Figura 1 se pueden apreciar estos vectores de variaci\u00f3n atravesando la nube de datos. Estos componentes, como se aprecia en la figura con dos variables, son perpendiculares entre s\u00ed. Esto no es coincidencia, es algo que viene dado por dise\u00f1o de los componentes. Cuando tenemos m\u00e1s de dos variables, tenemos m\u00e1s de dos direcciones de variaci\u00f3n principal, y esta propiedad de mutua perpendicularidad se mantiene, s\u00f3lo que con m\u00e1s de dos variables la propiedad de perpendicularidad pasa a ser llamada ortogonalidad.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-1.png\" alt=\"\" class=\"wp-image-921\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-1.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-1-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 1. Con el an\u00e1lisis de componentes principales se identifican vectores, llamados componentes principales, que pueden interpretarse como componentes de variaci\u00f3n, ya que capturan la mayor variabilidad de las observaciones. Estos componentes no est\u00e1n correlacionados entre s\u00ed y son ortogonales, es decir, mutuamente perpendiculares.<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">La Rotaci\u00f3n del Espacio<\/h3>\n\n\n\n<p>Una vez hemos identificado los componentes principales de nuestros datos, podemos hacer uso de ellos como si fueran un nuevo sistema de coordenadas donde <strong>proyectar <\/strong>nuestras observaciones. Esta proyecci\u00f3n, como se ilustra en la Figura 2, es una <strong>transformaci\u00f3n<\/strong> que mueve las observaciones hacia un nuevo sistema de coordenadas definido por los componentes principales. Esto crea una especie de <strong>rotaci\u00f3n <\/strong>del sistema de coordenadas original hacia un nuevo sistema donde:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>las nuevas variables no est\u00e1n correlacionadas,<\/li>\n\n\n\n<li>la primera direcci\u00f3n captura la m\u00e1xima variabilidad,<\/li>\n\n\n\n<li>las direcciones subsecuentes (en caso de haber m\u00e1s de dos) capturan la variabilidad restante bajo ortogonalidad.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-2.png\" alt=\"\" class=\"wp-image-928\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-2.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-2-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 2. Con el ACP podemos proyectar las observaciones originales en los componentes principales, PC1 y PC2 en este ejemplo, de tal forma que creamos una rotaci\u00f3n  donde las observaciones rotadas no est\u00e1n linealmente correlacionadas.<\/figcaption><\/figure>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<h3 class=\"wp-block-heading\">Tambi\u00e9n funciona para m\u00e1s de dos variables<\/h3>\n\n\n\n<p>En los ejemplos de las figuras 1 y 2 se han mantenido dos variables para facilitar la comprensi\u00f3n del concepto en su m\u00ednima expresi\u00f3n.<\/p>\n\n\n\n<p>Con m\u00e1s de dos variables la visualizaci\u00f3n se complica, y con m\u00e1s de tres dimensiones hablamos del hiperespacio.<\/p>\n\n\n\n<p>Los conceptos ilustrados se entienden mejor con dos variables, y se mantienen con cualquier n\u00famero de variables. As\u00ed que no te preocupes, veremos que las ecuaciones que utilizaremos son directamente generalizables a m\u00e1s de dos dimensiones.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El Proceso de An\u00e1lisis de Componentes Principales<\/h2>\n\n\n\n<p>Los elementos m\u00e1s importantes del ACP los podemos resumir en cinco pasos:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Centrar datos<\/li>\n\n\n\n<li>Calcular la matriz de varianza-covarianza<\/li>\n\n\n\n<li>Obtener los componentes principales<\/li>\n\n\n\n<li>Proyectar<\/li>\n\n\n\n<li>Usar los componentes para algo pr\u00e1ctico<\/li>\n<\/ol>\n\n\n\n<p>Ilustraremos cada uno de estos pasos siguiendo un caso de estudio de la industria alimenticia donde hay s\u00f3lo dos variables involucradas. A lo largo de las explicaciones ir\u00e9 introduciendo conceptos  de \u00e1lgebra matricial que nos ayudar\u00e1n a generalizar nuestras observaciones y resultados.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Caso de Estudio: Calidad de Granos de Ma\u00edz<\/h3>\n\n\n\n<p>Consideremos dos variables medidas en muestras de ma\u00edz:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math>: Contenido de humedad (%)<\/li>\n\n\n\n<li><math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math>: Contenido de prote\u00edna (%)<\/li>\n<\/ul>\n\n\n\n<p>Ambas variables son comunes en control de calidad de alimentos y est\u00e1n correlacionadas entre s\u00ed.<\/p>\n\n\n\n<p>Una muestra de estos datos se observa en la Tabla 1. Esta tabla, sin los encabezados, forma una matriz de datos de  dimensiones <math data-latex=\"20\\times2\"><semantics><mrow><mn>20<\/mn><mo>\u00d7<\/mo><mn>2<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">20\\times2<\/annotation><\/semantics><\/math>. Llamaremos a esta matriz de datos <math data-latex=\"\\bold{X}\"><semantics><mi>\ud835\udc17<\/mi><annotation encoding=\"application\/x-tex\">\\bold{X}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><th class=\"has-text-align-center\" data-align=\"center\"><math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math><\/th><th class=\"has-text-align-center\" data-align=\"center\"><math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math><\/th><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">10.2<\/td><td class=\"has-text-align-center\" data-align=\"center\">5.6<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">13.1<\/td><td class=\"has-text-align-center\" data-align=\"center\">9.5<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">14.1<\/td><td class=\"has-text-align-center\" data-align=\"center\">11.9<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">8.1<\/td><td class=\"has-text-align-center\" data-align=\"center\">2.5<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">13.6<\/td><td class=\"has-text-align-center\" data-align=\"center\">9.8<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">14.8<\/td><td class=\"has-text-align-center\" data-align=\"center\">9.5<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">10.4<\/td><td class=\"has-text-align-center\" data-align=\"center\">7.7<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">12.7<\/td><td class=\"has-text-align-center\" data-align=\"center\">6.7<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">11.2<\/td><td class=\"has-text-align-center\" data-align=\"center\">7.3<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">12.1<\/td><td class=\"has-text-align-center\" data-align=\"center\">5.8<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">9.7<\/td><td class=\"has-text-align-center\" data-align=\"center\">8.4<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">11.3<\/td><td class=\"has-text-align-center\" data-align=\"center\">5.8<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">12.0<\/td><td class=\"has-text-align-center\" data-align=\"center\">6.2<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">12.8<\/td><td class=\"has-text-align-center\" data-align=\"center\">8.8<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">15.7<\/td><td class=\"has-text-align-center\" data-align=\"center\">10.7<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">13.6<\/td><td class=\"has-text-align-center\" data-align=\"center\">7.9<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">14.5<\/td><td class=\"has-text-align-center\" data-align=\"center\">6.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">12.7<\/td><td class=\"has-text-align-center\" data-align=\"center\">5.4<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">11.3<\/td><td class=\"has-text-align-center\" data-align=\"center\">6.4<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">16.0<\/td><td class=\"has-text-align-center\" data-align=\"center\">15.7<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\">Tabla 1. Matriz de datos  <math data-latex=\"\\bold{X}\"><semantics><mi>\ud835\udc17<\/mi><annotation encoding=\"application\/x-tex\">\\bold{X}<\/annotation><\/semantics><\/math> obtenida de mediciones de calidad del ma\u00edz. Los encabezados no forman parte de la matriz, pero los usamos para identificar r\u00e1pidamente las columnas que corresponden a cada variable. <\/figcaption><\/figure>\n\n\n\n<p>Estas variables son muy conocidas en el proceso que estamos utilizando como ejemplo. Adem\u00e1s de esta muestra reciente de datos mostrada en la Tabla 1, se conoce por estudios hist\u00f3ricos que la humedad promedio corresponde a 12%, y la prote\u00edna promedio a 9%. Adem\u00e1s, los estudios de capacidad del proceso han demostrado que la desviaci\u00f3n est\u00e1ndar de la humedad es de 2 y de la prote\u00edna es 3, con una correlaci\u00f3n entre las variables de 0.5. Se puede decir que estos son los <strong>par\u00e1metros conocidos<\/strong> de este estudio de calidad de granos de ma\u00edz.<\/p>\n\n\n\n<p>Analizamos con mayor profundidad estos par\u00e1metros conocidos. Matricialmente estas propiedades estad\u00edsticas las podemos expresar con un <strong>vector de medias<\/strong><\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\boldsymbol{\\mu} = \\begin{bmatrix} 12 \\\\ 9 \\end{bmatrix}\"><semantics><mrow><mi>\ud835\udf41<\/mi><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center\"><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>12<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>9<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\mu} = \\begin{bmatrix} 12 \\\\ 9 \\end{bmatrix}<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p>y una <strong>matriz de varianza-covarianza<\/strong> de<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\boldsymbol{\\Sigma} = \\begin{bmatrix} 4 &amp; 3 \\\\ 3 &amp; 9 \\end{bmatrix}\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>4<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>3<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;\"><mn>3<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>9<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} = \\begin{bmatrix} 4 &amp; 3 \\\\ 3 &amp; 9 \\end{bmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Para entender <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>, la llamada matriz de varianza-covarianza, o simplemente matriz de covarianzas, necesitamos entender c\u00f3mo est\u00e1 construida. El primer elemento de la diagonal, corresponde a la varianza de <math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math>, esto es <math data-latex=\"\\sigma^2_1=3^2=9\"><semantics><mrow><msubsup><mi>\u03c3<\/mi><mn>1<\/mn><mn>2<\/mn><\/msubsup><mo>=<\/mo><msup><mn>3<\/mn><mn>2<\/mn><\/msup><mo>=<\/mo><mn>9<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\sigma^2_1=3^2=9<\/annotation><\/semantics><\/math>. El segundo elemento de la diagonal corresponde a la varianza de <math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math>, esto es <math data-latex=\"\\sigma^2_2=3^2=9\"><semantics><mrow><msubsup><mi>\u03c3<\/mi><mn>2<\/mn><mn>2<\/mn><\/msubsup><mo>=<\/mo><msup><mn>3<\/mn><mn>2<\/mn><\/msup><mo>=<\/mo><mn>9<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\sigma^2_2=3^2=9<\/annotation><\/semantics><\/math>. Los dem\u00e1s elementos son las covarianzas, o variaci\u00f3n conjunta, de <math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math> con <math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math> y <math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math> con <math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math>, correspondientemente llamadas <math data-latex=\"\\sigma_{12}\"><semantics><msub><mi>\u03c3<\/mi><mn>12<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\sigma_{12}<\/annotation><\/semantics><\/math> y <math data-latex=\"\\sigma_{21}\"><semantics><msub><mi>\u03c3<\/mi><mn>21<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\sigma_{21}<\/annotation><\/semantics><\/math> , sin el exponente cuadrado. Por propiedades de las covarianzas <math data-latex=\"\\sigma_{12} = \\sigma_{21}\"><semantics><mrow><msub><mi>\u03c3<\/mi><mn>12<\/mn><\/msub><mo>=<\/mo><msub><mi>\u03c3<\/mi><mn>21<\/mn><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\sigma_{12} = \\sigma_{21}<\/annotation><\/semantics><\/math> . El valor de la covarianza lo podemos obtener de la f\u00f3rmula de la correlaci\u00f3n <math data-latex=\"\\rho_{12}=\\rho_{21}=\\sigma_{12}\/(\\sigma_1\\sigma_2)\"><semantics><mrow><msub><mi>\u03c1<\/mi><mn>12<\/mn><\/msub><mo>=<\/mo><msub><mi>\u03c1<\/mi><mn>21<\/mn><\/msub><mo>=<\/mo><msub><mi>\u03c3<\/mi><mn>12<\/mn><\/msub><mi>\/<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>\u03c3<\/mi><mn>1<\/mn><\/msub><msub><mi>\u03c3<\/mi><mn>2<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">\\rho_{12}=\\rho_{21}=\\sigma_{12}\/(\\sigma_1\\sigma_2)<\/annotation><\/semantics><\/math>. Puesto que la correlaci\u00f3n <math data-latex=\"\\rho_{12}\"><semantics><msub><mi>\u03c1<\/mi><mn>12<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\rho_{12}<\/annotation><\/semantics><\/math> es 0.5, la covarianza es la \u00fanica desconocida. Resolvemos para <math data-latex=\"\\sigma_{12}\"><semantics><msub><mi>\u03c3<\/mi><mn>12<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\sigma_{12}<\/annotation><\/semantics><\/math> y encontramos que su valor es 3, y este valor lo colamos en la matriz <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>. Recordemos que la correlaci\u00f3n de A con B es igual que la correlaci\u00f3n de B con A, por eso el n\u00famero 3 aparece dos veces en la matriz.<\/p>\n\n\n\n<p>Si no conocemos previamente el vector de medias y la matriz de varianza-covarianza, estos los podemos estimar a partir de nuestros datos. Pero como en este caso ya los conocemos, utilizaremos los valores conocidos. De esta manera quedar\u00e1 evidencia que <strong>el an\u00e1lisis de componentes principales depende del valor que definamos para <math data-latex=\"\\mathbf{\\mu}\"><semantics><mi>\ud835\udecd<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{\\mu}<\/annotation><\/semantics><\/math> y <math data-latex=\"\\mathbf{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{\\Sigma}<\/annotation><\/semantics><\/math>,<\/strong> cuyos valores pueden <strong>estimarse<\/strong> o provenir de valor <strong>hist\u00f3rico conocido<\/strong>.<\/p>\n\n\n\n<p>En la Figura 3 se puede apreciar la relaci\u00f3n de las observaciones con las que estaremos trabajando. Los lotes con mayor humedad tienden a tener mayor contenido de prote\u00edna, hay una ligera dependencia entre ambas mediciones. Adem\u00e1s, la variabilidad en prote\u00edna es mayor que en humedad (<strong>observa bien las escalas en los ejes<\/strong> y no te dejes enga\u00f1ar por la gr\u00e1fica que parece estar estirada en el eje de la humedad).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-3.png\" alt=\"\" class=\"wp-image-933\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-3.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-3-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 3. Dispersi\u00f3n del porcentaje de humedad (<math data-latex=\"X_1\"><semantics><msub><mi>X<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_1<\/annotation><\/semantics><\/math>) y porcentaje de prote\u00edna (<math data-latex=\"X_2\"><semantics><msub><mi>X<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">X_2<\/annotation><\/semantics><\/math>).<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Paso 1: Centrar Datos<\/h3>\n\n\n\n<p>Aqu\u00ed hay que organizar los datos en una matriz con <math data-latex=\"n\"><semantics><mi>n<\/mi><annotation encoding=\"application\/x-tex\">n<\/annotation><\/semantics><\/math> observaciones y <math data-latex=\"p\"><semantics><mi>p<\/mi><annotation encoding=\"application\/x-tex\">p<\/annotation><\/semantics><\/math> variables. Esto ya lo tenemos hecho en la Tabla 1 y hemos estado llamando matriz <math data-latex=\"\\bold{X}\"><semantics><mi>\ud835\udc17<\/mi><annotation encoding=\"application\/x-tex\">\\bold{X}<\/annotation><\/semantics><\/math>, donde hay <math data-latex=\"n=20\"><semantics><mrow><mi>n<\/mi><mo>=<\/mo><mn>20<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">n=20<\/annotation><\/semantics><\/math> observaciones de n\u00fameros reales <math data-latex=\"\\mathbb{R}\"><semantics><mi>\u211d<\/mi><annotation encoding=\"application\/x-tex\">\\mathbb{R}<\/annotation><\/semantics><\/math> y <math data-latex=\"p=2\"><semantics><mrow><mi>p<\/mi><mo>=<\/mo><mn>2<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">p=2<\/annotation><\/semantics><\/math> dimensiones. Esto es, <math data-latex=\"\\mathbf{X} \\in \\mathbb{R}^{n \\times p}\"><semantics><mrow><mi>\ud835\udc17<\/mi><mo>\u2208<\/mo><msup><mi>\u211d<\/mi><mrow><mi>n<\/mi><mo>\u00d7<\/mo><mi>p<\/mi><\/mrow><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{X} \\in \\mathbb{R}^{n \\times p}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Centramos las observaciones de las variables restando su media a cada  elemento de cada columna. Matricialmente esto se expresa de la siguiente manera:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><mo>=<\/mo><mi>\ud835\udc17<\/mi><mo>\u2212<\/mo><mn>\ud835\udfcf<\/mn><msup><mi>\ud835\udf41<\/mi><mi>\u22a4<\/mi><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{X}_c = \\mathbf{X} &#8211; \\mathbf{1}\\boldsymbol{\\mu}^\\top<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Aqu\u00ed el t\u00e9rmino <math data-latex=\"\\mathbf{1}\\boldsymbol{\\mu}^\\top\"><semantics><mrow><mn>\ud835\udfcf<\/mn><msup><mi>\ud835\udf41<\/mi><mi>\u22a4<\/mi><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{1}\\boldsymbol{\\mu}^\\top<\/annotation><\/semantics><\/math> es el producto de una matriz <math data-latex=\"20\\times1\"><semantics><mrow><mn>20<\/mn><mo>\u00d7<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">20\\times1<\/annotation><\/semantics><\/math> cuyo <strong>valor de todos sus 20 elementos es el n\u00famero 1<\/strong>. Esta matriz de unos multiplica por la izquierda al vector de medias traspuesto. Recuerda que en \u00e1lgebra matricial el orden de los factores s\u00ed importa. Esto hace que a cada elemento de la matriz <math data-latex=\"\\bold{X}\"><semantics><mi>\ud835\udc17<\/mi><annotation encoding=\"application\/x-tex\">\\bold{X}<\/annotation><\/semantics><\/math> se le reste su media correspondiente. La matriz resultante es la matriz de observaciones centradas <math data-latex=\"\\mathbf{X}_c\"><semantics><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{X}_c<\/annotation><\/semantics><\/math>. Si no conocemos <math data-latex=\"\\boldsymbol{\\mu}\"><semantics><mi>\ud835\udf41<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\mu}<\/annotation><\/semantics><\/math> la podemos estimar. En este caso la estimaci\u00f3n del vector de medias de la Tabla 1 hubiera sido<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\hat{\\boldsymbol{\\mu}} =\\begin{bmatrix} \\bar{X_1}  \\\\ \\bar{X_2} \\end{bmatrix} = \\begin{bmatrix} 12.5  \\\\ 7.9 \\end{bmatrix}\"><semantics><mrow><mover><mi>\ud835\udf41<\/mi><mo stretchy=\"false\" style=\"math-style:normal;math-depth:0;\">^<\/mo><\/mover><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center\"><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mover><msub><mi>X<\/mi><mn>1<\/mn><\/msub><mo stretchy=\"false\" style=\"math-style:normal;math-depth:0;\">\u203e<\/mo><\/mover><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mover><msub><mi>X<\/mi><mn>2<\/mn><\/msub><mo stretchy=\"false\" style=\"math-style:normal;math-depth:0;\">\u203e<\/mo><\/mover><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center\"><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>12.5<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>7.9<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\hat{\\boldsymbol{\\mu}} =\\begin{bmatrix} \\bar{X_1}  \\\\ \\bar{X_2} \\end{bmatrix} = \\begin{bmatrix} 12.5  \\\\ 7.9 \\end{bmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Usando la media conocida, en la Figura 4 observamos el resultado de centrar nuestras observaciones. Parece que los datos no han cambiado, pero observa el valor de los ejes.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-5.png\" alt=\"\" class=\"wp-image-938\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-5.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-5-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 4. Datos centrados de humedad vs prote\u00edna, un paso central para en an\u00e1lisis de componentes principales, donde la variabilidad alrededor del centro de la nube es el objeto de inter\u00e9s.<\/figcaption><\/figure>\n\n\n\n<p>El trabajo que hacemos con el an\u00e1lisis de componentes principales siempre es con las variables centradas, pues lo que nos interesa estudiar es la variabilidad alrededor del centro de masa de nuestro conjunto de observaciones.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Paso 2: Calcular la matriz de varianza-covarianza<\/h3>\n\n\n\n<p>Si no conocemos la matriz varianza-covarianza, esta la podemos estimar de los datos utilizando la siguiente ecuaci\u00f3n matricial<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mover><mi>\ud835\udeba<\/mi><mo stretchy=\"false\" style=\"math-style:normal;math-depth:0;\">^<\/mo><\/mover><mo>=<\/mo><mfrac><mn>1<\/mn><mrow><mi>n<\/mi><mo>\u2212<\/mo><mn>1<\/mn><\/mrow><\/mfrac><msubsup><mi>\ud835\udc17<\/mi><mi>c<\/mi><mi>\u22a4<\/mi><\/msubsup><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\hat{\\boldsymbol{\\Sigma}} = \\frac{1}{n-1}\\mathbf{X}_c^\\top \\mathbf{X}_c.<\/annotation><\/semantics><\/math><\/div>\n<\/div>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<p>Esto es simplemente el <strong>producto de la matriz de datos centrados <math data-latex=\"\\mathbf{X}_c\"><semantics><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{X}_c<\/annotation><\/semantics><\/math> transpuesta por la misma matriz de datos centrados sin transponer<\/strong>. Esto genera una matriz <math data-latex=\"p \\times p\"><semantics><mrow><mi>p<\/mi><mo>\u00d7<\/mo><mi>p<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">p \\times p<\/annotation><\/semantics><\/math> donde cada elemento se divide entre los grados de libertad <math data-latex=\"n-1\"><semantics><mrow><mi>n<\/mi><mo>\u2212<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">n-1<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>La matriz de varianza-covarianza hist\u00f3rica conocida de nuestro ejemplo es<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\boldsymbol{\\Sigma} = \\begin{bmatrix} 4 &amp; 3 \\\\ 3 &amp; 9 \\end{bmatrix}\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>4<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>3<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;\"><mn>3<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>9<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} = \\begin{bmatrix} 4 &amp; 3 \\\\ 3 &amp; 9 \\end{bmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n<\/div>\n\n\n\n<p>En caso de no conocerla, pudi\u00e9ramos usar los valores estimados de la Tabla 1<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\hat{\\boldsymbol{\\Sigma}} = \\begin{bmatrix} 4.4 &amp; 3.6 \\\\ 3.6 &amp; 9.5 \\end{bmatrix}\"><semantics><mrow><mover><mi>\ud835\udeba<\/mi><mo stretchy=\"false\" style=\"math-style:normal;math-depth:0;\">^<\/mo><\/mover><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>4.4<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>3.6<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;\"><mn>3.6<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>9.5<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\hat{\\boldsymbol{\\Sigma}} = \\begin{bmatrix} 4.4 &amp; 3.6 \\\\ 3.6 &amp; 9.5 \\end{bmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Evidentemente existe un error al utilizar estimaciones en lugar de los par\u00e1metros reales. Sin embargo, a medida que nuestra muestra crece, este error disminuye, pudiendo llegar a no distinguirse el valor estimado del verdadero par\u00e1metro. Esta propiedad de los datos es la famosa <strong>ley de los grandes n\u00fameros<\/strong>.<\/p>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<h3 class=\"wp-block-heading\">Paso 3: Obtener los componentes principales<\/h3>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">Los componentes principales, o vectores de variaci\u00f3n principales de nuestras observaciones los podemos obtener a partir de los <strong>vectores propios<\/strong>, o <strong>eigenvectores <\/strong>de la matriz <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>.<\/mark><\/p>\n\n\n\n<p>Cuando multiplicamos una matriz por un vector, digamos <math data-latex=\"\\boldsymbol{\\Sigma} \\bold{v_1}\"><semantics><mrow><mi>\ud835\udeba<\/mi><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} \\bold{v_1}<\/annotation><\/semantics><\/math>, lo que resulta es un nuevo vector <math data-latex=\"\\bold{v}_2\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\bold{v}_2<\/annotation><\/semantics><\/math>. As\u00ed, si un vector lo definimos como una direcci\u00f3n desde el origen hacia las coordenadas que el vector representa, entonces la multiplicaci\u00f3n <math data-latex=\"\\boldsymbol{\\Sigma} \\bold{v_1}\"><semantics><mrow><mi>\ud835\udeba<\/mi><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} \\bold{v_1}<\/annotation><\/semantics><\/math> representa un cambio de direcci\u00f3n de <math data-latex=\"\\bold{v_1}\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\bold{v_1}<\/annotation><\/semantics><\/math> a <math data-latex=\"\\bold{v_2}\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfd0<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\bold{v_2}<\/annotation><\/semantics><\/math>, y <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math> es la transformaci\u00f3n que genera ese cambio.<\/p>\n\n\n\n<p><strong>Hay vectores que no cambian de direcci\u00f3n, o mejor dicho orientaci\u00f3n, cuando son transformados por una matriz<\/strong>. Si acaso, cambian de sentido (lugar hacia donde apuntan), o de escala (que tan largos son), pero su inclinaci\u00f3n (direcci\u00f3n u orientaci\u00f3n), se mantiene. A estos vectores los llamamos <strong>vectores propios<\/strong>, y se definen como<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\boldsymbol{\\Sigma} \\bold{v} = \\lambda\\bold{v}\"><semantics><mrow><mi>\ud835\udeba<\/mi><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mi>\u03bb<\/mi><mi>\ud835\udc2f<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} \\bold{v} = \\lambda\\bold{v}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Esto es, un eigenvector es un vector <math data-latex=\"\\bold{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\bold{v}<\/annotation><\/semantics><\/math> asociado a una matriz <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math> con una propiedad particular, se trata de un vector especial que no cambia de orientaci\u00f3n, aunque s\u00ed puede cambiar de magnitud y sentido. <strong>Este cambio de magnitud y sentido est\u00e1n definidos por el valor de <math data-latex=\"\\lambda\"><semantics><mi>\u03bb<\/mi><annotation encoding=\"application\/x-tex\">\\lambda<\/annotation><\/semantics><\/math> y el signo de <math data-latex=\"\\lambda\"><semantics><mi>\u03bb<\/mi><annotation encoding=\"application\/x-tex\">\\lambda<\/annotation><\/semantics><\/math>. El valor <math data-latex=\"\\lambda\"><semantics><mi>\u03bb<\/mi><annotation encoding=\"application\/x-tex\">\\lambda<\/annotation><\/semantics><\/math> es conocido como eigenvalor, o valor propio, y su valor est\u00e1 asociado al vector <math data-latex=\"\\bold{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\bold{v}<\/annotation><\/semantics><\/math><\/strong>.<\/p>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">Los eigenvectores de una matriz representan direcciones invariantes de la transformaci\u00f3n lineal asociada, en las cuales la acci\u00f3n de la matriz se reduce a un escalamiento. Los eigenvalores indican el factor de escala en cada una de estas direcciones.<\/mark><\/p>\n<\/div>\n\n\n\n<p>El c\u00e1lculo pr\u00e1ctico de los vectores y valores propios en dimensiones moderadas o grandes se realiza mediante algoritmos num\u00e9ricos implementados en software especializado, como R, Python o Minitab.<\/p>\n\n\n\n<p>En la pr\u00e1ctica, puedes calcularlos a mano en casos de matrices&nbsp;<math xmlns=\"http:\/\/www.w3.org\/1998\/Math\/MathML\"><mn>2<\/mn><mo>\u00d7<\/mo><mn>2<\/mn><\/math>, y a veces&nbsp;<math xmlns=\"http:\/\/www.w3.org\/1998\/Math\/MathML\"><mn>3<\/mn><mo>\u00d7<\/mo><mn>3<\/mn><\/math>, pero para dimensiones mayores no es viable hacerlo manualmente.<\/p>\n\n\n\n<p>Algunas opciones pr\u00e1cticas para calcularlos son:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Usando la funci\u00f3n de <kbd>R<\/kbd>&nbsp;<code>eigen()<\/code>&nbsp;o directamente en <kbd>PCA<\/kbd> de <kbd>R<\/kbd> con&nbsp;<kbd>prcomp()<\/kbd>.<\/li>\n\n\n\n<li>Usando Python&nbsp;<kbd>import numpy as np<\/kbd>&nbsp;y&nbsp;<kbd>np.linalg.eig()<\/kbd>.<\/li>\n\n\n\n<li>Excel es muy limitado, pero se pueden usar complementos o el Solver. No apto para PCA serio.<\/li>\n\n\n\n<li>Calculadoras simb\u00f3licas como Wolfram Alpha tambi\u00e9n te ayudan a calcular los vectores y valores propios.<\/li>\n<\/ol>\n\n\n\n<p>Utilizando <kbd>R<\/kbd>&nbsp;<code>eigen()<\/code> en R con la matriz de varianza-covarianza hist\u00f3rica obtenemos una matriz con vectores propios<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\mathbf{V} = \\begin{bmatrix} 0.424 &amp; -0.906 \\\\ 0.906 &amp; 0.424 \\end{bmatrix}\"><semantics><mrow><mi>\ud835\udc15<\/mi><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>0.424<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mrow><mo>\u2212<\/mo><mn>0.906<\/mn><\/mrow><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;\"><mn>0.906<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>0.424<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{V} = \\begin{bmatrix} 0.424 &amp; -0.906 \\\\ 0.906 &amp; 0.424 \\end{bmatrix}<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p>y varios valores propios<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"diag(\\mathbf{\\Lambda}) = \\begin{pmatrix} 10.405 &amp; 2.595 \\end{pmatrix}\"><semantics><mrow><mi>d<\/mi><mi>i<\/mi><mi>a<\/mi><mi>g<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udeb2<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">(<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>10.405<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>2.595<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">)<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">diag(\\mathbf{\\Lambda}) = \\begin{pmatrix} 10.405 &amp; 2.595 \\end{pmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>El primer vector propio es<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\mathbf{v_1} = \\begin{bmatrix} 0.424  \\\\ 0.906  \\end{bmatrix}\"><semantics><mrow><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center\"><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>0.424<\/mn><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>0.906<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v_1} = \\begin{bmatrix} 0.424  \\\\ 0.906  \\end{bmatrix}<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p>y su valor propio asociado es 10.405.<\/p>\n\n\n\n<p>El segundo vector propio es<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\mathbf{v_2} = \\begin{bmatrix} -0.906  \\\\ 0.424  \\end{bmatrix}\"><semantics><mrow><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfd0<\/mn><\/msub><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center\"><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mrow><mo>\u2212<\/mo><mn>0.906<\/mn><\/mrow><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;padding-right:0em;\"><mn>0.424<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v_2} = \\begin{bmatrix} -0.906  \\\\ 0.424  \\end{bmatrix}<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p>y su valor propio asociado es 2.595.<\/p>\n\n\n\n<p>Si observas el primer valor propio notar\u00e1s que <math data-latex=\"\\sqrt{0.424^2+0.906^2} \\approx 1\"><semantics><mrow><msqrt><mrow><msup><mn>0.424<\/mn><mn>2<\/mn><\/msup><mo>+<\/mo><msup><mn>0.906<\/mn><mn>2<\/mn><\/msup><\/mrow><\/msqrt><mo>\u2248<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\sqrt{0.424^2+0.906^2} \\approx 1<\/annotation><\/semantics><\/math>. As\u00ed mismo <math data-latex=\"\\sqrt{(-0.906)^2+0.424^2} \\approx 1\"><semantics><mrow><msqrt><mrow><mo form=\"prefix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">(<\/mo><mo form=\"prefix\" stretchy=\"false\">\u2212<\/mo><mn>0.906<\/mn><msup><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mn>2<\/mn><\/msup><mo>+<\/mo><msup><mn>0.424<\/mn><mn>2<\/mn><\/msup><\/mrow><\/msqrt><mo>\u2248<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\sqrt{(-0.906)^2+0.424^2} \\approx 1<\/annotation><\/semantics><\/math>. Esta operaci\u00f3n, expresada matricialmente como <math data-latex=\"\\norm{\\bold{v_i}}=\\sqrt{\\bold{v_i}^T\\bold{v_i}}\"><semantics><mrow><mrow><mo fence=\"true\" form=\"prefix\">\u2016<\/mo><msub><mi>\ud835\udc2f<\/mi><mi>\ud835\udc22<\/mi><\/msub><mo fence=\"true\" form=\"postfix\">\u2016<\/mo><\/mrow><mo>=<\/mo><msqrt><mrow><msup><msub><mi>\ud835\udc2f<\/mi><mi>\ud835\udc22<\/mi><\/msub><mi>T<\/mi><\/msup><msub><mi>\ud835\udc2f<\/mi><mi>\ud835\udc22<\/mi><\/msub><\/mrow><\/msqrt><\/mrow><annotation encoding=\"application\/x-tex\">\\norm{\\bold{v_i}}=\\sqrt{\\bold{v_i}^T\\bold{v_i}}<\/annotation><\/semantics><\/math>, se le conoce como la norma de un vector, y no es otra cosa que la distancia euclidiana que forma un vector respecto al origen. Que estas normas, o distancias, sean igual a 1 en el caso de los vectores propios no es coincidencia, as\u00ed se obtienen, para que expresen un crecimiento unitario y as\u00ed la escala del vector se deja en el valor de <math data-latex=\"\\lambda_i\"><semantics><msub><mi>\u03bb<\/mi><mi>i<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_i<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Observar\u00e1s tambi\u00e9n que en este caso hay dos vectores propios. Existe un vector propio por cada dimensi\u00f3n o tama\u00f1o de la matriz <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>, y por cada vector propio hay un valor propio asociado. Cuando estos se obtienen, se guardan siguiendo el mismo patr\u00f3n, el primer vector propio, <math data-latex=\"\\mathbf{v}_1\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{v}_1<\/annotation><\/semantics><\/math>, es la primera columna de <math data-latex=\"\\mathbf{V}\"><semantics><mi>\ud835\udc15<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{V}<\/annotation><\/semantics><\/math>, y tiene asociado el valor propio m\u00e1s grande, definido como <math data-latex=\"\\lambda_1\"><semantics><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_1<\/annotation><\/semantics><\/math>. La segunda columna de <math data-latex=\"\\mathbf{V}\"><semantics><mi>\ud835\udc15<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{V}<\/annotation><\/semantics><\/math> es <math data-latex=\"\\mathbf{v}_2\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{v}_2<\/annotation><\/semantics><\/math>, y tiene asociado el segundo valor propio m\u00e1s grande, definido como <math data-latex=\"\\lambda_2\"><semantics><msub><mi>\u03bb<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_2<\/annotation><\/semantics><\/math>. En caso de que <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math> tenga m\u00e1s columnas, tendremos m\u00e1s vectores propios cuya magnitud asociada <math data-latex=\"\\lambda_i\"><semantics><msub><mi>\u03bb<\/mi><mi>i<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_i<\/annotation><\/semantics><\/math> se ir\u00e1 mostrando en forma decreciente.<\/p>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">Al primer vector propio de <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>, el que tiene el valor propio m\u00e1s grande, lo llamamos el <strong>primer componente<\/strong> <strong>principal <\/strong>o simplemente <strong>PC1<\/strong>. Al segundo vector propio  de <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math> lo llamamos <strong>segundo componente principal<\/strong> o <strong>PC2<\/strong>.<\/mark><\/p>\n\n\n\n<p>Gr\u00e1ficamente, si ubicamos estos vectores en el punto central de nuestros datos y trazamos l\u00edneas a lo largo de estos vectores obtenemos la Figura 5.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-8.png\" alt=\"\" class=\"wp-image-944\" style=\"aspect-ratio:1.6204289796361269;width:700px;height:auto\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-8.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-8-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 5. Al ubicar el origen de los componentes principales en el punto central de nuestros datos podemos trazar ejes que representan las direcciones de m\u00e1xima variabilidad de nuestros datos. El primer componente, en rojo, representa la direcci\u00f3n de m\u00e1xima variabilidad. El segundo componente, en azul, observamos la direcci\u00f3n ortogonal con la segunda mayor variabilidad. Por ser el segundo componente el \u00faltimo componente, este contiene la variabilidad residual.<\/figcaption><\/figure>\n\n\n\n<p>Debido a que los ejes de la Figura 5 tienen escalas diferentes, es dif\u00edcil apreciar la perpendicularidad de los vectores que hemos encontrado. Pero cr\u00e9eme, como veremos m\u00e1s adelante, <strong>son perpendiculares entre s\u00ed<\/strong>, que la escala de los ejes no te enga\u00f1e.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Nota T\u00e9cnica: Descomposici\u00f3n Espectral<\/h4>\n\n\n\n<p>Al proceso de obtener los vectores y valores propios de una matriz tambi\u00e9n se le puede encontrar con el nombre de una t\u00e9cnica matricial que hace uso de ellos llamada <strong>descomposici\u00f3n espectral<\/strong> o <strong>diagonalizaci\u00f3n matricial<\/strong>.<\/p>\n\n\n\n<p>Es un concepto muy \u00fatil para entender porqu\u00e9 los valores y vectores propios aparecen con tanta frecuencia cuando se trabaja con matrices. En palabras simples: <strong>muchas matrices, como la matriz de varianza-covarianza, se pueden re-expresar en t\u00e9rminos de operaciones con vectores y valores propios<\/strong>.<\/p>\n\n\n\n<p>Los conceptos de descomposici\u00f3n espectral y diagonalizaci\u00f3n matricial se <strong>refieren a lo mismo<\/strong>: descomponer una matriz en un producto de matrices creadas a partir de vectores y valores propios. Este proceso va as\u00ed:<\/p>\n\n\n\n<p>Sea <math data-latex=\"\\boldsymbol{\\Sigma} \\in \\mathbb{R}^{p \\times p}\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>\u2208<\/mo><msup><mi>\u211d<\/mi><mrow><mi>p<\/mi><mo>\u00d7<\/mo><mi>p<\/mi><\/mrow><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} \\in \\mathbb{R}^{p \\times p}<\/annotation><\/semantics><\/math> una matriz sim\u00e9trica.<\/p>\n\n\n\n<p>La descomposici\u00f3n espectral establece que <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math> puede re-escribirse como:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>=<\/mo><mi>\ud835\udc15<\/mi><mi>\ud835\udeb2<\/mi><msup><mi>\ud835\udc15<\/mi><mi>\u22a4<\/mi><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} = \\mathbf{V} \\boldsymbol{\\Lambda} \\mathbf{V}^\\top<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>donde:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><math data-latex=\"\\mathbf{V} = [\\mathbf{v}_1, \\ldots, \\mathbf{v}_p]\"><semantics><mrow><mi>\ud835\udc15<\/mi><mo>=<\/mo><mo form=\"prefix\" stretchy=\"false\">[<\/mo><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><mo>\u2026<\/mo><mo separator=\"true\">,<\/mo><msub><mi>\ud835\udc2f<\/mi><mi>p<\/mi><\/msub><mo form=\"postfix\" stretchy=\"false\">]<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{V} = [\\mathbf{v}_1, \\ldots, \\mathbf{v}_p]<\/annotation><\/semantics><\/math> es una matriz ortogonal cuyas columnas son los eigenvectores de <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>. Por matriz ortogonal definimos que los vectores son perpendiculares entre s\u00ed y su norma es unitaria. As\u00ed, para un vector <math data-latex=\"\\mathbf{v}_i\"><semantics><msub><mi>\ud835\udc2f<\/mi><mi>i<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{v}_i<\/annotation><\/semantics><\/math> tenemos que <math data-latex=\"\\boldsymbol{\\Sigma}\\mathbf{v}_i = \\lambda_i \\mathbf{v}_i\"><semantics><mrow><mi>\ud835\udeba<\/mi><msub><mi>\ud835\udc2f<\/mi><mi>i<\/mi><\/msub><mo>=<\/mo><msub><mi>\u03bb<\/mi><mi>i<\/mi><\/msub><msub><mi>\ud835\udc2f<\/mi><mi>i<\/mi><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}\\mathbf{v}_i = \\lambda_i \\mathbf{v}_i<\/annotation><\/semantics><\/math>.<\/li>\n\n\n\n<li><math data-latex=\"\\boldsymbol{\\Lambda} = \\mathrm{diag}(\\lambda_1, \\ldots, \\lambda_p)\"><semantics><mrow><mi>\ud835\udeb2<\/mi><mo>=<\/mo><mrow><mtext><\/mtext><mi>diag<\/mi><\/mrow><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><mo>\u2026<\/mo><mo separator=\"true\">,<\/mo><msub><mi>\u03bb<\/mi><mi>p<\/mi><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Lambda} = \\mathrm{diag}(\\lambda_1, \\ldots, \\lambda_p)<\/annotation><\/semantics><\/math> es una matriz diagonal cuyos elementos de la diagonal son los eigenvalores de <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>. El resto de los elementos de esta matriz son 0&#8217;s.<\/li>\n\n\n\n<li>El orden de los vectores sigue el orden de las magnitudes de los valores propios: <math data-latex=\"\\mathbf{v}_1\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{v}_1<\/annotation><\/semantics><\/math> es el vector propio con el valor propio m\u00e1s grande <math data-latex=\"\\lambda_1\"><semantics><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_1<\/annotation><\/semantics><\/math>, seguido por <math data-latex=\"\\mathbf{v}_2\"><semantics><msub><mi>\ud835\udc2f<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\mathbf{v}_2<\/annotation><\/semantics><\/math> con el segundo valor propio m\u00e1s grande <math data-latex=\"\\lambda_2\"><semantics><msub><mi>\u03bb<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_2<\/annotation><\/semantics><\/math>, y as\u00ed se sigue en orden descendente.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Paso 4. Proyectar<\/h3>\n\n\n\n<p>Podemos proyectar, observa la Figura 6, nuestras observaciones en nuestros componentes principales, como si fueran nuevos ejes de coordenadas.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-9.png\" alt=\"\" class=\"wp-image-945\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-9.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-9-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 6. Proyectamos las observaciones en los componentes principales, como un nuevo sistema de coordenadas.<\/figcaption><\/figure>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">Las coordenadas de nuestras observaciones en los nuevos ejes definidos por los componentes principales las encontramos multiplicando nuestra matriz de observaciones centradas por la matriz formada por los vectores propios<\/mark><\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udc19<\/mi><mo>=<\/mo><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><mi>\ud835\udc15<\/mi><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{Z} = \\mathbf{X}_c \\mathbf{V}.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>En nuestro ejemplo, recordemos que los vectores propios son <\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"\\mathbf{V} = \\begin{bmatrix} 0.424  &amp; -0.906\\\\ 0.906  &amp; 0.424\\end{bmatrix}\"><semantics><mrow><mi>\ud835\udc15<\/mi><mo>=<\/mo><mrow><mo fence=\"true\" form=\"prefix\">[<\/mo><mtable columnalign=\"center center\"><mtr><mtd style=\"padding-left:0em;\"><mn>0.424<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mrow><mo>\u2212<\/mo><mn>0.906<\/mn><\/mrow><\/mtd><\/mtr><mtr><mtd style=\"padding-left:0em;\"><mn>0.906<\/mn><\/mtd><mtd style=\"padding-right:0em;\"><mn>0.424<\/mn><\/mtd><\/mtr><\/mtable><mo fence=\"true\" form=\"postfix\">]<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{V} = \\begin{bmatrix} 0.424  &amp; -0.906\\\\ 0.906  &amp; 0.424\\end{bmatrix}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>por lo tanto, las columnas de <math data-latex=\"\\mathbf{Z}\"><semantics><mi>\ud835\udc19<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{Z}<\/annotation><\/semantics><\/math> est\u00e1n dadas por<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"Z_1 = 0.424 (X_1 - \\mu_1) + 0.906(X_2-\\mu_2)\"><semantics><mrow><msub><mi>Z<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mn>0.424<\/mn><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>X<\/mi><mn>1<\/mn><\/msub><mo>\u2212<\/mo><msub><mi>\u03bc<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>+<\/mo><mn>0.906<\/mn><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>X<\/mi><mn>2<\/mn><\/msub><mo>\u2212<\/mo><msub><mi>\u03bc<\/mi><mn>2<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">Z_1 = 0.424 (X_1 &#8211; \\mu_1) + 0.906(X_2-\\mu_2)<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p class=\"has-text-align-center\"><math data-latex=\"Z_2 = -0.906(X_1 - \\mu_1) + 0.424(X_2-\\mu_2)\"><semantics><mrow><msub><mi>Z<\/mi><mn>2<\/mn><\/msub><mo>=<\/mo><mo form=\"prefix\" stretchy=\"false\">\u2212<\/mo><mn>0.906<\/mn><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>X<\/mi><mn>1<\/mn><\/msub><mo>\u2212<\/mo><msub><mi>\u03bc<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>+<\/mo><mn>0.424<\/mn><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>X<\/mi><mn>2<\/mn><\/msub><mo>\u2212<\/mo><msub><mi>\u03bc<\/mi><mn>2<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">Z_2 = -0.906(X_1 &#8211; \\mu_1) + 0.424(X_2-\\mu_2)<\/annotation><\/semantics><\/math>,<\/p>\n\n\n\n<p>donde <math data-latex=\"Z_1\"><semantics><msub><mi>Z<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_1<\/annotation><\/semantics><\/math> es la primera columna de <math data-latex=\"\\mathbf{Z}\"><semantics><mi>\ud835\udc19<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{Z}<\/annotation><\/semantics><\/math> y <math data-latex=\"Z_2\"><semantics><msub><mi>Z<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_2<\/annotation><\/semantics><\/math> la segunda columna. A estos valores, <math data-latex=\"Z_1\"><semantics><msub><mi>Z<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_1<\/annotation><\/semantics><\/math> y <math data-latex=\"Z_2\"><semantics><msub><mi>Z<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_2<\/annotation><\/semantics><\/math> se les conoce como puntajes o por su t\u00e9rmino en ingl\u00e9s <em>scores<\/em>. Observa el primer score est\u00e1 construido por la suma del producto de cada elemento del vector propio 1 por cada una de las variables siguiendo el orden en que est\u00e1n definidas. As\u00ed mismo se obtiene el segundo score del segundo vector propio.<\/p>\n\n\n\n<p>Para observar mejor la perpendicularidad de los componentes y las proyecciones de las observaciones podemos ajustar los ejes para que est\u00e9n en la misma escala, como se ve en la Figura 7.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-10.png\" alt=\"\" class=\"wp-image-946\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-10.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-10-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 7. Los ejes se han ajustado para tener la misma escala, as\u00ed la perpendicularidad entre los componentes y las proyecciones de las observaciones hacia estos componentes se hace m\u00e1s evidente.<\/figcaption><\/figure>\n\n\n\n<p>Si graficamos las coordenadas que nos dan estas proyecciones observamos que nuestros datos siguen intactos, pero <strong>ahora est\u00e1n rotados<\/strong>. Observa en la Figura 8 esta rotaci\u00f3n que coloca la <strong>mayor variaci\u00f3n en el eje de la abscisa<\/strong>, el eje X con el componente principal 1 (PC1), y la ordenada con el segundo componente (PC2).<\/p>\n\n\n\n<p>Observa que <strong>no hay correlaci\u00f3n lineal entre los componentes<\/strong>. La correlaci\u00f3n lineal entre componentes es exactamente 0 por dise\u00f1o, siempre. En la Figura 9 se muestra una comparaci\u00f3n de la rotaci\u00f3n creada gracias a los scores con las observaciones en sus dimensiones originales.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-11.png\" alt=\"\" class=\"wp-image-947\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-11.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-11-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 8. Nuestros datos proyectados en los componentes principales. Los datos, en estos componentes, ya no tienen correlaci\u00f3n lineal. La mayor variabilidad la tiene el componente principal 1, seguida por el 2.<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"700\" height=\"432\" src=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-12.png\" alt=\"\" class=\"wp-image-950\" srcset=\"https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-12.png 700w, https:\/\/victortercero.com\/wp-content\/uploads\/2026\/03\/image-12-300x185.png 300w\" sizes=\"auto, (max-width: 700px) 100vw, 700px\" \/><figcaption class=\"wp-element-caption\">Figura 9. Comparaci\u00f3n de los datos de la Tabla 1 en t\u00e9rminos de sus mediciones originales (izquierda) y en t\u00e9rminos de los componentes principales (derecha).<\/figcaption><\/figure>\n\n\n\n<p class=\"wp-block-coblocks-highlight\"><mark class=\"wp-block-coblocks-highlight__content\">Varias veces hab\u00edamos mencionado que los valores propios, las <math data-latex=\"\\lambda_i\"><semantics><msub><mi>\u03bb<\/mi><mi>i<\/mi><\/msub><annotation encoding=\"application\/x-tex\">\\lambda_i<\/annotation><\/semantics><\/math>, representan la escala de los vectores propios. En el caso de los componentes principales, esta escala es la varianza. As\u00ed, la varianza de los datos en el primer componente, <math data-latex=\"Z_1\"><semantics><msub><mi>Z<\/mi><mn>1<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_1<\/annotation><\/semantics><\/math>, est\u00e1 dada por <math data-latex=\"\\lambda_1=10.405\"><semantics><mrow><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mn>10.405<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\lambda_1=10.405<\/annotation><\/semantics><\/math>. La varianza de los datos en el segundo componente <math data-latex=\"Z_2\"><semantics><msub><mi>Z<\/mi><mn>2<\/mn><\/msub><annotation encoding=\"application\/x-tex\">Z_2<\/annotation><\/semantics><\/math> est\u00e1 dada por <math data-latex=\"\\lambda_2=2.595\"><semantics><mrow><msub><mi>\u03bb<\/mi><mn>2<\/mn><\/msub><mo>=<\/mo><mn>2.595<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\lambda_2=2.595<\/annotation><\/semantics><\/math>.<\/mark><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Paso 5. Usar los componentes para algo pr\u00e1ctico<\/h3>\n\n\n\n<p>El ACP tiene m\u00faltiples usos en el mundo del an\u00e1lisis multivariado. Muchos de estos usos est\u00e1n listados al inicio del documento donde el ACP es la llave para acceder a ellos. Aqu\u00ed es donde se vuelve \u00fatil el ACP. Sin embargo, es un paso en el que no ahondaremos para evitar sobrecargar la lectura. <\/p>\n\n\n\n<p>Para no reducir la importancia de estas aplicaciones, dejar\u00e9 su discusi\u00f3n para mis pr\u00f3ximos art\u00edculos.<\/p>\n\n\n\n<p>Hasta el momento hemos recorrido los pasos que nos llevan a entender la variabilidad de nuestras observaciones. Hemos identificado las direcciones en que principalmente var\u00edan nuestros datos, y hemos obtenido ecuaciones que caracterizan esas direcciones de variaci\u00f3n principales. Por s\u00ed mismo, este an\u00e1lisis nos genera entendimiento de nuestros datos. Un entendimiento que, bien direccionado, nos deber\u00e1 llevar a una toma de decisiones m\u00e1s informada.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Resumen de Ecuaciones<\/h3>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<p>Podemos resumir el an\u00e1lisis de componentes principales de la siguiente manera<\/p>\n\n\n\n<p>Sea <math data-latex=\"\\mathbf{X} \\in \\mathbb{R}^{n \\times p}\"><semantics><mrow><mi>\ud835\udc17<\/mi><mo>\u2208<\/mo><msup><mi>\u211d<\/mi><mrow><mi>n<\/mi><mo>\u00d7<\/mo><mi>p<\/mi><\/mrow><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{X} \\in \\mathbb{R}^{n \\times p}<\/annotation><\/semantics><\/math> la matriz de datos.<\/p>\n\n\n\n<p><strong>Paso 1<\/strong>. Centramos<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><mo>=<\/mo><mi>\ud835\udc17<\/mi><mo>\u2212<\/mo><mn>\ud835\udfcf<\/mn><msup><mi>\ud835\udf41<\/mi><mi>\u22a4<\/mi><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{X}_c = \\mathbf{X} &#8211; \\mathbf{1}\\boldsymbol{\\mu}^\\top<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p><strong>Paso 2<\/strong>. Calculamos la matriz de varianza-covarianza<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>=<\/mo><mfrac><mn>1<\/mn><mrow><mi>n<\/mi><mo>\u2212<\/mo><mn>1<\/mn><\/mrow><\/mfrac><msubsup><mi>\ud835\udc17<\/mi><mi>c<\/mi><mi>\u22a4<\/mi><\/msubsup><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} = \\frac{1}{n-1}\\mathbf{X}_c^\\top \\mathbf{X}_c<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p><strong>Paso 3<\/strong>. Obtenemos los componentes principales a partir de los vectores propios.<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udeba<\/mi><mo>=<\/mo><mi>\ud835\udc15<\/mi><mi>\ud835\udeb2<\/mi><msup><mi>\ud835\udc15<\/mi><mi>\u22a4<\/mi><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma} = \\mathbf{V} \\boldsymbol{\\Lambda} \\mathbf{V}^\\top<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p><strong>Paso 4<\/strong>. Proyectamos nuestros datos en el sistema de coordenadas definido por los componentes principales.<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udc19<\/mi><mo>=<\/mo><msub><mi>\ud835\udc17<\/mi><mi>c<\/mi><\/msub><mi>\ud835\udc15<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{Z} = \\mathbf{X}_c \\mathbf{V}<\/annotation><\/semantics><\/math><\/div>\n<\/div>\n<\/div>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<p><strong>Paso 5<\/strong>. Usamos los componentes para algo pr\u00e1ctico como: reducir dimensiones, calcular distancias estandarizadas, identificar conglomerados, regresi\u00f3n de componentes principales, clasificaci\u00f3n por componentes principales, y, por supuesto, control multivariado de procesos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n<\/h2>\n\n\n\n<p>Ya dimos el primer paso, generar entendimiento. El ACP es el primer paso, te\u00f3rico si quieres, al mundo aplicado del an\u00e1lisis multivariado. Son la base para entender la variaci\u00f3n de nuestras observaciones en sus t\u00e9rminos lineales m\u00e1s elementales.<\/p>\n\n\n\n<p>El entendimiento y la obtenci\u00f3n de los componentes de variaci\u00f3n son an\u00e1logos  a saber calcular la varianza de tus datos univariados. Son el fundamento para lograr la inferencia, modelaci\u00f3n, predicci\u00f3n y control de nuestras variables dentro de su complejidad multifactorial.<\/p>\n\n\n\n<p>Ahora s\u00f3lo nos queda dar uso a lo que hemos aprendido continuando nuestro viaje a trav\u00e9s de los m\u00e9todos de an\u00e1lisis multivariados. \u00a1Qu\u00e9 lo disfrutes!<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Ap\u00e9ndice: Derivaci\u00f3n de los Componentes Principales<\/h2>\n\n\n\n<p>Los siguientes resultados de \u00e1lgebra matricial y estad\u00edstica multivariada son adaptaciones de <a href=\"https:\/\/www.pearson.com\/en-us\/subject-catalog\/p\/applied-multivariate-statistical-analysis-classic-version\/P200000006217\/9780137980963?srsltid=AfmBOoqQ1Kq7EHvWUkFX_5H6AsqLYqGlUoVIXUztL0eEB4osavIq9Xti\" title=\"\">libro de texto<\/a>. Los adapt\u00e9 y te los comparto para colocar un poco de rigor y soporte a tantos argumentos que he mencionado en este art\u00edculo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Un problema de optimizaci\u00f3n<\/h3>\n\n\n\n<p>Sea<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udc17<\/mi><mo>=<\/mo><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>X<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><mo>\u2026<\/mo><mo separator=\"true\">,<\/mo><msub><mi>X<\/mi><mi>p<\/mi><\/msub><msup><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mi>\u22a4<\/mi><\/msup><mo separator=\"true\">,<\/mo><mspace width=\"2em\"><\/mspace><mi>\ud835\udd3c<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc17<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mi>\ud835\udf41<\/mi><mo separator=\"true\">,<\/mo><mspace width=\"2em\"><\/mspace><mrow><mtext><\/mtext><mi>Cov<\/mi><\/mrow><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc17<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mi>\ud835\udeba<\/mi><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{X} = (X_1, \\ldots, X_p)^\\top,\n\\qquad\n\\mathbb{E}(\\mathbf{X}) = \\boldsymbol{\\mu},\n\\qquad\n\\mathrm{Cov}(\\mathbf{X}) = \\boldsymbol{\\Sigma}.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Definimos una combinaci\u00f3n lineal de las variables centradas:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>Y<\/mi><mo>=<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc17<\/mi><mo>\u2212<\/mo><mi>\ud835\udf41<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo separator=\"true\">,<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">Y = \\mathbf{v}^\\top (\\mathbf{X} &#8211; \\boldsymbol{\\mu}),<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>donde <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math> es un vector de coeficientes.<\/p>\n\n\n\n<p>El objetivo del primer componente principal es encontrar la direcci\u00f3n <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math> que maximiza la varianza de <math data-latex=\"Y\"><semantics><mi>Y<\/mi><annotation encoding=\"application\/x-tex\">Y<\/annotation><\/semantics><\/math>, sujeta a que <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math> tenga norma unitaria:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><munder><mi>max<\/mi><mi>\ud835\udc2f<\/mi><\/munder><mo>\u2061<\/mo><mspace width=\"0.1667em\"><\/mspace><mspace width=\"0.2778em\"><\/mspace><mrow><mtext><\/mtext><mi>Var<\/mi><\/mrow><mrow><mo fence=\"true\" form=\"prefix\">(<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc17<\/mi><mo>\u2212<\/mo><mi>\ud835\udf41<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo fence=\"true\" form=\"postfix\">)<\/mo><\/mrow><mspace width=\"2em\"><\/mspace><mtext>sujeto&nbsp;a<\/mtext><mspace width=\"2em\"><\/mspace><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mn>1.<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\max_{\\mathbf{v}} \\; \\mathrm{Var}\\left(\\mathbf{v}^\\top (\\mathbf{X} &#8211; \\boldsymbol{\\mu})\\right)\n\\qquad\n\\text{sujeto a}\n\\qquad\n\\mathbf{v}^\\top \\mathbf{v} = 1.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Como<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mrow><mtext><\/mtext><mi>Var<\/mi><\/mrow><mrow><mo fence=\"true\" form=\"prefix\">(<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc17<\/mi><mo>\u2212<\/mo><mi>\ud835\udf41<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo fence=\"true\" form=\"postfix\">)<\/mo><\/mrow><mo>=<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udeba<\/mi><mspace width=\"0.1667em\"><\/mspace><mi>\ud835\udc2f<\/mi><mo separator=\"true\">,<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">\\mathrm{Var}\\left(\\mathbf{v}^\\top (\\mathbf{X} &#8211; \\boldsymbol{\\mu})\\right) =\n\\mathbf{v}^\\top \\boldsymbol{\\Sigma} \\,\\mathbf{v},<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p><br>el problema se re-escribe como<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><munder><mi>max<\/mi><mi>\ud835\udc2f<\/mi><\/munder><mo>\u2061<\/mo><mspace width=\"0.1667em\"><\/mspace><mspace width=\"0.2778em\"><\/mspace><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udeba<\/mi><mspace width=\"0.1667em\"><\/mspace><mi>\ud835\udc2f<\/mi><mspace width=\"2em\"><\/mspace><mtext>sujeto&nbsp;a<\/mtext><mspace width=\"2em\"><\/mspace><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mn>1.<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\max_{\\mathbf{v}} \\; \\mathbf{v}^\\top \\boldsymbol{\\Sigma}\\,\\mathbf{v}\n\\qquad\n\\text{sujeto a}\n\\qquad\n\\mathbf{v}^\\top \\mathbf{v} = 1.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">\u00bfC\u00f3mo se resuelve esta optimizaci\u00f3n?<\/h3>\n\n\n\n<p>Para resolverlo, se construye el lagrangiano. Esta es una t\u00e9cnica de optimizaci\u00f3n por restricciones, donde se colocan las restricciones dentro de la funci\u00f3n objetivo como t\u00e9rminos multiplicados por un factor <math data-latex=\"\\lambda\"><semantics><mi>\u03bb<\/mi><annotation encoding=\"application\/x-tex\">\\lambda<\/annotation><\/semantics><\/math>, tambi\u00e9n llamado factor o multiplicador de Lagrange:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi class=\"mathcal\">\u2112<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>\ud835\udc2f<\/mi><mo separator=\"true\">,<\/mo><mi>\u03bb<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udeba<\/mi><mspace width=\"0.1667em\"><\/mspace><mi>\ud835\udc2f<\/mi><mo>+<\/mo><mi>\u03bb<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udc2f<\/mi><mo>\u2212<\/mo><mn>1<\/mn><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathcal{L}(\\mathbf{v},\\lambda)\n=\n\\mathbf{v}^\\top \\boldsymbol{\\Sigma}\\,\\mathbf{v}\n+\n\\lambda(\\mathbf{v}^\\top \\mathbf{v} &#8211; 1).<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Y para resolver la optimizaci\u00f3n, siguiendo la t\u00e9cnica del lagrangiano, s\u00f3lo tenemos que derivar respecto a <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math> e igualar a cero:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mfrac><mrow><mi>\u2202<\/mi><mi class=\"mathcal\">\u2112<\/mi><\/mrow><mrow><mi>\u2202<\/mi><mi>\ud835\udc2f<\/mi><\/mrow><\/mfrac><mo>=<\/mo><mn>2<\/mn><mi>\ud835\udeba<\/mi><mi>\ud835\udc2f<\/mi><mo>\u2212<\/mo><mn>2<\/mn><mi>\u03bb<\/mi><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mn>\ud835\udfce.<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\frac{\\partial \\mathcal{L}}{\\partial \\mathbf{v}}\n=\n2\\boldsymbol{\\Sigma}\\mathbf{v} &#8211; 2\\lambda \\mathbf{v}\n=\n\\mathbf{0}.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Por lo tanto,<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udeba<\/mi><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mi>\u03bb<\/mi><mi>\ud835\udc2f<\/mi><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}\\mathbf{v} = \\lambda \\mathbf{v}.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Esta es precisamente la ecuaci\u00f3n de eigenvalores y eigenvectores de la matriz de covarianza <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Pero todav\u00eda hay  un problema, la ecuaci\u00f3n de eigenvalores y eigenvectores tiene muchas soluciones. \u00bfCon cu\u00e1l nos quedamos?<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">\u00bfCon cu\u00e1l soluci\u00f3n nos quedamos?<\/h3>\n\n\n\n<p>Como se vio en la secci\u00f3n anterior, las direcciones posibles para dar valor a <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math>, y definir  <math data-latex=\"\\mathbf{v}\"><semantics><mi>\ud835\udc2f<\/mi><annotation encoding=\"application\/x-tex\">\\mathbf{v}<\/annotation><\/semantics><\/math> como un componente principal son los eigenvectores de <math data-latex=\"\\boldsymbol{\\Sigma}\"><semantics><mi>\ud835\udeba<\/mi><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Sin embargo, hay tantas soluciones a esta optimizaci\u00f3n como vectores y valores propios hay. <strong>De todas estas posibles soluciones, hay s\u00f3lo un vector propio con el valor propio asociado m\u00e1s grande, el que por definici\u00f3n tiene la mayor escala<\/strong>, resolviendo as\u00ed el problema de maximizaci\u00f3n global.<\/p>\n\n\n\n<p>As\u00ed, para el primer componente principal se elige el eigenvector asociado al mayor eigenvalor:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>\ud835\udeba<\/mi><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><mspace width=\"2em\"><\/mspace><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mrow><mi>max<\/mi><mo>\u2061<\/mo><\/mrow><mo form=\"prefix\" stretchy=\"false\">{<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><msub><mi>\u03bb<\/mi><mn>2<\/mn><\/msub><mo separator=\"true\">,<\/mo><mo>\u2026<\/mo><mo separator=\"true\">,<\/mo><msub><mi>\u03bb<\/mi><mi>p<\/mi><\/msub><mo form=\"postfix\" stretchy=\"false\">}<\/mo><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\boldsymbol{\\Sigma}\\mathbf{v}_1 = \\lambda_1 \\mathbf{v}_1,\n\\qquad\n\\lambda_1 = \\max \\{ \\lambda_1,\\lambda_2,\\ldots,\\lambda_p \\}.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>De forma an\u00e1loga, el segundo componente principal se obtiene maximizando<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udeba<\/mi><mspace width=\"0.1667em\"><\/mspace><mi>\ud835\udc2f<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v}^\\top \\boldsymbol{\\Sigma}\\,\\mathbf{v}<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>sujeto a<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><mi>\ud835\udc2f<\/mi><mo>=<\/mo><mn>1<\/mn><mo separator=\"true\">,<\/mo><mspace width=\"2em\"><\/mspace><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mn>0<\/mn><mo separator=\"true\">,<\/mo><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v}^\\top \\mathbf{v} = 1,\n\\qquad\n\\mathbf{v}^\\top \\mathbf{v}_1 = 0,<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>lo que conduce al eigenvector asociado al segundo mayor eigenvalor. Y el proceso se repite para cada componente.<\/p>\n\n\n\n<p>Si ignoramos la restricci\u00f3n de ortogonalidad con el primer componente principal <math data-latex=\"\\mathbf{v}^\\top \\mathbf{v}_1 = 0\"><semantics><mrow><msup><mi>\ud835\udc2f<\/mi><mi>\u22a4<\/mi><\/msup><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mn>0<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v}^\\top \\mathbf{v}_1 = 0<\/annotation><\/semantics><\/math>, la soluci\u00f3n a la optimizaci\u00f3n ya la sabemos: son los vectores propios.<\/p>\n\n\n\n<p>Entre las propiedades conocidas de los vectores propios est\u00e1 que son ortogonales entre s\u00ed. As\u00ed que la soluci\u00f3n es s\u00f3lo elegir entre los vectores propios restantes. \u00bfCu\u00e1l elegimos? Pues el que tenga el siguiente valor propio m\u00e1s grande, porque como ya se demostr\u00f3 este ser\u00eda el que contiene la mayor variabilidad, resolviendo as\u00ed el problema de optimizaci\u00f3n global.<\/p>\n\n\n\n<p>Repetimos este proceso restringiendo que las nuevas soluciones sean ortogonales con las que vamos obteniendo hasta obtener que los componentes principales son en realidad todos los vectores propios.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">\u00bfC\u00f3mo sabemos que la varianza de los componentes son los valores propios?<\/h3>\n\n\n\n<p>Una propiedad de los vectores propios es que <math data-latex=\"\\mathbf{v}_1^\\top \\mathbf{v}_1 = 1\"><semantics><mrow><msubsup><mi>\ud835\udc2f<\/mi><mn>1<\/mn><mi>\u22a4<\/mi><\/msubsup><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\mathbf{v}_1^\\top \\mathbf{v}_1 = 1<\/annotation><\/semantics><\/math>, por lo que se tiene<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mrow><mtext><\/mtext><mi>Var<\/mi><\/mrow><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>Y<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><msubsup><mi>\ud835\udc2f<\/mi><mn>1<\/mn><mi>\u22a4<\/mi><\/msubsup><mi>\ud835\udeba<\/mi><mspace width=\"0.1667em\"><\/mspace><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><msubsup><mi>\ud835\udc2f<\/mi><mn>1<\/mn><mi>\u22a4<\/mi><\/msubsup><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><msubsup><mi>\ud835\udc2f<\/mi><mn>1<\/mn><mi>\u22a4<\/mi><\/msubsup><msub><mi>\ud835\udc2f<\/mi><mn>1<\/mn><\/msub><mo>=<\/mo><msub><mi>\u03bb<\/mi><mn>1<\/mn><\/msub><mi>.<\/mi><\/mrow><annotation encoding=\"application\/x-tex\">\\mathrm{Var}(Y_1)\n=\n\\mathbf{v}_1^\\top \\boldsymbol{\\Sigma}\\,\\mathbf{v}_1\n=\n\\mathbf{v}_1^\\top (\\lambda_1 \\mathbf{v}_1)\n=\n\\lambda_1 \\mathbf{v}_1^\\top \\mathbf{v}_1\n=\n\\lambda_1.<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Esto es v\u00e1lido asumiendo que la norma del vector <math data-latex=\"\\norm{\\mathbf{v_1}}=\\sqrt{\\mathbf{v_1}^\\top \\mathbf{v_1}} = 1\"><semantics><mrow><mrow><mo fence=\"true\" form=\"prefix\">\u2016<\/mo><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><mo fence=\"true\" form=\"postfix\">\u2016<\/mo><\/mrow><mo>=<\/mo><msqrt><mrow><msup><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><mi>\u22a4<\/mi><\/msup><msub><mi>\ud835\udc2f<\/mi><mn>\ud835\udfcf<\/mn><\/msub><\/mrow><\/msqrt><mo>=<\/mo><mn>1<\/mn><\/mrow><annotation encoding=\"application\/x-tex\">\\norm{\\mathbf{v_1}}=\\sqrt{\\mathbf{v_1}^\\top \\mathbf{v_1}} = 1<\/annotation><\/semantics><\/math>.<\/p>\n\n\n\n<p>Esto se repite para cada componente. De esta manera se demuestra que la varianza del componente principal es el eigenvalor asociado.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Nota de lenguaje<\/h3>\n\n\n\n<p>Existe una ambig\u00fcedad real en la literatura de ACP, incluyendo este mismo art\u00edculo, con el t\u00e9rmino \u00abcomponente principal\u00bb, que puede usarse con frecuencia para dos cosas distintas, aunque relacionadas. En la pr\u00e1ctica <strong>componente principal<\/strong> suele referirse a:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Vectores propios: <strong>direcciones principales<\/strong>.<\/li>\n\n\n\n<li>Scores: <strong>componentes proyectados<\/strong>.<\/li>\n<\/ol>\n<\/div>\n\n\n\n<p>El <strong>contexto te ayudar\u00e1 a definir si se habla de uno u otro concepto<\/strong>.<\/p>\n\n\n\n<p>Adem\u00e1s, algunos autores, para hacer \u00e9nfasis en la carga o contribuci\u00f3n que genera una variable en la ecuaci\u00f3n que define un componente proyectado, a\u00f1aden el concepto de <strong>loadings<\/strong> para referirse a los elementos individuales de los vectores propios.<\/p>\n\n\n\n<p>Ten en cuenta que estas definiciones pueden tener ligeras variaciones y es importante identificar el contexto con que cada autor trabaja. Pero no te preocupes, los buenos autores definen estos conceptos a medida que los presentan en sus trabajos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfQu\u00e9 es el An\u00e1lisis de Componentes Principales? El An\u00e1lisis de Componentes Principales (ACP) es la llave maestra de la estad\u00edstica multivariada y, por consiguiente, del control multivariado. Encierra un conjunto de procedimientos que nos ayudan a entender la variabilidad conjunta de nuestros datos, y es la base de muchas otras metodolog\u00edas aplicadas al mundo multivariado. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":928,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[36,17,18,31],"tags":[],"class_list":["post-918","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-analisis-multivariado","category-articulosdivugacion","category-control","category-publicaciones"],"blocksy_meta":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/posts\/918","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/comments?post=918"}],"version-history":[{"count":74,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/posts\/918\/revisions"}],"predecessor-version":[{"id":1008,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/posts\/918\/revisions\/1008"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/media\/928"}],"wp:attachment":[{"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/media?parent=918"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/categories?post=918"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/victortercero.com\/index.php\/wp-json\/wp\/v2\/tags?post=918"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}