MathematicsÁlgebra LinealUniversity
AQAAPOntarioNSWCBSEGCE O-LevelMoECAPS

Ortogonalización de Gram-Schmidt

Un método para ortonormalizar un conjunto de vectores en un espacio con producto interno.

Understand the formulaSee the free derivationOpen the full walkthrough

This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.

Core idea

Overview

El proceso de Gram-Schmidt es un método sistemático para generar una base ortogonal u ortonormal a partir de un conjunto de vectores linealmente independientes en un espacio con producto interno. Funciona restando iterativamente las proyecciones de un vector sobre los vectores ortogonales previamente construidos para asegurar que el nuevo vector sea perpendicular a todos los predecesores.

When to use: Aplique este algoritmo cuando necesite construir una base ortogonal para un subespacio, lo cual es esencial para simplificar las proyecciones de vectores y realizar descomposiciones QR. Asume que el conjunto de vectores de entrada es linealmente independiente y que se define un producto interno (como el producto escalar).

Why it matters: Las bases ortogonales son computacionalmente eficientes porque eliminan las interacciones de términos cruzados en las operaciones de matriz. Este proceso es vital en gráficos por computadora para transformaciones de coordenadas, en procesamiento de señales para la reducción de ruido y en análisis numérico para mejorar la estabilidad de las soluciones de mínimos cuadrados.

Symbols

Variables

= Resulting Orthogonal Magnitude, = Input Vector Magnitude, = Sum of Projections

Resulting Orthogonal Magnitude
Variable
Input Vector Magnitude
Variable
Sum of Projections
Variable

Walkthrough

Derivation

Derivacion de Ortogonalización de Gram-Schmidt

Esta derivación explica cómo construir un conjunto ortogonal de vectores a partir de un conjunto linealmente independiente dado, restando sucesivamente proyecciones.

  • Estamos trabajando en un espacio de producto interno (p. ej., el espacio euclidiano ^n con el producto punto).
  • El conjunto inicial de vectores \{, , , \} es linealmente independiente.
1

Inicializar el primer vector ortogonal:

Para comenzar a construir un conjunto ortogonal \{, , , \} a partir de un conjunto linealmente independiente dado \{, , , \}, simplemente elegimos el primer vector para que sea igual a .

2

Ortogonalizar el segundo vector:

Para asegurar que sea ortogonal a , tomamos y restamos su componente que yace en la dirección de . Este componente es precisamente la proyección de sobre .

3

Generalizar al k-ésimo vector:

Suponiendo que ya hemos construido un conjunto ortogonal \{, , \}, para encontrar , comenzamos con y restamos su proyección sobre cada uno de los vectores previamente ortogonalizados . Este proceso elimina todos los componentes de que yacen en el subespacio generado por \{, , \}.

4

Expresar usando notación de sumatoria:

La suma de las proyecciones se puede escribir de forma concisa usando notación de sumatoria. Esta fórmula define tal que es ortogonal a todos los para , construyendo así un conjunto ortogonal iterativamente.

Result

Source: Lay, D. C., Lay, S. R., & McDonald, J. J. (2016). Linear Algebra and Its Applications (5th ed.). Pearson.

Why it behaves this way

Intuition

Visualiza tomar cada nuevo vector, proyectarlo sobre todos los vectores previamente ortogonalizados y luego restar estas proyecciones para aislar la parte del nuevo vector que es perfectamente perpendicular a todos los demás.

Term
El k-ésimo vector en el conjunto ortogonal recién construido.
Esta es la versión 'limpia' de , hecha perpendicular a todos los vectores anteriores.
Term
El k-ésimo vector de entrada original del conjunto no ortogonal.
Este es el vector que se está procesando actualmente para hacerlo ortogonal a los demás.
Term
El componente del vector v_k que yace a lo largo de la dirección del vector ortogonal previamente construido u_j.
Esta es la 'superposición' o 'sombra' de sobre , que representa la parte no ortogonal.
Term
La suma de todos los componentes de v_k que no son ortogonales al subespacio generado por u_1, ..., u_{k-1}.
Esto representa la 'parte no ortogonal' total de con respecto a los vectores ya ortogonalizados.

Signs and relationships

  • - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k): La resta elimina los componentes de que son paralelos a los vectores ortogonales previamente construidos , asegurando que el resultante sea perpendicular a todos ellos.

Free study cues

Insight

Canonical usage

El proceso de Gram-Schmidt opera sobre vectores, preservando sus unidades. Si los vectores de entrada representan cantidades físicas con unidades (por ejemplo, metros, Newtons), los vectores ortogonales resultantes tendrán esas mismas unidades.

One free problem

Practice Problem

En un ejercicio de álgebra lineal, un estudiante está procesando el segundo vector de un conjunto. Si el vector de entrada vk tiene un valor de componente de 12 y la suma de sus proyecciones sobre el primer vector ortogonal (projSum) se calcula como 4.5, encuentre el componente correspondiente del vector ortogonal resultante (result).

Hint: Reste la suma de las proyecciones del componente vectorial original.

The full worked solution stays in the interactive walkthrough.

Where it shows up

Real-World Context

En el caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization se utiliza para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. El resultado importa porque ayuda a estimar la probabilidad y formular un juicio de riesgo o decisión en lugar de tratar el número como certeza.

Study smarter

Tips

  • Siempre verifique la ortogonalidad en cada paso comprobando si el producto escalar del nuevo vector y cualquier vector anterior es cero.
  • Normalice cada vector resultante inmediatamente si se requiere una base ortonormal.
  • Procese los vectores en su orden original para mantener la jerarquía anidada de los subespacios generados.

Avoid these traps

Common Mistakes

  • Usar los vectores originales en lugar de los vectores ortogonales recién encontrados para proyecciones posteriores.
  • Errores de cálculo en los productos escalares utilizados para proyecciones escalares.

Common questions

Frequently Asked Questions

Esta derivación explica cómo construir un conjunto ortogonal de vectores a partir de un conjunto linealmente independiente dado, restando sucesivamente proyecciones.

Aplique este algoritmo cuando necesite construir una base ortogonal para un subespacio, lo cual es esencial para simplificar las proyecciones de vectores y realizar descomposiciones QR. Asume que el conjunto de vectores de entrada es linealmente independiente y que se define un producto interno (como el producto escalar).

Las bases ortogonales son computacionalmente eficientes porque eliminan las interacciones de términos cruzados en las operaciones de matriz. Este proceso es vital en gráficos por computadora para transformaciones de coordenadas, en procesamiento de señales para la reducción de ruido y en análisis numérico para mejorar la estabilidad de las soluciones de mínimos cuadrados.

Usar los vectores originales en lugar de los vectores ortogonales recién encontrados para proyecciones posteriores. Errores de cálculo en los productos escalares utilizados para proyecciones escalares.

En el caso de qR decomposition to solve linear least squares problems and in signal processing to remove correlation, Gram-Schmidt Orthogonalization se utiliza para calcular Resulting Magnitude from Input Vector Magnitude and Sum of Projections. El resultado importa porque ayuda a estimar la probabilidad y formular un juicio de riesgo o decisión en lugar de tratar el número como certeza.

Siempre verifique la ortogonalidad en cada paso comprobando si el producto escalar del nuevo vector y cualquier vector anterior es cero. Normalice cada vector resultante inmediatamente si se requiere una base ortonormal. Procese los vectores en su orden original para mantener la jerarquía anidada de los subespacios generados.

References

Sources

  1. Linear Algebra and Its Applications (5th ed.) by David C. Lay, Steven R. Lay, and Judi J. McDonald
  2. Introduction to Linear Algebra (5th ed.) by Gilbert Strang
  3. Wikipedia: Gram-Schmidt process
  4. Linear Algebra and Its Applications by David C. Lay, 5th ed.
  5. Introduction to Linear Algebra by Gilbert Strang, 5th ed.
  6. Gram-Schmidt process (Wikipedia article title)
  7. Linear Algebra and Its Applications by David C. Lay (5th Edition)
  8. Numerical Linear Algebra by Lloyd N. Trefethen and David Bau III