Cómo derivar las matrices de rotación

Mejor respuesta

Eso no es rotación para 45 ^ o. Esa es la transformación para rotar un vector en \ mathbb {R} ^ 2 por un ángulo \ theta. Puede derivar la fórmula de esta manera:

Deje que el vector \ mathbf {V} se rote en un ángulo \ theta debajo alguna transformación para obtener el nuevo vector \ mathbf {V «}.

Sea r = | \ mathbf {V} |. Luego, tenemos las relaciones:

v\_x = r \ cos \ alpha

v\_x «= r \ cos (\ alpha + \ theta)

v\_y = r \ sin \ alpha

v\_y» = r \ sin (\ alpha + \ theta)

De donde, tienes las relaciones:

v\_x «= v\_x \ cos \ theta – v\_y \ sin \ theta

v\_y «= v\_x \ cos \ theta + v\_y \ sin \ theta

Esto se representa en forma de matriz como

\ begin {pmatrix} v\_x» \\ v\_y «\ end {pmatrix} = \ begin {pmatrix} \ cos \ theta && – \ sin \ theta \\ \ sin \ theta && \ cos \ theta \ end {pmatrix} \ begin {pmatrix} v\_x \\ v\_y \ end {pmatrix}

Respuesta

Hay varias formas de atacar este problema.

La primera es simplemente invocar la rotación de Euler teorema, que establece que cualquier número finito de rotaciones alrededor de un solo punto fijo (pero alrededor de ejes arbitrarios en nd imensiones) se puede expresar como una sola rotación de ángulo \ theta alrededor de un eje \ hat {n}.

Si aceptamos que cada rotación está representada por una matriz, y que el método de rotar un vector es multiplicación de matrices, se deduce inmediatamente de esto que el producto de las matrices de rotación A\_1 A\_2 … A\_n también debe ser una matriz de rotación; de lo contrario, hemos violado el teorema de rotación de Euler.

La pregunta es, por supuesto, cómo demuestra este teorema.

El trabajo original de Euler es… burdo. Involucra muchos, muchos triángulos dibujados en la superficie de esferas (es decir, triángulos no euclidianos).

Si te apetece seguir la prueba hasta el final, la página de wikipedia vinculada anteriormente parece hacer un trabajo medio decente.

Un método alternativo (o, de manera equivalente, una forma secundaria de probar el teorema de Euler, supongo), es directamente utilizar las propiedades de las matrices de rotación, con una pequeña excursión a la teoría de grupos.

Una rotación, matemáticamente hablando, es cualquier operación en la que las distancias entre todos los puntos en el espacio permanecen constantes, y que deja puntos, o conjunto de puntos, fijos (asumiendo que estamos en un espacio euclidiano simple), además de preservar la estructura de orientación del objeto.

En el lenguaje teórico de grupos, llamamos a estas operaciones (en el espacio euclidiano ) el “Grupo ortogonal especial en n dimensiones”, o SO (n) para abreviar.

Las matrices A que son miembros de SO (n) están definidas por las siguientes dos propiedades:

  • A ^ TA = 1\_n (el bit ortogonal)
  • \ text {det} (A) = 1 (el bit especial)

Es decir las matrices de rotación son matrices ortogonales con determinante uno. Aquí 1\_n es la matriz de identidad en n dimensiones.

La condición de «ortogonalidad» es la condición que asegura que las distancias se conserven, ya que en el espacio euclidiano tenemos la longitud d de un vector \ mathbf {v} siendo:

\ displaystyle d ^ 2 = \ mathbf {v} \ cdot \ mathbf {v} \ tag * {}

Si rotamos este vector, de modo que \ mathbf {v} ^ \ prime = A \ mathbf {v}, con A un vector ortogonal, entonces, por las propiedades de la multiplicación de matrices:

\ displaystyle \ mathbf {v} ^ \ prime \ cdot \ mathbf {v} ^ \ prime = \ mathbf {v} ^ TA ^ TA \ mathbf {v} = \ mathbf {v} ^ T \ mathbf {v} = d ^ 2 \ tag * {}

Por lo tanto, la distancia d no se vio afectada por la rotación.

Todas las matrices ortogonales tienen determinante \ pm 1, pero aquellas con un determinante negativo también incluyen una reflexión de espejo alrededor de algún eje. Dado que queremos rotaciones puras, no reflejos, para preservar la orientación de los objetos en nuestro espacio, por lo tanto, nos restringimos a aquellos con determinantes positivos, que es de donde proviene el bit «especial».

El hecho de que haya mencionado que estas estructuras forman un grupo (siendo la operación asociada la multiplicación de matrices) es de hecho suficiente para concluir que el producto de varias matrices de rotación es también una rotación, ya que los grupos se definen como c perdido bajo la operación de grupo .

Esto significa que dos elementos cualesquiera g\_1 y g\_2 en un grupo G, con la operación de grupo g\_1 \ bullet g\_2 debe devolver un tercer elemento, g\_3, que también es miembro del grupo G. Por lo tanto, si A y B son matrices de rotación, de la definición de un grupo, se sigue que A \ bullet B = AB también es una matriz de rotación.

Por supuesto… esta es una salida trampa. Para afirmar que SO (n) era un grupo, ¡necesito demostrar que esto es cierto! También se puede mostrar explícitamente a partir de las siguientes propiedades generales de la transposición y el determinante:

  • (AB) ^ T = B ^ TA ^ T
  • \ text {det} (AB) = \ text {det} (A) \ text {det} (B)

Por lo tanto, construimos una matriz C = AB, donde A y Bare miembros de SO (n) .

Luego consideramos:

  • C ^ TC = (B ^ TA ^ T) (AB) = B ^ T (A ^ TA) B = B ^ TB = {1\_n}
  • Dado que A ^ TA = 1\_n y B ^ TB = 1\_n, y la asociatividad de la multiplicación de matrices.
  • \ text {det} (C) = \ text {det } (AB) = \ text {det} (A) \ text {det} (B) = 1 \ times 1 = 1

Por tanto, vemos que C es una matriz ortogonal, con determinante uno, es decir, es un miembro de SO (n), y por lo tanto es una matriz de rotación.

Por lo tanto, hemos demostrado que SO (n) (y de hecho O (n)) forma un grupo que es cerrado bajo la multiplicación de matrices, y por lo tanto, por definición, la concatenación de rotaciones múltiples es en sí misma una rotación.

Por lo tanto, hemos probado el Teorema de rotación de Euler.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *