Det finns en ortogonal matris när matrisen multiplicerad med dess transponering resulterar i identitetsmatrisen. Om det inverse av en matris är lika med transposterna är den ursprungliga matrisen ortogonal.
Ortogonala matriser har den egenskapen att antalet rader är lika med antalet kolumner. Vidare är radvektorerna enhetliga ortogonala vektorer och de transponerande radvektorerna är också.
Figur 1. Exempel på ortogonal matris och hur den transformerar geometriska objekt. (Utarbetad av Ricardo Pérez)
När en ortogonal matris multipliceras med vektorerna i ett vektorrum producerar den en isometrisk transformation, det vill säga en transformation som inte förändrar avståndet och bevarar vinklarna.
En typisk representant för ortogonala matriser är rotationsmatriser. Transformationerna av ortogonala matriser på ett vektorrum kallas ortogonala transformationer.
De geometriska rotationsomvandlingarna och reflektionen av punkter representerade av deras kartesiska vektorer utförs genom att applicera ortogonala matriser på de ursprungliga vektorerna för att erhålla koordinaterna för de transformerade vektorerna. Det är av detta skäl som ortogonala matriser används i stor utsträckning i datorgrafikbehandling.
Egenskaper
En matris M är ortogonala om multiplicerat med dess transponering M T ger som resultat identitetsmatrisen I . På liknande sätt resulterar produkten från transponering av en ortogonal matris med den ursprungliga matrisen i identitetsmatrisen:
MM T = M T M = I
Som en konsekvens av det föregående uttalandet har vi att transponering av en ortogonal matris är lika med dess omvända matris:
M T = M -1 .
Uppsättningen ortogonala matriser med dimension nxn bildar den ortogonala gruppen O (n). Och delmängden O (n) av ortogonala matriser med determinant +1 bildar gruppen av unitära specialmatriser SU (n). Matriserna i gruppen SU (n) är matriser som producerar linjära rotationstransformationer, även känd som gruppen av rotationer.
Demonstration
Vi vill visa att en matris är ortogonal om, och bara om radvektorerna (eller kolumnvektorerna) är ortogonala till varandra och av norm 1.
Anta att raderna för en ortogonal matris nxn är n orthonormala vektorer med dimension n. Om det betecknas med v 1 , v 2 , …, gäller V n till n-vektorerna:
Där det är uppenbart att uppsättningen av radvektorer är en uppsättning ortogonala vektorer med norm en.
exempel
Exempel 1
Visa att 2 x 2-matrisen som i sin första rad har vektorn v1 = (-1 0) och i sin andra rad är vektorn v2 = (0 1) en ortogonal matris.
Lösning: Matrisen M är konstruerad och dess transponering M T beräknas :
I detta exempel är matrisen M självtransponerad, det vill säga matrisen och dess transponering är identiska. Multiplicera M genom att transponera M T :
Det verifieras att MM T är lika med identitetsmatrisen:
När matrisen M multipliceras med koordinaterna för en vektor eller en punkt erhålls nya koordinater som motsvarar den transformation som matrisen gör på vektorn eller punkten.
Figur 1 visar hur M transformerar vektorn u till u ' och även hur M transformerar den blå polygonen till den röda polygonen. Eftersom M är ortogonal är det då en ortogonal transformation som bevarar avstånd och vinklar.
Exempel 2
Anta att du har en 2 x 2 matris definierad i realerna som ges av följande uttryck:
Hitta de verkliga värdena på a, b, c och d så att matrisen M är en ortogonal matris.
Lösning: Per definition är en matris ortogonal om multiplicerad med dess transponering erhålls identitetsmatrisen. Kom ihåg att den transponerade matrisen erhålls från de ursprungliga utbytande raderna för kolumner, erhålls följande jämlikhet:
Att utföra matrismultiplikation har vi:
Genom att jämföra elementen i den vänstra matrisen med elementen i identitetsmatrisen till höger får vi ett system med fyra ekvationer med fyra okända a, b, c och d.
Vi föreslår för a, b, c och d följande uttryck i termer av trigonometriska förhållanden sinus och kosinus:
Med detta förslag och på grund av den grundläggande trigonometriska identiteten, uppfylls de första och tredje ekvationerna automatiskt i jämlikheten mellan matriselementen. Den tredje och fjärde ekvationen är densamma och i matrisjämlikhet efter att ha ersatt de föreslagna värdena ser det ut så här:
vilket leder till följande lösning:
Slutligen erhålles följande lösningar för den ortogonala matrisen M:
Observera att den första av lösningarna har determinant +1 så att den tillhör gruppen SU (2), medan den andra lösningen har determinant -1 och därför inte tillhör denna grupp.
Exempel 3
Med tanke på följande matris, hitta värdena på a och b så att vi har en ortogonal matris.
Lösning: För att en given matris ska vara ortogonal måste produkten med dess transponering vara identitetsmatrisen. Sedan utförs matrisprodukten av den givna matrisen med den transponerade matrisen, vilket ger följande resultat:
Därefter jämställs resultatet med identitetsmatrisen 3 x 3:
I den andra raden har den tredje kolumnen (ab = 0), men a kan inte vara noll, för annars skulle likheten mellan elementen i den andra raden och den andra kolumnen inte uppfyllas. Då nödvändigtvis b = 0. Att ersätta b för värdet 0 har vi:
Sedan löses ekvationen: 2a ^ 2 = 1, vars lösningar är: + ½√2 och -½√2.
Med den positiva lösningen för a erhålls följande ortogonala matris:
Läsaren kan enkelt verifiera att radvektorerna (och även kolumnvektorerna) är ortogonala och enhetliga, det vill säga ortonormala.
Exempel 4
Visa att matrisen A vars radvektorer är v1 = (0, -1 0) , v2 = (1, 0, 0) och v3 = (0 0 -1) är en ortogonal matris. Dessutom finner vektorerna transformeras från den kanoniska basen i, j, k till vektorerna u1 , u2 och u3 .
Lösning: Det bör komma ihåg att elementet (i, j) i en matris multiplicerat med dess transponering är den skalära produkten av vektorn i rad (i) med den i kolonnen (j) i transposen. Dessutom är denna produkt lika med Kronecker-deltaet i fallet att matrisen är ortogonal:
I vårt fall ser det ut så här:
v1 • v1 = 0x0 + (-1) x (-1) + 0x0 = 1
v2 • v2 = 1 × 1 + 0x0 + 0x0 = 1
v3 • v3 = 0x0 + 0x0 + (-1) x (-1) = 1
v1 • v2 = 0x1 + (-1) x0 + 0x0 = 0
v2 • v1 = 1 × 0 + 0x (-1) + 0x0 = 0
v2 • v3 = 1 × 0 + 0x (0) + 0x (-1) = 0
v3 • v2 = 0x1 + 0x (0) + (-1) x0 = 0
v1 • v3 = 0x0 + (-1) x (0) + 0x (-1) = 0
v3 • v1 = 0x0 + 0x (-1) + (-1) x0 = 0
Med vilken det visas att det är en ortogonal matris.
Vidare u1 = Ai = (0, 1, 0); u2 = A j = (-1, 0, 0) och slutligen u3 = A k = (0, 0, -1)
referenser
- Anthony Nicolaides (1994) Determinants & Matrices. Godkänd publikation.
- Birkhoff och MacLane. (1980). Modern Algebra, red. Vicens-Vives, Madrid.
- Casteleiro Villalba M. (2004) Introduktion till linjär algebra. ESIC-redaktion.
- Dave Kirkby (2004) Maths Connect. Heinemann.
- Jenny Olive (1998) Maths: A Student's Survival Guide. Cambridge University Press.
- Richard J. Brown (2012) 30-sekunders matematik: De 50 mest sinnesutvecklande teorierna i matematik. Ivy Press Limited.
- Wikipedia. Ortogonal matris. Återställd från: es.wikipedia.com
- Wikipedia. Ortogonal matris. Återställd från: en.wikipedia.com