I matematikk er matriser matriser av elementer (tall, tegn) som brukes til å tolke i beregningsmessige termer, og derfor operasjonelle, de teoretiske resultatene av lineær algebra og til og med bilinær algebra .
Alle fagområder som studerer lineære fenomener bruker matriser. Når det gjelder de ikke-lineære fenomenene, gir man ofte lineære tilnærminger av dem, som i geometrisk optikk med tilnærmingene til Gauss .
Selv om matriksberegningen vises i begynnelsen av XIX - tallet, har dø, som tabeller med tall, en lang historie med anvendelse i å løse lineære ligninger . De kinesiske teksten ni kapitler på Mathematical Art skriver til II th århundre f.Kr.. AD , er det første kjente eksemplet på bruk av tabeller for å løse ligningssystemer , til og med introdusere begrepet determinant . I 1545 gjorde Girolamo Cardano denne metoden kjent i Europa ved å publisere sin Ars Magna . Den japanske matematikeren Seki Takakazu brukte uavhengig de samme teknikkene for å løse ligningssystemer i 1683. I Nederland er Johan de Witt geometriske transformasjoner ved hjelp av tabeller i sin bok fra 1659, Elementa curvarum linearum . Mellom 1700 og 1710 viste Leibniz hvordan man bruker tabeller for å notere data eller løsninger, og eksperimenterte med mer enn 50 bordsystemer til dette formålet. I 1750 publiserte Gabriel Cramer regelen som bærer navnet hans .
I 1850 ble begrepet “matrise” (som vil bli oversatt av matrise) myntet (på det latinske rotmateriet ) av James Joseph Sylvester , som ser det som et objekt som gir opphav til familien av determinanter som for tiden kalles mindreårige , dvs. determinantene til delmatrisene oppnådd ved å fjerne rader og kolonner. I en artikkel fra 1851 spesifiserer Sylvester:
"I tidligere artikler kalte jeg et rektangulært utvalg av begreper matrise hvorfra flere systemer av determinanter kan genereres, som fra tarmene til en felles foreldre."I 1854 publiserte Arthur Cayley en avhandling om geometriske transformasjoner ved bruk av matriser på en mye mer generell måte enn noe som hadde blitt gjort før ham. Den definerer de vanlige operasjonene til matriseberegning (tillegg, multiplikasjon og divisjon) og viser egenskapene til assosiativitet og distribusjon av multiplikasjon. Inntil da hadde bruk av matriser i det vesentlige vært begrenset til beregning av determinanter; denne abstrakte tilnærmingen til matriseoperasjoner er revolusjonerende. I 1858 publiserte Cayley sitt A Memoir on theory of Matrices , der han uttalte og demonstrerte Cayley-Hamilton-teoremet for 2 × 2 matriser.
Mange teoremer er dessuten demonstrert i begynnelsen bare for små matriser: Etter Cauchy generaliserer Hamilton teoremet til 4 × 4 matriser, og det var først i 1898 at Frobenius , som studerte bilineære former , beviste teoremet i noen dimensjon. Det var også på slutten av XIX - tallet at Wilhelm Jordan etablerte metoden for eliminering av Gauss-Jordan (generalisering av Gauss-metoden for trinnvise matriser ). På begynnelsen av XX th århundre, matriser står sentralt i lineær algebra , takket delvis til den rollen de spiller i klassifiseringssystemene hypercomplex tall fra forrige århundre.
En engelsk matematiker av navnet på Cullis var den første, i 1913, for å bruke den moderne notasjon av braketter (eller parenteser) for å representere matriser, så vel som den systemanotasjon A = [ en I , j ] for å representere den matrise som har en i , j er betegnelsen på i -th rad og j -th kolonne.
Formuleringen av kvantemekanikk ved hjelp av matriksmekanikk på grunn av Heisenberg , Born og Jordan , førte til studiet av matriser som består av et uendelig antall rader og kolonner. Deretter klargjorde von Neumann de matematiske grunnlaget for kvantemekanikken , og erstattet disse matrisene med lineære operatorer på Hilbert-rom .
Den teoretiske studien av determinanter kommer fra flere kilder. Problemer med tallteori fører til at Gauss forholder seg til matriser (eller mer presist til deres determinant) koeffisientene til en kvadratisk form så vel som de lineære kartene i dimensjon tre. Gotthold Eisenstein utvikler disse forestillingene og bemerker spesielt at i moderne notasjon er produktet av matriser ikke -kommutativt. Cauchy er den første som demonstrerer generelle resultater på determinanter, ved å bruke definisjonen av matrisens determinant A = [ a i , j ] resultatet av substitusjonen i polynomet av kreftene ak
jav en jk . Han viser også i 1829 at egenverdiene til en symmetrisk matrise er reelle. Jacobi studerer "funksjonelle determinanter" (kalt senere Jacobians av Sylvester), brukt til å beskrive geometriske transformasjoner fra et uendelig minimalt synspunkt ; bøkene Vorlesungen über die Theorie der Determinanten av Leopold Kronecker og Zur Determinantentheorie av Karl Weierstrass , begge utgitt i 1903, definerer for første gang determinanter aksiomatisk som alternerende multilineære former .
Minst to bemerkelsesverdige matematikere har brukt ordet i en uvanlig forstand.
Bertrand Russell og Alfred North Whitehead bruker i deres Principia Mathematica ordet "matrise" i sammenheng med deres aksiom av reduserbarhet (in) . Dette aksiomet gjør det mulig å redusere funksjonstypen, funksjoner av type 0 er identiske med utvidelsen (en) ; de kaller "matrise" en funksjon som bare har gratis variabler . Så, for eksempel, kan en funksjon Φ ( x , y ) av to variabler x og y reduseres til en samling funksjoner av en enkelt variabel, for eksempel y , ved å "vurdere" funksjonen for alle de substituerte verdiene a i til variabelen x reduseres deretter til en "matrise" av verdier ved å fortsette på samme måte for y : ∀ b j , ∀ a i , Φ ( a i , b j ) .
Alfred Tarski bruker i sin introduksjon til logikk fra 1946 ordet "matrise" som et synonym for sannhetstabell .
En matrise med m rader og n kolonner er et rektangulært utvalg av m × n tall, ordnet rad for rad. Det er m rader, og i hver rad n elementer.
Mer formelt og mer generelt, la jeg , J og K være tre sett ( K vil ofte være utstyrt med en ringstruktur eller til og med et kommutativt felt ).
Kalt matrisetypen ( I , J ) med koeffisienter i K , enhver familie av elementer K er indeksert av den kartesiske produkt I x J , det vil si en hvilken som helst implementering A til I x J i K .
Som i resten av denne artikkelen er settene I og J endelige og er henholdsvis sett med heltall {1,…, m } og {1,…, n } . I dette tilfellet sier vi at matrisen har m rader og n kolonner, eller at den har dimensjon eller størrelse ( m , n ) . Ved å betegne et i , j bildet av et par ( i , j ) ved kartet A , kan matrisen deretter betegnes
eller enklere ( a i , j ) hvis konteksten egner seg til det.
I det spesielle tilfellet der I eller J er det tomme settet , kalles den tilsvarende matrisen den tomme matrisen .
Vanligvis er en matrise representert i form av et rektangulært bord. For eksempel, er representert under en matrise A , med heltallskoeffisienter, og dimensjon (3,4):
I denne representasjonen er dimensjonens første koeffisient antall rader, og den andre antall kolonner i tabellen. En matrise som antallet m rader er lik antallet n kolonner for, kalles en firkantmatrise med størrelse (eller rekkefølge ) n . En matrise med bare en rad og n kolonner kalles en radmatrise av størrelse n . En matrise med m rader og en enkelt kolonne kalles en kolonnematrise av størrelse m .
For å finne en koeffisient for en matrise, indikerer vi radindeksen deretter kolonneindeksen, radene teller fra topp til bunn og kolonner fra venstre til høyre. For eksempel vil vi betegner med et i , j , koeffisientene til matrisen A , i mellom 1 og 3 betegner nummeret på den rekke i hvilken koeffisienten forutsett vises, og j mellom 1 og 4 som betegner dens kolonne nummer; altså en 2,4 = 7 .
Den generelle ordningen av koeffisientene til en matrise A med størrelse ( m , n ) er derfor som følger
Koeffisientene a i , j med i = j sies å være diagonale , de med i ≠ j sies å være ekstradiagonal .
En submatrise av A er en matrise oppnådd ved å velge en del I ⊂ {1, ..., m } av radene og en del J ⊂ {1, ..., n } av kolonnene; vi betegne A jeg , J . Vi sier at en submatrise er prinsipiell hvis I = J i forrige definisjon. Den diagonale av A er vektoren
hvor p = min ( m , n ) .
For å utføre visse operasjoner kan det være nyttig å arbeide på systemet med rader eller kolonner i en matrise. Vi kan deretter skrive det i en av følgende former
Settet matriser med koeffisienter i K som har m rader og n kolonner er angitt med M m , n ( K ) (eller noen ganger M ( m , n , K ) ).
Når m = n betegner vi enklere M n ( K ) .
La K være et sett og A = ( a i , j ) 1 ≤ i ≤ m , 1 ≤ j ≤ n ∈ M m , n ( K ) ; Vi kaller den transponerte matrisen til A matrisen A T = ( a j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K ) . Hvis K er et magma , A T = ( en j , i ) 1 ≤ j ≤ n , 1 ≤ i ≤ m ∈ M n , m ( K op ) hvor K op er den motsatte magma av K .
For eksempel, med matrisen A i de foregående eksemplene, har vi
Vi antar nå at K er utstyrt med en ringstruktur ; elementene i K vil bli kalt skalarer , i motsetning til matriser som vi vil se kan betraktes som vektorer .
Vi definerer på M m , n ( K ) en intern sammensetningslov som følger av tillegg av skalarene:
.Vi kan bare legge til to matriser av samme størrelse.
For hver verdi av paret ( m , n ) , den plass M m , n ( K ) blir deretter en abelsk gruppe , med et nøytralt element på null matrise , at der alle koeffisientene er lik 0.
Vi definerer også en operasjon til høyre for K på hver plass M m , n ( K ) ved å assosiere med hver skalar λ i K , og med hver matrise ( en i , j ) med koeffisienter i K , matrisen ( en i , j ) λ = ( a i , j λ ) oppnådd ved å utføre multiplikasjonen til høyre, i K , av alle koeffisientene til den opprinnelige matrisen med λ : det er multiplikasjonen med en skalar . Når ringen er kommutativ, kan multiplikasjonen også gjøres til venstre.
Ta alltid matrisen A fra det første eksemplet ( se ovenfor ):
Mellomromene M m , n ( K ) som er oppnådd har derfor en struktur med K - høyre modul , og mer spesielt av K - vektorrom , hvis K er et kommutativt felt .
Kanonisk grunnlag for matriseplassDen K -module M m , n ( K ) er fri av rang mn , dvs. at den har en basis av MN elementer: det er tilstrekkelig å vurdere den kanoniske basen ( E i , j ) en ≤ i ≤ m , 1 ≤ j ≤ n . Matrisen E i , j er den der alle koeffisientene er null bortsett fra indeksen ( i , j ) , som er lik 1.
Koordinatene i det kanoniske grunnlaget for en matrise A er dens koeffisienter:
Vi starter med å definere produktet av en radmatrise med en kolonnematrise. La n være et helt tall, L en radmatrise, x i dens koeffisienter, C en kolonnematrise, y i dens koeffisienter. De antas begge å ha størrelse n . Vi definerer deretter produktet, betraktet som en skalar eller en matrise av dimensjon (1, 1):
Man legger merke til betingelsen for kompatibilitet på størrelsene på matrisene (likhet mellom antall kolonner i den første med antall linjer i den andre). Vi definerer nå mer generelt et produkt mellom to matriser, den første, ( x i , j ) i M m , n ( K ) , den andre, ( y i , j ) i M n , p ( K ) , alltid med en kompatibilitetsvilkår på størrelsene (og rekkefølgen på faktorene for multiplikasjonen kan generelt ikke endres). Man oppnår en matrise av M m , p ( K ) , der koeffisientene ( z i , j ) blir oppnådd ved:
I lys av eksemplet på multiplikasjon av en radmatrise med en kolonnematrise, kan vi omformulere denne definisjonen ved å si at denne koeffisienten er lik produktet av rad i i den første matrisen med kolonne j i den andre, som er skrevet som følger, hvis L jeg er linjene av den første matrise, og C- j kolonner i den andre, er produktet: .
Matriseproduktet er assosiativt , distribuerende til høyre og til venstre med hensyn til matrisetillegg. På den annen side, selv når dimensjonene gjør det mulig å gi en mening i spørsmålet, og selv om ringen av skalarer er kommutativ, pendler ikke et produkt av matriser generelt: AB er generelt ikke lik BA , for eksempel:
Merk : produktet av to matriser uten null kan være null, som eksemplet ovenfor.
Det skjer til og med, avhengig av de respektive størrelsene på matriser A og B , at det ene av de to produktene eksisterer og det andre ikke.
Transponeringen og matriksproduktet er kompatible i følgende forstand:
( selv om ringen K ikke er kommutativ , husk at de transponerte matrisene har sine koeffisienter i den motsatte ringen K op ).
Identitet og invers matrise til en matriseFor hvert heltall n betegner vi ved I n kvadratmatrisen av størrelse n hvis diagonale koeffisienter er lik 1 og hvis andre koeffisienter er null; det kalles identitetsmatrisen av størrelse n.
hvor δ i, j betegner Kronecker -symbolet .
Underlagt størrelse kompatibilitet I n matriser blir venstre og høyre nøytral for formering.
La A være en dimensjonsmatrise ( m , n ). Vi sier at A er inverterbar til høyre (henholdsvis til venstre) hvis det eksisterer en matrise B av størrelse ( n , m ) slik at AB = I m (henholdsvis BA = I n ). Det sies ganske enkelt å være inverterbar hvis det er både høyre og venstre. Delmengden til M n ( K ) som består av de inverterbare matrisene har en gruppestruktur for matriksproduktet; den kalles en lineær gruppe og betegnes GL n ( K ) .
For en kvadratmatrise med koeffisienter i en kommutativ ring K , er det høyre eller venstre inverterbar eller har en inverterbar determinant i K (dvs. ikke-null hvis K er et felt) tre ekvivalente egenskaper.
Når ringen K er kommutativ, er mengden M n ( K ) av firkantede matriser av størrelse n derfor utstyrt med en struktur av K - assosiativ og enhetlig algebra med matrikstilsetning, produktet ved en skalar og produktmatrisen.
Kalt matrise skalar en matrise av formen I n λ hvor λ er et medlem av ringen K .
Disse matrisene kalles skalarmatriser fordi de oppfører seg som skalarer, med hensyn til multiplikasjon:
Når K er kommutativ, eller ikke, når λ er sentralt i K , dvs. når λ pendler med alle elementene i K , har vi også:
Omvendt, hvilken som helst matrise B av M n ( K ) slik at ∀ A ∈ M n ( K ), AB = BA er en skalarmatrise I n λ hvor λ er sentral i K (dette demonstreres ved å ta for A matrisene til kanonisk grunnlag ).
En matrise av formen:
vil bli kalt diagonal matrise .
Foruten determinanten, er en annen funksjon av notatet sporet . Begge vises i et mer generelt objekt, det karakteristiske polynomet , som igjen gir visse karakteriseringer av diagonaliserbare matriser (dvs. ligner en diagonal matrise), eller av trigonalisering .
Det er flere måter å få den lineære gruppen GL n ( K ) til å virke på matrisenes rom, spesielt:
Vi beskriver nå de klassiske resultatene på disse handlingene, når skalarene danner et kommutativt felt. De to første handlingene blir ofte vurdert samtidig; Vi er derfor interessert i spørsmålet: to matriser A og B av dimensjon ( m , n ) blir gitt, finnes det matriser P ∈ GL m ( K ) og Q ∈ GL m ( K ) slik at A = PBQ −1 ? Hvis dette er tilfelle, sies de to matriser A og B å være ekvivalente . Hovedresultatet er at to matriser er ekvivalente hvis og bare hvis de har samme rang , noe som igjen uttrykkes ved å si at rangen er en fullstendig invariant for dobbeltklassene definert av de to multiplikasjonshandlingene til venstre og til høyre . Videre, når en matrise blir gitt, kan man finne andre privilegerte matriser (de skalerte matrisene ) i samme bane for en av disse handlingene ved hjelp av metoden for den gaussiske pivoten .
For handlingen ved konjugasjon innrømmer to kvadratiske matriser A og B av størrelse n i samme bane et forhold av formen A = PBP −1 , for en viss inverterbar matrise P av størrelse n ; to slike matriser sies å være like . Beskrivelsen av et komplett system av invarianter (som karakteriserer lignende matriser) er mer delikat. Vi kaller disse invariantene likheten invarianter . Fra et algoritmisk synspunkt gjøres reduksjonen av en vilkårlig matrise til en matrise i en privilegert form av en algoritme inspirert av den av den Gaussiske svingeren, se varianten faktor teorem .
En hovedfordel med matriser er at de gjør det mulig å skrive de vanlige operasjonene av lineær algebra med en viss kanonikalitet.
Det første punktet er å legge merke til at K -modulen K n kanonisk identifiseres med rommet til kolonnematrisene M n , 1 ( K ) : hvis e i er n -tupleten til K n hvis koeffisienter er null, bortsett fra i - th som er verdt 1, forbinder vi med det i -te kolonne matrise E i , en av den kanoniske grunnlag av M n , 1 ( K ) (den der koeffisientene er lik null, bortsett fra den i -te som er verdt 1), og vi utvider identifikasjonen ved linearitet; matrisen knyttet til hver n -uplett vil bli kalt den kanoniske koordinatmatrisen .
Andre identifikasjoner er imidlertid mulig; når vi kan snakke om en base (hvis for eksempel ringen av skalarer er et felt), kan vi knytte de elementære kolonnematrisene til et hvilket som helst grunnlag for mellomrommet K n (eller mer generelt av en K -fri modul), og deretter utvide av linearitet igjen; de tilknyttede matrisene vil bli kalt koordinerte matriser i den basen som vurderes.
Man kan sidestille koordinatmatriser, i en fast base, av flere n -upler. Vi får dermed koordinatmatrisen til en familie av vektorer. Den rang av matrisen defineres så som den dimensjon av familien av disse vektorene. Spesielt kalles matrisen til en base i en annen base matrisen for passasje mellom disse to basene, eller matrisen for endring av basen. Hvis X og X ' er koordinatmatrisene til den samme vektoren i to baser B og C , og at P er matriksen for passering fra base C i base B , har vi forholdet (en matriks med passasje er alltid inverterbar):
La E og F to vektorrom av de respektive dimensjoner n og m over et felt K , B en base E , C en base F og φ en lineær kartlegging av E i F .
Vi kaller matrisen av φ i paret av baser ( B , C ) på matten matrisen B , C ( cp ) av M m , n ( K ) slik at for en hvilken som helst vektor x av E , hvis vi betegner y = φ ( x ) , X = matte B ( x ) og Y = matte C ( y ) , deretter:
Hvis ψ er en andre lineær transformasjon, av F i en tredje vektor plass G med basis D , og deretter, i forhold til basene B , C , D , matriksen i kompositt ψ ∘ cp er lik produktet av matrisene av ψ og φ . Mer presist :
Anvendelsen av L ( E , F ) i M m , n ( K ) som med hver φ forbinder sin matrise i ( B , C ) er en isomorfisme av vektorrom .
For en hvilken som helst matrise M på M m , n ( K ) er kartet X ↦ MX av K -vektorrommet M n , 1 ( K ) i K- vektorområdet M m , 1 ( K ) lineært. Dette er et sentralt punkt i koblingen mellom lineær algebra og matriser. Følgelig skjer det ofte at matrisen M identifiseres med dette lineære kartet. Vi vil da snakke om kjernen til matrisen, til egenskapene til matrisen, til bildet av matrisen, etc.
Hvis B og B ' er to baser av E , C og C' to baser av F , P = mat B ( B ' ) passasjematriksen fra B til B' og Q matriksen for passering fra C til C ' , så de to matrisene M og M ' på det samme lineære kartet av E i F , i parene av baser ( B , C ) og ( B' , C ' ), er knyttet til: M' = Q -1 MP . Det bemerkes således at to ekvivalente matriser er to matriser som representerer det samme lineære kartet i forskjellige baser. Spesielt når det gjelder endomorfisme , hvis vi pålegger B = C og B ' = C' , blir den foregående formelen: M '= P −1 MP og to lignende matriser er to matriser som representerer samme endomorfisme i forskjellige baser .
TransposisjonEr igjen E og F to K -spaces vektor av endelige dimensjoner, respektive basene B og C , og φ en lineær kartlegging av E i F . Det transponerte lineære kartet t φ: F * → E * mellom dualene deres er definert av
Dens matrise i paret med to baser ( C *, B *) er knyttet til of i ( B , C ) med:
BemerkeNår ringen ikke er kommutativ, og hvis vektorene er representert med kolonnematriser, er lineær algebra kompatibel med matriseberegning bare hvis modulene eller vektorrommene som er vurdert er til høyre , som i artiklene beskrevet ovenfor, et lineært kart som tilsvarer venstre multiplikasjon av en kolonnevektor med matrisen som representerer den. Hvis vi ønsker å ha moduli eller vektorrom til venstre , må vi representerer vektorene ved hjelp av rad matriser , en lineær transformasjon av denne tiden som representeres ved multiplikasjon til høyre for en rad vektoren ved den matrise som representerer den.
Generelt kan et system med m lineære ligninger med n ukjente skrives i følgende form:
hvor x 1 , ..., x n er ukjente og tallene a i , j er koeffisientene til systemet.
Dette systemet kan skrives i matriseform:
med:
teorien om oppløsning av systemer bruker invariantene knyttet til matrisen A (kalt systemets matrise ), for eksempel dens rangering, og, i tilfelle der A er inverterbar, dens determinant (se artikkelen Cramers regel ).
I dette avsnittet vil ringen K av skalarer antas å være kommutativ. I de fleste applikasjoner vil dette være et kommutativt felt.
Den ikke-kommutative saken eksisterer også, men noen forholdsregler må tas og notasjonene blir for tunge for denne artikkelen.
La E en K -module og B = ( e 1 , ..., e n ) en base E .
La være en bilinær form . Vi definerer matrisen til i basen B med følgende formel:
I det spesielle tilfellet der K = ℝ og f er et punktprodukt, kalles denne matrisen Gram-matrisen .
Den matte matrise B f er symmetrisk (henholdsvis antisymmetrisk ) hvis og bare hvis den bilineære formen er symmetrisk (henholdsvis antisymmetrisk ).
La x og y to vektorer av E . Betegn med X og Y deres koordinater i basen B og A = matten B f . Vi har da formelen .
To bilineære former er like hvis og bare hvis de har samme matrise i en gitt base.
Når K er et karakteristisk felt som er forskjellig fra 2, kaller man matrise av en kvadratisk form for matrisen til den symmetriske bilinære formen som den kvadratiske formen resulterer fra.
La E en K -module fri og B, C to baser av E . Vurder en bilinjær form.
Note M = matte B f matrisen f i bunnen B og M ' = matt C f matrisen f i basis C . La oss betegne passeringsmatrisen med P = mat B C. Vi har da basisendringsformelen for en bilinjær form (for ikke å forveksle med den for en lineær applikasjon ):
To kvadratiske matriser A og B sies å være kongruente hvis det eksisterer en inverterbar matrise P slik at
To kongruente matriser er to matriser som representerer samme bilineære form i to forskjellige baser.
Når K er et felt med karakteristikk annet enn 2, er enhver symmetrisk matrise kongruent med en diagonal matrise. Algoritmen som brukes kalles Gaussisk reduksjon for ikke å forveksles med den gaussiske svingeren .
En matrise sies å være symmetrisk hvis den er lik dens transponering og antisymmetrisk hvis den er motsatt til dens transponering.
En matrise A med komplekse koeffisienter, kalles Hermitisk om den er lik til den transponerte av matrisen konjugat A .
En matrise A sies
(For flere eksempler, se nederst på siden: "Relaterte artikler" og "Matriser" -paletten)
Vi misbruker begrepet dekomponering av en matrise, enten det er en sann dekomponering (i sum) som i nedbrytningen av Dunford eller en faktorisering som i de fleste andre dekomposisjoner.
Gjennom dette avsnittet er K = ℝ eller ℂ .
En matrise norm er en algebra norm over algebra M n ( K ) , det vil si en vektor plass norm som er videre under multiplikativt.
Den spektrale radius av en kvadratisk matrise A med komplekse koeffisienter er den største modulus av dens egenverdier . Den er lik den nedre grense av matrise normer for A .
På M n ( K ) er enhver norm N som er underordnet en norm på K n en algebra -norm som dessuten tilfredsstiller N ( I n ) = 1 (det motsatte er usant).
Vektorrommet M m , n (ℝ) , kanonisk isomorft til ℝ mn , arver sin euklidiske struktur . Den skalar produkt blir transkribert som
hvor betegner sporet (dvs., ) og a i , j (resp. b i , j ) betegner elementene i A (resp. B ). Standarden knyttet til dette skalære produktet er standarden for Frobenius eller standard Hilbert-Schmidt :
hvor σ ( A ) er vektoren for entallverdiene til A og er den euklidiske normen .
Hvis m = n > 1 , er det ikke en underordnet norm, siden
Den Cauchy-Schwarz ulikhet er skrevet (som for alle skalarproduktet):
Denne ulikheten kan forsterkes av von Neumann-spor ulikheten :
hvor σ ( A ) er vektoren for entallverdiene til A , arrangert i synkende rekkefølge . Den har samme struktur som Ky Fan -ulikheten , som antar at matrisene er firkantede og symmetriske (vi kan da erstatte σ (•) med vektoren av egenverdier).
Vektorrommet M m, n (ℂ) er utstyrt med en lignende struktur av hermitisk rom .
La A ∈ M n (ℂ) eller N standard algebra og en hel rekke av konvergens radius R .
Deretter hvis N ( A ) < R , er serien er helt konvergent . (Vi viser dette ved å bruke den N ( A n ) ≤ N ( A ) n .)
Spesielt kan man definere mengden for en hvilken som helst kompleks kvadratmatrise
Den effektive beregningen av denne eksponentielle gjøres ved reduksjon av matrisen .
Eksponentiell spiller en sentral rolle i studiet av lineære systemer av differensialligninger .