Matrix (matematik)
I matematik , en matrix (plural matricer) er et rektangulært arrangement (tabel) af elementer (hovedsagelig matematiske objekter , såsom numre). Disse objekter kan derefter beregnes på en bestemt måde ved at tilføje matricer eller multiplicere dem med hinanden.
Matricer er et nøglebegreb i lineær algebra og forekommer på næsten alle områder af matematik. De viser tydeligt relationer, hvor lineære kombinationer spiller en rolle og dermed letter regning og tankeprocesser. De bruges især til at repræsentere lineære billeder og til at beskrive og løse lineære ligningssystemer . Navnet matrix blev introduceret i 1850 af James Joseph Sylvester .
Et arrangement, som i den tilstødende figur, af Elementer foregår i Linjer og Kolonner. Generaliseringen til mere end to indeks kaldes også en hypermatrix . [1]
Begreber og første egenskaber
notation
Arrangementet af elementerne i rækker og kolonner mellem to store åbnings- og lukkebeslag har etableret sig som en notation. Som regel bruges runde beslag, men der bruges også firkantede parenteser. For eksempel betegne
- og
Matricer med to rækker og tre kolonner. Matricer er normalt store bogstaver (undertiden med fed skrift eller håndskrevet, enkelt eller dobbelt understreget), helst , udpeget. En matrix med Linjer og Kolonner:
- .
Elementer i matricen
Matrixens elementer kaldes også poster eller komponenter i matricen. De kommer fra en mængde normalt en krop eller en ring . Man taler om en matrix om . Hvis du vælger for sættet med reelle tal , taler man om en reel matrix, i tilfælde af komplekse tal af en kompleks matrix.
Et bestemt element er beskrevet af to indekser , normalt er elementet i den første række og i den første kolonne beskrevet. Generelt henvist til elementet i -te linje og -te kolonne. Ved indeksering nævnes rækkeindekset altid først og elementets kolonneindeks andet. Husk regel: linje først, kolonne senere. Hvis der er risiko for forvirring, adskilles de to indekser med et komma. For eksempel er matrixelementet i den første række og den ellevte kolonne markeret med udpeget.
Individuelle rækker og kolonner omtales ofte som kolonne- eller rækkevektorer . Et eksempel:
- her er og kolonnerne eller kolonnevektorerne også og linjerne eller linjevektorerne.
I tilfælde af individuelle række- og kolonnevektorer i en matrix er det uforanderlige indeks undertiden udeladt. Nogle gange skrives kolonnevektorer som transponerede rækkevektorer for en mere kompakt repræsentation, så:
- eller som eller
Type
Typen af en matrix skyldes antallet af dens rækker og kolonner. En matrix med Linjer og Kolonner kaldes en -Matrix (læs: m-by-n -eller m-cross-n-matrix ). Hvis antallet af rækker og kolonner matcher, taler man om en firkantet matrix.
En matrix, der kun består af en kolonne eller kun en række, forstås normalt som en vektor . En vektor med Afhængigt af konteksten kan elementer klassificeres som enkeltkolonne -Matrix eller enkelt linje -Matrix. Ud over udtrykkene kolonnevektor og rækkevektor bruges udtrykkene kolonnematrix og rækkematrix til dette formål. En -Matrix er både søjle- og rækken matrix og betragtes som en skalar .
Formel repræsentation
En matrix er en dobbeltindekseret familie . Formelt set er dette en funktion
hvert indekspar posten som funktionsværdi tildeler. Eksempelvis indeksparret posten som funktionsværdi tildelt. Funktionsværdien er posten i -te linje og -te kolonne. Variablerne og svarer til antallet af rækker eller kolonner. For ikke at forveksle med denne formelle definition af en matrix som funktion er, at matricer selv beskriver lineære kortlægninger .
Beløbet alle -Matricer over mængden bruges også i almindelig matematisk notation skrevet; det er her den korte notation naturaliseret. Nogle gange er stavemåden eller sjældnere Brugt.
Tilføjelse og multiplikation
Elementære aritmetiske operationer er defineret i matricens rum.
Tilføjelse af matrix
To matricer kan tilføjes, hvis de er af samme type, det vil sige, hvis de har samme antal rækker og samme antal kolonner. Summen af to -Matricer er defineret efter komponent:
Prøveberegning:
I lineær algebra er matricens indtastninger normalt elementer i et felt , såsom reelle eller komplekse tal . I dette tilfælde er matrixadditionen associativ , kommutativ og har et neutralt element med nulmatrixen . Generelt har matrixaddition kun disse egenskaber, hvis posterne er elementer i en algebraisk struktur, der har disse egenskaber.
Skalær multiplikation
En matrix ganges med en skalar ved at gange hver post i matrixen med skalaren:
Prøveberegning:
Skalar -multiplikationen må ikke forveksles med skalarproduktet . For at få lov til at udføre skalarmultiplikationen skalaren ( Lambda ) og matrixens poster er den samme ring kommer fra. Mængden af -Matricer i dette tilfælde er et (venstre) modul over
Matrix multiplikation
To matricer kan multipliceres, hvis antallet af kolonner i den venstre matrix svarer til antallet af rækker i den højre matrix. Produktet af en -Matrix og en -Matrix er en -Matrix hvis poster beregnes ved at anvende summen af produktformlen, der ligner skalarproduktet, på par af en rækkevektor i den første matrix og en kolonnevektor i den anden matrix:
Matrixmultiplikationen er ikke kommutativ , det vil sige, at den generelt holder . Matrixmultiplikationen er imidlertid associativ , dvs. den gælder altid:
En kæde af matrixmultiplikationer kan derfor parenteseres på forskellige måder. Problemet med at finde en parentes, der fører til en beregning med det mindste antal elementære aritmetiske operationer, er et optimeringsproblem . Matrixadditionen og matrixmultiplikationen opfylder også de to distributive love:
for alle -Matricer og -Matricer som
for alle -Matricer og -Matricer
Firkantede matricer kan ganges med sig selv, analogt med virkningen af reelle tal, forkortes matrixeffekten eller på. Det giver mening at bruge firkantede matricer som elementer i polynomier. For mere information om dette, se Karakteristisk polynom . For at forenkle beregningen kan den jordanske normale form bruges her. Firkantede matricer over eller man kan endda bruge det i power series, se matrix eksponentiel . De firkantede matricer over en ring spiller en særlig rolle med hensyn til matrixmultiplikation , altså . Med tilsætning og multiplikation af matricen danner disse igen en ring kaldet matrixringen .
Yderligere regnefunktioner
Transponeret matrix
Gennemfør en -Matrix er -Matrix , det vil sige til
er
gennemførelsen. Så du skriver den første række som den første kolonne, den anden række som den anden kolonne osv. Matricen er på dens hoveddiagonal spejlet. Følgende beregningsregler gælder:
Til matricer over den tilstødende matrix er præcis den transponerede matrix.
Omvendt matrix
Hvis determinanten er en kvadratisk -Matrix over en krop er ikke lig med nul, dvs. hvis , så der findes for matrixen omvendt matrix . For dette gælder
- ,
hvori det - er identitetsmatrix . Matricer, der har en invers matrix, kaldes inverterbare eller almindelige matricer . Disse har fuld rang . Omvendt er der ikke invertible matricer kaldes ental matricer. En generalisering af det inverse for entalmatricer er såkaldte pseudo-inverse matricer.
Vektor vektor produkter
Matrixproduktet to Vektorer og er ikke defineret, fordi tallet kolonnerne i generelt ulige antallet linjerne af er. De to produkter og findes dog.
Det første produkt er en -Matrix, som tolkes som et tal; det bliver standard skalarprodukt af og ringet og med eller udpeget. Geometrisk svarer dette skalarprodukt til produktet i et kartesisk koordinatsystem
størrelsen af de to vektorer og cosinus af den vinkel, der er omsluttet af de to vektorer. For eksempel
Det andet produkt er en -Matrix og kaldes det dyadiske produkt eller tensorprodukt af og (skrevet ). Dens søjler er skalære multipler af , dens rækker er skalære multipler af . For eksempel
Vektorrum af matricer
Mængden af -Matricer over en krop danner et med matrixadditionen og skalarmultiplikationen - vektorrum . Dette vektorrum har dimensionen . En base af er givet ved mængden af standardmatricer med , . Denne base bruges undertiden som standardbase for udpeget.
Sporet af matrixproduktet
er så i et specielt tilfælde et rigtigt skalarprodukt . I dette euklidiske vektorrum er de symmetriske matricer og de skæv-symmetriske matricer vinkelret på hinanden. er en symmetrisk og er en skæv-symmetrisk matrix, altså .
I et særligt tilfælde er sporet af matrixproduktet
bliver et komplekst skalarprodukt, og matrixrummet bliver et enhedsvektorrum . Dette skalarprodukt kaldes Frobenius -skalarproduktet . Normen fremkaldt af Frobenius skalarproduktet kaldes Frobenius -normen og med det bliver matrixrummet til et Banach -rum .
Ansøgninger
Forhold til lineære kort
Det særlige ved dør over en ring er forholdet til lineære kort . For hver matrix kan være en lineær kortlægning med et domæne (Sæt med kolonnevektorer) og værdiområde definere ved at tage hver kolonnevektor på Kort. Omvendt svarer det til hver lineær kortlægning på denne måde præcis en -Matrix ; hvor er kolonnerne billederne af standardbasisvektorerne fra blandt . Dette forhold mellem lineære kortlægninger og matricer er også kendt som (kanonisk) isomorfisme
Han poserer på et givet og repræsenterer en sammenføjning mellem sæt af matricer og sæt af lineære billeder Matrixproduktet transformeres til sammensætning (udførelse) af lineære billeder. Fordi parenteserne ikke spiller en rolle i udførelsen af tre lineære kortlægninger efter hinanden, gælder dette for matrixmultiplikationen, som derfor er associativ .
er selv et felt kan man bruge vilkårlige endelige-dimensionelle rum i stedet for kolonnevektorrummene -Vektorrum og (dimensionen eller. ) hensyn. (Hvis er en kommutativ ring med 1, så kan man analogt overveje gratis K-moduler .) Disse er baseret på valget af baser fra og fra til koordinatrummene eller. isomorfe, fordi til enhver vektor en unik nedbrydning til basisvektorer
findes, og de kropselementer, der forekommer i den koordinatvektoren
form. Koordinatvektoren afhænger imidlertid af den anvendte base fra, derfor i betegnelsen opstår.
Det er analogt i vektorrum Er et lineært kort givet, billederne af basisvektorerne af entydigt ind i basisvektorerne for nedbrydes i formen
med koordinatvektor
Kortlægningen defineres derefter fuldstændigt af den såkaldte kortlægningsmatrix
fordi for billedet af ovenstående vektor er gældende
så ("Koordinatvektor = matrix gange koordinatvektor"). (Matrixen afhænger af de anvendte baser og væk; når multiplikation bliver basen , som står til venstre og højre for maleriet, "forkortet væk" og "ydersiden" er Venstre.)
Udførelsen af to lineære kortlægninger den ene efter den anden og (med baser , eller. ) svarer til matrixmultiplikationen, dvs.
(også her basen "Forkortet").
Derfor sæt af lineære kort over til igen isomorf til Isomorfismen men afhænger af de valgte baser og og er derfor ikke kanonisk: Når du vælger en anden base til eller. til den samme lineære kortlægning tildeles en anden matrix, der er afledt af den gamle ved at multiplicere højre eller venstre med en inverterbar matrix, der kun er afhængig af de involverede baser - eller. -Matrix (såkaldt basic change matrix ) oprettes. Dette følger ved at anvende multiplikationsreglen fra det foregående afsnit to gange, nemlig
("Matrix = basisændringsmatrix gange matrix gange basisændringsmatrix"). Dabei bilden die Identitätsabbildungen und jeden Vektor aus bzw. auf sich selbst ab.
Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.
Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:
In diesem Sinne ist also die Determinante basisunabhängig.
Umformen von Matrizengleichungen
Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizen kalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.
Beispiel: Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor eines linearen Gleichungssystems
mit als -Koeffizientenmatrix. Wenn die inverse Matrix existiert, kann man mit ihr von links multiplizieren:
und man erhält als Lösung
Spezielle Matrizen
Eigenschaften von Endomorphismen
Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen , die durch sie dargestellt werden.
- Orthogonale Matrizen
- Eine reelle Matrix ist orthogonal, wenn die zugehörige lineare Abbildung das Standardskalarprodukt erhält, das heißt, wenn
- gilt. Diese Bedingung ist äquivalent dazu, dass die Gleichung
- bzw.
- erfüllt.
- Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.
- Unitäre Matrizen
- Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix ist unitär, wenn die zugehörige Transformation die Normierung erhält, das heißt, wenn
- gilt. Diese Bedingung ist äquivalent dazu, dass die Gleichung
- erfüllt; dabei bezeichnet die konjugiert-transponierte Matrix zu
- Fasst man den -dimensionalen komplexen Vektorraum als -dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit vertauschen.
- Projektionsmatrizen
- Eine Matrix ist eine Projektionsmatrix, falls
- gilt, sie also idempotent ist, das heißt, die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix. Steht der Nullraum senkrecht auf dem Bildraum , so erhält man eine Orthogonalprojektion .
- Beispiel: Es sei eine -Matrix und damit selbst nicht invertierbar. Falls der Rang von gleich ist, dann ist invertierbar und die -Matrix
- idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.
- Nilpotente Matrizen
- Eine Matrix heißt nilpotent, falls eine Potenz (und damit auch jede höhere Potenz) die Nullmatrix ergibt.
Eigenschaften von Bilinearformen
Im Folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform
entsprechen. Trotzdem können diese Eigenschaften für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.
- Symmetrische Matrizen
- Eine Matrix heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
- Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen.
- Beispiel:
- Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
- andererseits den selbstadjungierten linearen Abbildungen:
- Hermitesche Matrizen
- Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen .
- Eine Matrix ist hermitesch oder selbstadjungiert, wenn gilt:
- Schiefsymmetrische Matrizen
- Eine Matrix heißt schiefsymmetrisch oder antisymmetrisch, wenn gilt:
- Um diese Bedingung zu erfüllen, müssen alle Einträge der Hauptdiagonale den Wert Null haben; die restlichen Werte werden an der Hauptdiagonale gespiegelt und mit multipliziert.
- Beispiel:
- Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
- und antiselbstadjungierten Endomorphismen:
- Positiv definite Matrizen
- Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, das heißt, wenn für alle Vektoren gilt:
- Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte . Hat die Bilinearform keine negativen Werte, heißt die Matrix positiv semidefinit. Analog kann eine Matrix negativ definit beziehungsweise negativ semidefinit heißen, wenn die obige Bilinearform nur negative beziehungsweise keine positiven Werte hat. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.
Weitere Konstruktionen
Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix wird mit bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden.
- Adjunkte oder komplementäre Matrix
Die komplementäre Matrix einer quadratischen Matrix setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante Minor genannt wird. Für die Ermittlung der Unterdeterminanten werden die -te Zeile und -te Spalte von gestrichen. Aus der resultierenden -Matrix wird dann die Determinante berechnet. Die komplementäre Matrix hat dann die Einträge Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
- Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix , denn nach dem Laplaceschen Entwicklungssatz gilt:
- Damit ist die Inverse wenn
Eine Übergangs- oder stochastische Matrix ist eine Matrix, deren Einträge alle zwischen 0 und 1 liegen und deren Zeilen bzw. Spaltensummen 1 ergeben. Sie dienen in der Stochastik zur Charakterisierung zeitlich diskreter Markow-Ketten mit endlichem Zustandsraum. Ein Spezialfall hiervon sind die doppelt-stochastischen Matrizen .
Unendlichdimensionale Räume
Für unendlichdimensionale Vektorräume (sogar über Schiefkörpern ) gilt, dass jede lineare Abbildung eindeutig durch die Bilder der Elemente einer Basis bestimmt ist und diese beliebig gewählt werden und zu einer linearen Abbildung auf ganz fortgesetzt werden können. Ist nun eine Basis von , so lässt sich eindeutig als (endliche) Linearkombination von Basisvektoren schreiben, dh, es existieren eindeutige Koeffizienten für , von denen nur endlich viele von null verschieden sind, sodass . Dementsprechend lässt sich jede lineare Abbildung als möglicherweise unendliche Matrix auffassen, wobei jedoch in jeder Spalte ( „nummeriere“ die Spalten und die Spalte zu bestehe dann aus den von den Elementen von nummerierten Koordinaten ) nur endlich viele Einträge von null verschieden sind, und umgekehrt. Die entsprechend definierte Matrixmultiplikation entspricht wiederum der Komposition linearer Abbildungen.
In der Funktionalanalysis betrachtet man topologische Vektorräume , dh Vektorräume, auf denen man von Konvergenz sprechen und dementsprechend unendliche Summen bilden kann. Auf solchen können Matrizen mit unendlich vielen von null verschiedenen Einträgen in einer Spalte unter Umständen als lineare Abbildungen verstanden werden, wobei auch andere Basis-Begriffe zugrunde liegen.
Einen speziellen Fall bilden Hilberträume . Seien also Hilberträume und Orthonormalbasen von bzw. . Dann erhält man eine Matrixdarstellung eines linearen Operators (für lediglich dicht definierte Operatoren funktioniert es ebenso, falls der Definitionsbereich eine Orthonormalbasis besitzt, was im abzählbardimensionalen Fall stets zutrifft), indem man die Matrixelemente definiert; dabei ist das Skalarprodukt im betrachteten Hilbertraum (im komplexen Fall semilinear im ersten Argument).
Dieses sogenannte Hilbert-Schmidt-Skalarprodukt lässt sich im unendlichdimensionalen Fall nur noch für eine bestimmte Teilklasse von linearen Operatoren, die sogenannten Hilbert-Schmidt-Operatoren , definieren, bei denen die Reihe, über die dieses Skalarprodukt definiert ist, stets konvergiert.
Literatur
- Gerd Fischer : Lineare Algebra. (Eine Einführung für Studienanfänger). 13., durchgesehene Auflage. Vieweg, Braunschweig ua 2002, ISBN 3-528-97217-3 .
- Günter Gramlich: Lineare Algebra. Fachbuchverlag Leipzig im Carl Hanser Verlag, München ua 2003, ISBN 3-446-22122-0 .
- Klaus Jänich : Lineare Algebra. 11. Auflage. Springer, Berlin ua 2008, ISBN 978-3-540-75501-2 .
- Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra. Mit Anwendungen in der Statistik. 2., vollständig überarbeitete Auflage. Springer, Berlin ua 2006, ISBN 3-540-33007-0 .
- Gilbert Strang : Lineare Algebra. Springer, Berlin ua 2003, ISBN 3-540-43949-8 .
Weblinks
- Matrizen-Rechner – Rechner, der Rechenoperationen für Matrizen mit konkreten Zahlenwerten, aber auch mit Variablen durchführt.
- The Matrix Cookbook – Eine englischsprachige, umfangreiche Matrix-Formelsammlung (PDF; 522 kB).
Belege/ Hinweise
- ↑ Eric W. Weisstein : Hypermatrix . In: MathWorld (englisch).