Tensorprodukt

Dieser Artikel behandelt vorrangig das Tensorprodukt von Vektorräumen und von linearen Abbildungen. Eine allgemeinere Konstruktion ist das Tensorprodukt von Moduln.
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen)

Das Tensorprodukt ist ein universelles Objekt der multilinearen Algebra und somit ein vielseitiger Begriff der Mathematik: In der linearen Algebra und in der Differentialgeometrie dient es zur Beschreibung multilinearer Abbildungen, in der kommutativen Algebra und in der algebraischen Geometrie entspricht es einerseits der Einschränkung geometrischer Strukturen auf Teilmengen, andererseits dem kartesischen Produkt geometrischer Objekte.

Für einzelne Tensoren und Koordinatendarstellungen siehe Tensor. Für die basisfreie Konstruktion sei auf Tensorprodukt von Moduln verwiesen.

In der Physik bezeichnet man Elemente des Tensorprodukts

V V r  Faktoren V V s  Faktoren {\displaystyle \underbrace {V\otimes \dotsb \otimes V} _{r{\text{ Faktoren}}}\otimes \underbrace {V^{*}\otimes \dotsb \otimes V^{*}} _{s{\text{ Faktoren}}}}

(für einen Vektorraum V {\displaystyle V} mit Dualraum V {\displaystyle V^{*}} , oft V = R 3 {\displaystyle V=\mathbb {R} ^{3}} ) als gemischte Tensoren, kontravariant der Stufe r {\displaystyle r} und kovariant der Stufe s {\displaystyle s} . Man spricht kurz von Tensoren vom Typ ( r , s ) {\displaystyle (r,s)} . So lassen sich lineare Abbildungen f : V W {\displaystyle f\colon V\to W} als Tensoren aus V W {\displaystyle V^{*}\otimes W} oder aber als Tensoren auf dem Dualraum V W {\displaystyle V\otimes W^{*}} interpretieren. Wie sich diese zunächst verwirrende Vielfalt widersprüchlich erscheinender Auffassungen dem allgemeinen Verständnis von Tensoren unterordnet, erklären die Abschnitte über Homomorphismen als Tensoren und Tensoren vom Typ ( r , s ) {\displaystyle (r,s)} .

Tensorprodukt von Vektorräumen

Das Tensorprodukt ist ein universelles Objekt der multilinearen Algebra, genauer: ein Anfangsobjekt (Synonyme: initiales Objekt, engl.: universally repelling object).[1] Als solches ist es nur bis auf Isomorphie eindeutig bestimmt. Was auf den ersten Blick enttäuschend klingen mag, bedeutet in Wahrheit jedoch die äußerst flexible Anwendbarkeit dieses Begriffs. Im Mittelpunkt stehen – als Erweiterung des Begriffs der linearen Abbildungen – die multilinearen Abbildungen. Dies sind Abbildungen in N {\displaystyle N} linearen Variablen (Vektoren), die in jeder einzelnen für sich genommen, während die anderen unverändert bleiben, linear sind. Dass Messgrößen in dieser Weise voneinander abhängen, beobachtet die Physik häufig. Im Falle von N = 1 {\displaystyle N=1} spricht man von (uni)linearen, bei N = 2 {\displaystyle N=2} von bilinearen, für N = 3 {\displaystyle N=3} von trilinearen, im allgemeinen Falle von N {\displaystyle N} -fach multilinearen Abbildungen. Für alles Folgende muss daher notwendig vorausgesetzt werden, dass der Grundkörper K {\displaystyle K} kommutativ ist, also kein Schiefkörper. (Der nicht-kommutative Fall wird im Abschnitt über das Tensorprodukt auf Moduln über nicht-kommutativen Ringen und darin speziell hier skizziert.)

Einführung: Anknüpfungspunkte zur Motivation

Zur Erläuterung: Man mag die Situation mit der elementaren Situation für einen Körper K {\displaystyle K} vergleichen, der über sich selbst einen Vektorraum bildet und dessen Elemente also als Vektoren aufgefasst werden können: Eine unilineare, d. h. lineare Abbildung K K {\displaystyle K\to K} ( N = 1 {\displaystyle N=1} ) ist eine Multiplikation mit einem Körperelement („Skalar“) m {\displaystyle m} , d. h.: mult m : x m x {\displaystyle \operatorname {mult} _{m}\colon x\mapsto m\cdot x} . Bilineare Abbildungen sind Produkte zweier linearer Abbildungen und haben daher quadratische Ordnung: K × K K , ( x 1 , x 2 ) m 1 x 1 m 2 x 2 = m 1 m 2 x 1 x 2 {\displaystyle K\times K\to K,\;(x_{1},x_{2})\mapsto m_{1}x_{1}\cdot m_{2}x_{2}=m_{1}m_{2}\cdot x_{1}x_{2}} . Trilineare Abbildungen haben entsprechend kubische Ordnung, und allgemein sind N {\displaystyle N} -fach multilineare Abbildungen das Produkt von N {\displaystyle N} linearen Abbildungen. Das Tensorprodukt von Vektorräumen verallgemeinert diese Bildung: Allerdings müssen zu diesem Zweck – im Gegensatz zu der eben beschriebenen elementaren Situation – sowohl eine ( N {\displaystyle N} -fach multilineare) „Multiplikation für Vektoren“ (zumal aus unterschiedlichen K {\displaystyle K} -Vektorräumen), nämlich das Tensorprodukt, als auch der Tensorproduktraum, in dem diese Produkte liegen, erst geschaffen werden. Dabei werden der Tensorproduktraum und das Tensorprodukt als ein universelles Objekt definiert, sodass jede multilineare Abbildung mit ihnen linear parametrisiert werden kann.

Beispiele für multilineare Abbildungen auf ein und demselben Vektorraum V {\displaystyle V} der Dimension dim V =: n {\displaystyle \dim V=:n} sind (insbesondere aus dem Anschauungsraum K = R , n = 3 , V = R 3 {\displaystyle K=\mathbb {R} ,n=3,V=\mathbb {R} ^{3}} ) bekannt:

  • Das (innere) Skalarprodukt: Dies ist ein Produkt zweier Vektoren ( N = 2 {\displaystyle N=2} ) aus dem Vektorraum mit Werten im Grundkörper K {\displaystyle K} . Es misst die Länge der (gerichteten) Projektion des einen Vektors auf den anderen skaliert mit dessen Länge.
  • Das Vektorprodukt oder Kreuzprodukt oder äußere Produkt: Dies ist ein Produkt von N = n 1 {\displaystyle N=n-1} Vektoren aus dem Vektorraum und liefert einen Vektor, dessen Länge im n {\displaystyle n} -Dimensionalen das „vorzeichenbehaftete“ (da orientierte) Volumen des von n 1 {\displaystyle n-1} Vektoren aufgespannten Hyperquaders misst, und der senkrecht (orthogonal) und in positiver Orientierung auf dem Hyperquader steht.
  • Die Determinante misst (als Volumenform) im n {\displaystyle n} -Dimensionalen das – ebenfalls orientierte – Volumen des von n {\displaystyle n} Vektoren aufgespannten Quaders als Skalargröße. Für sie ist also N = n {\displaystyle N=n} . Sie lässt sich auch als Skalarprodukt von einem ihrer n {\displaystyle n} Vektoren mit dem Vektorprodukt der übrigen n 1 {\displaystyle n-1} Vektoren errechnen. (Dem entspricht die Entwicklungsformel nach einer Spalte oder Zeile.) Sie lässt sich durch das Spatprodukt (verallgemeinert ins n {\displaystyle n} -Dimensionale) vom Kreuzprodukt ableiten.
  • Allgemeiner betrachtet ist klar, dass das k {\displaystyle k} -dimensionale Volumen eines von k {\displaystyle k} Vektoren ( v 1 , , v k ) {\displaystyle (v_{1},\dots ,v_{k})} aufgespannten Parallelotops im n {\displaystyle n} -dimensionalen Raum ( v i V , i = 1 , , k n = dim V {\displaystyle v_{i}\in V,\,i=1,\dots ,k\leq n=\dim V} ) linear von jedem einzelnen Vektor abhängt und verschwindet, sobald zwei Vektoren gleich sind, weil die k {\displaystyle k} Vektoren dann einen höchstens ( k 1 ) {\displaystyle (k-1)} -dimensionalen Vektorraum aufspannen und das Parallelotop folglich kollabiert. Die Messung k {\displaystyle k} -dimensionaler Volumina ist also ein elementargeometrisches Beispiel einer alternierenden k {\displaystyle k} -stufigen Multilinearform und liefert daher bei Char K 2 {\displaystyle \operatorname {Char} K\neq 2} einen antisymmetrischen Tensor. Hiermit im Zusammenhang stehen die Graßmann-Algebra und – bei weiterer Verallgemeinerung – die Clifford-Algebra. Die Determinante behandelt den Fall k = n {\displaystyle k=n} .

Die duale Paarung hingegen ist eine bilineare Abbildung auf einem Vektorraum und seinem Dualraum mit Werten im Grundkörper, also eine Bilinearform: Sie besteht in der bloßen Auswertung eines Kovektors (einer Linearform) auf einem Vektor und ermöglicht es, einen Vektorraum als einen Unterraum seines Bidualraumes aufzufassen, bei endlicher Dimension sogar mit ihm kanonisch zu identifizieren.

All diese „Produkte“ verdienen diesen Namen, weil sie bilinear bzw. multilinear sind, und stellen daher – trotz ihrer Verschiedenheit – Beispiele für Tensoren dar. Tensoren sind multilineare Abbildungen, und das Tensorprodukt lässt sich als ein universeller Tensor verstehen: Alle denkbaren multilinearen Abbildungen (Produkte von Vektoren aus vorgegebenen Vektorräumen) lassen sich mit Hilfe des Tensor(produkt)raumes einheitlich beschreiben.

Da – zumal im endlichdimensionalen Falle – etliche Identifikationen rund um Vektorräume, ihre Dualräume und die Räume linearer Abbildungen möglich sind, gibt es für den Tensorproduktraum viele isomorphe Deutungen. Daher lassen sich in der Literatur viele Zugänge und unterschiedliche Betrachtungsweisen finden. Das Wesen des Tensorprodukts liegt jedoch in der Betrachtung multilinearer Abbildungen V ( 1 ) × × V ( N ) W {\displaystyle V^{(1)}\times \dots \times V^{(N)}\longrightarrow W} , also Abbildungen, die in jeder einzelnen Komponente ( V ( i ) , i = 1 , , N {\displaystyle V^{(i)},\,i=1,\dots ,N} ) bei festgehaltenen übrigen Komponenten K {\displaystyle K} -linear sind. Der Raum dieser Abbildungen ist in naheliegender Weise ein Vektorraum über K {\displaystyle K} und wird mit L N ( V ( 1 ) , , V ( N ) ; W ) {\displaystyle L^{N}(V^{(1)},\dots ,V^{(N)};W)} bezeichnet. Es ist Hom ( V , W ) = L ( V , W ) = L 1 ( V ; W ) {\displaystyle \operatorname {Hom} (V,W)=L(V,W)=L^{1}(V;W)} .

Es wird zunächst der Fall der bilinearen Abbildungen ( N = 2 {\displaystyle N=2} ) behandelt, bevor der allgemeine Fall der multilinearen Abbildungen in verdichteter Form betrachtet wird.

Sesquilinearität im komplexen Fall

Für den komplexen Fall K = C {\displaystyle K=\mathbb {C} } ist zu beachten, dass an die Stelle der Bilinearität meist die Sesquilinearität tritt, wie etwa im Falle hermitescher Sesquilinearformen, wie es positiv definite Skalarprodukte sind: Das heißt, dass die Abbildung nur in einem der beiden Argumente linear ist, im anderen stattdessen antilinear oder semilinear: Dies bedeutet, dass die komplexe Konjugation als Involution ins Spiel kommt – und darin auch bleibt. Somit ist an manchen Stellen die Linearität durch Antilinearität (Semilinearität) zu ersetzen, siehe bspw. den Abschnitt zum Tensorprodukt von Hilbert-Räumen.

Gemischte Tensoren

Wie erwähnt, beobachtet die Physik häufig, dass eine Messgröße, sei sie skalar- oder vektorwertig, von mehreren anderen abhängt und zwar von jeder einzelnen in linearer Weise. Wie sich die Abhängigkeit insgesamt beschreiben lässt, gibt der zugehörige Tensor an. Typischerweise entstammen die Observablen demselben Vektorraum V = V ( i ) , i = 1 , , s {\displaystyle V=V^{(i)},i=1,\dots ,s} oder aber seinem Dualraum V = V ( i ) , i = s + 1 , s + r = N {\displaystyle V^{*}=V^{(i)},i=s+1,\dots s+r=N} . Dies führt (für den grundlegenden Fall W = K {\displaystyle W=K} ) zu dem in der Physik üblichen Begriff der (gemischten) Tensoren vom Typ ( r , s ) {\displaystyle (r,s)} , der r {\displaystyle r} -fach kontravarianten und s {\displaystyle s} -fach kovarianten Tensoren (der Stufe r + s {\displaystyle r+s} ): T s r ( V ) = L r + s ( V × × V r  Mal × V × × V s  Mal ; K ) = V r ( V ) s {\displaystyle T_{s}^{r}(V)=L^{r+s}(\underbrace {V^{*}\times \dots \times V^{*}} _{r{\text{ Mal}}}\times \underbrace {V\times \dots \times V} _{s{\text{ Mal}}};K)=V^{\otimes r}\otimes (V^{*})^{\otimes s}} . Tatsächlich entstand der Begriff des Tensors zuerst in der Physik der Spannungstensoren, wie im Artikel zum Tensor nachzulesen ist (siehe auch Kontinuumsmechanik, Trägheitstensor und Verzerrungstensor).

Tensoren mit besonderen Eigenschaften

Unter den Tensoren gibt es solche mit weiteren speziellen Eigenschaften wie symmetrische Tensoren, alternierende Tensoren (siehe auch alternierende Multilinearformen, alternierende Matrizen bzw. antisymmetrische Tensoren und symmetrische und antisymmetrische Tensoren), insbesondere das Vektorprodukt (siehe auch im Kontext krummliniger Koordinaten), schiefsymmetrische Tensoren etc.

Verknüpfungen von Tensoren

Da Tensorprodukträume ihrerseits Vektorräume sind, lassen sich multilineare Abbildungen auf ihnen und damit ihr Tensorprodukt bilden: Äußeres (siehe auch hier) und inneres Produkt sowie Tensorverjüngung (siehe auch Abschnitte zur Spurbildung und Verjüngung bzw. Kontraktion) sind Beispiele multilinearer Abbildungen von Tensoren. Formelsammlungen befinden sich in der Formelsammlung Tensoralgebra oder im Internet.[Anm 1]

Einige Anwendungsgebiete

In der Tensoranalysis werden Tensorfelder betrachtet. Sie kommen durch die Tangentialräume und Tensorbündel ins Spiel, hier befindet sich eine Formelsammlung dazu.

In der Theorie der Algebren wird das Konzept des Tensorprodukts genutzt, um Algebren zu konstruieren wie bspw.:

Das Tensorprodukt von Algebren spielt eine zentrale Rolle bei der Untersuchung von Azumaya-Algebren (d. h. zentraler einfacher endlichdimensionaler Algebren), worin sich Algebrentheorie und Zahlentheorie begegnen und den Satz von Skolem-Noether liefern sowie einen Beweis des Satzes von Wedderburn mit Hilfe der verschränkten Produkte (Faktorensystem) von Emmy Noether ermöglichen. Die Definition der Brauergruppe beruht auf der Verwendung des Tensorproduktes von Azumaya-Algebren.

Erinnerung an die (uni)lineare Algebra: Illustration am Beispiel N = 1

Der Fall N = 1 {\displaystyle N=1} ist aus der (uni)linearen Algebra bekannt: Der Koordinatenraum K n {\displaystyle K^{n}} ist ein Modell für jeden n {\displaystyle n} -dimensionalen K {\displaystyle K} -Vektorraum. So könnte dieser unilineare Fall auch als Induktionsanfang für eine induktive Definition und die Definition für das bilineare Tensorprodukt als Induktionsschritt benutzt werden (siehe diesen Abschnitt), doch ist die Definition für den allgemeinen Fall auch unmittelbar möglich.

Lineare Abbildungen können in Koordinatenräumen dargestellt werden. Insbesondere können sie durch Linearformen (also durch lineare Abbildungen λ : V K {\displaystyle \lambda \colon V\to K} in den Grundkörper) dargestellt werden, wie kurz erläutert werden soll: Es seien dazu V = j J v j {\displaystyle V=\bigoplus _{j\in J}v_{j}} und W = i I w i {\displaystyle W=\bigoplus _{i\in I}w_{i}} Vektorräume über dem Grundkörper K {\displaystyle K} mit den Basen ( v j ) j {\displaystyle (v_{j})_{j}} bzw. ( w i ) i {\displaystyle (w_{i})_{i}} . (Bei endlichen Dimensionen denke man sich J = { 1 , , n } {\displaystyle J=\{1,\dots ,n\}} und I = { 1 , , m } {\displaystyle I=\{1,\dots ,m\}} .) Jede Abbildung f : B W {\displaystyle f\colon B\to W} einer Menge (!) B {\displaystyle B} in den Vektorraum W {\displaystyle W} zerfällt in naheliegender Weise in die Summe f = i i f i {\displaystyle f=\sum _{i\in i}f_{i}} von Komponentenabbildungen f i {\displaystyle f_{i}} definiert durch f ( v ) =: i I w i λ i ( v ) =: f i ( v ) = π i f {\displaystyle f(v)=:\sum _{i\in I}\underbrace {w_{i}\cdot \lambda _{i}(v)} _{=:f_{i}(v)=\pi _{i}\circ f}} , wobei π i : W W i := K w i {\displaystyle \pi _{i}\colon W\to W_{i}:=K\cdot w_{i}} die kanonischen Projektionen bezeichne. In dieser Weise lassen sich alle vektorwertigen Funktionen zerlegen, insbesondere lineare Abbildungen f : V W {\displaystyle f\colon V\to W} in die Summe der zugehörigen Linearformen λ i {\displaystyle \lambda _{i}} .

Aus der (uni)linearen Algebra ist bekannt, dass derartige Linearformen als Kovektoren bezeichnet werden und dual zu den Ursprungsvektoren beschrieben werden: Werden die Vektoren v = j v j x j V {\displaystyle v=\sum _{j}v_{j}\cdot x_{j}\in V} als Spaltenvektoren ( x 1 x n ) {\displaystyle {\begin{pmatrix}x_{1}\\\vdots \\x_{n}\end{pmatrix}}} dargestellt (bezogen auf die gewählte Basis), so können die Kovektoren als Zeilenvektoren dargestellt werden und sind als Elemente des Dualraumes V {\displaystyle V^{*}} zu verstehen: Als solche sind sie eindeutig als eine Linearkombination j J x j v j {\displaystyle \sum _{j\in J}x'_{j}\cdot v_{j}^{*}} der zu ( v j ) j {\displaystyle (v_{j})_{j}} dualen Basis ( v j ) j {\displaystyle (v_{j}^{*})_{j}} darstellbar. Bei endlicher Dimension besteht eine – freilich basisabhängige – Isomorphie zwischen Dualraum und Ursprungsraum, während die Isomorphie zwischen Bidualraum und Ursprungsraum kanonisch ist. („Der Ursprungsraum ist der Dualraum seines Dualraums.“)

Zusammengefasst: Jede lineare Abbildung f L ( V , W ) := Hom ( V , W ) {\displaystyle f\in L(V,W):=\operatorname {Hom} (V,W)} lässt sich als Linearkombination i I w i λ i = i I f i {\displaystyle \sum _{i\in I}w_{i}\lambda _{i}=\sum _{i\in I}f_{i}} von Linearformen (Kovektoren) darstellen. Die elementaren Bausteine linearer Abbildungen sind also Kovektoren v V {\displaystyle v^{*}\in V^{*}} , und diese sind – als Elemente des Dualraums – gut bekannt. Die Koordinatenabbildung ϕ : V j J v j K j J K K ( J ) K n {\displaystyle \phi \colon V\to \bigoplus _{j\in J}v_{j}\cdot K\cong \coprod _{j\in J}K\cong K^{(J)}\cong K^{n}} [Anm 2] liefert eine konkrete Darstellung als Spalten- bzw. Zeilenvektoren, mit deren Hilfe jede lineare Abbildung f L ( V , W ) {\displaystyle f\in L(V,W)} mit einer eindeutig bestimmten linearen Abbildung f ~ {\displaystyle {\tilde {f}}} als Kompositum f : V ϕ K ( J ) f ~ W {\displaystyle f\colon V{\stackrel {\phi }{\stackrel {\sim }{\longrightarrow }}}K^{(J)}{\stackrel {\tilde {f}}{\longrightarrow }}W} dargestellt werden kann.

Das N {\displaystyle N} -fache Tensorprodukt : k = 1 N V ( k ) k = 1 N V ( k ) {\displaystyle \otimes \colon \prod _{k=1}^{N}V^{(k)}\to \bigotimes _{k=1}^{N}V^{(k)}} klärt dieselbe Fragestellung für N {\displaystyle N} -fach multilineare Abbildungen ψ : k = 1 N V ( k ) W {\displaystyle \psi \colon \prod _{k=1}^{N}V^{(k)}\to W} und wird ebenfalls liefern: Jede derartige multilineare Abbildung ψ {\displaystyle \psi } ist mit Hilfe einer eindeutig bestimmten linearen Abbildung ψ ~ : k = 1 N V ( k ) W {\displaystyle {\tilde {\psi }}\colon \bigotimes _{k=1}^{N}V^{(k)}\to W} darstellbar als ψ = ψ ~ {\displaystyle \psi ={\tilde {\psi }}\circ \otimes } . Um alle multilinearen Abbildungen („Tensoren“) zu kennen, genügt es also, das Tensorprodukt zu kennen, denn es ist universell: Jede multilineare Abbildung ist ein (sogar eindeutig bestimmtes) lineares Abbild des Tensorprodukts. So erscheint das Tensorprodukt als eine multilineare Koordinatenabbildung, mit der jeder Tensor auf eindeutige Weise linear parametrisiert werden kann. Man darf sie sich als eine multilineare Koordinatenabbildung vorstellen, die minimal mit der Eigenschaft ist, dass jede multilineare Abbildung ihr lineares Abbild ist. Die Minimalität sichert die Eindeutigkeit des linearen Abbildes. Als Koordinatenraum für die Koordinatendarstellung von Tensoren wird sich der Raum der N {\displaystyle N} -dimensionalen (Super-)Matrizen empfehlen. Der folgende Unterabschnitt präzisiert diese Überlegungen.

N beliebig: Multilineare Algebra

Der Fall N = 1 {\displaystyle N=1} zeigt also: Unilineare Abbildungen f L ( V , W ) {\displaystyle f\in L(V,W)} lassen sich durch Multiplikation mit Matrizen T j J i I {\displaystyle \mathrm {T} _{j\in J}^{i\in I}} beschreiben, die den zugehörigen Koordinatenraum K ( J ) {\displaystyle K^{(J)}} von V {\displaystyle V} (bezüglich einer Basis v _ {\displaystyle {\underline {v}}} in V {\displaystyle V} ) in denjenigen K ( I ) {\displaystyle K^{(I)}} von W {\displaystyle W} (bezüglich einer Basis w _ {\displaystyle {\underline {w}}} in W {\displaystyle W} ) linear abbildet. Sie sind in Summen elementarer Tensoren zerlegbar.

Ist nun N N {\displaystyle N\in \mathbb {N} } beliebig und V ( k ) K ( J k ) , k = 1 , , N {\displaystyle V^{(k)}\cong K^{(J_{k})},\,k=1,\dots ,N} eine Familie von Vektorräumen, so korrespondiert mit einer N {\displaystyle N} -fach multilinearen Abbildung f L N ( V ( 1 ) , , V ( N ) ; W ) {\displaystyle f\in L^{N}(V^{(1)},\dots ,V^{(N)};W)} (nach Auswahl von (geordneten) Basen v ( k ) _ = ( v j ( k ) ) j J k {\displaystyle {\underline {v^{(k)}}}=(v_{j}^{(k)})_{j\in J_{k}}} in V ( k ) , k = 1 , , N {\displaystyle V^{(k)},\,k=1,\dots ,N} bzw. w _ = ( w i ) i I ) {\displaystyle {\underline {w}}=(w_{i})_{i\in I)}} in W {\displaystyle W} ) eine N {\displaystyle N} -fach multilineare Abbildung [ f ] {\displaystyle [f]} , die das Produkt der zugehörigen Koordinatenräume K ( J 1 ) × × K ( J N ) {\displaystyle K^{(J_{1})}\times \dots \times K^{(J_{N})}} multilinear in K ( I ) {\displaystyle K^{(I)}} abbildet (bezüglich der gewählten Basen, versteht sich) und die sich durch Multiplikation mit Matrizen beschreiben lässt: Dabei handelt es sich um „Supermatrizen“ T j 1 J 1 , , j N J N i I {\displaystyle \mathrm {T} _{j_{1}\in J_{1},\dots ,j_{N}\in J_{N}}^{i\in I}} , also um ( N + 1 ) {\displaystyle (N+1)} -fach multiindizierte Matrizen: Das N {\displaystyle N} -Tupel ( j 1 , j N ) {\displaystyle (j_{1},\dots j_{N})} der unteren Indizes korrespondiert mit dem N {\displaystyle N} -Tupel von Koordinatenvektoren aus K ( J 1 ) × × K ( J N ) {\displaystyle K^{(J_{1})}\times \dots \times K^{(J_{N})}} , die Vektoren aus V ( 1 ) × × V ( N ) {\displaystyle V^{(1)}\times \dots \times V^{(N)}} bezüglich der zugehörigen Basen v ( k ) _ {\displaystyle {\underline {v^{(k)}}}} identifizieren, der obere Index korrespondiert entsprechend mit Koordinatenvektoren W {\displaystyle W} bezüglich der Basis w _ {\displaystyle {\underline {w}}} . Auch diese Supermatrizen können in eine Summe elementarer Tensoren zerlegt werden.

Zwischenbemerkung: Zwar ist auch K ( J 1 ) × × K ( J N ) {\displaystyle K^{(J_{1})}\times \dots \times K^{(J_{N})}} bzw. V ( 1 ) × × V ( N ) {\displaystyle V^{(1)}\times \dots \times V^{(N)}} ein Vektorraum, aber die (uni)linearen Abbildungen aus L ( V ( 1 ) × × V ( N ) , W ) = L 1 ( V ( 1 ) , , V ( N ) ; W ) {\displaystyle L\left(V^{(1)}\times \dots \times V^{(N)},W\right)=L^{1}\!\left(V^{(1)},\dots ,V^{(N)};W\right)} und die N {\displaystyle N} -fach multilinearen Abbildungen aus L N ( V ( 1 ) , , V ( N ) ; W ) {\displaystyle L^{N}\!\left(V^{(1)},\dots ,V^{(N)};W\right)} haben für N > 1 {\displaystyle N>1} nur die triviale Nullabbildung gemein. (Bspw. ist schon die Identität auf dem kartesischen Produkt von Vektorräumen nicht multilinear.) Mit anderen Worten: Betrachtet man V ( 1 ) × × V ( N ) {\displaystyle V^{(1)}\times \dots \times V^{(N)}} als ein Objekt aus der Kategorie der Vektorräume, so gehören die multilinearen Abbildungen auf diesem Raum nicht zu den Morphismen dieser Kategorie (mit der trivialen Ausnahme der Nullabbildung).

Also lassen sich diese multilinearen Abbildungen als unilineare Abbildungen auf dem Raum K ( J 1 × × J N ) {\displaystyle K^{(J_{1}\times \dots \times J_{N})}} auffassen, und dies ist gerade der Inhalt der universellen Eigenschaft – ergänzt um die Aussage, dass diese Eigenschaft den Tensorproduktraum kennzeichnet: K ( J 1 ) K ( J N ) K ( J 1 × × J N ) {\displaystyle K^{(J_{1})}\otimes \dots \otimes K^{(J_{N})}{\stackrel {\sim }{\longrightarrow }}K^{(J_{1}\times \dots \times J_{N})}} . So spiegelt sich das kartesische Produkt J 1 × × J N {\displaystyle J_{1}\times \dots \times J_{N}} der Basen J k {\displaystyle J_{k}} im Tensorproduktraum wider: Der Tensorproduktraum wird von eben diesem kartesischen Produkt der Basen aufgespannt, wie die Konstruktion zeigen wird.

N {\displaystyle N} -fach multilineare Abbildungen auf einem N {\displaystyle N} -fachen kartesischen Produkt von Vektorräumen sind also als unilineare Abbildungen auf dem zugehörigen N {\displaystyle N} -fachen Tensorproduktraum der Vektorräume aufzufassen, und dieser ist das freie lineare Erzeugnis des kartesischen Produkts zugehöriger Basen. Durch den Übergang zum Tensorprodukt(raum) gelingt es also, multilineare Abbildungen, die keine Morphismen der Kategorie der Vektorräume sind, als (uni)lineare Abbildungen und mithin als Morphismen der betrachteten Kategorie darzustellen.[Anm 3]

Der unilineare Fall liefert für W = K {\displaystyle W=K} die einstufigen kovarianten Tensoren, also Kovektoren oder Linearformen aus dem Dualraum V {\displaystyle V^{*}} . Ist ihre Dimension gleich 1, ist also dim V = 1 , V K {\displaystyle \dim V=1,\,V\cong K} , so sind es gar Skalare. Also lassen sich auch Skalare als (einstufige) Tensoren (eines eindimensionalen Vektorraumes) auffassen.[Anm 4]

Zur Motivation aus quantenmechanischer Sicht

Hauptartikel: Quantenverschränkung

In der Quantenmechanik ist der Zustandsraum eines Objekts ein Hilbertraum. Hat man n {\displaystyle n} Teilchen mit Zuständen z 1 , , z n {\displaystyle z_{1},\dotsc ,z_{n}} in Hilberträumen H 1 , , H n {\displaystyle H_{1},\dotsc ,H_{n}} und betrachtet nun die Zustände des aus den Teilchen gebildeten Systems S {\displaystyle S} , so sind da zunächst die Zustände, die die Information zusammenfassen, die in den Zuständen z i H i {\displaystyle z_{i}\in H_{i}} dieser Teilchen, jedes für sich allein, enthalten ist, und die man reine oder Produktzustände z 1 z n = z 1 z n {\displaystyle z_{1}\dotsm z_{n}=z_{1}\otimes \dotsm \otimes z_{n}} nennt. Die Quantenmechanik beobachtet, dass auch jede Überlagerung (Superposition) von Zuständen eines Objekts (hier S {\displaystyle S} ) wieder ein möglicher Zustand des Objekts ist – von der Normierung auf die Länge 1 sei hierbei abgesehen. Entsprechend enthält das mathematische Modell außer den genannten Produktzuständen auch beliebige Linearkombinationen

j = 1 k c j z 1 , j z n , j {\displaystyle \sum _{j=1}^{k}c_{j}\,z_{1,j}\otimes \dotsm \otimes z_{n,j}}

dieser Produktzustände, wobei z i , j H i {\displaystyle z_{i,j}\in H_{i}} und k N {\displaystyle k\in \mathbb {N} } ; und die Gesamtheit solcher Linearkombinationen bildet den Hilbertraum des Systems S {\displaystyle S} , d. h., die Produktzustände spannen den Hilbertraum des Systems auf. Der neue Vektorraum wird mit H 1 H n {\displaystyle H_{1}\otimes \dotsb \otimes H_{n}} bezeichnet und Tensorprodukt genannt. Weitere Einzelheiten sind dem Artikel zur Quantenverschränkung, insbesondere auch der dortigen mathematischen Betrachtung zu entnehmen.

Definition durch koordinatenbasierte Konstruktion

Es seien V {\displaystyle V} und W {\displaystyle W} zwei Vektorräume über einem gemeinsamen kommutativen Skalarkörper K {\displaystyle K} . Unter dem Tensorprodukt dieser beiden Vektorräume versteht man ein Paar ( V W , ) {\displaystyle (V\otimes W,\otimes )} bestehend aus

  • einem Tensorproduktraum V W {\displaystyle V\otimes W} und
  • einer bilinearen Abbildung : V × W V W {\displaystyle \otimes \colon V\times W\to V\otimes W} in den Tensorproduktraum.

Der Tensorproduktraum wird hier, die bilineare Abbildung wird dort konstruiert.

Zuvor jedoch ein Hinweis: Häufig spricht man abkürzend vom Tensorprodukt oder Tensorraum V W {\displaystyle V\otimes W} unter Vernachlässigung der bilinearen Abbildung {\displaystyle \otimes } . Da dies leicht das Verständnis des Tensorprodukt erschwert, soll in diesem Artikel die Rolle der bilinearen Abbildung hervorgehoben werden. Gelegentlich wird aber auch gerade diese Abbildung als das Tensorprodukt angesprochen. Die Elemente des Tensorraumes werden ebenfalls als Tensoren bezeichnet. Doch auch bilineare Abbildungen werden als Tensoren bezeichnet: Unter ihnen befindet sich also auch das Tensorprodukt selbst, und es zeichnet eine Eigenschaft aus, die „universell“ geheißen wird: Es ist ein universeller Tensor. Wie in weiteren Abschnitten deutlich werden wird, gibt es eine Fülle kanonischer Identifikationen rund um die Tensorräume. So können auch lineare, bilineare und multilineare Abbildungen als Tensoren begriffen werden, zumal wenn die (nicht notwendig kanonische) Identifikation eines endlichdimensionalen Vektorraums mit seinem Dualraum stillschweigend vorgenommen wird – auch dieses Vorgehen verschleiert das Konzept des Tensorprodukts. Grundlage bildet jedoch die nun folgende Definition der beiden Bestandteile V W {\displaystyle V\otimes W} und : V × W V W {\displaystyle \otimes \colon V\times W\to V\otimes W} .

Definition des bilinearen Tensorproduktraums durch Konstruktion

Der Tensorproduktraum V W {\displaystyle V\otimes W} ist ein Vektorraum, der wie folgt konstruiert werden kann: Ist v _ = { v i i I } {\displaystyle {\underline {v}}=\{v_{i}\mid i\in I\}} eine Basis von V {\displaystyle V} und w _ = { w j j J } {\displaystyle {\underline {w}}=\{w_{j}\mid j\in J\}} eine Basis von W {\displaystyle W} , dann ist V W {\displaystyle V\otimes W} ein Vektorraum, genannt Tensorproduktraum, in dem es eine Basis gibt, die auf umkehrbar eindeutige Weise mit den geordneten Paaren des kartesischen Produkts

v _ × w _ = { ( v i , w j ) i I , j J } {\displaystyle {\underline {v}}\times {\underline {w}}=\{(v_{i},w_{j})\mid i\in I,j\in J\}}

der Basen der Ausgangsräume identifiziert werden kann.

NB: Diese Formulierung zeigt, dass der Tensorproduktraum V W {\displaystyle V\otimes W} nicht eindeutig festgelegt ist: Es kann durchaus verschiedene Realisierungen geben. Ihnen allen gemeinsam ist aber, dass sie (durch eine Bijektion der Basen aufeinander, wie beschrieben, und lineare Fortsetzung) sämtlich miteinander identifiziert werden können, d. h. isomorph sind. Tensorprodukt(räume) sind also nur bis auf Isomorphie eindeutig bestimmt.

Die Dimension von V W {\displaystyle V\otimes W} ist demzufolge gleich dem Produkt der Dimensionen von V {\displaystyle V} und W {\displaystyle W} . Das Element dieser Basis, das dem geordneten Paar ( v i , w j ) {\displaystyle (v_{i},w_{j})} entspricht, wird als v i w j {\displaystyle v_{i}\otimes w_{j}} notiert. Das Symbol {\displaystyle \otimes } hat dabei bis hierher keine tiefere Bedeutung. Es erhält erst durch die Definition der bilinearen Abbildung {\displaystyle \otimes } seine Bedeutung.

Da der Tensorproduktraum ein Vektorraum ist, hat also ein beliebiges Element des Tensorprodukts V W {\displaystyle V\otimes W} die Gestalt

( i , j ) I × J c i j ( v i w j ) , {\displaystyle \sum _{(i,j)\in I\times J}c_{ij}\cdot (v_{i}\otimes w_{j})\,,}

wobei die Summe endlich ist oder – was auf dasselbe hinausläuft – fast alle Koeffizienten c i j {\displaystyle c_{ij}} verschwinden (gleich Null sein) müssen. Die Redensweise „fast alle“ bedeutet hierbei gemäß üblichem Sprachgebrauch „alle, bis auf endlich viele“. Das ließe sich auch mit dem Begriff der eingeschränkten Summe ^ {\displaystyle {\widehat {\sum }}} notieren: ( i , j ) I × J ^ c i j ( v i w j ) {\displaystyle {\widehat {\sum _{(i,j)\in I\times J}}}c_{ij}\cdot (v_{i}\otimes w_{j})} , vergleiche hierzu etwa den Artikel zum eingeschränkten direkten Produkt. Ein Tensor des Tensor(produkt)raumes wird daher häufig mit der Matrix ( c i j ) i , j {\displaystyle (c_{ij})_{i,j}} identifiziert, ähnlich wie Vektoren mit den sie darstellenden Koordinatenvektoren.

Mit anderen Worten: Der Tensorraum V W {\displaystyle V\otimes W} wird von den linear unabhängigen Elementen v i w j {\displaystyle v_{i}\otimes w_{j}} , die zunächst nur als Symbole begriffen werden, über dem Grundkörper K {\displaystyle K} frei erzeugt (vgl. die Artikel Direkte Summe und (allgemeiner) Produkt und Koprodukt):

V W := ( i , j ) I × J K ( v i w j ) {\displaystyle V\otimes W:=\bigoplus _{(i,j)\in I\times J}K\cdot (v_{i}\otimes w_{j})} .

Definition der bilinearen Abbildung durch explizite Festlegung auf Erzeugenden

Man kann nun mit Hilfe dieser Basis ein Produkt von Vektoren aus V {\displaystyle V} und W {\displaystyle W} definieren, das mit demselben Verknüpfungssymbol notiert wird. Natürlicherweise ist das Produkt zweier Basisvektoren v i v _ V {\displaystyle v_{i}\in {\underline {v}}\subset V} und w j w _ W {\displaystyle w_{j}\in {\underline {w}}\subset W} gerade der Basisvektor, der mit v i w j V W {\displaystyle v_{i}\otimes w_{j}\in V\otimes W} bezeichnet wurde. Das Produkt beliebiger Vektoren wird nun durch bilineare Fortsetzung festgelegt:

Zwei Vektoren
v = i I a i v i V {\displaystyle v=\sum _{i\in I}a_{i}v_{i}\in V} und w = j J b j w j W {\displaystyle w=\sum _{j\in J}b_{j}w_{j}\in W} (wie oben auch hier: endliche Summen, da ein Grenzwertbegriff oder Konvergenzbegriff mangels topologischer Struktur nicht zur Verfügung steht)
wird das Produkt
v w = ( i , j ) I × J a i b j ( v i w j ) {\displaystyle v\otimes w=\sum _{(i,j)\in I\times J}a_{i}b_{j}\cdot (v_{i}\otimes w_{j})}
zugeordnet. Diese Summe ist ebenfalls endlich, weil fast alle Produkte a i b j = 0 K {\displaystyle a_{i}b_{j}=0\in K} sind, da dies schon für die Koeffizienten a i {\displaystyle a_{i}} und b j {\displaystyle b_{j}} gilt. Somit ist die bilineare Abbildung {\displaystyle \otimes } definiert (unter Benutzung der obigen Bezeichnungen):
: V × W V W definiert durch ( v , w ) v w = ( i , j ) I × J a i b j ( v i w j ) . {\displaystyle {\begin{matrix}\otimes \colon &V\times W&\longrightarrow &V\otimes W&&{\text{definiert durch}}\\&(v,w)&\longmapsto &v\otimes w&=&\sum _{(i,j)\in I\times J}a_{i}b_{j}\cdot (v_{i}\otimes w_{j})\;.\end{matrix}}}

Tensoren, die sich in der Gestalt v w {\displaystyle v\otimes w} mit einem geeigneten Paar ( v , w ) V × W {\displaystyle (v,w)\in V\times W} darstellen lassen, heißen elementare oder einfache Tensoren. Im Allgemeinen sind Tensoren jedoch keine elementaren Tensoren, sondern benötigen eine Summendarstellung (wie oben dargestellt) mit mehr als einem Summanden: Die elementaren Tensoren erzeugen den gesamten Tensorproduktraum.

Eigenschaften

Im Folgenden werden einige Eigenschaften zusammengestellt, die für das Tensorprodukt wesentlich sind.

Bilinearität

Für das Tensorprodukt von Vektoren gelten (gemäß der obigen Konstruktion durch die bilineare Fortsetzung) folgende Rechenregeln für alle v , v , v V {\displaystyle v,v',v''\in V} und w , w , w W {\displaystyle w,w',w''\in W} sowie λ K {\displaystyle \lambda \in K} :

( v + v ) w = v w + v w {\displaystyle (v'+v'')\otimes w=v'\otimes w+v''\otimes w} (1)
v ( w + w ) = v w + v w {\displaystyle v\otimes (w'+w'')=v\otimes w'+v\otimes w''} (2)
( λ v ) w = λ ( v w ) = v ( λ w ) {\displaystyle (\lambda v)\otimes w=\lambda \cdot (v\otimes w)=v\otimes (\lambda w)} (3)

Mit anderen Worten: Die Abbildung : V × W V W {\displaystyle \otimes \colon V\times W\to V\otimes W} ; ( v , w ) v w {\displaystyle (v,w)\mapsto v\otimes w} ist K {\displaystyle K} -bilinear, das heißt in jeder der beiden Komponenten, während die andere unverändert bleibt, linear. (Das soll nicht überraschen, denn sie wurde durch bilineare Fortsetzung gewonnen.)

Diese Regeln sehen aus wie Distributivgesetze bzw. Assoziativgesetze, was den Namen Tensorprodukt motiviert.

Dimensionsformel

Die Dimensionsformel wurde bereits erwähnt: dim ( V W ) = dim V dim W {\displaystyle \dim(V\otimes W)=\dim V\cdot \dim W} .

Kommutativität nicht gegeben

Ein Kommutativgesetz gilt im Allgemeinen nicht, denn für v V , w W {\displaystyle v\in V,w\in W} gehören die Tensoren

v w V W {\displaystyle v\otimes w\in V\otimes W} und w v W V {\displaystyle w\otimes v\in W\otimes V}

nur dann demselben Vektorraum an, wenn die Räume V {\displaystyle V} und W {\displaystyle W} identisch sind. Jedoch sind auch in diesem Fall die Tensoren v w {\displaystyle v\otimes w} und w v {\displaystyle w\otimes v} im Allgemeinen verschieden: Siehe dazu Beispiele im Abschnitt über die Realisierung von Tensoren als Homomorphismen und im Abschnitt zum Kronecker-Produkt im endlichdimensionalen Fall.

Beachte: Es ist kein Widerspruch, dass dennoch ein natürlicher Isomorphismus von Vektorräumen besteht, der durch die Vertauschung definiert wird:

V W W V k v k w k k w k v k {\displaystyle {\begin{array}{ccc}V\otimes W&{\stackrel {\sim }{\longrightarrow }}&W\otimes V\\\sum _{k}v_{k}\otimes w_{k}&\longmapsto &\sum _{k}w_{k}\otimes v_{k}\end{array}}}

Elementare Tensoren als Erzeugende

Tensoren der einfachen Gestalt v w {\displaystyle v\otimes w} heißen elementare oder einfache oder reine Tensoren. Keineswegs hat jeder Tensor diese Gestalt: Allgemeine Tensoren sind – gemäß obiger Konstruktion – eine Linearkombination (eine endliche Summe) elementarer Tensoren. Dabei genügt es sogar, sich auf die elementaren Tensoren v i w j {\displaystyle v_{i}\otimes w_{j}} zu beschränken, die von den Ausgangsbasen v _ {\displaystyle {\underline {v}}} und w _ {\displaystyle {\underline {w}}} herrühren, wie bereits im Rahmen der Konstruktion erwähnt wurde und auch aus den Rechenregeln ableitbar ist.

Rang von Tensoren

Ein allgemeiner Tensor hat also die Gestalt i = 1 m j = 1 n c i j v i w j {\displaystyle \sum _{i=1}^{m}\sum _{j=1}^{n}c_{ij}\;v_{i}\otimes w_{j}} mit einer Koeffizientenmatrix C = ( c i j ) 1 i m , 1 j n {\displaystyle C=(c_{ij})_{1\leq i\leq m,\,1\leq j\leq n}} , die Bezug nimmt auf eine Basis v _ = ( v i ) i = 1 , , m {\displaystyle {\underline {v}}=(v_{i})_{i=1,\dots ,m}} von V {\displaystyle V} und eine Basis w _ = ( w j ) j = 1 , , n {\displaystyle {\underline {w}}=(w_{j})_{j=1,\dots ,n}} von W {\displaystyle W} . Man weist einem Tensor einen Rang zu, nämlich den Rang seiner Koeffizientenmatrix: Dieser Tensor hat also den Rang rang ( C ) {\displaystyle \operatorname {rang} (C)} . Der Rang hängt (nach dem Elementarteilersatz) nicht von der Basiswahl in den Räumen V , W {\displaystyle V,W} ab. (Das gilt auch für das Tensorprodukt von Moduln über Hauptidealringen.) Dass der Begriff des Ranges eines Tensors mit dem Rang eines Homomorphismus bzw. einer Matrix übereinstimmt, sobald man Letztere als Tensor begreift, zeigt der Abschnitt über die Darstellungsmatrix eines Homomorphismus als Koeffizientenmatrix des zugehörigen Tensors.

Der Rang eines Tensors ist die minimale Anzahl von Summanden, die zu seiner Darstellung als Linearkombination μ , ν a μ ν x μ y ν {\displaystyle \sum _{\mu ,\nu }a_{\mu \nu }\;x_{\mu }\otimes y_{\nu }} einfacher Tensoren x μ y ν {\displaystyle x_{\mu }\otimes y_{\nu }} (mit x μ V {\displaystyle x_{\mu }\in V} und y ν W {\displaystyle y_{\nu }\in W} ) erforderlich ist. (Da ja nur endliche Linearkombinationen betrachtet werden, gibt es nach dem Satz vom kleinsten Element eine solche minimale Anzahl von Summanden.)

Elementare oder einfache oder reine Tensoren (ungleich null, scil.) sind also genau die Tensoren vom Rang 1.[Anm 5]

Lineare Fortsetzung von Abbildungen auf elementaren Tensoren

Die Tatsache, dass der Tensorproduktraum V W {\displaystyle V\otimes W} von den elementaren Tensoren über K {\displaystyle K} linear erzeugt wird, hat ein wichtiges Prinzip zur Folge, das die Definition linearer Abbildungen betrifft. Es bezeichne Y {\displaystyle Y} einen K {\displaystyle K} -Vektorraum und L ( V W , Y ) {\displaystyle L(V\otimes W,Y)} den Raum aller linearer Abbildungen V W Y {\displaystyle V\otimes W\to Y} .

Das Prinzip besagt:

Um eine lineare Abbildung f L ( V W , Y ) {\displaystyle f\in L(V\otimes W,Y)} wohl zu definieren, genügt es, sie auf elementaren Tensoren festzulegen. Es genügt sogar die Bilder f ( v i w j ) {\displaystyle f(v_{i}\otimes w_{j})} der elementaren Tensoren v i w j {\displaystyle v_{i}\otimes w_{j}} anzugeben. Die Abbildung f {\displaystyle f} , die bis dato erst eine Abbildung f : { v i w j i , j } Y {\displaystyle f\colon \{v_{i}\otimes w_{j}\mid i,j\}\to Y} ist, kann dann auf den gesamten Tensorraum V W {\displaystyle V\otimes W} linear fortgesetzt werden, und zwar auf eindeutige Weise, und ist dadurch wohldefiniert.
Mit anderen Worten: Die Restriktionsabbildung
r e s t r : L ( V W , Y ) A b b ( { v i w j ( i , j ) I × J } , Y ) Y ( I × J ) definiert durch: f f I × J , {\displaystyle {\begin{matrix}\mathrm {restr} \colon L(V\otimes W,Y)&{\stackrel {\sim }{\longrightarrow }}&\mathrm {Abb'} (\{v_{i}\otimes w_{j}\mid (i,j)\in I\times J\},Y)\cong Y^{(I\times J)}\\{\text{definiert durch:}}\quad f&\longmapsto &f\mid _{I\times J}\,,\end{matrix}}}
die eine lineare Abbildung auf die Menge der Erzeugenden einschränkt, ist ein Isomorphismus. Die Umkehrabbildung wird gerade durch die lineare Fortsetzung geliefert.
Dabei mögen die beiden Notationen A b b ( M , Y ) = Y ( M ) {\displaystyle \mathrm {Abb'} (M,Y)=Y^{(M)}} die Menge aller Abbildungen von einer Menge M {\displaystyle M} in eine Gruppe Y {\displaystyle Y} (hier: Vektorraum) bezeichnen, deren Werte an fast allen („ {\displaystyle \forall '} “) Stellen x M {\displaystyle x\in M} verschwindet: x : f ( x ) = 0 Y {\displaystyle \forall 'x\colon f(x)=0\in Y} .
Anmerkung: Dieses Prinzip ist gerade diejenige universelle Eigenschaft, die gemäß der oben stehenden (oder der unten stehenden allgemeinen) Konstruktion des Tensorproduktraums als des freien abelschen Erzeugnisses X := K ( B ) {\displaystyle X:=K^{(B)}} einer Menge B {\displaystyle B} (für das Tensorprodukt wurde B = I × J v _ × w _ {\displaystyle B=I\times J\cong {\underline {v}}\times {\underline {w}}} gewählt) über dem Körper K {\displaystyle K} mit sich bringt und allgemein so formuliert wird:
Ist B {\displaystyle B} eine Menge und ι : B X {\displaystyle \iota \colon B\subset X} eine injektive Abbildung (Inklusion) in die Menge der Vektoren eines Vektorraums X {\displaystyle X} , so heißt X {\displaystyle X} das frei abelsche (lineare) Erzeugnis von B {\displaystyle B} über dem Körper K {\displaystyle K} , wenn es zu jeder Abbildung η : B Y {\displaystyle \eta \colon B\to Y} in die Menge von Vektoren eines anderen Vektorraumes Y {\displaystyle Y} mit η ( β ) 0 {\displaystyle \eta (\beta )\neq 0} für nur endlich viele β B {\displaystyle \beta \in B} (mit anderen Worten: zu jeder Abbildung η A b b ( B , Y ) {\displaystyle \eta \in \mathrm {Abb'} (B,Y)} ) eine eindeutig bestimmte lineare Abbildung η ~ {\displaystyle {\tilde {\eta }}} mit η ~ = ι ( η ) = η ι {\displaystyle {\tilde {\eta }}=\iota ^{*}(\eta )=\eta \circ \iota } von Vektorräumen gibt.
Äquivalent ist die Forderung, dass folgende Abbildung r e s t r B := ι {\displaystyle \mathrm {restr} _{B}:=\iota ^{*}} (die Restriktion auf die Inklusion) ein Isomorphismus ist:
r e s t r B : L ( X , Y ) A b b ( B , Y ) Y ( B ) definiert durch: f f B , {\displaystyle {\begin{matrix}\mathrm {restr} _{B}\colon L(X,Y)&{\stackrel {\sim }{\longrightarrow }}&\mathrm {Abb'} (B,Y)\cong Y^{(B)}\\{\text{definiert durch:}}\quad f&\longmapsto &f\mid _{B}\,,\end{matrix}}}
In der Sprache der Kategorientheorie zeigt dies, dass der Vergissfunktor und der Funktor der freien Erzeugung zueinander adjungiert sind, wie hier für abelsche Gruppen erklärt wird.
Spätestens an dieser Stelle wird deutlich: Wie ein Vektorraum durch die Menge seiner Basiselemente aufgespannt wird, so wird der Tensorproduktraum von Vektorräumen durch das kartesische Produkt ihrer jeweiligen Basen aufgespannt. Eine im Sinne der Kategorientheorie abstrakte Fassung dieses Gedankens wird im Yoneda-Lemma durch die Darstellbarkeit formuliert.

Universelle Eigenschaft

Damit wird deutlich, dass das auf diese Weise konstruierte Tensorprodukt

: V × W V W {\displaystyle \otimes \colon V\times W\to V\otimes W}

unter allen bilinearen Abbildungen

V × W Y {\displaystyle V\times W\to Y} in einen beliebigen Vektorraum Y {\displaystyle Y}

eine besondere Eigenschaft hat. Es ist nämlich universell in dem Sinne, dass jede bilineare Abbildung lediglich ein lineares Abbild des Tensorprodukts ist, soll heißen:

Ist ψ : V × W Y {\displaystyle \psi \colon V\times W\to Y} eine bilineare Abbildung in einen K {\displaystyle K} -Vektorraum Y {\displaystyle Y} , so kann ψ {\displaystyle \psi } aus {\displaystyle \otimes } durch Anhängen einer (sogar eindeutig bestimmten) linearen Abbildung ψ ~ : V W Y {\displaystyle {\tilde {\psi }}\colon V\otimes W\to Y} gewonnen werden. Dazu muss sie – wie soeben beschrieben – nur auf den elementaren Tensoren v w {\displaystyle v\otimes w} durch ψ ~ ( v w ) := ψ ( v , w ) {\displaystyle {\tilde {\psi }}(v\otimes w):=\psi (v,w)} definiert werden.

Es genügt also, das Tensorprodukt zu kennen, um alle bilinearen Abbildungen durch (uni)lineare Abbildung zu gewinnen. Somit birgt das Tensorprodukt alle Informationen für bilineare Abbildungen.

Die universelle Eigenschaft ist sogar geeignet, das Tensorprodukt hinreichend zu kennzeichnen: Dies geschieht durch die Universaldefinition, die koordinatenfrei, also basisunabhängig formuliert ist.

Beispiel: Kronecker-Produkt bei endlicher Dimension

Haben die Vektorräume V {\displaystyle V} und W {\displaystyle W} endliche Dimension über K {\displaystyle K} , sind also I {\displaystyle I} und J {\displaystyle J} endliche Mengen der Mächtigkeit m = dim V {\displaystyle m=\dim V} bzw. n = dim W {\displaystyle n=\dim W} , so ist der Tensorproduktraum V W {\displaystyle V\otimes W} offenbar mit dem ( m n ) {\displaystyle (mn)} -dimensionalen Raum K ( m n ) {\displaystyle K^{(m\cdot n)}} zu identifizieren. Wie aber sieht diese Identifikation aus? Aus der obigen Definition geht hervor, dass der Tensorproduktraum nur bis auf Isomorphie bestimmt ist. Dies soll an diesem Beispiel illustriert werden, indem verschiedene Möglichkeiten der Identifikation vorgestellt werden. Dadurch soll verdeutlicht werden, dass es nicht genügt, unter dem Tensorprodukt lediglich das Produkt zweier Räume zu verstehen, sondern es muss zusätzlich angegeben werden, wie das Produkt v w {\displaystyle v\otimes w} zweier Vektoren definiert sein soll. Zwar ist es üblich, vom Tensorprodukt von Vektorräumen zu sprechen, aber es wäre besser, vom Tensorprodukt auf Vektorräumen zu sprechen, einer „Multiplikation“ von Vektoren, deren Ergebnis in einem neuen Raum liegt, eben dem Tensorproduktraum. Zu diesem Zweck sei der Einfachheit halber direkt in die Koordinatenräume übergangen: V := K m {\displaystyle V:=K^{m}} und W := K n {\displaystyle W:=K^{n}} .

  • Identifikation von K ( m n ) {\displaystyle K^{(m\cdot n)}} mit einem Vektorraum von Matrizen
Die Zeilen werden mit dem Basisindex i I = { 1 , , m } {\displaystyle i\in I=\{1,\dotsc ,m\}} von V {\displaystyle V} nummeriert, die Spalten mit dem Basisindex j J = { 1 , , n } {\displaystyle j\in J=\{1,\dotsc ,n\}} von W {\displaystyle W} . Das Tensorprodukt zweier Vektoren v = i = 1 m a i v i V {\displaystyle v=\sum _{i=1}^{m}a_{i}v_{i}\in V} und w = j = 1 n b j w j W {\displaystyle w=\sum _{j=1}^{n}b_{j}w_{j}\in W} ist die Matrix ( a i b j ) i I , j J {\displaystyle (a_{i}b_{j})_{i\in I,j\in J}} : Ihr Eintrag an der Stelle ( i , j ) {\displaystyle (i,j)} ist das Produkt aus der i {\displaystyle i} -ten Koordinate von v {\displaystyle v} bezüglich v _ {\displaystyle {\underline {v}}} und der j {\displaystyle j} -ten Koordinate von w {\displaystyle w} bezüglich w _ {\displaystyle {\underline {w}}} .
Das Tensorprodukt lautet in diesem Falle v w := ( a i b j ) i I , j J {\displaystyle v\otimes w:=(a_{i}b_{j})_{i\in I,j\in J}} und liefert ( m × n ) {\displaystyle (m\times n)} -Matrizen.
  • Identifikation von K m × K n K ( m n ) {\displaystyle K^{m}\times K^{n}\to K^{(m\cdot n)}} mit dem üblichen Kronecker-Produkt
Für zwei Vektoren
v := ( a 1 a m ) {\displaystyle v:={\begin{pmatrix}a_{1}\\\vdots \\a_{m}\end{pmatrix}}} und w := ( b 1 b n ) {\displaystyle w:={\begin{pmatrix}b_{1}\\\vdots \\b_{n}\end{pmatrix}}} setze ( a 1 a m ) ( b 1 b n ) := ( ( a 1 w ) ( a m w ) ) = ( ( a 1 b 1 a 1 b n ) ( a m b 1 a m b n ) ) {\displaystyle {\begin{pmatrix}a_{1}\\\vdots \\a_{m}\end{pmatrix}}\otimes {\begin{pmatrix}b_{1}\\\vdots \\b_{n}\end{pmatrix}}:={\begin{pmatrix}(a_{1}\cdot w)\\\vdots \\(a_{m}\cdot w)\end{pmatrix}}={\begin{pmatrix}{\begin{pmatrix}a_{1}b_{1}\\\vdots \\a_{1}b_{n}\end{pmatrix}}\\\vdots \\{\begin{pmatrix}a_{m}b_{1}\\\vdots \\a_{m}b_{n}\end{pmatrix}}\end{pmatrix}}}
In der Sprache der Matrizen heißt diese Konstruktion auch dyadisches Produkt der Koordinatenvektoren und ordnet sich dem Kronecker-Produkt von Matrizen unter.
Dies Produkt ist bilinear, jedoch nicht kommutativ, denn Vertauschung der Faktoren führt zu einer Permutation der Bild-Koordinaten.
  • Identifikation von K m × K n K ( m n ) {\displaystyle K^{m}\times K^{n}\to K^{(m\cdot n)}} mit dem opponierten Kronecker-Produkt
Ebenso gut ließe sich auch umgekehrt (vgl. Artikel Gegenring) definieren:
( a 1 a m ) o p ( b 1 b n ) := ( ( v b 1 ) ( v b n ) ) = ( ( a 1 b 1 a m b 1 ) ( a 1 b n a m b n ) ) {\displaystyle {\begin{pmatrix}a_{1}\\\vdots \\a_{m}\end{pmatrix}}{\stackrel {op}{\otimes }}{\begin{pmatrix}b_{1}\\\vdots \\b_{n}\end{pmatrix}}:={\begin{pmatrix}(v\cdot b_{1})\\\vdots \\(v\cdot b_{n})\end{pmatrix}}={\begin{pmatrix}{\begin{pmatrix}a_{1}b_{1}\\\vdots \\a_{m}b_{1}\end{pmatrix}}\\\vdots \\{\begin{pmatrix}a_{1}b_{n}\\\vdots \\a_{m}b_{n}\end{pmatrix}}\end{pmatrix}}}
Auch dieses Tensorprodukt ist bilinear.

Diese Beispiele sollen verdeutlichen, dass das Tensorprodukt von Vektoren nur bis auf Isomorphie bestimmt ist: Die obigen Tensorprodukte sind nicht gleich, aber isomorph, und dies, obwohl die Tensorprodukträume gleich sind.

Erweiterung der Skalare

Ist V {\displaystyle V} ein Vektorraum über K {\displaystyle K} und L {\displaystyle L} ein Erweiterungskörper von K {\displaystyle K} , so kann man das Tensorprodukt

V L := V K L {\displaystyle V_{L}:=V\otimes _{K}L}

bilden, indem man auch L {\displaystyle L} als K {\displaystyle K} -Vektorraum auffasst; dies wird durch K {\displaystyle \otimes _{K}} symbolisiert. V L {\displaystyle V_{L}} wird zu einem Vektorraum über L {\displaystyle L} , wenn man

λ ( v μ ) := v ( λ μ ) f u ¨ r   v V , λ , μ L {\displaystyle \lambda \cdot (v\otimes \mu ):=v\otimes (\lambda \mu )\qquad \mathrm {f{\ddot {u}}r} \ v\in V,\,\lambda ,\mu \in L}

setzt. Die Dimension von V L {\displaystyle V_{L}} als L {\displaystyle L} -Vektorraum ist gleich der Dimension von V {\displaystyle V} als K {\displaystyle K} -Vektorraum: Ist B {\displaystyle B} eine K {\displaystyle K} -Basis von V {\displaystyle V} , so bildet die Menge

{ b 1 | b B } {\displaystyle \{b\otimes 1\,|\,b\in B\}}

eine L {\displaystyle L} -Basis von V L {\displaystyle V_{L}} .

Allgemeiner lässt sich aus der obigen konstruktiven Definition des Tensorprodukts ableiten, dass

V W = def ( i , j ) I × J K ( v i w j ) = i I ( v i W ) = j J ( V w j ) . {\displaystyle V\otimes W{\stackrel {\text{def}}{=}}\bigoplus _{(i,j)\in I\times J}K\cdot (v_{i}\otimes w_{j})=\bigoplus _{i\in I}\left(v_{i}\otimes W\right)=\bigoplus _{j\in J}\left(V\otimes w_{j}\right)\,.}

Mit anderen Worten: Das Tensorprodukt ist einerseits die direkte Summe von Unterräumen v i W ( i I ) {\displaystyle v_{i}\otimes W\,(i\in I)} und andererseits von Unterräumen V w j ( j J ) {\displaystyle V\otimes w_{j}\,(j\in J)} , also unabhängig von der Wahl der Basen in V {\displaystyle V} und in W {\displaystyle W} .[2]

Tatsächlich löst sich die folgende Universaldefinition gänzlich vom Bezug auf die Basen, ist allerdings auch nicht mehr konstruktiv. Eine basisunabhängige (koordinatenfreie) Konstruktion zeigt der Artikel über das Tensorprodukt von Moduln, siehe auch den gleichnamigen Abschnitt in diesem Artikel.

Universaldefinition

Bisher wurde nicht auf die Frage eingegangen, auf welche Weise der mit V W {\displaystyle V\otimes W} bezeichnete Vektorraum ohne Bezugnahme auf vorgegebene Basen der beiden Vektorräume beschrieben werden kann. Dies soll nun anhand der Universaldefinition geschehen, die diesen Vektorraum allein anhand der universellen Eigenschaft eindeutig – bis auf Isomorphie – kennzeichnet. Allerdings war dies auch schon in der obigen Definition der Fall, da dort lediglich verlangt wurde, dass V W {\displaystyle V\otimes W} eine Basis haben solle, die umkehrbar eindeutig mit den Paaren ( v i , w j ) {\displaystyle (v_{i},w_{j})} von Basisvektoren aus V {\displaystyle V} bzw. W {\displaystyle W} identifizierbar sei. Tatsächlich darf man sich – zumindest aus mathematischer Sicht – das Tensorprodukt zweier Vektoren nicht als ein „durch Multiplikation errechenbares“ Produkt in einem unverrückbar festgelegten Produktraum vorstellen. Vielmehr kann es verschiedene „Realisierungen“ geben. Beachte: Selbst beim Aufbau des Zahlensystems, für die vertrauten natürlichen, rationalen, reellen und komplexen Zahlen, gibt es verschiedene, lediglich äquivalente Beschreibungsweisen. Immerhin stellt das Kronecker-Produkt ein konkretes (da koordinatengebundenes) Beispiel dar (siehe den zugehörigen gleichnamigen Abschnitt). Wesentlich und allen Realisierungen gemeinsam sind jedoch Eigenschaften, die das Tensorprodukt als solches eindeutig charakterisieren. Dies ist der Inhalt der folgenden universellen Eigenschaft des Tensorprodukts. Dabei müsste man also streng genommen nicht von dem Tensorprodukt sprechen, sondern von einem Tensorprodukt oder von einer Realisierung des Tensorprodukts. Das ist aber nicht üblich, stattdessen wird die Identifikation isomorpher Realisierungen stillschweigend unterstellt – ganz so, wie man es bei Zahlen schließlich auch tut.

Einige vorbereitende Festlegungen vorab: Es seien also V {\displaystyle V} und W {\displaystyle W} sowie X {\displaystyle X} und Y {\displaystyle Y} Vektorräume über dem Körper K {\displaystyle K} . Der Vektorraum der linearen Abbildungen von V {\displaystyle V} nach X {\displaystyle X} sei mit L ( V , X ) {\displaystyle L(V,X)} bezeichnet, und der Vektorraum der bilinearen Abbildungen V × W X {\displaystyle V\times W\to X} werde mit L 2 ( V , W ; X ) {\displaystyle L^{2}(V,W;X)} bezeichnet.

Allgemein gilt nun: Ist eine bilineare Abbildung ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} gegeben, so ist für jeden Vektorraum Y {\displaystyle Y} die Abbildung

Φ : L ( X , Y ) L 2 ( V , W ; Y ) f [ f ϕ : ( v , w ) f ( ϕ ( v , w ) ) ] {\displaystyle {\begin{aligned}\Phi \colon L(X,Y)&\longrightarrow L^{2}(V,W;Y)\\f&\longmapsto [f\circ \phi \colon (v,w)\mapsto f(\phi (v,w))]\end{aligned}}}

ein Homomorphismus.

Zur Erklärung:

Es ist leicht nachzuprüfen, dass für jede lineare Abbildung f L ( X , Y ) {\displaystyle f\in L(X,Y)} das Kompositum f ϕ {\displaystyle f\circ \phi } bilinear ist. Die obige Abbildung Φ {\displaystyle \Phi } ist also wohldefiniert. Sie ist zudem ein Vektorraum-Homomorphismus (also eine lineare Abbildung).

Definition: Als Tensorprodukt der K {\displaystyle K} -Vektorräume V {\displaystyle V} und W {\displaystyle W} wird jeder K {\displaystyle K} -Vektorraum X {\displaystyle X} zusammen mit einer bilinearen Abbildung ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} bezeichnet, der die folgende universelle Eigenschaft erfüllt:

Jede bilineare Abbildung ψ : V × W Y {\displaystyle \psi \colon V\times W\to Y} in einen K {\displaystyle K} -Vektorraum Y {\displaystyle Y} faktorisiert linear eindeutig über ϕ {\displaystyle \phi } , das heißt:
Es gibt eine eindeutig bestimmte lineare Abbildung ψ ~ : X Y {\displaystyle {\tilde {\psi }}\colon X\to Y} gibt, sodass gilt: ψ = ψ ~ ϕ {\displaystyle \psi ={\tilde {\psi }}\circ \phi } , das heißt:
Für beliebige Paare ( v , w ) V × W {\displaystyle (v,w)\in V\times W} von Vektoren gilt dann: ψ ( v , w ) = ψ ~ ( ϕ ( v , w ) ) {\displaystyle \psi (v,w)={\tilde {\psi }}(\phi (v,w))} .
Man notiert dann V W := X {\displaystyle V\otimes W:=X} und versteht darunter den – bis auf Isomorphie eindeutig bestimmten – Vektorraum X {\displaystyle X} .
Die (zum Tensorprodukt gehörige) bilineare Abbildung ϕ {\displaystyle \phi } wird als ϕ ( v , w ) =: v w {\displaystyle \phi (v,w)=:v\otimes w} notiert. Es ist wichtig zu beachten, dass diese wesentlicher Bestandteil des Tensorproduktes ist: Einen Tensorproduktraum X = V W {\displaystyle X=V\otimes W} zu betrachten, ohne zu wissen, welche bilineare Abbildung ϕ : ( v , w ) ϕ ( v , w ) = v w {\displaystyle \phi \colon (v,w)\mapsto \phi (v,w)=v\otimes w} als „Produkt“ in ihn führt, ist sinnlos.

Bemerkung: Gibt es eine bilineare Abbildung ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} in einen Vektorraum X {\displaystyle X} mit dieser universellen Eigenschaft, so ist X {\displaystyle X} bis auf Isomorphie eindeutig bestimmt.

Zur Erklärung:

Nutzt man nämlich die universelle Eigenschaft für ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} gegenüber χ {\displaystyle \chi } und ebenso – mit vertauschten Rollen – für χ : V × W Z {\displaystyle \chi \colon V\times W\to Z} gegenüber ϕ {\displaystyle \phi } , so erhält man zwei Homomorphismen χ ~ L ( X , Z ) {\displaystyle {\tilde {\chi }}\in L(X,Z)} bzw. ϕ ~ L ( Z , X ) {\displaystyle {\tilde {\phi }}\in L(Z,X)} mit χ = χ ~ ϕ {\displaystyle \chi ={\tilde {\chi }}\circ \phi } und ϕ = ϕ ~ χ {\displaystyle \phi ={\tilde {\phi }}\circ \chi } . Also sind beide zueinander invers: x X : χ ~ ϕ ~ ( x ) = x {\displaystyle \forall x\in X\colon {\tilde {\chi }}\circ {\tilde {\phi }}(x)=x} . Daher sind zwei Realisierungen des Tensorproduktes zueinander isomorph.[3]
Notabene: Hierbei ist wesentlich zu beachten, dass die Isomorphie sich nicht nur auf die beiden Räume X {\displaystyle X} und Z {\displaystyle Z} als Vektorräume bezieht: Vielmehr beziehen die beiden zueinander inversen Isomorphismen die jeweiligen bilinearen Abbildungen ein, indem sie auch sie aufeinander abbilden. Hieran wird deutlich, dass das Tensorprodukt zweier Vektorräume nicht lediglich als ein neuer Vektorraum verstanden werden darf. In Wahrheit bewegt sich das Tensorprodukt also nicht in der Kategorie der Vektorräume, sondern in der Kategorie der bilinearen Abbildungen ψ : V × W [ ? ? ] {\displaystyle \psi \colon V\times W\to [??]} . Darin bildet : V × W V W {\displaystyle \otimes \colon V\times W\to V\otimes W} ein initiales oder Anfangsobjekt, weil jede bilineare Abbildung ψ {\displaystyle \psi } über die bilineare Abbildung ϕ {\displaystyle \phi } eindeutig faktorisiert. Am zugehörigen Diagramm spiegelt sich diese Tatsache darin wider, dass es ein Dreieck ist: Beide bilinearen Abbildungen erscheinen darin, und es kommutiert: Es geht nicht allein um einen Isomorphismus X Z {\displaystyle X\cong Z} , sondern um einen Isomorphismus, der mit den bilinearen Abbildungen ϕ , ψ {\displaystyle \phi ,\psi } verträglich ist. Aus diesen Gründen sollte man unter der Begrifflichkeit „Tensorprodukt“ nicht den Produktraum V W {\displaystyle V\otimes W} zu verstehen suchen, sondern eine universelle bilineare Abbildung ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} in eine geeignete Realisierung. „Produkt“ steht also nicht für ein Produkt von Räumen, sondern für ein Produkt auf Räumen (in einen anderen Raum), für eine Multiplikation, eben eine bilineare Abbildung, die im Übrigen nicht kommutativ ist.

Vor dem Hintergrund der eingangs gemachten Anmerkung über die Abbildung Φ {\displaystyle \Phi } lässt sich die Universaldefinition nun auch so formulieren:

Äquivalente Definition: Der Vektorraum X {\displaystyle X} und eine bilineare Abbildung ϕ : V × W X {\displaystyle \phi \colon V\times W\to X} werden als Tensorprodukt von V {\displaystyle V} und W {\displaystyle W} bezeichnet, wenn für jeden Vektorraum Y {\displaystyle Y} die Abbildung Φ : L ( X , Y ) L 2 ( V , W ; Y ) {\displaystyle \Phi \colon L(X,Y){\stackrel {\sim }{\longrightarrow }}L^{2}(V,W;Y)} induziert vermöge f [ ( v , w ) f ( ϕ ( v , w ) ) ] {\displaystyle f\longmapsto [(v,w)\mapsto f(\phi (v,w))]} bijektiv, mithin also ein Isomorphismus ist. Man schreibt dann auch V W := X {\displaystyle V\otimes W:=X} und v w := ϕ ( v , w ) {\displaystyle v\otimes w:=\phi (v,w)} .

Zur Erklärung:

Es bleibt lediglich noch nachzuweisen, dass die Bijektivität von Φ {\displaystyle \Phi } mit der Aussage der universellen Eigenschaft äquivalent ist: Diese sichert nämlich gerade zu, dass es zu jeder bilinearen Abbildung ψ : V × W Y {\displaystyle \psi \colon V\times W\to Y} eine lineare Abbildung ψ ~ L ( V W , Y ) {\displaystyle {\tilde {\psi }}\in L(V\otimes W,Y)} gibt (Existenzaussage), sodass ψ = ψ ~ ϕ = Φ ( ψ ~ ) {\displaystyle \psi ={\tilde {\psi }}\circ \phi =\Phi ({\tilde {\psi }})} , und dass diese Abbildung ψ ~ {\displaystyle {\tilde {\psi }}} zudem eindeutig bestimmt (Eindeutigkeitsaussage) ist. Die Existenzaussage ist mit der Surjektivität, die Eindeutigkeitsaussage mit der Injektivität von Φ : ψ ~ ψ {\displaystyle \Phi \colon {\tilde {\psi }}\mapsto \psi } äquivalent. Also besagt die universelle Eigenschaft gerade, dass der Homomorphismus Φ {\displaystyle \Phi } ein Isomorphismus ist.
Hinweis: Zwar ist der Homomorphismus ϕ ~ {\displaystyle {\tilde {\phi }}} zunächst nur auf jedem elementaren Tensor v w V W {\displaystyle v\otimes w\in V\otimes W} durch ψ ~ ( v w ) = ψ ( v , w ) {\displaystyle {\tilde {\psi }}(v\otimes w)=\psi (v,w)} festgelegt. Durch lineare Fortsetzung ist ϕ ~ {\displaystyle {\tilde {\phi }}} damit jedoch auf dem gesamten Tensorraum V W {\displaystyle V\otimes W} wohldefiniert, wie im Abschnitt über die Fortsetzbarkeit von Abbildungen auf elementaren Tensoren zu Homomorphismen auf dem Tensorraum erklärt wurde.

Wenn es also einen Vektorraum mit der universellen Eigenschaft gibt, so ist er – eben aufgrund der universellen Eigenschaft – nur bis auf Isomorphie eindeutig bestimmt. Allerdings lässt die Universaldefinition die Frage offen, ob es überhaupt einen Vektorraum mit diesen Eigenschaften gibt. Um also die Existenz eines solchen Vektorraumes sicherzustellen, muss entweder ein solcher Vektorraum konstruiert werden oder aber „zufällig“ ein solcher Vektorraum „gefunden“ werden. Einen Existenzbeweis durch Konstruktion führt (in einem allgemeineren Falle) der Artikel Tensorprodukt von Moduln aus: Dazu wird zunächst ein zu großer Vektorraum konstruiert, der anschließend nach einem Unterraum faktorisiert wird, sodass der Quotientenraum „erzwungenermaßen“ genau die gewünschten Eigenschaften hat.

Die Universaldefinition zeigt (nämlich für Y = K {\displaystyle Y=K} ) einen Weg zu einer Realisierung des Tensorproduktes auf: Dieser Gedanke wird im Abschnitt Natürliche Homomorphismen berührt und im Abschnitt Homomorphismen als Tensoren vertieft. Darin wird ein Vektorraum benannt, von dem sich (mit Hilfe der universellen Eigenschaft) recht leicht erkennen lässt, dass er die gewünschte universelle Eigenschaft des Tensorraums V W {\displaystyle V\otimes W} hat. Dieses Vorgehen gelingt allerdings nur für den Fall, dass V {\displaystyle V} oder W {\displaystyle W} endliche Dimension über ihrem Grundkörper K {\displaystyle K} haben, weil Eigenschaften des Dualraumes genutzt werden, die eben die endliche Dimension als Voraussetzung benötigen.

Der triviale eindimensionale Fall

Ein Seitenblick möge zeigen, wie der Fall V = K = W {\displaystyle V=K=W} das Tensorprodukt „trivialisiert“: Dabei zeigt sich, dass sich die Situation ganz analog zu den (uni)linearen Abbildungen aus der elementaren linearen Algebra verhält. Einzig bemerkenswert ist, dass die Kommutativität des Grundkörpers eine Rolle spielt, im Gegensatz zum linearen Fall.

Der Skalarkörper bildet über sich selbst in natürlicher Weise einen eindimensionalen Vektorraum. Für eine bilineare Abbildung ψ : K × K Y {\displaystyle \psi \colon K\times K\to Y} und beliebige Körperelemente x , y K {\displaystyle x,y\in K} gilt

ψ ( x , y ) = ψ ( x 1 , y 1 ) = x y ψ ( 1 , 1 ) Y . {\displaystyle \psi (x,y)=\psi (x\cdot 1,y\cdot 1)=xy\cdot \psi (1,1)\in Y\;.}
NB: Man beachte, wie hierbei fast unbemerkt die Kommutativität des Körpers eingeht.

Also ist eine bilineare Abbildung ψ : K × K Z {\displaystyle \psi \colon K\times K\to Z} bereits durch den Wert von ψ ( 1 , 1 ) {\displaystyle \psi (1,1)} festgelegt, und bis auf diesen Wert (als Faktor) ist sie mit der Körpermultiplikation identisch: Die Eigenschaften der Bilinearität gehen in die Distributivität der Multiplikation über, im Verbund mit der Assoziativität und der Kommutativität: λ ( x y ) = ( λ x ) y = x ( λ y ) {\displaystyle \lambda (xy)=(\lambda x)y=x(\lambda y)} .

Also ist in diesem Falle der Körper selbst mit dem Tensorprodukt identifizierbar: ( K , ) ( K K , ) {\displaystyle (K,\cdot )\cong (K\otimes K,\otimes )} . Die universelle Eigenschaft bedeutet: Setzt man ψ ~ ( 1 ) =: ψ ~ ( 1 1 ) := ψ ( 1 , 1 ) {\displaystyle {\tilde {\psi }}(1)=:{\tilde {\psi }}(1\cdot 1):=\psi (1,1)} , so vermittelt ψ ~ {\displaystyle {\tilde {\psi }}} das lineare Abbild der bilinearen Abbildung ψ {\displaystyle \psi } , wie es die universelle Eigenschaft fordert. Schließlich gilt ja dim ( K K ) = dim K dim K = 1 {\displaystyle \dim(K\otimes K)=\dim K\cdot \dim K=1} .

Das Tensorprodukt zweier Skalare (aufgefasst als Vektoren) liefert also nichts Neues: Es ist bis auf den Skalarfaktor 1 1 {\displaystyle 1\otimes 1} mit der Körpermultiplikation identisch, lässt sich also durch ein Monom f ( X , Y ) = a X Y {\displaystyle f(X,Y)=a\cdot X\cdot Y} beschreiben. Dieser Skalarfaktor a = 1 1 {\displaystyle a=1\otimes 1} darf allerdings nicht verschwinden: Wäre nämlich 1 1 = 0 {\displaystyle 1\otimes 1=0} , so wäre die universelle Eigenschaft verletzt: Die einzige bilineare Abbildung, die lineares Abbild dieses „Null-Produktes“ ist, ist nämlich die triviale Nullabbildung. Die genaue Wahl des Skalarfaktors a = 1 1 K { 0 } {\displaystyle a=1\otimes 1\in K\backslash \{0\}} tut aber auch nichts zur Sache: Das Tensorprodukt ist ja nur bis auf Isomorphie festgelegt, und jede andere bilineare Abbildung unterscheidet sich um einen Linearfaktor. Es kann naheliegenderweise 1 1 = 1 {\displaystyle 1\otimes 1=1} normiert werden.

Haben jedoch die beiden Vektorräume V {\displaystyle V} und W {\displaystyle W} mehr als eine Dimension ( dim V > 1 , dim W > 1 {\displaystyle \dim V>1,\dim W>1} ), so liegt das Tensorprodukt zweier Vektoren in einem Vektorraum, der erst konstruiert oder „gefunden“ werden muss, eben einer Realisierung des Tensorproduktraums. Das Tensorprodukt dreier Vektoren liegt in einem weiteren, davon verschiedenen Raum usw. usf. Die Tensoralgebra liefert den geeigneten Produktraum für Produkte mit beliebig (doch endlich) vielen Faktoren.

Mit anderen Worten: Unilineare Abbildungen V W {\displaystyle V\to W} zwischen Vektorräumen verallgemeinern lineare Abbildungen K K , x m x {\displaystyle K\to K,\;x\mapsto m\cdot x} . Bilineare Abbildungen V 1 × V 2 W {\displaystyle V_{1}\times V_{2}\to W} verallgemeinern die Körpermultiplikation K × K K , ( x , y ) x y {\displaystyle K\times K\to K,\;(x,y)\mapsto x\cdot y} , die quadratische Ordnung hat: ( r x , r y ) r 2 x y {\displaystyle (rx,ry)\mapsto r^{2}\cdot xy} .

Für mehr als zwei Faktoren gilt Entsprechendes.

Das Tensorprodukt als Bifunktor: Das Tensorprodukt linearer Abbildungen

Es seien zwei Vektorräume V {\displaystyle V} und W {\displaystyle W} mit je einer linearen Abbildung auf einen weiteren Vektorraum gegeben: f : V V {\displaystyle f\colon V\to V'} und g : W W {\displaystyle g\colon W\to W'} . Dann ist die Abbildung

V × W V W ( v , w ) f ( v ) g ( w ) {\displaystyle {\begin{matrix}V\times W&\longrightarrow &V'\otimes W'\\(v,w)&\longmapsto &f(v)\otimes g(w)\end{matrix}}}

bilinear. Nach der universellen Eigenschaft gibt es also eine eindeutig bestimmte lineare Abbildung h : V W V W {\displaystyle h\colon V\otimes W\to V'\otimes W'} , die auf den elementaren Tensoren gerade mit dem Tensorprodukt der Bildvektoren übereinstimmt:

h ( v w ) = f ( v ) g ( w ) {\displaystyle h(v\otimes w)=f(v)\otimes g(w)} für jedes Paar ( v , w ) V × W . {\displaystyle (v,w)\in V\times W\,.}

Die Abbildung h {\displaystyle h} kann also auf den elementaren Tensoren (oder gar auf den Basisvektoren v i w j {\displaystyle v_{i}\otimes w_{j}} allein) definiert und linear fortgesetzt werden. Wie sich aus der obigen Konstruktion durch lineare Fortsetzung einer auf den elementaren Tensoren definierten Abbildung ergibt, gilt: Die Konstruktion von T ( f , g ) := h {\displaystyle {\mathcal {T}}(f,g):=h} ist von der Wahl der Basen unabhängig.

Für ( f , g ) L ( V , V ) × L ( W , W ) {\displaystyle (f,g)\in L(V,V)\times L(W,W')} ergibt sich also eine wohldefinierte Abbildung

L ( V , V ) × L ( W , W ) L ( V W , V W ) ( f , g ) [ T ( f , g ) : v w f ( v ) g ( w ) ] . {\displaystyle {\begin{matrix}L(V,V')\times L(W,W')&\longrightarrow &L(V\otimes W,V'\otimes W')\\(f,g)&\longmapsto &\left[{\mathcal {T}}(f,g)\colon v\otimes w\mapsto f(v)\otimes g(w)\right]\;.\end{matrix}}}

Sind weitere Vektorräume bzw. lineare Abbildungen f : V V {\displaystyle f''\colon V'\to V''} und g : W W {\displaystyle g''\colon W'\to W''} gegeben, und ist h = f g {\displaystyle h'=f'\otimes g'} , so gilt darüber hinaus:

h h = T ( f , g ) T ( f , g ) = T ( f f , g g ) {\displaystyle h'\circ h={\mathcal {T}}(f',g')\circ {\mathcal {T}}(f,g)={\mathcal {T}}(f'\circ f,g'\circ g)}

Dies zeigt, dass die Zuordnung ( f , g ) T ( f , g ) {\displaystyle (f,g)\mapsto {\mathcal {T}}(f,g)} in der Sprache der Kategorientheorie ein (kovarianter) Bifunktor auf der Kategorie der K {\displaystyle K} -Vektorräume ist.

Diese Zuordnung ist darüber hinaus bilinear über K {\displaystyle K} .[Anm 6]

Man notiert diesen Bifunktor häufig mit dem Zeichen für das Tensorprodukt: T ( f , g ) =: f g {\displaystyle {\mathcal {T}}(f,g)=:f\otimes g} . Aus dem Zusammenhang muss deutlich werden, ob dabei die Zuordnung durch den Bifunktor T ( f , g ) L ( V W , V W ) {\displaystyle {\mathcal {T}}(f,g)\in L(V\otimes W,V'\otimes W')} oder aber ein Tensor f g L ( V , V ) L ( W , W ) {\displaystyle f\otimes g\in L(V,V)\otimes L(W,W')} gemeint ist.[4]

Allerdings ist diese Unterscheidung in der Regel unwesentlich, denn beide Deutungen können miteinander identifiziert werden, da aufgrund der universellen Eigenschaft eine Einbettung besteht:

Der Bifunktor = T {\displaystyle \otimes ={\mathcal {T}}} : Es gibt einen natürlichen Monomorphismus L ( V , V ) L ( W , W ) L ( V W , V W ) {\displaystyle L(V,V')\otimes L(W,W')\to L(V\otimes W,V'\otimes W')} , induziert durch die Festlegung ( f g ) ( v w ) := f ( v ) g ( w ) {\displaystyle (f\otimes g)(v\otimes w):=f(v)\otimes g(w)} . Dieser ist genau dann ein Isomorphismus, wenn V {\displaystyle V} oder W {\displaystyle W} endlichdimensional ist.[5][6]

Die Darstellungsmatrix oder Abbildungsmatrix der linearen Abbildung f g = T ( f , g ) {\displaystyle f\otimes g={\mathcal {T}}(f,g)} ist das Kronecker-Produkt der Darstellungsmatrizen von f {\displaystyle f} und g {\displaystyle g} bezogen auf die Basen v i w j {\displaystyle v_{i}\otimes w_{j}} von V W {\displaystyle V\otimes W} bzw. v i w j {\displaystyle v'_{i}\otimes w'_{j}} von V W {\displaystyle V'\otimes W'} , wenn in den Räumen V , W , V {\displaystyle V,W,V'} bzw. W {\displaystyle W'} die Basen v i , w j , v i {\displaystyle v_{i},w'_{j'},v'_{i'}} bzw. w j {\displaystyle w'_{j'}} (für i I , j J , i I {\displaystyle i\in I,j\in J,i'\in I'} bzw. j J {\displaystyle j'\in J'} ) zugrunde gelegt werden.

Vertauschbarkeit mit dem Koprodukt

Aus der Konstruktion geht hervor, dass das Tensorprodukt (als Bifunktor) mit dem Koprodukt (direkte Summe) vertauschbar ist, das heißt, für K {\displaystyle K} -Vektorräume V i , W , W j , W {\displaystyle V_{i},W,W_{j},W} bestehen folgende Isomorphismen:

( i I V i ) W i I ( V i W ) , {\displaystyle {\big (}\bigoplus _{i\in I}V_{i}{\big )}\otimes W\cong \bigoplus _{i\in I}{\big (}V_{i}\otimes W{\big )}\,,}

folglich

V ( j J W j ) j J ( V W j ) {\displaystyle V\otimes {\big (}\bigoplus _{j\in J}W_{j}{\big )}\cong \bigoplus _{j\in J}{\big (}V\otimes W_{j}{\big )}}

und

( i I V i ) ( j J W j ) i I j J ( V i W j ) . {\displaystyle {\big (}\bigoplus _{i\in I}V_{i}{\big )}\otimes {\big (}\bigoplus _{j\in J}W_{j}{\big )}\cong \bigoplus _{i\in I}\bigoplus _{j\in J}{\big (}V_{i}\otimes W_{j}{\big )}\,.}

Natürliche Homomorphismen

Wenn V {\displaystyle V^{*}} den Dualraum von V {\displaystyle V} bezeichnet, dann liefert die oben erwähnte Isomorphie L ( V , X ) L ( W , Y ) ~ L ( V W , X Y ) {\displaystyle L(V,X)\otimes L(W,Y)\;{\tilde {\to }}\;L(V\otimes W,X\otimes Y)} für endlichdimensionale Vektorräume V , W {\displaystyle V,W} und für den Fall X = Y = K {\displaystyle X=Y=K} die Isomorphie:

V W ( V W ) {\displaystyle V^{*}\otimes W^{*}\;\cong \;(V\otimes W)^{*}}

Dabei wurde der Isomorphismus K K K {\displaystyle K\otimes K\cong K} verwendet. Allgemein ist K V ~ V {\displaystyle K\otimes V\,{\tilde {\to }}\,V} , definiert durch c v c v {\displaystyle c\otimes v\mapsto cv} , ein Isomorphismus von Vektorräumen.

Setzt man hingegen X = K = W {\displaystyle X=K=W} , so erhält man die Isomorphie

V Y L ( V , Y ) , {\displaystyle V^{*}\otimes Y\;{\stackrel {\sim }{\longrightarrow }}\;L(V,Y)\;,}

die weiter unten erneut abgeleitet und mit Ψ {\displaystyle \Psi ^{\bullet }} bezeichnet wird. Auch diese Identifikation besteht jedoch nur für endlichdimensionale Vektorräume. Bei unendlicher Dimension sind es nur Monomorphismen.[7]

Neben dem Isomorphismus L ( V W , X ) L 2 ( V , W ; X ) {\displaystyle L(V\otimes W,X)\;{\stackrel {\sim }{\rightarrow }}\;L^{2}(V,W;X)} , den die universelle Eigenschaft liefert, erhält man durch Currying – unabhängig von Überlegungen zum Tensorprodukt – einen Isomorphismus

Ξ : L 2 ( V , W ; X ) L ( V , L ( W , X ) ) , β [ v ( w β ( v , w ) ) ] , {\displaystyle {\begin{matrix}\Xi \colon &L^{2}(V,W;X)&{\stackrel {\sim }{\longrightarrow }}&L(V,L(W,X))\;,\\&\beta &\longmapsto &[v\mapsto (w\mapsto \beta (v,w))]\;,\end{matrix}}}

insgesamt also einen kanonischen Isomorphismus L ( V W , X ) L ( V , L ( W , X ) ) {\displaystyle L(V\otimes W,X)\;{\stackrel {\sim }{\to }}\;L(V,L(W,X))} : Dieser besteht auch bei unendlichen Dimensionen.[7]

Anmerkung: Die folgenden linearen Abbildungen jedoch, in deren Bezeichnung der griechische Buchstabe Ψ {\displaystyle \Psi } erscheint, sind daher Isomorphismen bei endlicher Dimension, bei unendlicher Dimension jedoch sind es lediglich Monomorphismen.

Zusammen mit der Universaldefinition erhält man auf diese Weise für X = K {\displaystyle X=K} die folgende Identifikation:

Ψ : V W ( V W ) L 2 ( V , W ; K ) L ( V , W ) λ μ [ v w λ ( v ) μ ( w ) ] [ ( v , w ) λ ( v ) μ ( w ) ] [ v λ ( v ) μ = [ w λ ( v ) μ ( w ) ] ] . {\displaystyle {\begin{matrix}\Psi \colon &V^{*}\otimes W^{*}&{\stackrel {\sim }{\longrightarrow }}&(V\otimes W)^{*}&{\stackrel {\sim }{\longrightarrow }}&L^{2}(V,W;K)&{\stackrel {\sim }{\longrightarrow }}&L(V,W^{*})\\&\lambda \otimes \mu &\longmapsto &[v\otimes w\mapsto \lambda (v)\mu (w)]&\longmapsto &[(v,w)\mapsto \lambda (v)\mu (w)]&\longmapsto &{\big [}v\mapsto \lambda (v)\mu =[w\mapsto \lambda (v)\mu (w)]{\big ]}\;.\end{matrix}}}

Nun besteht ein kanonischer Isomorphismus zwischen einem endlichdimensionalen Vektorraum und seinem Bidualraum:[Anm 7]

V V , v [ λ λ ( v ) ] {\displaystyle {\begin{matrix}V&{\stackrel {\sim }{\longrightarrow }}&V^{**},\\v&\longmapsto &[\lambda \mapsto \lambda (v)]\end{matrix}}}

Nutzt man diese Tatsache, so kann man das Tensorprodukt von V {\displaystyle V} und W {\displaystyle W} also auch als den Dualraum des Vektorraums aller bilinearen Abbildungen V × W K {\displaystyle V\times W\to K} realisieren, endliche Dimensionen vorausgesetzt:

Ψ : V W L 2 ( V , W ; K ) L ( V , W ) v w [ β β ( v , w ) ] [ μ μ ( v ) w ] {\displaystyle {\begin{matrix}\Psi _{\bullet }^{\bullet }\colon &V\otimes W&{\stackrel {\sim }{\longrightarrow }}&L^{2}(V,W;K)^{*}&{\stackrel {\sim }{\longrightarrow }}&L(V^{*},W)\\&v\otimes w&\longmapsto &[\beta \mapsto \beta (v,w)]&\longmapsto &[\mu \mapsto \mu (v)\cdot w]\end{matrix}}}

In Worten: Der Dualraum L 2 ( V , W ; K ) {\displaystyle L^{2}(V,W;K)^{*}} des Raumes L 2 ( V , W ; K ) {\displaystyle L^{2}(V,W;K)} der bilinearen Abbildungen ist eine Realisierung des Tensorprodukts V W {\displaystyle V\otimes W} . Dabei gilt ja L 2 ( V , W ; K ) L ( V W , K ) {\displaystyle L^{2}(V,W;K)^{*}\cong L(V\otimes W,K)^{*}} . So kann man V W {\displaystyle V\otimes W} als denjenigen Unterraum des Raums der Bilinearformen aus V × W K {\displaystyle V^{*}\times W^{*}\to K} definieren, der von solchen der Gestalt ( λ , μ ) λ ( v ) μ ( w ) K {\displaystyle (\lambda ,\mu )\mapsto \lambda (v)\cdot \mu (w)\in K} aufgespannt wird, wobei v {\displaystyle v} und w {\displaystyle w} die Vektorräume V {\displaystyle V} bzw. W {\displaystyle W} durchlaufen.[8] Im Falle unendlichdimensionaler Vektorräume ist es ein echter Unterraum (siehe obige Verweise).

Setzt man hierbei W = K {\displaystyle W=K} , so erhält man als Sonderfall die eben bereits verwendete Tatsache zurück, dass der Bidualraum V {\displaystyle V^{**}} eines endlichdimensionalen Vektorraums V {\displaystyle V} mit diesem kanonisch identifiziert werden kann.

Wer sogar die nichtkanonische Identifikation V V {\displaystyle V\cong V^{*}} vornimmt (etwa aufgrund eines auf V {\displaystyle V} definierten Skalarproduktes), gelangt sogar zur (leicht Verwirrung stiftenden) Identifikation V W L ( V , W ) {\displaystyle V\otimes W\cong L(V,W)} , denn sie verschweigt die Beimischung eines weiteren willkürlichen Tensors (eben des Skalarprodukts als einer Bilinearform). Stattdessen sollte die kanonische Identifikation Ψ : V W L ( V , W ) {\displaystyle \Psi ^{\bullet }\colon V^{*}\otimes W\;{\stackrel {\sim }{\longrightarrow }}\;L(V,W)} betrachtet werden. Dieser Homomorphismus und ähnliche Homomorphismen werden in den folgenden Unterabschnitten näher betrachtet.

Homomorphismen als Tensoren

Dieser Isomorphismus lässt sich (wie folgt) explizit auf den elementaren Tensoren angeben und wird linear auf allgemeine Tensoren fortgesetzt:

Ψ : V W L ( V , W ) definiert durch λ μ [ Ψ ( λ μ ) : v λ ( v ) μ ] . {\displaystyle {\begin{matrix}&\Psi \colon V^{*}\otimes W^{*}&{\stackrel {\sim }{\longrightarrow }}&L(V,W^{*})\,\\{\text{definiert durch}}&\lambda \otimes \mu &\longmapsto &[\Psi (\lambda \otimes \mu )\colon v\mapsto \lambda (v)\cdot \mu ]\;.\end{matrix}}}

Ersetzt man nun W {\displaystyle W} durch seinen Dualraum und benutzt die natürliche Identifikation W W {\displaystyle W\cong W^{**}} mit dem Bidualraum für einen Vektorraum W {\displaystyle W} endlicher Dimension, so erhält man einen Isomorphismus

Ψ : V W L ( V , W ) definiert durch λ w [ Ψ ( λ w ) : v λ ( v ) w ] , {\displaystyle {\begin{matrix}&\Psi ^{\bullet }\colon V^{*}\otimes W&{\stackrel {\sim }{\longrightarrow }}&L(V,W)\,\\{\text{definiert durch}}&\lambda \otimes w&\longmapsto &[\Psi ^{\bullet }(\lambda \otimes w)\colon v\mapsto \lambda (v)\cdot w]\;,\end{matrix}}}

der schon oben für den Fall X = K = W {\displaystyle X=K=W} erwähnt wurde. Er darf als der kanonische Homomorphismus gelten, während die anderen hier genannten sich als Varianten aus ihm ergeben und nur der Vollständigkeit halber erwähnt werden. Für den Fall, dass beide Vektorräume unendlichdimensional sind, ist Ψ {\displaystyle \Psi ^{\bullet }} nur ein natürlicher Monomorphismus.[9]

Ebenso lässt sich V {\displaystyle V} , falls von endlicher Dimension, durch seinen Dualraum ersetzen, und man erhält:

Ψ : V W L ( V , W ) definiert durch v μ [ Ψ ( v μ ) : λ λ ( v ) μ ] . {\displaystyle {\begin{matrix}&\Psi _{\bullet }\colon V\otimes W^{*}&{\stackrel {\sim }{\longrightarrow }}&L(V^{*},W^{*})\,\\{\text{definiert durch}}&v\otimes \mu &\longmapsto &[\Psi _{\bullet }(v\otimes \mu )\colon \lambda \mapsto \lambda (v)\cdot \mu ]\;.\end{matrix}}}

Wenn beide durch ihr Dual ersetzt werden, erhält man:

Ψ : V W L ( V , W ) definiert durch v w [ Ψ ( v w ) : λ λ ( v ) w ] . {\displaystyle {\begin{matrix}&\Psi _{\bullet }^{\bullet }\colon V\otimes W&{\stackrel {\sim }{\longrightarrow }}&L(V^{*},W)\,\\{\text{definiert durch}}&v\otimes w&\longmapsto &[\Psi _{\bullet }^{\bullet }(v\otimes w)\colon \lambda \mapsto \lambda (v)\cdot w]\;.\end{matrix}}}

Für den Vektorraum L ( V , W ) {\displaystyle L(V^{*},W)} von Homomorphismen lässt sich unter diesen Voraussetzungen explizit zeigen, dass er die für V W {\displaystyle V\otimes W} geforderte universelle Eigenschaft erfüllt, zusammen mit der bilinearen Abbildung ( v , w ) Ψ ( v w ) L ( V , W ) {\displaystyle (v,w)\mapsto \Psi _{\bullet }^{\bullet }(v\otimes w)\in L(V^{*},W)} . Auf diese Weise hat man für V W {\displaystyle V\otimes W} – auch ohne Konstruktion – eine konkrete Realisierung des Tensorproduktes gefunden, entsprechend natürlich für die anderen Beispiele.

Diese Realisierung liefert zudem ein greifbares Beispiel dafür, dass das Tensorprodukt auch für V = W {\displaystyle V=W} nicht kommutativ ist:

Es ist unmittelbar abzulesen, dass Ψ {\displaystyle \Psi } die beiden Tensoren v 1 v 2 {\displaystyle v_{1}\otimes v_{2}} auf verschiedene Homomorphismen abbildet, sobald sie nur linear unabhängig sind. Ist jedoch v 1 = x v 2 {\displaystyle v_{1}=xv_{2}} , so gilt für die Bilder unter Φ {\displaystyle \Phi } tatsächlich λ ( v 1 ) v 2 = λ ( x v 2 ) v 2 = λ ( v 2 ) x v 2 = λ ( v 2 ) v 2 {\displaystyle \lambda (v_{1})v_{2}=\lambda (xv_{2})v_{2}=\lambda (v_{2})xv_{2}=\lambda (v_{2})v_{2}} , ganz analog zu der schon zuvor bekannten Rechenregel für Tensoren v x v = x v v {\displaystyle v\otimes xv=xv\otimes v} .

Bringt man – dank der endlichen Dimensionen – den natürlichen Isomorphismus L ( V , W ) L ( W , V ) , f [ f : μ μ f ] {\displaystyle L(V,W){\stackrel {\sim }{\longrightarrow }}L(W^{*},V^{*}),\;f\longmapsto [f^{*}\colon \mu \mapsto \mu \circ f]} zusammen mit V V {\displaystyle V^{**}\cong V} bzw. W W {\displaystyle W^{**}\cong W} ins Spiel, so erhält man weitere Identifikationen.

Die Umkehrabbildung von Ψ {\displaystyle \Psi ^{\bullet }} – unter Voraussetzung endlicher Dimension von W {\displaystyle W} – wird folgendermaßen konstruiert:[10]

Die Tatsache, dass für jede lineare Abbildung f L ( V , W ) {\displaystyle f\in L(V,W)} und jede Linearform μ L ( W , K ) {\displaystyle \mu \in L(W,K)} das Kompositum V f W μ K {\displaystyle V{\stackrel {f}{\rightarrow }}W{\stackrel {\mu }{\rightarrow }}K} linear ist, bedeutet, dass folgende Abbildung wohldefiniert und ihrerseits linear ist:
( Ψ ) 1 : L ( V , W ) L 2 ( V , W ; K ) ( V W ) V W definiert durch f [ ( v , μ ) μ ( f ( v ) ) ] . {\displaystyle {\begin{matrix}&(\Psi ^{\bullet })^{-1}\colon L(V,W)&{\stackrel {\sim }{\longrightarrow }}&L^{2}(V,W^{*};K)\cong (V\otimes W^{*})^{*}\cong V^{*}\otimes W\,\\{\text{definiert durch}}&f&\longmapsto &[(v,\mu )\mapsto \mu (f(v))]\;.\end{matrix}}}
Sie ist injektiv, weil die duale Paarung W × W K , ( μ , w ) μ ( w ) {\displaystyle W^{*}\times W\to K,(\mu ,w)\mapsto \mu (w)} nicht ausgeartet ist, das heißt, weil für jedes w W { 0 } {\displaystyle w\in W\backslash \{0\}} ein μ W {\displaystyle \mu \in W^{*}} existiert mit μ ( w ) 0 {\displaystyle \mu (w)\neq 0} .
Die Surjektivität folgt so: Ist t L 2 ( V , W ; K ) {\displaystyle t\in L^{2}(V,W^{*};K)} eine Bilinearform, so ist für jedes (festgehaltene) v V {\displaystyle v\in V} die partielle Abbildung t ( v , ) L ( W , K ) = W {\displaystyle t(v,\cdot )\in L(W^{*},K)=W^{**}} als ein Vektor w v W = ! W {\displaystyle w_{v}\in W^{**}{\stackrel {!}{=}}W} des Bidualraumes zu verstehen, der jedoch (unter Verwendung von dim W < {\displaystyle \dim W<\infty } beim Ausrufezeichen) in kanonischer Weise mit W {\displaystyle W} selbst zu identifizieren ist. Setzt man nun f ( v ) := w v {\displaystyle f(v):=w_{v}} , so erhält man eine lineare Abbildung f L ( V , W ) {\displaystyle f\in L(V,W)} mit μ ( f ( v ) ) = μ ( w v ) = t ( v , ) ( μ ) = t ( v , μ ) {\displaystyle \mu (f(v))=\mu (w_{v})=t(v,\cdot )(\mu )=t(v,\mu )} , wie gewünscht.
Diese Abbildung tauchte bereits oben als Abbildung Ξ {\displaystyle \Xi } auf, die durch bloßes Currying gewonnen wurde: Dafür ist lediglich W {\displaystyle W} durch W {\displaystyle W^{*}} zu ersetzen. Tatsächlich ist bereits durch Currying klar, dass eine Bilinearform t L 2 ( V , W ; K ) = L ( V , L ( W ; K ) ) = ! L ( V , W ) {\displaystyle t\in L^{2}(V,W^{*};K)=L(V,L(W^{*};K)){\stackrel {!}{=}}L(V,W)} als Homomorphismus zu verstehen ist, wenn man beim Gleichheitszeichen = ! {\displaystyle {\stackrel {!}{=}}} die Identifikation W = W {\displaystyle W^{**}=W} voraussetzen darf.

Homomorphismen aus L ( V , W ) {\displaystyle L(V,W)} lassen sich also als Bilinearformen interpretieren. Die Abbildungen Ψ {\displaystyle \Psi ^{\bullet }} und Ψ {\displaystyle \Psi _{\bullet }} bzw. die Umkehrabbildung liefern im Falle W = V {\displaystyle W=V} Interpretationen der so genannten gemischten Tensoren als Endomorphismen auf V {\displaystyle V} ; weitere Einzelheiten siehe diesen Abschnitt.

Homomorphismen einfacher Tensoren

Im Lichte der Identifikation von Tensoren mit Homomorphismen wird deutlich, was einfache, reine oder elementare Tensoren sind: Sind sie von Null verschieden, so entsprechen ihnen die Homomorphismen vom Rang 1, also diejenigen Homomorphismen f {\displaystyle f} , für die eine der folgenden äquivalenten Bedingungen gilt:

  • Es gibt einen Vektor w Bild f { 0 } {\displaystyle w\in \operatorname {Bild} f\backslash \{0\}} mit Bild f = K w {\displaystyle \operatorname {Bild} f=K\cdot w} .
  • dim K Bild f = 1 {\displaystyle \dim _{K}\operatorname {Bild} f=1}
  • Für eine (und mithin jede) Darstellungsmatrix A = ( a i j ) {\displaystyle A=(a_{ij})} gilt: rang A = 1 {\displaystyle \operatorname {rang} A=1} .
  • Eine (und mithin jede) Darstellungsmatrix A = ( a i j ) {\displaystyle A=(a_{ij})} ist Matrizenprodukt (vgl. diesen Abschnitt, erstes Beispiel) aus einem Spaltenvektor y := ( y 1 y m ) 0 {\displaystyle {\boldsymbol {y}}:={\begin{pmatrix}y_{1}\\\vdots \\y_{m}\end{pmatrix}}\neq 0} und Zeilenvektor x := ( x 1 , x n ) 0 {\displaystyle {\boldsymbol {x}}:=(x_{1}\dots ,x_{n})\neq 0} , also A = y x {\displaystyle A={\boldsymbol {y}}\cdot {\boldsymbol {x}}} .
  • Mit geeignet gewählten x j K ( j = 1 , , n := dim V ) {\displaystyle x_{j}\in K\;(j=1,\dots ,n:=\dim V)} und y i K ( i = 1 , , m := dim W ) {\displaystyle y_{i}\in K\;(i=1,\dots ,m:=\dim W)} gilt für die Einträge a i j {\displaystyle a_{ij}} der Matrix: 1 i m , 1 j n : a i j = y i x j {\displaystyle \forall \;1\leq i\leq m,\;1\leq j\leq n\colon a_{ij}=y_{i}\cdot x_{j}} .

Welche Rolle Spalten- und Zeilenvektor spielen, wird im folgenden Abschnitt klar.

Die genannte Charakterisierung ist für die Quantenverschränkung von Interesse: Gemäß der dortigen mathematischen Beschreibung korrespondieren die einfachen Tensoren mit den separablen oder Produktzuständen. Verschränkt sind hingegen jene Zustände, die nicht separabel sind. Die Koordinatenmatrix A = ( a i j ) {\displaystyle A=(a_{ij})} verschränkter Zustände ist also durch rang A > 1 {\displaystyle \operatorname {rang} A>1} gekennzeichnet.

Aus Sicht des Matrizenkalküls

Es lohnt sich zu beleuchten, wie sich die Abbildung Ψ {\displaystyle \Psi ^{\bullet }} im Matrizenkalkül widerspiegelt. Um das Ergebnis vorwegzunehmen: Die Abbildung Ψ {\displaystyle \Psi ^{\bullet }} besagt, dass eine Matrix

A := ( a 1 1 a 2 1 a n 1 a 1 2 a 2 2 a n 2 a 1 m a 2 2 a n m ) , {\displaystyle A:={\begin{pmatrix}a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1}\\a_{1}^{2}&a_{2}^{2}&\dots &a_{n}^{2}\\\vdots &\vdots &\vdots &\vdots \\a_{1}^{m}&a_{2}^{2}&\dots &a_{n}^{m}\end{pmatrix}}\;,}

die einen Homomorphismus f L ( V , W ) {\displaystyle f\in L(V,W)} bezüglich zweier Basen v _ {\displaystyle {\underline {v}}} und w _ {\displaystyle {\underline {w}}} von V {\displaystyle V} bzw. W {\displaystyle W} darstellt, sich als Tensor auffassen lässt, indem man die Zeilen als Linearformen λ i V {\displaystyle \lambda ^{i}\in V^{*}} auf dem als Spaltenvektorraum notierten Vektorraum V {\displaystyle V} auffasst:

( ( a 1 1 a 2 1 a n 1 ) ( a 1 2 a 2 2 a n 2 ) ( a 1 m a 2 2 a n m ) ) . {\displaystyle {\begin{pmatrix}(a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1})\\(a_{1}^{2}&a_{2}^{2}&\dots &a_{n}^{2})\\\vdots &\vdots &\vdots &\vdots \\(a_{1}^{m}&a_{2}^{2}&\dots &a_{n}^{m})\end{pmatrix}}\;.}

So liefert die Darstellungsmatrix A = M w _ v _ ( f ) {\displaystyle A=M_{\underline {w}}^{\underline {v}}(f)} in jeder Zeile für je einen eindimensionalen Unterraum w i K W {\displaystyle w_{i}\cdot K\subset W} eine Linearform λ i V {\displaystyle \lambda ^{i}\in V^{*}} , sodass sich in der direkten Summe über diese Unterräume die gesamte Abbildung ergibt. Denn genau dies geschieht bei der Multiplikation der Matrix A {\displaystyle A} mit einem Koordinatenvektor. Dabei wird die Notation mit hochgestellten Indizes verwendet, also a j i {\displaystyle a_{j}^{i}} anstelle von a i j {\displaystyle a_{ij}} . Diese Notation wird gerne benutzt, wenn duale Beziehungen durch die Notationsweise verdeutlicht werden sollen. (Häufig findet dann die einsteinsche Summenkonvention Anwendung.) Hochgestellte Indizes sind also im Folgenden keine Potenzen.

Zur Erläuterung: Es seien also V , W {\displaystyle V,W} Vektorräume über dem Körper K {\displaystyle K} endlicher Dimension mit n := dim V {\displaystyle n:=\dim V} und m := dim W {\displaystyle m:=\dim W} ,

v 1 , v 2 , , v n {\displaystyle v_{1},v_{2},\dots ,v_{n}} eine Basis von V {\displaystyle V} und w 1 , w 2 , , w m {\displaystyle w_{1},w_{2},\dots ,w_{m}} eine Basis von W {\displaystyle W} .

Dann sind diese Vektorräume die (inneren) direkten Summen ihrer eindimensionalen Unterräume V j := K v j {\displaystyle V_{j}:=K\cdot v_{j}} bzw. W i := K w i {\displaystyle W_{i}:=K\cdot w_{i}} :

V = j = 1 n V j  und  W = i = 1 m W i {\displaystyle V=\bigoplus _{j=1}^{n}V_{j}\quad {\text{ und }}\quad W=\bigoplus _{i=1}^{m}W_{i}}

Mit den kanonischen Projektionen π i : W W i {\displaystyle \pi _{i}\colon W\to W_{i}} (für i = 1 , , m {\displaystyle i=1,\dots ,m} ) gilt für jedes v V {\displaystyle v\in V} die Beziehung f ( v ) = i = 1 m π i f ( v ) {\displaystyle f(v)=\sum _{i=1}^{m}\pi _{i}\circ f(v)} , also lässt sich f {\displaystyle f} als Summe

f = i = 1 m π i f {\displaystyle f=\sum _{i=1}^{m}\pi _{i}\circ f}

einzelner Abbildungen

f i := π i f L ( V , W i ) {\displaystyle f^{i}:=\pi _{i}\circ f\in L(V,W_{i})}

darstellen, wobei stillschweigend die Einbettung L ( V , W i ) L ( V , W ) {\displaystyle L(V,W_{i})\subset L(V,W)} vorgenommen wird, da nur in diesem gemeinsamen „Oberraum“ die Addition der f i {\displaystyle f^{i}} ausgeführt werden kann. Definiert man nun für jedes i = 1 , , m {\displaystyle i=1,\dots ,m} eine Abbildung λ i : V K {\displaystyle \lambda ^{i}\colon V\to K} vermöge der Gleichung

v V : f i ( v ) =: w i λ i ( v ) , {\displaystyle \forall \,v\in V\colon f^{i}(v)=:w_{i}\cdot \lambda ^{i}(v)\;,}

so erhält man Linearformen λ i V {\displaystyle \lambda ^{i}\in V^{*}} , für die folgende Beziehung gilt:

f ( v ) = i = 1 m w i λ i ( v ) . {\displaystyle f(v)=\sum _{i=1}^{m}w_{i}\cdot \lambda ^{i}(v)\;.}

Damit wird deutlich, wie die Abbildung Ψ {\displaystyle \Psi ^{\bullet }} zu verstehen ist: Die lineare Abbildung f L ( V , W ) {\displaystyle f\in L(V,W)} ist unter Ψ {\displaystyle \Psi ^{\bullet }} das Bild des Tensors i = 1 m λ i w i {\displaystyle \sum _{i=1}^{m}\lambda ^{i}\otimes w_{i}} :

Ψ ( i = 1 m λ i w i ) = f . {\displaystyle \Psi ^{\bullet }\left(\sum _{i=1}^{m}\lambda ^{i}\otimes w_{i}\right)=f\;.}

Die Abbildung f {\displaystyle f} lässt sich also vermittels Ψ {\displaystyle \Psi ^{\bullet }} als Tensor auffassen, nämlich als Summe elementarer Tensoren λ i w i {\displaystyle \lambda ^{i}\otimes w_{i}} , deren jeder die zugehörige Komponentenabbildung f i {\displaystyle f^{i}} darstellt.

Mit der obigen darstellenden Matrix A {\displaystyle A} bestimmt man für einen Vektor v V {\displaystyle v\in V} mit Koordinatendarstellung v =: j = 1 n v j x j {\displaystyle v=:\sum _{j=1}^{n}v_{j}\cdot x^{j}} gemäß Matrizenkalkül die Koordinatendarstellung des Bildvektors f ( v ) {\displaystyle f(v)} bekanntlich gemäß der Gleichung

f ( v ) = w 1 j = 1 n a j 1 x j =: y 1 + + w m j = 1 n a j m x j =: y m =: i = 1 m w i y i . {\displaystyle {\begin{matrix}f(v)&=&w_{1}\cdot \underbrace {\sum _{j=1}^{n}a_{j}^{1}x^{j}} _{=:y^{1}}&+\dots +&w_{m}\cdot \underbrace {\sum _{j=1}^{n}a_{j}^{m}x^{j}} _{=:y^{m}}\\&=:&\sum _{i=1}^{m}w_{i}\cdot y^{i}\;.\end{matrix}}}

Durch Vergleich mit der obigen Gleichung f ( v ) = i = 1 m w i λ i ( v ) {\displaystyle f(v)=\sum _{i=1}^{m}w_{i}\cdot \lambda ^{i}(v)} erkennt man, wie sich die Linearformen λ i {\displaystyle \lambda ^{i}} in der darstellenden Matrix A {\displaystyle A} wiederfinden: Es sind gerade die Zeilenvektoren. λ i ( v ) = j = 1 n a j i x j = y i  für  i = 1 , m . {\displaystyle \lambda ^{i}(v)=\sum _{j=1}^{n}a_{j}^{i}x^{j}=y^{i}\;{\text{ für }}i=1,\dots m\;.} Für die Koeffizienten der Matrix A = ( a j i ) j i {\displaystyle A=\left(a_{j}^{i}\right)_{j}^{i}} gilt also:

a j i = λ i ( v j ) . {\displaystyle a_{j}^{i}=\lambda ^{i}(v_{j}).}

Hierin drückt sich die bekannte Merkregel aus, dass in der j {\displaystyle j} -ten Spalte ( j = 1 , , n {\displaystyle j=1,\dots ,n} ) der darstellenden Matrix ( a j i ) j i {\displaystyle \left(a_{j}^{i}\right)_{j}^{i}} der – auf die Basis w _ {\displaystyle {\underline {w}}} des Bildraums W {\displaystyle W} bezogene – Koordinatenvektor ( a j i ) i {\displaystyle \left(a_{j}^{i}\right)^{i}} der Bildes f ( v j ) = i = 1 m f i ( v j ) = i = 1 m w i λ i ( v j ) = i = 1 m w i a j i {\displaystyle f(v_{j})=\sum _{i=1}^{m}f^{i}(v_{j})=\sum _{i=1}^{m}w_{i}\cdot \lambda ^{i}(v_{j})=\sum _{i=1}^{m}w_{i}\cdot a_{j}^{i}} des Basisvektors v j {\displaystyle v_{j}} steht.

Anmerkung: Die dazu duale Merkregel besagt, dass in der i {\displaystyle i} -ten Zeile ( i = 1 , , m {\displaystyle i=1,\dots ,m} ) der darstellenden Matrix ( a j i ) j i {\displaystyle \left(a_{j}^{i}\right)_{j}^{i}} der – auf die zur Basis v _ {\displaystyle {\underline {v}}} des Definitionsraums V {\displaystyle V} duale Basis v _ {\displaystyle {\underline {v}}^{*}} des Dualraums V {\displaystyle V^{*}} bezogene – Koordinatenvektor ( a j i ) j {\displaystyle \left(a_{j}^{i}\right)_{j}} desjenigen Kovektors λ i V {\displaystyle \lambda ^{i}\in V^{*}} steht, der die Abbildung f {\displaystyle f} in der i {\displaystyle i} -ten Bildkomponente darstellt: π i f ( v ) = f i ( v ) = w i λ i ( v ) {\displaystyle \pi _{i}\circ f(v)=f^{i}(v)=w_{i}\cdot \lambda ^{i}(v)} .

Bezeichnet v _ = ( v 1 , , v n ) V × × V {\displaystyle {\underline {v}}^{*}=(v_{1}^{*},\dots ,v_{n}^{*})\in V\times \dots \times V} die zu v _ {\displaystyle {\underline {v}}} gehörige duale Basis des Dualraums V {\displaystyle V^{*}} von V {\displaystyle V} ― definiert durch v i ( v j ) = δ j i {\displaystyle v_{i}^{*}(v_{j})=\delta _{j}^{i}} ( 1 i , j n {\displaystyle 1\leq i,j\leq n} mit dem Kronecker-Delta) ―, so lässt sich die lineare Abbildung als Linearkombination schreiben:

f = i = 1 m j = 1 n w i a j i v j {\displaystyle f=\sum _{i=1}^{m}\sum _{j=1}^{n}w_{i}\cdot a_{j}^{i}\cdot v_{j}^{*}}

Dies ist ja gerade die definierende Gleichung für die Darstellungsmatrix M w _ v _ ( f ) =: A = ( a j i ) {\displaystyle M_{\underline {w}}^{\underline {v}}(f)=:A=(a_{j}^{i})} , welche die Abbildung f {\displaystyle f} bezüglich der Basen v _ {\displaystyle {\underline {v}}} und w _ {\displaystyle {\underline {w}}} darstellt.

Unter der Abbildung Ψ {\displaystyle \Psi ^{\bullet }} korrespondieren also a j i v j w i {\displaystyle a_{j}^{i}\cdot v_{j}^{*}\otimes w_{i}} und w i a j i v j {\displaystyle w_{i}\cdot a_{j}^{i}\cdot v_{j}^{*}} miteinander: Dies sind die einfachen Tensoren, aus denen die Abbildung f {\displaystyle f} zusammengesetzt ist.

Im Folgenden soll demonstriert werden, dass die Anwendung des Matrizenkalküls auf die Spaltenvektoren der zugehörigen Koordinatenräume K n V {\displaystyle K^{n}\cong V} bzw. K m W {\displaystyle K^{m}\cong W} implizit genau diese Zerlegung der linearen Abbildung f {\displaystyle f} in die Summe von Linearformen λ i {\displaystyle \lambda ^{i}} vornimmt. Dazu sei zunächst darauf hingewiesen, dass Skalare x K {\displaystyle x\in K} – aufgefasst als 1 × 1 {\displaystyle 1\times 1} -Matrizen – an Spaltenvektoren von rechts, an Zeilenvektoren jedoch von links heran multipliziert werden müssen. Dies ist zwar bei kommutativen Körpern (wie hier) gleichgültig, doch ist für den Formalismus hilfreich, dies im Hinterkopf zu behalten. Nun kann man die Matrix A {\displaystyle A} in folgender – zunächst zweckfrei erscheinenden – Weise in eine Summe zerlegen, ganz der Zerlegung f = i = 1 m f i = i = 1 m w i λ i L ( V , W ) {\displaystyle f=\sum _{i=1}^{m}f^{i}=\sum _{i=1}^{m}w_{i}\cdot \lambda ^{i}\in L(V,W)} entsprechend:

A = ( a 1 1 a 2 1 a n 1 a 1 2 a 2 2 a n 2 a 1 3 a 2 3 a n 3 a 1 m a 2 m a n m ) = ( a 1 1 a 2 1 a n 1 0 0 0 0 0 0 0 0 0 ) + ( 0 0 0 a 1 2 a 2 2 a n 2 0 0 0 0 0 0 ) + + ( 0 0 0 0 0 0 a 1 m a 2 m a n m ) = ( 1 0 0 ) w 1 ( a 1 1 a 2 1 a n 1 ) = λ 1 als Kovektor  + ( 0 1 0 0 ) w 2 ( a 1 2 a 2 2 a n 2 ) = λ 2 als Kovektor + + ( 0 0 1 ) w m ( a 1 m a 2 m a n m ) = λ m als Kovektor {\displaystyle {\begin{aligned}A&=&{\begin{pmatrix}a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1}\\a_{1}^{2}&a_{2}^{2}&\dots &a_{n}^{2}\\a_{1}^{3}&a_{2}^{3}&\dots &a_{n}^{3}\\\vdots &\vdots &\vdots &\vdots \\a_{1}^{m}&a_{2}^{m}&\dots &a_{n}^{m}\end{pmatrix}}={\begin{pmatrix}a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1}\\0&0&\dots &0\\0&0&\dots &0\\\vdots &\vdots &\vdots &\vdots \\0&0&\dots &0\end{pmatrix}}+{\begin{pmatrix}0&0&\dots &0\\a_{1}^{2}&a_{2}^{2}&\dots &a_{n}^{2}\\0&0&\dots &0\\\vdots &\vdots &\vdots &\vdots \\0&0&\dots &0\end{pmatrix}}+\dots +{\begin{pmatrix}0&0&\dots &0\\\vdots &\vdots &\vdots &\vdots \\\vdots &\vdots &\vdots &\vdots \\0&0&\dots &0\\a_{1}^{m}&a_{2}^{m}&\dots &a_{n}^{m}\end{pmatrix}}\\&=&\underbrace {\begin{pmatrix}1\\0\\\vdots \\\vdots \\0\end{pmatrix}} _{\cong w_{1}}\cdot \underbrace {{\Big (}{\begin{matrix}a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1}\end{matrix}}{\Big )}} _{=\lambda ^{1}\;{\text{als Kovektor }}}+\underbrace {\begin{pmatrix}0\\1\\0\\\vdots \\0\end{pmatrix}} _{\cong w_{2}}\cdot \underbrace {{\Big (}{\begin{matrix}a_{1}^{2}&a_{2}^{2}&\dots &a_{n}^{2}\end{matrix}}{\Big )}} _{=\lambda ^{2}\;{\text{als Kovektor}}}+\dots +\underbrace {\begin{pmatrix}0\\\vdots \\\vdots \\0\\1\end{pmatrix}} _{\cong w_{m}}\cdot \underbrace {{\Big (}{\begin{matrix}a_{1}^{m}&a_{2}^{m}&\dots &a_{n}^{m}\end{matrix}}{\Big )}} _{=\lambda ^{m}\;{\text{als Kovektor}}}\end{aligned}}}

Die Linearformen λ i {\displaystyle \lambda ^{i}} sind als Kovektoren (hier also Zeilenvektoren) im Koordinatenraum K n {\displaystyle K^{n}} bezüglich der zu ( v j ) {\displaystyle (v_{j})} dualen Basis ( v j ) {\displaystyle (v_{j}^{*})} (definiert durch v j 1 ( v j 2 ) := δ j 2 j 1 {\displaystyle v_{j_{1}}^{*}(v_{j_{2}}):=\delta _{j_{2}}^{j_{1}}} (Kronecker-Symbol)) dargestellt. Die links von diesen Linearformen stehenden Einheitsvektoren sind die Koordinatenvektoren der Basisvektoren w i {\displaystyle w_{i}} und stehen für die Projektionen π i {\displaystyle \pi _{i}} . Multipliziert man nun einen Koordinatenvektor ( x j ) j K n {\displaystyle (x^{j})^{j}\in K^{n}} für einen Vektor v =: j = 1 n v j x j {\displaystyle v=:\sum _{j=1}^{n}v_{j}\cdot x^{j}} (von rechts) an die Matrix A {\displaystyle A} , beachtet Distributivität und Assoziativität des Matrizenkalküls, so ergibt sich:

A ( x 1 x 2 x n ) = ( 1 0 0 ) w 1 ( ( a 1 1 a 2 1 a n 1 ) ( x 1 x 2 x n ) ) = λ 1 ( v ) = y 1 + + ( 0 0 1 ) w m ( ( a 1 m a 2 m a n m ) ( x 1 x 2 x n ) ) = λ m ( v ) = y m {\displaystyle A\cdot {\begin{pmatrix}x^{1}\\x^{2}\\\vdots \\x^{n}\end{pmatrix}}=\underbrace {\begin{pmatrix}1\\0\\\vdots \\0\end{pmatrix}} _{\cong w_{1}}\cdot \underbrace {{\Big (}{\begin{pmatrix}a_{1}^{1}&a_{2}^{1}&\dots &a_{n}^{1}\end{pmatrix}}\cdot {\begin{pmatrix}x^{1}\\x^{2}\\\vdots \\x^{n}\end{pmatrix}}{\Big )}} _{=\lambda ^{1}(v)=y^{1}}+\dots +\underbrace {\begin{pmatrix}0\\\vdots \\0\\1\end{pmatrix}} _{\cong w_{m}}\cdot \underbrace {{\Big (}{\begin{pmatrix}a_{1}^{m}&a_{2}^{m}&\dots &a_{n}^{m}\end{pmatrix}}\cdot {\begin{pmatrix}x^{1}\\x^{2}\\\vdots \\x^{n}\end{pmatrix}}{\Big )}} _{=\lambda ^{m}(v)=y^{m}}}

Dabei stellen die links von den Skalarfaktoren λ i ( v ) {\displaystyle \lambda ^{i}(v)} stehenden Einheitsvektoren gerade die Koordinatenvektoren der Basisvektoren w i {\displaystyle w_{i}} dar. Diese Beziehung ist also die Entsprechung für die obige Zerlegung der Abbildung f {\displaystyle f} in eine Summe elementarer Tensoren f = Ψ ( i = 1 m λ i w i ) {\displaystyle f=\Psi ^{\bullet }(\sum _{i=1}^{m}\lambda ^{i}\otimes w_{i})} . Sie überträgt diese Zerlegung in die zugehörigen Koordinatenräume (bei gegebener Basiswahl) und zerlegt die Matrix A {\displaystyle A} in eine Summe von Linearformen. Die Abbildung Ψ {\displaystyle \Psi ^{\bullet }} wird im Matrizenkalkül also inhärent vollzogen.

Ähnlich lässt sich mit Hilfe der kanonischen Einbettungen ε j : K v j := V j V {\displaystyle \varepsilon _{j}\colon K\cdot v_{j}:=V_{j}\subset V} eine (zu π i {\displaystyle \pi _{i}} duale) Zerlegung angeben. Insgesamt ergibt sich die bekannte Tatsache, dass die Familie ( f j i ) j i {\displaystyle \left(f_{j}^{i}\right)_{j}^{i}} der linearen Abbildungen f j i : V j = K v j ε j V f W π i W i = K w i {\displaystyle f_{j}^{i}\colon V_{j}=K\cdot v_{j}{\stackrel {\varepsilon _{j}}{\longrightarrow }}V{\stackrel {f}{\longrightarrow }}W{\stackrel {\pi _{i}}{\longrightarrow }}W_{i}=K\cdot w_{i}} durch die Familie (lies: Matrix) ( a j i ) j i {\displaystyle \left(a_{j}^{i}\right)_{j}^{i}} von Koeffizienten a j i {\displaystyle a_{j}^{i}} gegeben ist: f j i ( v ) = a j i w i {\displaystyle f_{j}^{i}(v)=a_{j}^{i}\cdot w_{i}} für v V j {\displaystyle v\in V_{j}} . Dabei korrespondiert offenbar f j i {\displaystyle f_{j}^{i}} mit w i a j i v j {\displaystyle w_{i}\cdot a_{j}^{i}v_{j}^{*}} , also unter Ψ {\displaystyle \Psi ^{\bullet }} mit a j i v j w i {\displaystyle a_{j}^{i}\cdot v_{j}^{*}\otimes w_{i}} . Dies soll nun in kompakter Notationsweise gezeigt werden, die bei der Betrachtung des tensoriellen Transformationsverhaltens von Nutzen ist.

Die Darstellungsmatrix als Matrix der Tensorkoordinaten

Notiert man einen Vektor v = j = 1 n v j x j V {\displaystyle v=\sum _{j=1}^{n}v_{j}\cdot x^{j}\in V} mit seinem Koordinatenvektor ( x 1 x n ) {\displaystyle {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}} bezogen auf die – als Zeile notierte – geordnete Basis v _ = ( v 1 , , v n ) {\displaystyle {\underline {v}}=(v_{1},\dots ,v_{n})} in der Form v = v _ ( x 1 x n ) {\displaystyle v={\underline {v}}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}} (und entsprechend für Vektoren in W {\displaystyle W} mit seiner Basis w _ = ( w 1 , , w m ) {\displaystyle {\underline {w}}=(w_{1},\dots ,w_{m})} ), und geht man von der definierenden Gleichung

f = i = 1 m j = 1 n w i a j i v j {\displaystyle f=\sum _{i=1}^{m}\sum _{j=1}^{n}w_{i}\cdot a_{j}^{i}\cdot v_{j}^{*}}

für die Darstellungsmatrix A = ( a j i ) {\displaystyle A=(a_{j}^{i})} aus und notiert den Bildvektor f ( v ) {\displaystyle f(v)} mit seinen Koordinaten y i {\displaystyle y^{i}} bezüglich der Basis w _ {\displaystyle {\underline {w}}} entsprechend, so erhält man:

w _ ( y 1 y n ) := f ( v ) = k = 1 n f ( v k ) x k = k = 1 n i = 1 m j = 1 n w i a j i v j ( v k ) x k = k = 1 n i = 1 m j = 1 n w i a j i δ k j x k = i = 1 m j = 1 n w i a j i x j = i = 1 m w i j = 1 n a j i x j = w _ A ( x 1 x n ) {\displaystyle {\begin{array}{cccccccc}{\underline {w}}\cdot {\begin{pmatrix}y^{1}\\\vdots \\y^{n}\end{pmatrix}}&:=&&f(v)\\&=&\sum \limits _{k=1}^{n}&f(v_{k})&&&\cdot &x^{k}\\&=&\sum \limits _{k=1}^{n}&\sum \limits _{i=1}^{m}\sum \limits _{j=1}^{n}w_{i}&\cdot &a_{j}^{i}\cdot v_{j}^{*}(v_{k})&\cdot &x^{k}\\&=&\sum \limits _{k=1}^{n}&\sum \limits _{i=1}^{m}\sum \limits _{j=1}^{n}w_{i}&\cdot &a_{j}^{i}\cdot \delta _{k}^{j}&\cdot &x^{k}\\&=&&\sum \limits _{i=1}^{m}\sum \limits _{j=1}^{n}w_{i}&\cdot &a_{j}^{i}&\cdot &x^{j}\\&=&&\sum \limits _{i=1}^{m}w_{i}&\cdot &\sum \limits _{j=1}^{n}a_{j}^{i}&\cdot &x^{j}\\&=&&{\underline {w}}&\cdot &A&\cdot &{\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}\end{array}}}

Zur Abkürzung setze man

f v _ := f ( v _ ) := ( f ( v 1 ) , , f ( v m ) ) W × × W m  Mal {\displaystyle f\cdot {\underline {v}}:=f({\underline {v}}):=\left(f(v_{1}),\dots ,f(v_{m})\right)\in \underbrace {W\times \dots \times W} _{m{\text{ Mal}}}}

und notiere die geordnete duale Basis v _ {\displaystyle {\underline {v}}^{*}} als Spalte:

v _ := ( v 1 v m ) V × × V m  Mal , {\displaystyle {\underline {v}}^{*}:={\begin{pmatrix}v^{1}\\\vdots \\v^{m}\end{pmatrix}}\in \underbrace {V^{*}\times \dots \times V^{*}} _{m{\text{ Mal}}}\;,}

wobei v j := v j V {\displaystyle v^{j}:=v_{j}^{*}\in V^{*}} .

Weiter setze man zur Abkürzung v i v j := v i ( v j ) =: v j v i {\displaystyle v^{i}\cdot v_{j}:=v^{i}(v_{j})=:v_{j}\cdot v^{i}} , sodass v _ v _ = ( δ j i ) j i = E m {\displaystyle {\underline {v}}^{*}\cdot {\underline {v}}=(\delta _{j}^{i})_{j}^{i}=E_{m}} .

Dann lautet die definierende Gleichung für die Darstellungsmatrix A =: [ f ] w _ [ f ] v _ {\displaystyle A=:\sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}} von f {\displaystyle f} bezogen auf die Basen v _ {\displaystyle {\underline {v}}} und w _ {\displaystyle {\underline {w}}} schlicht und suggestiv

f = w _ [ f ] w _ [ f ] v _ v _ , {\displaystyle f={\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}\,,}

oder äquivalent:

f v _ = w _ [ f ] w _ [ f ] v _ v _ v _ = ( δ j i ) j i = E m = w _ A {\displaystyle f\cdot {\underline {v}}={\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot \underbrace {{\underline {v}}^{*}\cdot {\underline {v}}} _{=\left(\delta _{j}^{i}\right)_{j}^{i}=E_{m}}={\underline {w}}\cdot A}

Dabei liegen die einfachen Tensoren w i a j i v j L ( V , w i K ) L ( V , W ) {\displaystyle w_{i}\cdot a_{j}^{i}\cdot v^{j}\in L(V,w_{i}\cdot K)\subset L(V,W)} und können infolgedessen in diesem Raum aufsummiert werden. Sie korrespondieren mit π j f ε j {\displaystyle \pi _{j}\circ f\circ \varepsilon _{j}} .

Mit diesen Notationen gilt für eine Matrix A = ( a j i ) j i Mat ( m × n , K ) {\displaystyle A=(a_{j}^{i})_{j}^{i}\in \operatorname {Mat} (m\times n,K)} und eine lineare Abbildung f L ( V , W ) {\displaystyle f\in L(V,W)} :

Ψ : V W L ( V , W ) ( i , j a j i v j w i ) w i A v j = f , wenn  A = [ f ] w _ [ f ] v _ {\displaystyle {\begin{array}{crcl}\Psi ^{\bullet }\colon &V^{*}\otimes W&\longrightarrow &L(V,W)\\&\left(\sum _{i,j}a_{j}^{i}\cdot v^{j}\otimes w_{i}\right)&\longmapsto &w_{i}\cdot A\cdot v^{j}=f{\text{, wenn }}A=\sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\end{array}}}

In Worten: Die Abbildung Ψ {\displaystyle \Psi ^{\bullet }} deutet die Einträge der Darstellungsmatrix als Koordinaten des zugehörigen Tensors: Die Darstellungsmatrix liefert die Koordinatendarstellung des Tensors bezogen auf die induzierte Basis v j w i {\displaystyle v^{j}\otimes w_{i}} .

Für die duale Abbildung f L ( W , V ) , μ f ( μ ) =: μ f {\displaystyle f^{*}\in L(W^{*},V^{*}),\;\mu \mapsto f^{*}(\mu )=:\mu \circ f} gilt mit dieser Notation im Übrigen

f ( μ ) = μ f = μ w _ [ f ] w _ [ f ] v _ v _ {\displaystyle f^{*}(\mu )=\mu \cdot f=\mu \cdot {\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}}

oder – wenn man an die Stelle von μ {\displaystyle \mu } das Tupel der geordneten dualen Basis w _ = ( w 1 , , w m ) {\displaystyle {\underline {w}}^{*}={\big (}w^{1},\dots ,w^{m}{\big )}} einsetzt – in dualer Analogie zu obigen Beziehungen:

f ( w _ ) := ( f ( w 1 ) , , f ( w m ) ) := w _ f := w _ w _ E m [ f ] w _ [ f ] v _ v _ = [ f ] w _ [ f ] v _ v _ {\displaystyle f^{*}({\underline {w}}^{*}):={\big (}f^{*}(w^{1}),\dots ,f^{*}(w^{m}){\big )}:={\underline {w}}^{*}\cdot f:=\overbrace {{\underline {w}}^{*}\cdot {\underline {w}}} ^{E_{m}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}=\sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}}

An der definierenden Gleichung für die Darstellungsmatrix sind erneut die beiden oben erwähnten Merkregeln ablesbar:

  • Die Klammerung f = w _ ( [ f ] w _ [ f ] v _ v _ ) {\displaystyle f={\underline {w}}\cdot \left(\sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}\right)} oder aber die Gleichung f v _ = w _ [ f ] w _ [ f ] v _ {\displaystyle f\cdot {\underline {v}}={\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}} zeigen: In der j {\displaystyle j} -ten Spalte der darstellenden Matrix A {\displaystyle A} stehen die Koordinaten y i {\displaystyle y^{i}} des Bildes f ( v j ) {\displaystyle f(v_{j})} des j {\displaystyle j} -ten Basisvektors v j {\displaystyle v_{j}} , – und dazu dual:
  • Die Klammerung f = ( w _ [ f ] w _ [ f ] v _ ) v _ {\displaystyle f=\left({\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\right)\cdot {\underline {v}}^{*}} bzw. die Gleichung w _ f = [ f ] w _ [ f ] v _ v _ {\displaystyle {\underline {w}}^{*}\cdot f=\sideset {_{\underline {w}}}{_{\underline {v}}}{[f]}\cdot {\underline {v}}^{*}} zeigen gleichermaßen: In der i {\displaystyle i} -ten Zeile der darstellenden Matrix A {\displaystyle A} stehen die Koordinaten derjenigen Linearform λ i {\displaystyle \lambda ^{i}} , welche die i {\displaystyle i} -te Komponentenabbildung f i : V W i {\displaystyle f^{i}\colon V\to W_{i}} auf den vom Basisvektor w i {\displaystyle w_{i}} aufgespannten Unterraum W i = K w i {\displaystyle W_{i}=K\cdot w_{i}} beschreibt.

Man beachte, dass diese Notationsweise gültig bleibt, wenn V {\displaystyle V} und W {\displaystyle W} Rechts-Vektorräume über einem Schiefkörper K {\displaystyle K} sind, sodass ihre Dualräume V {\displaystyle V^{*}} bzw. W {\displaystyle W^{*}} Links-Vektorräume über K {\displaystyle K} sind. Diese Tatsache wird später aufgegriffen, wenn das kovariante bzw. kontravariante Transformationsverhalten gemischter Tensoren beleuchtet wird.

Kovektoren, Endomorphismen und die Spur eines Endomorphismus

Der Vektorraum V {\displaystyle V} habe endliche Dimension. Setzt man in den obigen natürlichen Homomorphismen W = V {\displaystyle W=V} , so erhält man den Isomorphismus

Ψ : V V L ( V , V ) = E n d ( V ) , definiert durch λ v [ v λ ( v ) v ] {\displaystyle {\begin{matrix}&\Psi ^{\bullet }\colon V^{*}\otimes V&{\stackrel {\sim }{\longrightarrow }}&L(V,V)=\mathop {\mathrm {End} } (V)\,,\\{\text{definiert durch}}&\lambda \otimes v&\longmapsto &[v'\mapsto \lambda (v')\cdot v]\end{matrix}}}

auf den einfachen Tensoren, nach dem Prinzip der linearen Fortsetzung auf den von diesen aufgespannten Tensorraum allgemeiner Tensoren fortgesetzt. Dabei genügt es, sich auf jene einfachen Tensoren λ i v j {\displaystyle \lambda ^{i}\otimes v_{j}} zu beschränken, die von Basisvektoren λ i V {\displaystyle \lambda ^{i}\in V^{*}} bzw. v j V {\displaystyle v_{j}\in V} gebildet werden, denn diese spannen den ganzen Tensorraum auf.

Die Umkehrabbildung kann wie folgt beschrieben werden:

Es sei B = { v 1 , , v m } {\displaystyle B=\{v_{1},\dots ,v_{m}\}} eine Basis von V {\displaystyle V} , V i := K v i {\displaystyle V_{i}:=K\cdot v_{i}} , sodass V = i V i {\displaystyle V=\bigoplus _{i}V_{i}} . Die kanonischen Projektionen seien mit π i : V V i {\displaystyle \pi _{i}\colon V\to V_{i}} bezeichnet. Für f L ( V , V ) = End ( V ) {\displaystyle f\in L(V,V)=\operatorname {End} (V)} sei f i := π i f L ( V , V i ) L ( V , V ) {\displaystyle f^{i}:=\pi _{i}\circ f\in L(V,V_{i})\subset L(V,V)} , sodass f = i f i {\displaystyle f=\sum _{i}f^{i}} . Die Abbildung f i {\displaystyle f^{i}} definiert eine Linearform λ i V {\displaystyle \lambda ^{i}\in V^{*}} durch v V : f i ( v ) = λ i ( v ) v i {\displaystyle \forall v\in V\colon f^{i}(v)=\lambda ^{i}(v)\cdot v_{i}} . Mit diesen Kovektoren λ i {\displaystyle \lambda ^{i}} gilt gerade Ψ ( i = 1 m λ i v i ) = f {\displaystyle \Psi ^{\bullet }(\sum _{i=1}^{m}\lambda ^{i}\otimes v_{i})=f} .
Bezeichnet ( v i ) i {\displaystyle (v_{i}^{*})_{i}} die dazu duale Basis aus Kovektoren (Linearformen) v ( i ) := v i V {\displaystyle v^{(i)}:=v_{i}^{*}\in V^{*}} , so können die Kovektoren λ i {\displaystyle \lambda ^{i}} als Summe dargestellt werden: λ i = j = 1 m a j i v ( j ) {\displaystyle \lambda ^{i}=\sum _{j=1}^{m}a_{j}^{i}\cdot v^{(j)}} . Dann ist
( Ψ ) 1 ( f ) = i = 1 m j = 1 m a j i v ( j ) v i {\displaystyle (\Psi ^{\bullet })^{-1}(f)=\sum _{i=1}^{m}\sum _{j=1}^{m}a_{j}^{i}\cdot v^{(j)}\otimes v_{i}} .
Die quadratische Matrix ( a j i ) {\displaystyle (a_{j}^{i})} stellt den Tensor (bezüglich der Basis B {\displaystyle B} ) dar und ist zugleich die diesbezügliche Darstellungsmatrix des Endomorphismus f {\displaystyle f} auf V {\displaystyle V} .

Nun betrachte die naheliegende Bilinearform

s : V × V K ( λ , v ) λ ( v ) {\displaystyle {\begin{array}{rccc}s\colon &V^{*}\times V&\longrightarrow &K\\&(\lambda ,v)&\longmapsto &\lambda (v)\end{array}}}
Anmerkung: Diese Abbildung ist die durch die Auswertung (Evaluation) der Linearform induzierte duale Paarung: Bei den Betrachtungen über den Bidualraum V {\displaystyle V^{**}} wird gezeigt, dass sie nicht ausgeartet und bei endlicher Dimension folglich eine perfekte Paarung ist, sodass V V {\displaystyle V^{**}\cong V} kanonisch isomorph sind: Ein Vektor induziert durch die jeweilige Auswertung der Kovektoren auf ihm eine Linearform auf den Kovektoren, also können Vektoren als Linearformen auf den Kovektoren aufgefasst werden.

Gemäß der universellen Eigenschaft gibt es eine eindeutig bestimmte lineare Abbildung S p : V V K {\displaystyle \mathop {\mathrm {Sp} } \colon V^{*}\otimes V\to K} mit S p ( λ v ) = λ ( v ) {\displaystyle \mathop {\mathrm {Sp} } (\lambda \otimes v)=\lambda (v)} .

Auf diese Weise erhält man eine Bilinearform, die so genannte Spur(bildung) (trace):

S p : V V K λ v λ ( v ) {\displaystyle {\begin{array}{rccc}\mathop {\mathrm {Sp} } \colon &V^{*}\otimes V&\longrightarrow &K\\&\lambda \otimes v&\longmapsto &\lambda (v)\end{array}}}

Diese Abbildung lässt sich (mit Hilfe von Ψ {\displaystyle \Psi ^{\bullet }} ) als Abbildung auf den Endomorphismen von V {\displaystyle V} interpretieren. Da für die duale Basis (gemäß ihrer Definition) v j ( v i ) = δ i j {\displaystyle v_{j}^{*}(v_{i})=\delta _{i}^{j}} (Kronecker-Delta) gilt, folgt für die Spur eines Endomorphismus: S p ( f ) = i a i i {\displaystyle \mathop {\mathrm {Sp} } (f)=\sum _{i}a_{i}^{i}} , in Worten: Die Spur eines Endomorphismus ist die Summe der Diagonaleinträge einer Darstellungsmatrix. Dabei zeigen die Überlegungen, dass die Spur unabhängig von der Basiswahl ist.

Für Matrizen (gemäß der Koordinatendarstellung von Tensoren) lässt sich dies unmittelbar einsehen:[11]

Denn die Spur ist gegenüber Vertauschung invariant. Sind nämlich A = ( a j i ) {\displaystyle A=(a_{j}^{i})} und B = ( b j i ) {\displaystyle B=(b_{j}^{i})} zwei Matrizen, so gilt
S p ( A B ) = i ( k a k i b i k ) = k ( i b k i a i k ) = S p ( B A ) {\displaystyle \mathop {\mathrm {Sp} } (AB)=\sum _{i}\left(\sum _{k}a_{k}^{i}b_{i}^{k}\right)=\sum _{k}\left(\sum _{i}b_{k}^{i}a_{i}^{k}\right)=\mathop {\mathrm {Sp} } (BA)}
Also ist für drei Matrizen S p ( A ( B C ) ) = S p ( B C A ) {\displaystyle \mathop {\mathrm {Sp} } (A(BC))=\mathop {\mathrm {Sp} } (BCA)} . Ist A {\displaystyle A} eine Übergangsmatrix mit Inverser C := A 1 {\displaystyle C:=A^{-1}} , so erhält man die Unabhängigkeit von der Basiswahl.

Eine weitere Perspektive auf die Spur liefert das charakteristische Polynom χ f ( X ) = det ( f X i d V ) {\displaystyle \chi _{f}(X)=\det(f-X\cdot \mathrm {id} _{V})} eines Endomorphismus f E n d ( V ) V V {\displaystyle f\in \mathrm {End} (V)\cong V^{*}\otimes V} bzw. einer dazugehörigen Darstellungsmatrix A {\displaystyle A} : χ A ( X ) = det ( A X E n ) {\displaystyle \chi _{A}(X)=\det(A-X\cdot E_{n})} , wobei n := dim V < {\displaystyle n:=\dim V<\infty } . Dieses Polynom (in der Unbekannten X {\displaystyle X} ) hängt nicht von der Basiswahl ab: χ A ( X ) = χ T 1 A T ( X ) {\displaystyle \chi _{A}(X)=\chi _{T^{-1}AT}(X)} . Die Spur ist gerade der Koeffizient des Monoms X n 1 {\displaystyle X^{n-1}} .

Hintergrund: Ein Endomorphismus f E n d ( V ) {\displaystyle f\in \mathrm {End} (V)} induziert auf V {\displaystyle V} die Struktur eines Moduls über dem Polynomring K [ X ] {\displaystyle K[X]} in einer Unbekannten X {\displaystyle X} durch P ( X ) v := P ( f ) E n d ( V ) ( v ) V {\displaystyle P(X)\cdot v:=\underbrace {P(f)} _{\in \mathrm {End} (V)}(v)\in V} . Auf diese Weise wird V {\displaystyle V} zu einem Modul über dem Hauptidealring R := K [ X ] {\displaystyle R:=K[X]} , der wegen n < {\displaystyle n<\infty } endlich erzeugt ist. (Dieser Polynomring enthält den Körper K {\displaystyle K} und ist sogar ein euklidischer Ring.) Das charakteristische Polynom ist eine Strukturinvariante dieses Moduls, die durch den Elementarteilersatz (verstanden als Struktursatz für Moduln über Hauptidealringen) in Erscheinung tritt: Der Satz von Cayley-Hamilton[Anm 8] zeigt, dass es sich um einen Torsionsmodul handelt, da χ f ( X ) V = { 0 } {\displaystyle \chi _{f}(X)\cdot V=\{0\}} . Daher teilt das Minimalpolynom das charakteristische Polynom, denn es ist das (hinsichtlich der Gradfunktion deg {\displaystyle \deg } als Bewertungs- oder Höhenfunktion) „minimale“ Polynom mit dieser Eigenschaft. Das Absolutglied des charakteristischen Polynoms ist im Übrigen die Determinante: χ f ( 0 ) = det f {\displaystyle \chi _{f}(0)=\det f} bzw. χ A ( 0 ) = det A {\displaystyle \chi _{A}(0)=\det A} . Spur und Determinante werden im Abschnitt über die Norm und Spur kommutativer Algebren aufgegriffen.

Die Spur ist der Spezialfall der Tensorverjüngung oder Kontraktion für einfach kovariante und einfach kontravariante Tensoren, also jene vom Typ ( 1 , 1 ) {\displaystyle (1,1)} : Siehe dazu den Abschnitt über Tensoren vom Typ ( r , s ) {\displaystyle (r,s)} .

Multilineare Abbildungen und das mehrfache Tensorprodukt

Einer Erweiterung der bisherigen Betrachtungen auf mehr als zwei Vektorräume als „Faktoren“ des Tensorprodukts steht nichts entgegen: Es geht dann nicht mehr um bilineare Abbildungen, sondern um multilineare Abbildungen und das N {\displaystyle N} -fache Tensorprodukt.

Für eine endliche Indexmenge I = { 1 , , N } {\displaystyle I=\{1,\dots ,N\}} mögen V ( i ) , i I {\displaystyle V^{(i)},i\in I} Vektorräume über dem Grundkörper K {\displaystyle K} der (nicht notwendig endlichen) Dimensionen dim V ( i ) =: m i {\displaystyle \dim V^{(i)}=:m_{i}} bezeichnen. Ihre Basen seien mit B ( i ) {\displaystyle B^{(i)}} (für V ( i ) {\displaystyle V^{(i)}} ) bezeichnet. Die Basisvektoren seien mit v k ( i ) , k = 1 , , m i {\displaystyle v_{k}^{(i)},k=1,\dots ,m_{i}} bezeichnet.

Eine N {\displaystyle N} -fach multilineare Abbildung i I V ( i ) X {\displaystyle \prod _{i\in I}V^{(i)}\to X} in einen K {\displaystyle K} -Vektorraum X {\displaystyle X} ist eine Abbildung, die in jeder Komponente (bei festgehaltenen übrigen Komponenten) linear über K {\displaystyle K} ist. Der Raum dieser multilinearen Abbildungen wird mit L N ( V ( 1 ) , , V ( N ) ; X ) {\displaystyle L^{N}(V^{(1)},\dots ,V^{(N)};X)} bezeichnet.

Definition durch Konstruktion

Zur Bequemlichkeit sei B := i I B ( i ) {\displaystyle B:=\prod _{i\in I}B^{(i)}} gesetzt.

Setze als Tensorproduktraum i I V ( i ) := β B K ( ( β ) ) = β B K ( ( β ) ) . {\displaystyle \bigotimes _{i\in I}V^{(i)}:=\bigoplus _{\beta \in B}K\cdot (\otimes (\beta ))=\coprod _{\beta \in B}K\cdot (\otimes (\beta ))\;.}

Anmerkung 1: Mit der oben definierten Notationsweise besteht übrigens eine Identifikation K ( B ) β B K ( ( β ) ) {\displaystyle K^{(B)}{\stackrel {\sim }{\rightarrow }}\bigoplus _{\beta \in B}K\cdot (\otimes (\beta ))} durch f β B f ( β ) ( ( β ) ) {\displaystyle f\mapsto \sum _{\beta \in B}f(\beta )\cdot (\otimes (\beta ))} . Die Verwendung des Zeichens {\displaystyle \coprod } für das Koprodukt soll auf den größeren kategoriellen Zusammenhang hinweisen. Im vorliegenden Falle darf es schlicht als direkte Summe {\displaystyle \bigoplus } verstanden werden.
Anmerkung 2: Dabei ist f ( β ) K {\displaystyle f(\beta )\in K} als eine multiindizierte Koordinate zu verstehen. Dazu fasse β {\displaystyle \beta } in folgender Weise als einen Multiindex ( j 1 , j 2 , , j n ) {\displaystyle (j_{1},j_{2},\dots ,j_{n})} auf:
β B = B ( 1 ) × × B ( N ) = { ( v j 1 ( 1 ) , v j 2 ( 2 ) , v j N ( N ) ) 1 j 1 m 1 , 1 j 2 m 2 , , 1 j N m N } { ( j 1 , j 2 , , j n ) 1 j 1 m 1 , 1 j 2 m 2 , , 1 j N m N } . {\displaystyle {\begin{aligned}\beta \in B=B^{(1)}\times \dots \times B^{(N)}&=&{\big \{}(v_{j_{1}}^{(1)},v_{j_{2}}^{(2)},\dots v_{j_{N}}^{(N)})\mid 1\leq j_{1}\leq m_{1},1\leq j_{2}\leq m_{2},\dots ,1\leq j_{N}\leq m_{N}{\big \}}\\&\cong &{\big \{}(j_{1},j_{2},\dots ,j_{n})\mid 1\leq j_{1}\leq m_{1},1\leq j_{2}\leq m_{2},\dots ,1\leq j_{N}\leq m_{N}{\big \}}\;.\end{aligned}}}
Anmerkung 3: Die Supermatrix ( f ( β ) ) β B {\displaystyle (f(\beta ))_{\beta \in B}} wird häufig mit dem Tensor, den sie darstellt, identifiziert. Sie ist sozusagen die Koordinatenmatrix des Tensors und wird mit ihm identifiziert, ähnlich wie Koordinatenvektoren mit dem durch sie dargestellten Vektor identifiziert werden. Die Bezugnahme auf die Basen B ( i ) {\displaystyle B^{(i)}} fließt bei dieser Identifikation stillschweigend ein.

Dabei sei ( β ) {\displaystyle \otimes (\beta )} zunächst lediglich als ein Symbol aufgefasst. Für β = ( v ( 1 ) , , v ( N ) ) B {\displaystyle \beta =(v^{(1)},\dots ,v^{(N)})\in B} steht es also für ( ( v ( 1 ) , , v ( N ) ) ) {\displaystyle \otimes {\big (}(v^{(1)},\dots ,v^{(N)}){\big )}} . (Die Schreibweise v ( 1 ) v ( N ) {\displaystyle v^{(1)}\otimes \dots \otimes v^{(N)}} wird vermieden, weil sie die Frage der Operatorassoziativität aufwürfe.)

Nun definiere die Abbildung

ϕ : B i I V ( i ) β 1 ( β ) {\displaystyle {\begin{matrix}\phi \colon \;&B&\longrightarrow &\bigotimes _{i\in I}V^{(i)}\\&\beta &\longmapsto &1\cdot \otimes (\beta )\end{matrix}}}

Durch multilineare Fortsetzung von ϕ {\displaystyle \phi } auf den gesamten Raum i I V ( i ) {\displaystyle \prod _{i\in I}V^{(i)}} definiere die gewünschte N {\displaystyle N} -fach multilineare Abbildung := ϕ {\displaystyle \otimes :=\phi } , das Tensorprodukt

: i I V ( i ) i I V ( i ) . {\displaystyle {\begin{matrix}\otimes \colon &\prod _{i\in I}V^{(i)}&\longrightarrow &\bigotimes _{i\in I}V^{(i)}\;.\end{matrix}}}
Der (uni)lineare Fall

Für den Fall der „Unilinearität“ N = 1 {\displaystyle N=1} liefert die obige basisabhängige Konstruktion des Tensorprodukts lediglich die von der gewählten Basis B {\displaystyle B} abhängige Koordinatendarstellung eines Vektorraumes V v B K v {\displaystyle V\to \bigoplus _{v\in B}K\cdot v} . Die universelle Eigenschaft zeigt auf, dass jede „unilineare“ (das heißt lineare) Abbildung V Y {\displaystyle V\to Y} als lineare Abbildung dieses Koordinatenraums dargestellt werden kann – eine wohlvertraute Tatsache. Das Tensorprodukt verallgemeinert sie für den multilinearen Kontext des Produkts i I V ( i ) {\displaystyle \prod _{i\in I}V^{(i)}} . Hierin lässt sich das Wesen des Tensorprodukts erblicken.

Der triviale Fall mehrerer eindimensionaler Faktoren

Wie schon im bilinearen ( N = 2 {\displaystyle N=2} ) Falle trivialisiert sich das multilineare Tensorprodukt für den Fall, dass alle N {\displaystyle N} Vektorräume eindimensional sind: V ( i ) K {\displaystyle V^{(i)}\cong K} . Es ist dann – bis auf eine Isomorphie, die sich in einem Skalarfaktor 1 1 =: a K { 0 } {\displaystyle 1\otimes \dots \otimes 1=:a\in K\backslash \{0\}} niederschlägt – durch ein Monom f ( X 1 , , X N ) = a X 1 X N {\displaystyle f(X_{1},\dots ,X_{N})=a\cdot X_{1}\cdot \dots \cdots X_{N}} gegeben und mithin mit der Körpermultiplikation (linear) identifizierbar. Eine beliebige multilineare Abbildung ψ : K × × K n  Mal K {\displaystyle \psi \colon \underbrace {K\times \dots \times K} _{n{\text{ Mal}}}\to K} ist ein lineares Abbild durch Multiplikation mit dem skalierenden Faktor ψ ( 1 , , 1 ) a 1 {\displaystyle \psi (1,\dots ,1)\cdot a^{-1}} .

Mit anderen Worten: Eine N {\displaystyle N} -fach multilineare Abbildung V 1 × × V N W {\displaystyle V_{1}\times \dots \times V_{N}\to W} verallgemeinert die Multiplikation K × × K N  Mal K , ( x 1 , , x N ) x 1 x N {\displaystyle \underbrace {K\times \dots \times K} _{N{\text{ Mal}}}\to K,\;(x_{1},\dots ,x_{N})\mapsto x_{1}\,\cdot \,\dots \,\cdot \,x_{N}} von N {\displaystyle N} Faktoren aus dem Körper und entspricht somit einem Monom N {\displaystyle N} -ten Grades: Bilinearität verallgemeinert quadratische Monome, Trilinearität kubische Monome etc. pp.

Definition durch universelle Eigenschaft

Unter einem Tensorprodukt der (endlichen) Familie von K {\displaystyle K} -Vektorräumen V ( i ) , i I {\displaystyle V^{(i)},i\in I} versteht man eine N {\displaystyle N} -fach multilineare Abbildung ϕ L N ( V ( 1 ) , , V ( N ) ; X ) {\displaystyle \phi \in L^{N}(V^{(1)},\dots ,V^{(N)};X)} in einen K {\displaystyle K} -Vektorraum X {\displaystyle X} mit einer der beiden folgenden äquivalenten Eigenschaften:

  • Ist ψ L N ( V ( 1 ) , , V ( N ) ; Y ) {\displaystyle \psi \in L^{N}(V^{(1)},\dots ,V^{(N)};Y)} eine multilineare Abbildung in einen K {\displaystyle K} -Vektorraum Y {\displaystyle Y} , so existiert genau eine lineare Abbildung ψ ~ : X Y {\displaystyle {\tilde {\psi }}\colon X\to Y} mit ψ = ψ ~ ϕ =: ϕ ( ψ ~ ) {\displaystyle \psi ={\tilde {\psi }}\circ \phi =:\phi ^{*}({\tilde {\psi }})} .
  • Für jeden K {\displaystyle K} -Vektorraum Y {\displaystyle Y} liefert der durch ϕ {\displaystyle \phi } gestiftete Rückzug ϕ =: Φ {\displaystyle \phi ^{*}=:\Phi } einen Isomorphismus von Vektorräumen
Φ : L ( X , Y ) L N ( V ( 1 ) , , V ( N ) ; Y ) f ϕ ( f ) := f ϕ =: f ( ϕ ) . {\displaystyle {\begin{matrix}\Phi \colon &L(X,Y)&\longrightarrow &L^{N}(V^{(1)},\dots ,V^{(N)};Y)\\&f&\longmapsto &\phi ^{*}(f):=f\circ \phi =:f_{*}(\phi )\;.\end{matrix}}}

Man notiert das Tensorprodukt ϕ ( v ( 1 ) , , v ( N ) ) =: ( v ( 1 ) , , v ( N ) ) X := i = 1 N V ( i ) {\displaystyle \phi (v^{(1)},\dots ,v^{(N)})=:\otimes (v^{(1)},\dots ,v^{(N)})\in X:=\bigotimes _{i=1}^{N}V^{(i)}} .

Kategorisch gesehen

In der Sprache der Kategorientheorie formuliert ist das Tensorprodukt

: V ( 1 ) × × V ( N ) i = 1 N V ( i ) {\displaystyle \otimes \colon V^{(1)}\times \dots \times V^{(N)}\quad {\stackrel {\otimes }{\longrightarrow }}\quad \bigotimes _{i=1}^{N}V^{(i)}}

das bis auf Isomorphie eindeutig bestimmte Anfangsobjekt in einer Kategorie von Objekten unter V := V ( 1 ) × × V ( N ) {\displaystyle V:=V^{(1)}\times \dots \times V^{(N)}} , die wie folgt definiert ist: Ihre Objekte sind die N {\displaystyle N} -fach multilinearen Abbildungen ψ : V [ ? ? ] {\displaystyle \psi \colon V\to [??]} in einen Vektorraum, und ein Morphismus [ ψ 1 : V Y 1 ] [ ψ 2 : V Y 2 ] {\displaystyle {\big [}\psi _{1}\colon V\to Y_{1}{\big ]}\to {\big [}\psi _{2}\colon V\to Y_{2}{\big ]}} ist eine lineare Abbildung f : Y 1 Y 2 {\displaystyle f\colon Y_{1}\to Y_{2}} mit ψ 2 = f ψ 1 = f ( ψ 1 ) {\displaystyle \psi _{2}=f\circ \psi _{1}=f_{*}(\psi _{1})} . Für diese Eigenschaft des Anfangsobjektes sind hier äquivalente Formulierungen zu finden sowie eine Beziehung zu adjungierten Funktoren. Die letztere zeigt sich im kanonischen Isomorphismus L ( V W , X ) L ( V , L ( W , X ) ) {\displaystyle L(V\otimes W,X)\;{\stackrel {\sim }{\to }}\;L(V,L(W,X))} aus dem Abschnitt über natürliche Homomorphismen.

Definition durch Zurückführung auf bilineare Abbildungen und das Tensorprodukt mit zwei Faktoren

Eine N {\displaystyle N} -fach multilineare Abbildung lässt sich auf eine ( N 1 ) {\displaystyle (N-1)} -fach multilineare Abbildung zurückführen, denn die Definition der Multilinearität lässt sich durch Currying in folgende Gleichungen kleiden:

L N ( V ( 1 ) , , V ( N ) ; Y ) = L ( V ( k ) , L N 1 ( V ( 1 ) , , V ( k ) , , V ( N ) ; Y ) ) {\displaystyle L^{N}(V^{(1)},\dots ,V^{(N)};Y)=L(V^{(k)},L^{N-1}(V^{(1)},\dots ,{\cancel {V^{(k)}}},\dots ,V^{(N)};Y))}

bzw.

L N ( V ( 1 ) , , V ( N ) ; Y ) = L N 1 ( V ( 1 ) , , V ( k ) , , V ( N ) ; L ( V ( k ) ; Y ) ) , {\displaystyle L^{N}(V^{(1)},\dots ,V^{(N)};Y)=L^{N-1}(V^{(1)},\dots ,{\cancel {V^{(k)}}},\dots ,V^{(N)};L(V^{(k)};Y))\;,}

wobei die Schreibweise V ( 1 ) , , V ( k ) , , V ( N ) {\displaystyle V^{(1)},\dots ,{\cancel {V^{(k)}}},\dots ,V^{(N)}} die Tilgung des durchgestrichenen Vektorraums V ( k ) {\displaystyle V^{(k)}} bedeuten möge.

Setzt man also sukzessive k = 1 , 2 , , N {\displaystyle k=1,2,\dots ,N} , so erhält man

L N ( V ( 1 ) , , V ( N ) ; Y ) = L ( V ( 1 ) , L ( V ( 2 ) , L ( V ( 3 ) , L ( , L ( V ( N ) , Y ) ) ) ) ) {\displaystyle L^{N}(V^{(1)},\dots ,V^{(N)};Y)=L(V^{(1)},L(V^{(2)},L(V^{(3)},L(\dots ,L(V^{(N)},Y)\dots ))))}

Auf diese Weise lässt sich das N {\displaystyle N} -fache Tensorprodukt schrittweise auf das gewöhnliche 2 {\displaystyle 2} -fache (bilineare) Tensorprodukt zurückführen – oder umgekehrt von ihm ausgehend mit Iterationsschritten N N + 1 {\displaystyle N\to N+1} aufbauen.

Dabei zeigt sich, dass die Frage der Operatorassoziativität müßig ist: Beispielsweise sind die beiden 3 {\displaystyle 3} -fachen Tensorprodukte [ ( ) ] {\displaystyle [(\cdot \otimes \cdot )\otimes \cdot ]} und [ ( ) ] {\displaystyle [\cdot \otimes (\cdot \otimes \cdot )]} (als trilineare Abbildungen) isomorph. Dies ist der Grund dafür, dass die Klammern auch fortgelassen werden können:

( v ( 1 ) , , v ( N ) ) =: v ( 1 ) v ( N ) {\displaystyle \otimes (v^{(1)},\dots ,v^{(N)})=:v^{(1)}\otimes \dots \otimes v^{(N)}}

Koordinatendarstellung von Tensoren

Unter einem Tensor versteht man eine multilineare Abbildung

τ L N ( V ( 1 ) , , V ( N ) ; X ) L ( i = 1 N V ( i ) , Y ) {\displaystyle \tau \in L^{N}\left(V^{(1)},\dots ,V^{(N)};X\right)\cong L\left(\bigotimes _{i=1}^{N}V^{(i)},Y\right)} .

Gemäß der universellen Eigenschaft ist ein Tensor durch die Werte τ ( β ) {\displaystyle \tau (\beta )} auf den Basistupeln β B {\displaystyle \beta \in B} festgelegt. Werden die Basen B ( i ) {\displaystyle B^{(i)}} mit B ( i ) = ( v j ( i ) ) j = 1 , , m i {\displaystyle B^{(i)}=(v_{j}^{(i)})_{j=1,\dots ,m_{i}}} bezeichnet, so definiert die Familie

( τ ( v i 1 ( 1 ) , , v i N ( N ) ) ) 1 i 1 m 1 , , 1 i N m N {\displaystyle \left(\tau (v_{i_{1}}^{(1)},\dots ,v_{i_{N}}^{(N)})\right)_{1\leq i_{1}\leq m_{1},\dots ,1\leq i_{N}\leq m_{N}}}

von Werten T i 1 , , i N := τ ( v i 1 ( 1 ) , , v i N ( N ) ) Y {\displaystyle T_{i_{1},\dots ,i_{N}}:=\tau (v_{i_{1}}^{(1)},\dots ,v_{i_{N}}^{(N)})\in Y} den Tensor τ {\displaystyle \tau } .

Im Falle Y = K {\displaystyle Y=K} , der ohnehin von besonderem Interesse ist, handelt es sich also um eine Supermatrix T = ( T i 1 , , i N ) 1 i 1 m 1 , , 1 i N m N {\displaystyle T=(T_{i_{1},\dots ,i_{N}})_{1\leq i_{1}\leq m_{1},\dots ,1\leq i_{N}\leq m_{N}}} mit Koeffizienten aus K {\displaystyle K} .

Dies ist die Koordinatendarstellung eines Tensors τ L N ( V ( 1 ) , , V ( N ) ; K ) L ( i = 1 N V ( i ) , K ) = ( i = 1 N V ( i ) ) i = 1 N ( V ( i ) ) {\displaystyle \tau \in L^{N}(V^{(1)},\dots ,V^{(N)};K)\cong L\left(\bigotimes _{i=1}^{N}V^{(i)},K\right)=\left(\bigotimes _{i=1}^{N}V^{(i)}\right)^{*}\cong \bigotimes _{i=1}^{N}\left(V^{(i)\,*}\right)} .

Beispiele:

  • Im Falle eines Skalarproduktes, das eine Metrik liefert, führt dies zum Maßtensor.
  • Im Falle der Determinante gelangt man zum Levi-Civita-Symbol oder Epsilontensor.

Lineare Abbildungen und Tensoren vom Typ (r,s)

Von besonderem Interesse – vor allem in der Physik – ist der Fall, dass sämtliche Vektorräume V ( i ) {\displaystyle V^{(i)}} – bis auf dimensionsbehaftete Skalarfaktoren – gleich ein und demselben Vektorraum V {\displaystyle V} oder seinem Dualraum V {\displaystyle V^{*}} sind. Zur Abkürzung setze nun V s := V V {\displaystyle V^{\otimes s}:=V\otimes \ldots \otimes V} . Bei endlicher Dimension haben dann beide gleiche Dimension dim V = n = dim V {\displaystyle \dim V=n=\dim V^{*}} , und wegen ( V r ) ( V ) r {\displaystyle (V^{\otimes r})^{*}\cong (V^{*})^{\otimes r}} bestehen Isomorphismen:

V r ( V ) s L ( ( V ) r V s ; K ) (gem. univ. Eig.) L r + s ( V , , V r  Mal , V , , V s  Mal ; K ) ( v ( 1 ) v ( r ) ) ( λ ( 1 ) λ ( s ) ) [ ] [ ( μ ( 1 ) , , μ ( r ) , w 1 , , w s ) i = 1 r μ i ( v ( i ) ) j = 1 s λ ( j ) ( w ( j ) ) ] . {\displaystyle {\begin{matrix}V^{\otimes r}\otimes (V^{*})^{\otimes s}&{\stackrel {\sim }{\longrightarrow }}&L((V^{*})^{\otimes r}\otimes V^{\otimes s};K)&{\stackrel {\text{(gem. univ. Eig.)}}{\stackrel {\sim }{\longrightarrow }}}&L^{r+s}(\underbrace {V^{*},\dots ,V^{*}} _{r{\text{ Mal}}},\;\underbrace {V,\dots ,V} _{s{\text{ Mal}}};K)\\(v^{(1)}\otimes \dots \otimes v^{(r)})\otimes (\lambda ^{(1)}\otimes \dots \otimes \lambda ^{(s)})&\longmapsto &[\dots ]&\longmapsto &\left[\left(\mu ^{(1)},\dots ,\mu ^{(r)},w_{1},\dots ,w_{s}\right)\mapsto \prod _{i=1}^{r}\mu _{i}(v^{(i)})\;\cdot \;\prod _{j=1}^{s}\lambda ^{(j)}(w^{(j)})\right]\;.\end{matrix}}}

Man definiert (bis auf Isomorphie)

T s r ( V ) := L r + s ( V , , V r  Mal , V , , V s  Mal ; K ) V r ( V ) s {\displaystyle T_{s}^{r}(V)\quad :=\quad L^{r+s}\left(\underbrace {V^{*},\dots ,V^{*}} _{r{\text{ Mal}}},\;\underbrace {V,\dots ,V} _{s{\text{ Mal}}};K\right)\quad \cong \quad V^{\otimes r}\otimes (V^{*})^{\otimes s}}

Die Elemente dieses Vektorraumes heißen (gemischte) Tensoren der Stufe r + s {\displaystyle r+s} , und zwar

  • kontravariant von der Stufe r {\displaystyle r} , kovariant von der Stufe s {\displaystyle s}
  • oder kürzer r {\displaystyle r} -fach (oder -stufig) kontravariante und s {\displaystyle s} -fach (oder -stufig) kovariante Tensoren
  • oder Tensoren des Typs ( r , s ) {\displaystyle (r,s)}
  • oder schlicht ( r , s ) {\displaystyle (r,s)} -Tensoren.

Tensoren vom Typ ( r , 0 ) {\displaystyle (r,0)} heißen rein kontravariant von der Stufe r {\displaystyle r} , Tensoren vom Typ ( 0 , s ) {\displaystyle (0,s)} hingegen rein kovariant von der Stufe s {\displaystyle s} .

Beispiele:

  • ( 1 , 0 ) {\displaystyle (1,0)} -Tensoren lassen sich als Elemente des Vektorraums V {\displaystyle V} , also als Vektoren des „Ausgangs-Vektorraumes“ verstehen, oder aber als Linearformen auf dem Dualraum,
  • ( 0 , 1 ) {\displaystyle (0,1)} -Tensoren lassen sich als Elemente des Dualraums V {\displaystyle V^{*}} , also als Linearformen oder Kovektoren auffassen,
  • ( 0 , 2 ) {\displaystyle (0,2)} -Tensoren lassen sich als Bilinearformen (wie bspw. ein Skalarprodukt) auf V {\displaystyle V} interpretieren, und allgemeiner:
  • ( 0 , N ) {\displaystyle (0,N)} -Tensoren lassen sich als N {\displaystyle N} -fache Multilinearformen auf V {\displaystyle V} deuten. Die Determinante ist ein Beispiel für N = n {\displaystyle N=n} : Sie ist sogar eine alternierende Multilinearform, siehe auch alternierende Tensoren.
  • ( 1 , 1 ) {\displaystyle (1,1)} -Tensoren sind duale Paarungen auf V × V {\displaystyle V^{*}\times V} und können, wie weiter unten deutlich wird, mit Endomorphismen auf V {\displaystyle V^{*}} oder auf V {\displaystyle V} identifiziert werden.
  • ( r , r ) {\displaystyle (r,r)} -Tensoren können dementsprechend mit Endomorphismen auf ( V ) r {\displaystyle (V^{*})^{\otimes r}} oder V r {\displaystyle V^{\otimes r}} identifiziert werden. Dabei beachte (wegen endlicher Dimension): End ( ( V ) r ) ( End ( V ) ) r {\displaystyle \operatorname {End} ((V^{*})^{\otimes r})\cong \left(\operatorname {End} (V^{*})\right)^{\otimes r}} bzw. End ( V r ) ( End ( V ) ) r {\displaystyle \operatorname {End} (V^{\otimes r})\cong \left(\operatorname {End} (V)\right)^{\otimes r}}

Die Begriffe kontravariant und kovariant beziehen sich in diesem tensoriellen Kontext auf das Transformationsverhalten der Koordinatendarstellung bei einem Wechsel der Basis in dem als „Ursprungsraum“ auserkorenen Vektorraum. Letzterer ist – so legt es die Notation T s r ( V ) {\displaystyle T_{s}^{r}(V)} nahe – der Vektorraum V {\displaystyle V} . Doch aus Sicht der Dualitätstheorie ist es ebenso legitim, den Vektorraum V V {\displaystyle V\cong V^{**}} als Dualraum seines Dualraumes V {\displaystyle V^{*}} anzusehen und diesen als Ursprungsraum auszuersehen, also die Rollen zu tauschen: Dann ist (durch natürliche Isomorphie) T s r ( V ) = T r s ( V ) {\displaystyle T_{s}^{r}(V)=T_{r}^{s}(V^{*})} . Wechselt man also die Basis nicht im Raum V {\displaystyle V} sondern im Raum V {\displaystyle V^{*}} , so vertauschen sich entsprechend die Begriffe „kontravariant“ und „kovariant“, denn diese sind bezogen auf den Ursprungsraum, dessen Auswahl willkürlich ist. Genaugenommen müsste es also „kontravariant/kovariant in Bezug auf (das Transformationsverhalten bei Basiswechsel im Vektorraum) V {\displaystyle V} “ heißen. Dabei zieht ein Basiswechsel in V {\displaystyle V} natürlich einen entsprechenden Wechsel der zugehörigen Dualbasis in V {\displaystyle V^{*}} nach sich: Zur Betrachtung dieses Raumes ist T s r ( V ) {\displaystyle T_{s}^{r}(V)} die geeignete Bezeichnungsweise. Ein Basiswechsel in V {\displaystyle V^{*}} zöge den Wechsel der Dualbasis in V = V {\displaystyle V^{**}=V} nach sich: Zur Betrachtung dieser Situation ist T r s ( V ) {\displaystyle T_{r}^{s}(V^{*})} die naheliegende Bezeichnungsweise, wenngleich die damit bezeichneten Räume isomorph sind. Näheres dazu weiter unten.

(r,s)-Tensoren als Homomorphismen

In den Abschnitten über natürliche Homomorphismen und Homomorphismen als Tensoren wurde gezeigt, dass für zwei endlichdimensionale Vektorräume X {\displaystyle X} und Y {\displaystyle Y} folgender Isomorphismus besteht:

X Y Hom K ( X , Y ) = L ( X , Y ) ξ y [ x ξ ( x ) y ] {\displaystyle {\begin{matrix}X^{*}\otimes Y&{\stackrel {\sim }{\longrightarrow }}&\operatorname {Hom} _{K}(X,Y)=L(X,Y)\\\xi \otimes y&\longmapsto &[x\mapsto \xi (x)\cdot y]\end{matrix}}}

Wegen der natürlichen Isomorphismie X Y Y X {\displaystyle X^{*}\otimes Y\;\cong \;Y\otimes X^{*}} (nicht Gleichheit!) gilt ebenso

X Y Hom K ( Y , X ) ξ y [ η η ( y ) ξ ] , {\displaystyle {\begin{matrix}X^{*}\otimes Y&{\stackrel {\sim }{\longrightarrow }}&\operatorname {Hom} _{K}(Y^{*},X^{*})\\\xi \otimes y&\longmapsto &[\eta \mapsto \eta (y)\cdot \xi ]\;,\end{matrix}}}

wobei auch die natürlichen Isomorphismien Y Y {\displaystyle Y\cong Y^{**}} (bzw. X X {\displaystyle X\cong X^{**}} ) genutzt wurde.

Anmerkung: Tatsächlich gehen Hom K ( X , Y ) {\displaystyle \operatorname {Hom} _{K}(X,Y)} und Hom K ( Y , X ) {\displaystyle \operatorname {Hom} _{K}(Y^{*},X^{*})} durch Dualisierung (Rückzug) f f {\displaystyle f\mapsto f^{*}} der Homomorphismen f Hom K ( X , Y ) {\displaystyle f\in \operatorname {Hom} _{K}(X,Y)} auseinander hervor, denn für endlichdimensionale Vektorräume X , Y {\displaystyle X,Y} ist die folgende injektive Vektorraum-Homomorphismus aus Dimensionsgründen surjektiv, also ein Isomorphismus:
L ( X , Y ) L ( Y , X ) f [ f : η η f ] . {\displaystyle {\begin{matrix}L(X,Y)&{\stackrel {\sim }{\longrightarrow }}&L(Y^{*},X^{*})\\f&\longmapsto &\left[f^{*}\colon \eta \mapsto \eta \circ f\right]\;.\end{matrix}}}

Angewandt auf X = V r {\displaystyle X=V^{\otimes r}} und Y = ( V ) s {\displaystyle Y=(V^{*})^{\otimes s}} erhält man eine weitere Interpretation von ( r , s ) {\displaystyle (r,s)} -Tensoren, die im Übrigen schon auf die universelle Eigenschaft und Currying zurückgeht:

T s r ( V ) Hom ( ( V ) r , ( V ) s ) Hom ( V s , V r ) T r s ( V ) . {\displaystyle T_{s}^{r}(V)\quad {\stackrel {\sim }{\longrightarrow }}\quad \operatorname {Hom} {\big (}(V^{*})^{\otimes r},(V^{*})^{\otimes s}{\big )}\quad {\stackrel {\sim }{\longrightarrow }}\quad \operatorname {Hom} {\big (}V^{\otimes s},V^{\otimes r}{\big )}\quad {\stackrel {\sim }{\longrightarrow }}\quad T_{r}^{s}(V^{*})\;.}

In Worten: Elemente von V r ( V ) s {\displaystyle V^{\otimes r}\otimes (V^{*})^{\otimes s}} lassen sich

  • als r {\displaystyle r} -multilineare Abbildungen V × × V r  Mal ( V ) s {\displaystyle \underbrace {V^{*}\times \dotsb \times V^{*}} _{r{\text{ Mal}}}\to (V^{*})^{\otimes s}} oder
  • als s {\displaystyle s} -multilineare Abbildungen V × × V s  Mal V r {\displaystyle \underbrace {V\times \dotsb \times V} _{s{\text{ Mal}}}\to V^{\otimes r}}

auffassen.

Auch hier wird deutlich, dass die Begriffe kontravariant und kovariant davon abhängen, welcher Raum als der „Ursprungsraum“ betrachtet wird, in dem der Basiswechsel vollzogen wird. Die Konvention für die Bezeichnung T s r ( V ) {\displaystyle T_{s}^{r}(V)} besagt, dass Basistransformationen im Vektorraum V {\displaystyle V} vollzogen werden.

Koordinatendarstellung von (r,s)-Tensoren

Zur Koordinatendarstellung wähle man eine Basis v _ = ( v 1 , , v n ) {\displaystyle {\underline {v}}=(v_{1},\dots ,v_{n})} von V {\displaystyle V} und die dazugehörige duale Basis v _ = ( v 1 , , v n ) =: ( v ( 1 ) , , v ( n ) ) {\displaystyle {\underline {v}}^{*}=(v_{1}^{*},\dots ,v_{n}^{*})=:(v^{(1)},\dots ,v^{(n)})} von V {\displaystyle V^{*}} definiert durch v ( i ) ( v j ) := δ j i {\displaystyle v^{(i)}(v_{j}):=\delta _{j}^{i}} (Kronecker-Delta). Die Koordinaten eines ( r , s ) {\displaystyle (r,s)} -Tensors

τ L r ( V , , V r  Mal ; ( V ) s ) L r + s ( V , , V r  Mal , V , , V s  Mal ; K ) Hom ( ( V ) r , ( V ) s ) = L ( ( V ) r , ( V ) s ) {\displaystyle \tau \in L^{r}(\underbrace {V^{*},\dots ,V^{*}} _{r{\text{ Mal}}};(V^{*})^{\otimes s})\quad \cong \quad L^{r+s}(\underbrace {V^{*},\dots ,V^{*}} _{r{\text{ Mal}}},\underbrace {V,\dots ,V} _{s{\text{ Mal}}};K)\quad \cong \quad \operatorname {Hom} ((V^{*})^{\otimes r},(V^{*})^{\otimes s})\;=\;L((V^{*})^{\otimes r},(V^{*})^{\otimes s})}

bezüglich dieser Basiswahl lauten dann

T j 1 , j 2 , , j s i 1 , i 2 , , i r := τ ( v ( i 1 ) , v ( i 2 ) , , v ( i r ) , v j 1 , v j 2 , , v j s ) K . {\displaystyle \mathrm {T} _{j_{1},j_{2},\dots ,j_{s}}^{i_{1},i_{2},\dots ,i_{r}}:=\tau \left(v^{(i_{1})},v^{(i_{2})},\dots ,v^{(i_{r})},\;\;v_{j_{1}},v_{j_{2}},\dots ,v_{j_{s}}\right)\in K\;.}

für beliebige Tupel 1 i 1 , , i s , j 1 , , j r n {\displaystyle 1\leq i_{1},\dots ,i_{s},j_{1},\dots ,j_{r}\leq n} .

Stellt man

  • Vektoren v V {\displaystyle v\in V} als Spaltenvektoren ( x 1 x n ) K n {\displaystyle {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}\in K^{n}} [Anm 9] bezüglich der Basis v _ {\displaystyle {\underline {v}}} dar, sodass v = j = 1 n x j v j {\displaystyle v=\sum _{j=1}^{n}x^{j}\cdot v_{j}} , und
  • dual dazu Kovektoren λ V {\displaystyle \lambda \in V^{*}} als Zeilenvektoren ( x 1 , , x n ) K n {\displaystyle \left(x_{1},\dots ,x_{n}\right)\in K^{n}} bezüglich der dualen Basis v _ {\displaystyle {\underline {v}}^{*}} dar, sodass λ = i = 1 n x i v ( i ) {\displaystyle \lambda =\sum _{i=1}^{n}x_{i}\cdot v^{(i)}} ,

so lässt sich

( T j 1 , j 2 , , j s i 1 , i 2 , , i r ) 1 j 1 , j 2 , , j s n 1 i 1 , i 2 , , i r n {\displaystyle \left(\mathrm {T} _{j_{1},j_{2},\dots ,j_{s}}^{i_{1},i_{2},\dots ,i_{r}}\right)_{1\leq j_{1},j_{2},\dots ,j_{s}\leq n}^{1\leq i_{1},i_{2},\dots ,i_{r}\leq n}}

als eine Supermatrix verstehen, die von rechts auf r {\displaystyle r} Zeilen- und von links auf s {\displaystyle s} Spaltenvektoren durch „Supermatrix-Multiplikation“ operiert. Sie stellt den ( r + s ) {\displaystyle (r+s)} -fach multilinearen Tensor τ {\displaystyle \tau } dar: Dieser ist r {\displaystyle r} -fach kontravariant und s {\displaystyle s} -fach kovariant. Gemäß üblicher Konvention werden die Koordinaten kontravarianter Vektoren – also solcher aus V {\displaystyle V} – oben indiziert, während diejenigen kovarianter Vektoren – nämlich jener aus V {\displaystyle V^{*}} – unten indiziert werden. Zur Vereinfachung der Summenschreibweise bietet sich die einsteinsche Summenkonvention an: Sie unterdrückt unter geeigneten Voraussetzungen die Notation des Summenzeichens.

Beispiele:

  • Der Fall r = s {\displaystyle r=s} liefert die Darstellungsmatrix eines Endomorphismus τ End ( V r ) {\displaystyle \tau \in \operatorname {End} (V^{\otimes r})} zur Basis v _ {\displaystyle {\underline {v}}} , aufgefasst als Tensor der Stufe ( r , r ) {\displaystyle (r,r)} .
  • Der Fall r = 1 = s {\displaystyle r=1=s} liefert die Darstellungsmatrix einer Bilinearform auf V × V {\displaystyle V^{*}\times V} – oder aber diejenige eines Endomorphismus τ End ( V ) {\displaystyle \tau \in \operatorname {End} (V)} zur Basis v _ {\displaystyle {\underline {v}}} , aufgefasst als Bilinearform, also als Tensor der Stufe ( 1 , 1 ) {\displaystyle (1,1)} .

Kontravarianz kontra Kovarianz: Tensoriell versus funktoriell

In der Sprache der Kategorientheorie ist H o m ( [ ? ? ] , [ ? ? ] ) = L ( [ ? ? ] , [ ? ? ] ) {\displaystyle \mathop {\mathrm {Hom} } ([??],[??])=L([??],[??])} ein Bifunktor, kontravariant im ersten, kovariant im zweiten Argument. Dies ist eine Aussage über das funktorielle Verhalten des Bifunktors Hom ( , ) {\displaystyle \operatorname {Hom} (\cdot ,\cdot )} .

Kovarianz und Kontravarianz von Tensoren betreffen jedoch Eigenschaften des Transformationsverhaltens der Tensoren τ T s r ( V ) {\displaystyle \tau \in T_{s}^{r}(V)} bei Koordinatentransformation im „Ursprungsraum“ V {\displaystyle V} : Sie beschreiben, wie sich Koordinaten bei Wechsel des Basisbezugs im Ursprungsraum verändern.

Zur Erläuterung: Es sei dim V =: n {\displaystyle \dim V=:n} . Bildet die Matrix A {\displaystyle A} eine – zeilenartig notierte – geordnete Basis v _ = ( v 1 , , v n ) V × × V n  Mal {\displaystyle {\underline {v}}=(v_{1},\dots ,v_{n})\in \underbrace {V\times \dots \times V} _{n{\text{ Mal}}}} von V {\displaystyle V} auf eine andere geordnete Basis w _ = ( w 1 , , w n ) {\displaystyle {\underline {w}}=(w_{1},\dots ,w_{n})} von V {\displaystyle V} ab, d. h., gilt (in naheliegender Notationsweise) v _ A = w _ {\displaystyle {\underline {v}}\cdot A={\underline {w}}} , so beschreibt A 1 {\displaystyle A^{-1}} die zugehörige Koordinatentransformation der Vektoren von V {\displaystyle V} , denn für Koordinatenvektoren ( x i ) K n {\displaystyle (x^{i})\in K^{n}} bezüglich v _ {\displaystyle {\underline {v}}} gilt
v _ ( x 1 x n ) = w _ A 1 ( x 1 x n ) V . {\displaystyle {\underline {v}}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}={\underline {w}}\cdot A^{-1}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}\quad \in V\;.}
Für Vektoren aus V {\displaystyle V} sind also die transformierten Koordinaten ( y i ) K n {\displaystyle (y^{i})\in K^{n}} bezüglich w _ {\displaystyle {\underline {w}}} durch die lineare Transformation ( y 1 y n ) = A 1 ( x 1 x n ) {\displaystyle {\begin{pmatrix}y^{1}\\\vdots \\y^{n}\end{pmatrix}}=A^{-1}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}} gegeben.
Ebenso lässt sich aus der Gleichung v _ A = w _ {\displaystyle {\underline {v}}\cdot A={\underline {w}}} für einen Koordinatenvektor ( y 1 y n ) {\displaystyle {\begin{pmatrix}y^{1}\\\vdots \\y^{n}\end{pmatrix}}} von V {\displaystyle V} folgern:
v _ A ( y 1 y m ) = w _ ( y 1 y m ) {\displaystyle {\underline {v}}\cdot A\cdot {\begin{pmatrix}y^{1}\\\vdots \\y^{m}\end{pmatrix}}\;=\;{\underline {w}}\cdot {\begin{pmatrix}y^{1}\\\vdots \\y^{m}\end{pmatrix}}}
Mit anderen Worten: Während per definitionem die Darstellungsmatrix einer Basistransformation α {\displaystyle \alpha } (von rechts heranmultipliziert) die Basis v _ {\displaystyle {\underline {v}}} auf ihr Bild α ( v _ ) := w _ {\displaystyle \alpha ({\underline {v}}):={\underline {w}}} wirft, transformiert dieselbe Darstellungsmatrix (nun jedoch von links heranmultipliziert) die w _ {\displaystyle {\underline {w}}} -Koordinaten auf die v _ {\displaystyle {\underline {v}}} -Koordinaten. Daher spricht man von Kontravarianz.

Ein kontravarianter Vektor entstammt also (per definitionem) einem Vektorraum, auf dem eine Gruppe von Basistransformationen operiert, sodass sich seine Koordinaten dabei kontravariant transformieren. Ist nämlich A {\displaystyle A} die Übergangsmatrix der Basistransformation, so beschreibt A 1 {\displaystyle A^{-1}} den Koordinatenübergang.

Anmerkung: Mit der im Abschnitt über die Darstellungsmatrix als Tensor eingeführten Notationsweise lässt sich dieser Sachverhalt so formulieren: Ist α Aut ( V ) {\displaystyle \alpha \in \operatorname {Aut} (V)} eine Basistransformation mit der Darstellungsmatrix A := [ α ] v _ [ α ] v _ {\displaystyle A:=\sideset {_{\underline {v}}}{_{\underline {v}}}{[\alpha ]}} , definiert durch die Gleichung α ( v _ ) = w _ = v _ [ α ] v _ [ α ] v _ {\displaystyle \alpha ({\underline {v}})={\underline {w}}={\underline {v}}\cdot \sideset {_{\underline {v}}}{_{\underline {v}}}{[\alpha ]}} , so gilt:
[ id V ] w _ [ id V ] v _ [ α ] v _ [ α ] v _ = [ id α ] w _ [ id α ] v _ = E n = [ α id ] w _ [ α id ] v _ = [ α ] w _ [ α ] w _ [ id V ] w _ [ id V ] v _ {\displaystyle \sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} _{V}]}\cdot \sideset {_{\underline {v}}}{_{\underline {v}}}{[\alpha ]}\;=\;\sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} \circ \alpha ]}\;=\;E_{n}\;=\;\sideset {_{\underline {w}}}{_{\underline {v}}}{[\alpha \circ \operatorname {id} ]}\;=\;\sideset {_{\underline {w}}}{_{\underline {w}}}{[\alpha ]}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} _{V}]}}
Daraus folgt für die Darstellungsmatrix:
A = [ α ] v _ [ α ] v _ = [ α ] w _ [ α ] w _ = ( [ id V ] w _ [ id V ] v _ ) 1 {\displaystyle A=\sideset {_{\underline {v}}}{_{\underline {v}}}{[\alpha ]}=\sideset {_{\underline {w}}}{_{\underline {w}}}{[\alpha ]}=\left(\sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} _{V}]}\right)^{-1}}
Hierbei ist [ id V ] w _ [ id V ] v _ {\displaystyle \sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} _{V}]}} offensichtlich die Matrix der zugehörigen Koordinatentransformation, da v _ = w _ [ id V ] w _ [ id V ] v _ . {\displaystyle {\underline {v}}={\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[\operatorname {id} _{V}]}\,.}
Die zugehörigen dualen geordneten Basen v _ = ( v 1 v n ) V × × V n  Mal {\displaystyle {\underline {v}}^{*}={\begin{pmatrix}v^{1}\\\vdots \\v^{n}\end{pmatrix}}\in \underbrace {V^{*}\times \dots \times V^{*}} _{n{\text{ Mal}}}} und entsprechend w _ = ( w 1 w n ) {\displaystyle {\underline {w}}^{*}={\begin{pmatrix}w^{1}\\\vdots \\w^{n}\end{pmatrix}}} des Dualraums V {\displaystyle V^{*}} werden spaltenartig notiert und sind definiert durch
v _ v _ := ( v i ( v j ) ) j i = ( δ j i ) j i = E n {\displaystyle {\underline {v}}^{*}\cdot {\underline {v}}:=\left(v^{i}(v_{j})\right)_{j}^{i}=\left(\delta _{j}^{i}\right)_{j}^{i}=E_{n}}
und analog w _ w _ := E n . {\displaystyle {\underline {w}}^{*}\cdot {\underline {w}}:=E_{n}\;.}
Beschreibt eine Matrix B {\displaystyle B} die Transformation B v _ = w _ {\displaystyle B\cdot {\underline {v}}^{*}={\underline {w}}^{*}} , so gilt folglich E n = w _ w _ = B v _ v _ = E n A = B A {\displaystyle E_{n}={\underline {w}}^{*}\cdot {\underline {w}}=B\cdot \underbrace {{\underline {v}}^{*}\cdot {\underline {v}}} _{=E_{n}}\cdot A=B\cdot A} , also B = A 1 {\displaystyle B=A^{-1}} .
Also wird (gemäß obigen Überlegungen) die Koordinatentransformation der Kovektoren bezüglich der zugehörigen dualen Basen v _ {\displaystyle {\underline {v}}^{*}} und w _ {\displaystyle {\underline {w}}^{*}} von V {\displaystyle V^{*}} durch die Matrix B 1 = A {\displaystyle B^{-1}=A} beschrieben:
( ξ 1 , , ξ n ) v _ = ( ξ 1 , , ξ n ) B 1 w _ = ( ξ 1 , , ξ n ) A = ( η 1 , , η n ) w _ . {\displaystyle (\xi _{1},\dots ,\xi _{n})\cdot {\underline {v}}^{*}=(\xi _{1},\dots ,\xi _{n})\cdot B^{-1}\cdot {\underline {w}}^{*}=\underbrace {(\xi _{1},\dots ,\xi _{n})\cdot A} _{=(\eta _{1},\dots ,\eta _{n})}\cdot {\underline {w}}^{*}\;.}
Nun gilt es, einen strukturellen Aspekt zu beachten: Die Notationsweise spiegelt die „Seitigkeit“ der Vektorräume wider, d. h.: Werden – wie hier – V {\displaystyle V} als Rechts-Vektorraum und seine Koordinatenvektoren als Spaltenvektoren notiert, so ist der Dualraum V {\displaystyle V^{*}} ein Links-Vektorraum und seine Koordinatenvektoren sind Zeilenvektoren. Entsprechend geschieht auch die Multiplikation mit Darstellungsmatrizen in beiden Räumen von entgegengesetzten Seiten: Zeilenartig notierte Tupel treten von rechts, spaltenartig notierte Tupel hingegen von links an die Darstellungsmatrix; insbesondere treten Koordinatenvektoren für Rechts-Vektorräume (Spaltenvektoren) von rechts an die Darstellungsmatrix, während Koordinatenvektoren für Links-Vektorräume (Zeilenvektoren) von links an die Darstellungsmatrix herantreten, denn schließlich wird dadurch eine Summe von Skalarmultiplikationen notiert und Skalare müssen auf der richtigen Seite notiert werden. Wird aber – dank der Kommutativität des Grundkörpers K {\displaystyle K} – diese strukturelle Unterscheidung in der Notation unterschlagen, indem beide Vektorräume mit gleicher Seitigkeit notiert werden, so ist zu beachten, dass beim Übergang zur Gegenseite die beteiligten Matrizen transponiert werden müssen, d. h., dass Zeilen- und Spaltenindex ihre Plätze tauschen. Dies bedeutet für die Koordinatenvektoren im Dualraum beispielsweise:
( η 1 , , η n ) T = ( ( ξ 1 , , ξ n ) B 1 ) T = B 1 T ( ξ 1 ξ n ) {\displaystyle (\eta _{1},\dots ,\eta _{n})^{T}={\big (}(\xi _{1},\dots ,\xi _{n})\cdot B^{-1}{\big )}^{T}=B^{-1T}\cdot {\begin{pmatrix}\xi _{1}\\\vdots \\\xi _{n}\end{pmatrix}}}
Sollen also die Koordinatenvektoren des Dualraums in derselben Form notiert werden wie diejenigen des Ursprungsraums, so müssen die Darstellungsmatrizen transponiert werden, bevor sie von der Gegenseite zwecks Matrizenmultiplikation an die Koordinatenvektoren herantreten. Dies kann man sich natürlich ebenso gut vor Augen führen, indem man die Summenprodukte sämtlich ausschreibt wie in diesem Artikel gezeigt.
Speziell für K { R , C } {\displaystyle K\in \{\mathbb {R} ,\mathbb {C} \}} : Ist auf dem Vektorraum V {\displaystyle V} ein hermitesches (bzw. symmetrisches) Skalarprodukt definiert, so gilt für unitäre Transformationen (bzw. orthogonale Transformationen) A {\displaystyle A} bekanntlich A 1 = A {\displaystyle A^{-1}=A^{\dagger }} , für selbstadjungierte Transformationen hingegen A = A {\displaystyle A=A^{\dagger }} . Dabei bezeichne A {\displaystyle A^{\dagger }} die (zur adjungierten Abbildung gehörige) adjungierte Matrix, nämlich A = A ¯ T = A T ¯ {\displaystyle A^{\dagger }={\overline {A}}^{T}={\overline {A^{T}}}} die konjugiert-komplexe und transponierte Matrix (bzw. A = A T {\displaystyle A^{\dagger }=A^{T}} die transponierte Matrix) von A {\displaystyle A} . – Für antisymmetrische Skalarprodukte (bzw. die symplektische Gruppe) lässt sich Entsprechendes ableiten: Siehe dazu die Rechnungen im Artikel zur Kovarianz und Kontravarianz, deren strukturelle Hintergründe hiermit hinreichend beleuchtet sein mögen.

Ein kovarianter Vektor hingegen entstammt einem Vektorraum, auf dessen Dualraum eine Gruppe linearer Basistransformationen operiert, sodass sich seine Koordinaten kovariant transformieren. Ist nämlich A {\displaystyle A} die Darstellungsmatrix einer solchen Basistransformation, so beschreibt

  • A {\displaystyle A} den Koordinatenübergang der kovarianten Vektoren, wenn Vektorraum und Dualraum gegenseitig notiert werden, um einem Schiefkörper K {\displaystyle K} zu entsprechen, wohingegen
  • A T {\displaystyle A^{T}} den Koordinatenübergang der kovarianten Vektoren beschreibt, wenn – unter Ausnutzung der Kommutativität von K {\displaystyle K} – Vektorraum und Dualraum gleichseitig notiert werden.

Anmerkung: Enthält die Gruppe linearer Basistransformationen nur symmetrische Transformationen, also solche mit A = A T {\displaystyle A=A^{T}} , dann erübrigt sich die Fallunterscheidung der beiden Spiegelpunkte. Für orthogonale ( K = R {\displaystyle K=\mathbb {R} } ), unitäre ( K = C {\displaystyle K=\mathbb {C} } ) bzw. selbstadjungierte Transformationen lässt sich die Aussage über die Matrix, die den Koordinatenübergang beschreibt, entsprechend umformulieren, denn für orthogonale Transformationen A {\displaystyle A} gilt A T = A 1 {\displaystyle A^{T}=A^{-1}} , für unitäre A T = A 1 ¯ {\displaystyle A^{T}={\overline {A^{-1}}}} bzw. für selbstadjungierte A T = A ¯ {\displaystyle A^{T}={\overline {A}}} .

Das funktorielle Verhalten eines Funktors muss vom tensoriellen Transformationsverhalten eines Tensors unterschieden werden.

Das äußere Produkt von Tensoren

Das äußere Produkt von Tensoren – im Gegensatz zum inneren Produkt – ist schlicht das Tensorprodukt von Tensoren der Stufe ( r , s ) {\displaystyle (r,s)} im Sinne der universellen Eigenschaft. Es muss also vom äußeren Produkt im Sinne des Dach-Produktes oder der Graßmann-Algebra unterschieden werden. Explizit bedeutet dies:

Sind zwei Tensoren τ 1 T s 1 r 1 ( V ) {\displaystyle \tau _{1}\in T_{s_{1}}^{r_{1}}(V)} und τ 2 T s 2 r 2 ( V ) {\displaystyle \tau _{2}\in T_{s_{2}}^{r_{2}}(V)} gegeben, so ist ihr äußeres Produkt ihr Tensorprodukt τ 1 τ 2 T s 1 r 1 ( V ) T s 2 r 2 ( V ) = T s 1 + s 2 r 1 + r 2 ( V ) {\displaystyle \tau _{1}\otimes \tau _{2}\in T_{s_{1}}^{r_{1}}(V)\otimes T_{s_{2}}^{r_{2}}(V)=T_{s_{1}+s_{2}}^{r_{1}+r_{2}}(V)} gemäß diesem oder jenem Abschnitt, je nachdem, wie man Tensoren interpretiert.

Mit anderen Worten: Das äußere Produkt von Tensoren oder die Tensormultiplikation ist das Tensorprodukt von Tensoren (aufgefasst als Vektoren ihrer jeweiligen Tensorprodukträume). In der Koordinatendarstellung entspricht es dem Kronecker-Produkt.

So lässt sich das Tensorprodukt von Bilinearformen bilden und infolgedessen auch das Tensorprodukt quadratischer Formen, falls char K 2 {\displaystyle \operatorname {char} K\neq 2} , denn mit Hilfe der Polarisationsformel gehen quadratische und symmetrische Bilinearformen auseinander hervor.

Der einfachste Fall ist das äußere Produkt eines Vektors mit einem Kovektor, das eine quadratische Matrix liefert, die offensichtlich den Rang 1 {\displaystyle 1} hat und einen einfachen, elementaren oder reinen Tensor der Stufe ( 1 , 1 ) {\displaystyle (1,1)} darstellt:

T 0 1 ( V ) × T 1 0 ( V ) T 1 1 ( V ) ( ( x 1 x n ) , ( ξ 1 , , ξ n ) ) ( x 1 x n ) ( ξ 1 , , ξ n ) = ( x i ξ j ) j i Mat ( n × n , K ) {\displaystyle {\begin{array}{rcl}T_{0}^{1}(V)\times T_{1}^{0}(V)&\longrightarrow &T_{1}^{1}(V)\\{\big (}{\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}},{\big (}\xi _{1},\dots ,\xi _{n}{\big )}{\big )}&\longmapsto &{\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}\cdot {\big (}\xi _{1},\dots ,\xi _{n}{\big )}={\big (}x^{i}\cdot \xi _{j}{\big )}_{j}^{i}\in \operatorname {Mat} (n\times n,K)\end{array}}}

Das äußere Produkt von Tensoren führt zu einer Erhöhung ihrer Stufe.

Beispiel: Tensorprodukt zweier Bilinearformen

Das erwähnte Beispiel des äußeren Produktes zweier Bilinearformen sei explizit gezeigt: Es seien dazu zwei K {\displaystyle K} -Vektorräume V {\displaystyle V} und W {\displaystyle W} gegeben mit je einer Bilinearform:

, V : V × V K ( v 1 , v 2 ) v 1 , v 2 V {\displaystyle {\begin{array}{rcl}\langle \cdot ,\cdot \rangle _{V}\colon V\times V&\longrightarrow &K\\(v_{1},v_{2})&\longmapsto &\langle v_{1},v_{2}\rangle _{V}\end{array}}}

und entsprechend für W {\displaystyle W} . Dann definiere man – getreu dem Abschnitt über das Tensorprodukt linearer Abbildungen – eine Bilinearform auf dem Tensorproduktraum V W {\displaystyle V\otimes W} durch Festlegung auf den einfachen Tensoren:

, V W : ( V W ) × ( V W ) K ( v 1 w 1 , v 2 w 2 ) v 1 , v 2 V w 1 , w 2 W {\displaystyle {\begin{array}{rcl}\langle \cdot ,\cdot \rangle _{V\otimes W}\colon (V\otimes W)\times (V\otimes W)&\longrightarrow &K\\(v_{1}\otimes w_{1},v_{2}\otimes w_{2})&\longmapsto &\langle v_{1},v_{2}\rangle _{V}\cdot \langle w_{1},w_{2}\rangle _{W}\end{array}}}

Beachte: Die hierbei auftretenden Summen bleiben stets endlich.

Dabei genügt – wie immer – die Festlegung auf den Basisvektor-Paaren.

Die gegebene Definition liefert – wie im Abschnitt über das Tensorprodukt linearer Abbildungen bereits gezeigt – die bilineare Abbildung des Bifunktors = T {\displaystyle \otimes ={\mathcal {T}}}

T : T 2 0 ( V ) × T 2 0 ( W ) T 2 0 ( V W ) ( , V , , W ) , V W = T ( , V , , W ) = , V , W . {\displaystyle {\begin{array}{ccc}{\mathcal {T}}\colon T_{2}^{0}(V)\times T_{2}^{0}(W)&\longrightarrow &T_{2}^{0}(V\otimes W)\\\left(\langle \cdot ,\cdot \rangle _{V},\langle \cdot ,\cdot \rangle _{W}\right)&\longmapsto &\langle \cdot ,\cdot \rangle _{V\otimes W}={\mathcal {T}}(\langle \cdot ,\cdot \rangle _{V},\langle \cdot ,\cdot \rangle _{W})=\langle \cdot ,\cdot \rangle _{V}\otimes \langle \cdot ,\cdot \rangle _{W}\,.\end{array}}}

und daher (per universeller Eigenschaft) den natürlichen Monomorphismus T 2 0 ( V ) T 2 0 ( W ) T 2 0 ( V W ) {\displaystyle T_{2}^{0}(V)\otimes T_{2}^{0}(W)\longrightarrow T_{2}^{0}(V\otimes W)} .

Anhand der Definition ist offenkundig: Sind ( v i ) i I {\displaystyle (v_{i})_{i\in I}} bezüglich eines Skalarproduktes , V {\displaystyle \langle \cdot ,\cdot \rangle _{V}} eine Orthonormalbasis in V {\displaystyle V} und entsprechend ( w j ) j J {\displaystyle (w_{j})_{j\in J}} eine Orthonormalbasis in W {\displaystyle W} bezüglich seines Skalarproduktes , W {\displaystyle \langle \cdot ,\cdot \rangle _{W}} , so ist ( v i w j ) ( i , j ) I × J {\displaystyle (v_{i}\otimes w_{j})_{(i,j)\in I\times J}} eine Orthonormalbasis in V W {\displaystyle V\otimes W} bezüglich , V W {\displaystyle \langle \cdot ,\cdot \rangle _{V\otimes W}} , das heißt:

v i w k , v j w l V W = { 1 , wenn  i = j  und  k = l , 0 anderenfalls. {\displaystyle \langle v_{i}\otimes w_{k},v_{j}\otimes w_{l}\rangle _{V\otimes W}={\begin{cases}1&{\text{, wenn }}i=j{\text{ und }}k=l\,,\\0&{\text{anderenfalls.}}\end{cases}}}

Das innere Produkt von Tensoren

Im Gegensatz dazu steht das innere Produkt eines Kovektors mit einem Vektor, das einen Skalar liefert:

T 1 0 ( V ) × T 0 1 ( V ) K = T 0 0 ( V ) ( ( ξ 1 , , ξ n ) , ( x 1 x n ) ) ( ξ 1 , , ξ n ) ( x 1 x n ) = i ξ i x i K {\displaystyle {\begin{array}{rcl}T_{1}^{0}(V)\times T_{0}^{1}(V)&\longrightarrow &K=T_{0}^{0}(V)\\{\Big (}{\big (}\xi _{1},\dots ,\xi _{n}{\big )},{\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}{\Big )}&\longmapsto &{\big (}\xi _{1},\dots ,\xi _{n}{\big )}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}=\sum \limits _{i}\xi _{i}\cdot x^{i}\in K\end{array}}}

Das innere Produkt ähnelt dem Standardskalarprodukt, unterscheidet sich von diesem jedoch dadurch, dass die Vektoren verschiedenen Räumen entstammen: Es ist eine Paarung aus Vektor und Kovektor durch Auswertung der Linearform auf ihrem Argument.

Das Standardskalarprodukt ist – dank der universellen Eigenschaft – interpretierbar als eine Linearform auf T 0 2 ( V ) {\displaystyle T_{0}^{2}(V)} (und mithin als Tensor aus T 0 2 ( V ) = T 2 0 ( V ) {\displaystyle T_{0}^{2}(V^{*})=T_{2}^{0}(V)} ), das innere Produkt hingegen als Linearform auf T 1 1 ( V ) {\displaystyle T_{1}^{1}(V)} (mithin als Tensor aus T 1 1 ( V ) = T 1 1 ( V ) {\displaystyle T_{1}^{1}(V^{*})=T_{1}^{1}(V)} ). Dennoch wird gelegentlich das Standardskalarprodukt als inneres Produkt bezeichnet.

Das innere Produkt ist ein Beispiel für eine Tensorverjüngung.

Spur und Verjüngung

Die Spur eines Tensors λ v T 1 1 ( V ) End ( V ) {\displaystyle \lambda \otimes v\in T_{1}^{1}(V)\cong \operatorname {End} (V)} vom Typ ( 1 , 1 ) {\displaystyle (1,1)} (also eines Endomorphismus) liefert einen Tensor vom Typ ( 0 , 0 ) {\displaystyle (0,0)} (also einen Skalar), nämlich durch die Festlegung Sp ( λ v ) = λ ( v ) K {\displaystyle \operatorname {Sp} (\lambda \otimes v)=\lambda (v)\in K} für einfache (elementare) Tensoren und lineare Fortsetzung auf die allgemeinen Tensoren der Stufe ( 1 , 1 ) {\displaystyle (1,1)} .

Für einen solchen allgemeinen Tensor τ L ( V , V ; K ) End ( V ) {\displaystyle \tau \in L(V,V^{*};K)\cong \operatorname {End} (V)} und seine Darstellungsmatrix T = ( T j i ) i , j {\displaystyle \mathrm {T} =\left(\mathrm {T} _{j}^{i}\right)_{i,j}} [Anm 10] ergibt sich gemäß der obigen Koordinatendarstellung:

Sp ( T ) = i = 1 n T i i = ! T i i , {\displaystyle {\begin{matrix}\operatorname {Sp} (\mathrm {T} )&=&\sum _{i=1}^{n}\mathrm {T} _{i}^{i}&{\stackrel {!}{=}}&\mathrm {T} _{i}^{i}\;,\end{matrix}}}

wobei beim Ausrufezeichen „ = ! {\displaystyle {\stackrel {!}{=}}} “ die einsteinsche Summenkonvention benutzt wird.

Ganz entsprechend induziert die Auswertung (Evaluation) v v v ( v ) K {\displaystyle v^{*}\otimes v\mapsto v^{*}(v)\in K} Abbildungen vom Raum der ( r , s ) {\displaystyle (r,s)} -Tensoren in den Raum der ( r 1 , s 1 ) {\displaystyle (r-1,s-1)} -Tensoren, die Kontraktion oder Spurbildung oder Tensorverjüngung genannt werden und eine Erniedrigung der Tensorstufe herbeiführen. Für eine solche Tensorverjüngung muss ein Paar ( p , q ) {\displaystyle (p,q)} mit 1 p r {\displaystyle 1\leq p\leq r} und 1 q s {\displaystyle 1\leq q\leq s} gewählt werden: Denn in diesen Komponenten findet die Verjüngung durch Auswertung statt, während die anderen unverändert bleiben. Zu jedem derartigen Paar ( p , q ) {\displaystyle (p,q)} gehört also eine Verjüngung Spur q p {\displaystyle \operatorname {Spur} _{q}^{p}} [Anm 11]:

Spur q p : T s r ( V ) = V V r  Mal V V s  Mal T s 1 r 1 ( V ) = V V r 1  Mal V V s 1  Mal ( v 1 v r ) ( λ 1 λ s ) λ q ( v p ) ( v 1 v p v r ) ( λ 1 λ q λ s ) {\displaystyle {\begin{array}{crcl}\operatorname {Spur} _{q}^{p}\colon &T_{s}^{r}(V)=\overbrace {V\otimes \dots \otimes V} ^{r{\text{ Mal}}}\otimes \overbrace {V^{*}\otimes \dots \otimes V^{*}} ^{s{\text{ Mal}}}&\longrightarrow &T_{s-1}^{r-1}(V)=\overbrace {V\otimes \dots \otimes V} ^{r-1{\text{ Mal}}}\otimes \overbrace {V^{*}\otimes \dots \otimes V^{*}} ^{s-1{\text{ Mal}}}\\&(v_{1}\otimes \dots \otimes v_{r})\otimes (\lambda _{1}\otimes \dots \otimes \lambda _{s})&\longmapsto &\lambda _{q}(v_{p})\cdot (v_{1}\otimes \dots {\cancel {v_{p}}}\dots \otimes v_{r})\otimes (\lambda _{1}\otimes \dots {\cancel {\lambda _{q}}}\dots \otimes \lambda _{s})\end{array}}}

Koevaluation

Umgekehrt induziert (für n := dim V {\displaystyle n:=\dim V} ) die Koevaluation, definiert durch K V V , 1 i = 1 n v i v i {\displaystyle K\to V^{*}\otimes V,\,1\mapsto \sum _{i=1}^{n}v_{i}^{*}\otimes v_{i}} (und lineare Fortsetzung, versteht sich) Erhöhungen der Stufe: T s r ( V ) T s + 1 r + 1 ( V ) {\displaystyle T_{s}^{r}(V)\to T_{s+1}^{r+1}(V)} . Diese Abbildung bildet offenbar einen Tensor – hier dargestellt durch seine Koordinaten T j 1 , , j s i 1 , , i r {\displaystyle \mathrm {T} _{j_{1},\dots ,j_{s}}^{i_{1},\dots ,i_{r}}} – auf das Tensorprodukt (Kronecker-Produkt) mit der Einheitsmatrix E n {\displaystyle E_{n}} (der Identität auf V {\displaystyle V} ) ab:

T s r ( V ) T s + 1 r + 1 ( V ) T j 1 , , j s i 1 , , i r T j 1 , , j s , j s + 1 i 1 , , i r , i r + 1 := δ j s + 1 i r + 1 T j 1 , , j s i 1 , , i r {\displaystyle {\begin{array}{ccc}T_{s}^{r}(V)&\longrightarrow &T_{s+1}^{r+1}(V)\\\mathrm {T} _{j_{1},\dots ,j_{s}}^{i_{1},\dots ,i_{r}}&\longmapsto &\mathrm {T} _{j_{1},\dots ,j_{s},j_{s+1}}^{i_{1},\dots ,i_{r},i_{r+1}}:=\delta _{j_{s+1}}^{i_{r+1}}\cdot \mathrm {T} _{j_{1},\dots ,j_{s}}^{i_{1},\dots ,i_{r}}\end{array}}}

Lineare Abbildungen als Verjüngung

Die Multiplikation von Matrizen und Vektoren lässt sich als Verjüngung von Tensoren verstehen: Die Abbildung

L ( V , W ) × V W ( f , x ) f ( x ) {\displaystyle {\begin{array}{ccc}L(V,W)\times V&\longrightarrow &W\\(f,x)&\longmapsto &f(x)\end{array}}}

ist offensichtlich bilinear und faktorisiert folglich zu einer linearen Abbildung

L ( V , W ) V W f x f ( x ) {\displaystyle {\begin{array}{ccc}L(V,W)\otimes V&\longrightarrow &W\\f\otimes x&\longmapsto &f(x)\end{array}}}

Für den Fall V = W {\displaystyle V=W} handelt es sich um die Abbildung

T 1 2 ( V ) = T 1 1 ( V ) T 0 1 ( V ) T 0 1 ( V ) End K ( V ) V V f x f ( x ) Mat K ( n × n ) K n K n A f ( x 1 x n ) A f ( x 1 x n ) , {\displaystyle {\begin{array}{rccc}T_{1}^{2}(V)=&T_{1}^{1}(V)\otimes T_{0}^{1}(V)&\longrightarrow &T_{0}^{1}(V)\\&\upharpoonleft \!\downharpoonright &&\upharpoonleft \!\downharpoonright \\&\operatorname {End} _{K}(V)\otimes V&\longrightarrow &V\\&f\otimes x&\longmapsto &f(x)\\&\upharpoonleft \!\downharpoonright &&\upharpoonleft \!\downharpoonright \\&\operatorname {Mat} _{K}(n\times n)\otimes K^{n}&\longrightarrow &K^{n}\\&A_{f}\otimes {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}&\longmapsto &A_{f}\cdot {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}\,,\end{array}}}

wobei A f = [ f ] v _ [ f ] v _ {\displaystyle A_{f}=\sideset {_{\underline {v}}}{_{\underline {v}}}{[f]}} die Darstellungsmatrix eines Endomorphismus f {\displaystyle f} bezüglich einer festgewählten Basis v _ {\displaystyle {\underline {v}}} bezeichne und ( x 1 x n ) {\displaystyle {\begin{pmatrix}x^{1}\\\vdots \\x^{n}\end{pmatrix}}} den Koordinatenvektor eines Vektors x {\displaystyle x} bezüglich derselben Basis.

Für den Fall W = K {\displaystyle W=K} hingegen erhält man die obige Spurabbildung.

Die Komposition als Tensorverjüngung und die Matrizenmultiplikation als verjüngtes Kronecker-Produkt

Mit der im Abschnitt über die Darstellungsmatrix als Matrix der Tensorkoordinaten vorgestellten Bezeichnungsweise für Darstellungsmatrizen lässt sich leicht erkennen, dass die Komposition ( g , f ) g f {\displaystyle (g,f)\mapsto g\circ f} von Homomorphismen ( g , f ) L ( V , W ) × L ( U , V ) {\displaystyle (g,f)\in L(V,W)\times L(U,V)} eine Kontraktion (Tensorverjüngung) ist und dass die Matrizenmultiplikation genau dies widerspiegelt.

Denn für Homomorphismen f L ( U , V ) {\displaystyle f\in L(U,V)} und g L ( V , W ) {\displaystyle g\in L(V,W)} ist die Kompositionsabbildung

: L ( V , W ) × L ( U , V ) L ( U , W ) ( g , f ) g f {\displaystyle {\begin{matrix}\circ \colon L(V,W)\times L(U,V)&\longrightarrow &L(U,W)\\(g,f)&\longmapsto &g\circ f\end{matrix}}}

offenkundig eine bilineare Abbildung. Nach obigen Überlegungen ist also die Komposition {\displaystyle \circ } ihrerseits das Kompositum dieser Abbildungen:

L 2 ( L ( V , W ) , L ( U , V ) ; L ( U , W ) ) ~ L ( L ( V , W ) L ( U , V ) , L ( U , W ) ) ~ L ( ( V W ) ( U V ) , L ( U , W ) ) {\displaystyle \circ \in L^{2}{\big (}L(V,W),L(U,V);L(U,W){\big )}\;{\tilde {\to }}\;L{\big (}L(V,W)\otimes L(U,V),L(U,W){\big )}\;{\tilde {\to }}\;L{\big (}(V^{*}\otimes W)\otimes (U^{*}\otimes V),L(U,W){\big )}}

In der Tat ergibt sich, wenn in den Vektorräumen U , V {\displaystyle U,V} und W {\displaystyle W} die Basen u _ , v _ {\displaystyle {\underline {u}},{\underline {v}}} bzw. w _ {\displaystyle {\underline {w}}} gewählt werden und n := dim V {\displaystyle n:=\dim V} gesetzt wird:

( g , f ) g f = ( w _ [ g ] w _ [ g ] v _ v _ ) ( v _ [ f ] v _ [ f ] u _ u _ ) g f = w _ [ g ] w _ [ g ] v _ v _ v _ E [ f ] v _ [ f ] u _ u _ = w _ [ g ] w _ [ g ] v _ E n [ f ] v _ [ f ] u _ u _ = w _ [ g ] w _ [ g ] v _ [ f ] v _ [ f ] u _ u _ = w _ [ g f ] w _ [ g f ] u _ u _ = g f {\displaystyle {\begin{array}{ccccccccc}(g,f)&\mapsto &g\otimes f&=&{\big (}{\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\cdot {\underline {v}}^{*}{\big )}\otimes {\big (}{\underline {v}}\cdot \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}\cdot {\underline {u}}^{*}{\big )}&\mapsto &g\circ f&=&{\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\cdot \underbrace {{\underline {v}}^{*}\cdot {\underline {v}}} _{E}\cdot \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}\cdot {\underline {u}}^{*}\\&&&&&&&=&{\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\cdot E_{n}\cdot \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}\cdot {\underline {u}}^{*}\\&&&&&&&=&{\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\cdot \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}\cdot {\underline {u}}^{*}\\&&&&&&&=&{\underline {w}}\cdot \sideset {_{\underline {w}}}{_{\underline {u}}}{[g\circ f]}\cdot {\underline {u}}^{*}\\&&&&&&&=&g\circ f\end{array}}}

Dabei findet in der Mitte – ausgelöst durch die Evaluation v _ v _ {\displaystyle {\underline {v}}^{*}\cdot {\underline {v}}} – die Kontraktion statt: Sie spiegelt sich darin wider, dass das Kronecker-Produkt [ g ] w _ [ g ] v _ [ f ] v _ [ f ] u _ {\displaystyle \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\otimes \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}} der Darstellungsmatrizen in das Matrizenprodukt [ g ] w _ [ g ] v _ [ f ] v _ [ f ] u _ {\displaystyle \sideset {_{\underline {w}}}{_{\underline {v}}}{[g]}\cdot \sideset {_{\underline {v}}}{_{\underline {u}}}{[f]}} übergeht. Der Begriff der Verjüngung ist zwar genau genommen nur für die Räume T s r ( V ) {\displaystyle T_{s}^{r}(V)} gemischter Tensoren definiert, aber es ist offensichtlich, wie er sich hier einordnet: Für den Fall U = V = W {\displaystyle U=V=W} geht es um die Hintereinanderausführung von Endomorphismen f , g End ( V ) {\displaystyle f,g\in \operatorname {End} (V)} auf V {\displaystyle V} und die Multiplikation quadratischer Darstellungsmatrizen, und diese liefern eine Kontraktion T 2 2 ( V ) T 1 1 ( V ) {\displaystyle T_{2}^{2}(V)\to T_{1}^{1}(V)} .

Tensorprodukt von Hilbert-Räumen

Hauptartikel: Hilbertraum-Tensorprodukt

Für das Tensorprodukt zweier Hilbert-Räume kann mutatis mutandis das Vorgehen gemäß dem Tensorprodukt zweier Bilinearformen herangezogen werden, zu beachten sind hierbei zwei wesentliche Punkte:

Daher muss nach Bildung des „sequilinearen“ Tensorprodukts gemäß Abschnitt zum Tensorprodukt von Bilinearformen der Tensorproduktraum bezüglich der Hilbertnorm vervollständigt werden, um seine Vollständigkeit sicherzustellen und somit einen Hilbert-Raum aus dem Tensorprodukt zu erhalten, in welchem die lineare Hülle der Orthonormalbasis dicht liegt. Bei unendlicher Dimension ist dies nämlich nicht ohne Weiteres gewährleistet.

Für euklidische Räume gilt das entsprechende Vorgehen.

Anmerkung: Bei endlicher Dimension n {\displaystyle n} sind ohnehin alle Normen äquivalent, sodass bei vollständigem Skalarkörper K {\displaystyle K} stets ein vollständiger Vektorraum vorliegt, nämlich isomorph zu K n {\displaystyle K^{n}} . Die Vollständigkeit des Skalarkörpers ist im hier interessierenden Fall K = C {\displaystyle K=\mathbb {C} } (bzw. K = R {\displaystyle K=\mathbb {R} } im Falle euklidischer Räume) gegeben.

Manche Autoren verleihen der Vervollständigung des „bloß sesquilinear algebraischen“ Tensorprodukts V W {\displaystyle V\otimes W} zweier Hilbert-Räume V {\displaystyle V} und W {\displaystyle W} auch in der Schreibweise V ¯ W {\displaystyle V{\bar {\otimes }}W} Ausdruck, andere halten es ohne expliziten Notationshinweis für selbstverständlich, das – kategoriell gesehen – Notwendige zu tun.

Anwendung: Produktmaß quadratisch integrierbarer Funktionen

Der Raum L 2 {\displaystyle L^{2}} der quadratisch integrierbaren Funktionen[Anm 12] ist ein Hilbertraum. Somit ist es möglich, das Tensorprodukt zweier solcher Räume zu bilden und mithin das Produktmaß der zugrundeliegenden Maßräume.

Tensorprodukt von Moduln

Das Tensorprodukt lässt sich – wie an anderer Stelle schon angedeutet – nicht nur für die Kategorie der Vektorräume bilden, sondern auch für die Kategorie der Moduln über einem (beliebigen, auch nichtkommutativen) Ring mit Einselement, freilich mit Auswirkungen auf manche seiner Eigenschaften. Im Folgenden werden Eigenschaften für das Tensorprodukt in der Kategorie der Moduln über einem kommutativen Ring R {\displaystyle R} skizziert.

Vorab eine allgemeine Anmerkung: Jede abelsche Gruppe G {\displaystyle G} lässt sich als Modul über dem Ring der ganzen Zahlen Z {\displaystyle \mathbb {Z} } vermöge n x = ( n 1 ) x + x {\displaystyle n\cdot x=(n-1)\cdot x+x} (per vollständige Induktion für jedes n 1 {\displaystyle n\geq 1} ) und durch ( n ) x := ( n x ) {\displaystyle (-n)\cdot x:=-(n\cdot x)} , sodass 0 x = 0 G {\displaystyle 0\cdot x=0\in G} . Die Kategorie der abelsche Gruppen und diejenige der Z {\displaystyle \mathbb {Z} } -Moduln sind also äquivalent, siehe dazu auch diesen Link.

Tensorprodukt auf freien Moduln über kommutativen Ringen mit Einselement

Alle Aussagen, die im Abschnitt über das Tensorprodukt auf Vektorräumen über einem Körper K {\displaystyle K} getroffen wurden, gelten auch für das Tensorprodukt auf freien Moduln über einem kommutativen Ring mit Einselement.

Hintergrund: Im Abschnitt über das Tensorprodukt auf Vektorräumen wurde nicht benutzt, dass die Elemente des Körpers K {\displaystyle K} (bis auf die 0) sämtlich invertierbar sind: K = K { 0 } {\displaystyle K^{*}=K\setminus \{0\}} . Es wurde nicht einmal verwendet, dass K {\displaystyle K} als Ring nullteilerfrei ist. Wohl aber wurde benutzt, dass jeder Vektorraum direkte Summe seiner eindimensionalen Unterräume ist, deren jeder durch einen der Basisvektoren aufgespannt wird: V = i I K v i {\displaystyle V=\bigoplus _{i\in I}K\cdot v_{i}} . Diese Eigenschaft ist für die Konstruktion schon hinreichend – und für freie Moduln über einem Ring R {\displaystyle R} mit Einselement aber (per definitionem) erfüllt. Wenn R {\displaystyle R} sogar ein Körper ist – für Vektorräume also – lässt sich diese Tatsache dank der Invertierbarkeit nichtverschwindender Körperelemente sicherstellen.

Man kann also den obigen Abschnitt über das Tensorprodukt von Vektorräumen auch für freie Moduln über kommutativen Ringen mit Einselement lesen.[Anm 13]

Tensorprodukt auf Moduln über kommutativen Ringen mit Einselement

Hauptartikel: Tensorprodukt von Moduln

Sind die Moduln aber nicht frei über dem Ring R {\displaystyle R} , so gelingt die Konstruktion aus dem Abschnitt über das Tensorprodukt auf Vektorräumen nicht, eben weil die Ausgangsbasen nicht gegeben sind. Jedoch bleibt die Universaldefinition mit Hilfe multilinearer Abbildungen[Anm 14] sinnvoll und definiert das Tensorprodukt auf Moduln über kommutativen Ringen mit Einselement. Allerdings bleibt die Frage der Existenz offen: Sie wird mittels einer allgemeineren Konstruktion nachgewiesen, siehe den Artikel über das Tensorprodukt von Moduln.

Polynommodul als Skalarerweiterung

Der Polynommodul M [ X ] {\displaystyle M[X]} eines Moduls M {\displaystyle M} über einem kommutativen unitären Ring R {\displaystyle R} wird definiert durch

M [ X ] := M ( N ) := { f : N M | f ( n ) 0 M  für nur endlich viele  n N } { n N f ( n ) X n | f ( n ) = 0  für fast alle  n N } {\displaystyle {\begin{aligned}M[X]:=M^{(\mathbb {N} )}&:=&{\Big \{}f\colon \mathbb {N} \to M\;{\Big \vert }\;f(n)\neq 0_{M}{\text{ für nur endlich viele }}n\in \mathbb {N} {\Big \}}\\&\cong &{\Big \{}\sum _{n\in \mathbb {N} }f(n)\cdot X^{n}\;{\Big \vert }\;f(n)=0{\text{ für fast alle }}n\in \mathbb {N} {\Big \}}\end{aligned}}}

und ist ein Modul sowohl über dem Polynomring R [ X ] {\displaystyle R[X]} als auch über dem Ring R {\displaystyle R} .

Wendet man die Skalarerweiterung auf einen Modul M {\displaystyle M} über einem unitären kommutativen Ring R {\displaystyle R} an, indem man das Tensorprodukt mit der Polynomalgebra R [ X ] {\displaystyle R[X]} (lediglich als Modul über R {\displaystyle R} betrachtet) bildet, so erhält man eine Isomorphie zum Polynommodul M [ X ] {\displaystyle M[X]} :

M R R [ X ] M [ X ] {\displaystyle M\otimes _{R}R[X]\quad {\stackrel {\sim }{\longrightarrow }}\quad M[X]}

Tensorprodukt auf Moduln über Hauptidealringen

Bei der Ermittlung des Tensorprodukts auf Moduln über einem Hauptidealring R {\displaystyle R} sind der Elementarteilersatz und die Primärzerlegung hilfreich. Für den Fall R = Z {\displaystyle R=\mathbb {Z} } liefert dieser den Hauptsatz über endlich erzeugte abelsche Gruppen.

Diese Sätze besagen (unter anderem), dass solche Moduln aus einem (torsions)freien Anteil und einem Torsionsanteil bestehen. Beim Tensorprodukt von Torsionsmoduln kann es zu bemerkenswerten Phänomenen kommen, wie das folgende Beispiel zeigt.

Beispiel aus der Zahlentheorie: Kollabierendes Tensorprodukt

Der Ring Z {\displaystyle \mathbb {Z} } der ganzen Zahlen ist ein euklidischer Ring. Jeder euklidische Ring – wie etwa der Ring der Gaußschen Zahlen Z [ i ] {\displaystyle \mathbb {Z} [\mathrm {i} ]} oder die Polynomalgebra K [ X ] {\displaystyle K[X]} über einem Körper – ist ein Hauptidealring.

Betrachte für zwei ganze Zahlen m 1 , m 2 {\displaystyle m_{1},m_{2}} das Tensorprodukt Z / ( m 1 ) Z Z / ( m 2 ) {\displaystyle \mathbb {Z} /(m_{1})\otimes _{\mathbb {Z} }\mathbb {Z} /(m_{2})} der beiden Restklassenringe Z / ( m j ) {\displaystyle \mathbb {Z} /(m_{j})} , die ja Moduln über Z {\displaystyle \mathbb {Z} } sind.

Ist d = n 1 m 1 + n 2 m 2 {\displaystyle d=n_{1}m_{1}+n_{2}m_{2}} für zwei Zahlen n i Z {\displaystyle n_{i}\in \mathbb {Z} } , so gilt für jeden elementaren Tensor x 1 x 2 Z / ( m 1 ) Z / ( m 2 ) {\displaystyle x_{1}\otimes x_{2}\in \mathbb {Z} /(m_{1})\otimes \mathbb {Z} /(m_{2})} :

d ( x 1 x 2 ) = ( n 1 m 1 + n 2 m 2 ) ( x 1 x 2 ) durch Einsetzen = ( n 1 m 1 ) ( x 1 x 2 ) + ( n 2 m 2 ) ( x 1 x 2 ) „skalare Rechenregeln“ im  Z -Modul  Z / ( m 1 ) Z Z / ( m 2 ) = ( n 1 m 1 x 1 ) x 2 + x 1 ( n 2 m 2 x 2 ) das Tensorprodukt „ “ ist  Z -bilinear = 0 x 2 + x 1 0  da ja  m j x j = 0 Z / ( m j )  bei  j = 1 , 2 = 0 . {\displaystyle {\begin{array}{ccc|r}d\cdot (x_{1}\otimes x_{2})&=&(n_{1}m_{1}+n_{2}m_{2})\cdot (x_{1}\otimes x_{2})&{\text{durch Einsetzen}}\\&=&(n_{1}m_{1})\cdot (x_{1}\otimes x_{2})+(n_{2}m_{2})\cdot (x_{1}\otimes x_{2})&{\text{„skalare Rechenregeln“ im }}\mathbb {Z} {\text{-Modul }}\mathbb {Z} /(m_{1})\otimes _{\mathbb {Z} }\mathbb {Z} /(m_{2})\\&=&(n_{1}m_{1}\cdot x_{1})\otimes x_{2}+x_{1}\otimes (n_{2}m_{2}\cdot x_{2})&{\text{das Tensorprodukt „}}\otimes {\text{“ ist }}\mathbb {Z} {\text{-bilinear}}\\&=&0\otimes x_{2}+x_{1}\otimes 0&{\text{ da ja }}m_{j}x_{j}=0\in \mathbb {Z} /(m_{j}){\text{ bei }}j=1,2\\&=&0\;.\end{array}}}

Tatsächlich lassen sich für den größten gemeinsamen Teiler d := g g T ( m 1 , m 2 ) {\displaystyle d:=\mathrm {ggT} (m_{1},m_{2})} solche Zahlen n i Z {\displaystyle n_{i}\in \mathbb {Z} } finden. Also annulliert der größte gemeinsame Teiler das gesamte Tensorprodukt:

d [ Z / ( m 1 ) Z Z / ( m 2 ) ] = { 0 } {\displaystyle d\cdot {\big [}\mathbb {Z} /(m_{1})\otimes _{\mathbb {Z} }\mathbb {Z} /(m_{2}){\big ]}=\{0\}} .

Von nun an seien die beiden Zahlen teilerfremd, das heißt, für den größte gemeinsame Teiler gelte g g T ( m 1 , m 2 ) = 1 {\displaystyle \mathrm {ggT} (m_{1},m_{2})=1} .

Dann folgt, dass das Tensorprodukt zum Nullmodul kollabiert:

Z / ( m 1 ) Z Z / ( m 2 ) = 1 [ Z / ( m 1 ) Z Z / ( m 2 ) ] = { 0 } {\displaystyle \mathbb {Z} /(m_{1})\otimes _{\mathbb {Z} }\mathbb {Z} /(m_{2})=1\cdot {\big [}\mathbb {Z} /(m_{1})\otimes _{\mathbb {Z} }\mathbb {Z} /(m_{2}){\big ]}=\{0\}} .

Mit anderen Worten: Es wurde gezeigt, dass eine Z {\displaystyle \mathbb {Z} } -bilineare Abbildung Z / ( m 1 ) × Z / ( m 2 ) Y {\displaystyle \mathbb {Z} /(m_{1})\times \mathbb {Z} /(m_{2})\to Y} (bei teilerfremden ganzen Zahlen m 1 , m 2 {\displaystyle m_{1},m_{2}} ) notwendig die triviale Nullabbildung ist.

Man beachte hier den großen Unterschied zwischen direktem Produkt und Tensorprodukt: Während das Tensorprodukt zu

Z / ( m 1 ) Z / ( m 2 ) { 0 } {\displaystyle \mathbb {Z} /(m_{1})\otimes \mathbb {Z} /(m_{2})\cong \{0\}}

kollabiert, liefert das direkte Produkt nach dem Chinesischen Restsatz den Restklassenring

Z / ( m 1 ) × Z / ( m 2 ) Z / ( m 1 m 2 ) {\displaystyle \mathbb {Z} /(m_{1})\times \mathbb {Z} /(m_{2})\cong \mathbb {Z} /(m_{1}\cdot m_{2})} .

Ebenso lässt sich zeigen: Das Tensorprodukt endlich erzeugter Torsionsmoduln über Hauptidealringen mit teilerfremden Annullatoridealen (wie etwa endlicher abelscher Gruppen teilerfremder Exponenten (oder erst recht Ordnungen)) kollabiert.

Die Primärzerlegung endlich erzeugter Torsionsmoduln über Hauptidealringen lehrt, dass diese in Primärkomponenten zerfallen, das heißt: direkte Summe von Untermoduln mit paarweise zueinander teilerfremden Annulatoridealen sind. Das Tensorprodukt endlich erzeugter Torsionsmoduln ist (der Distributivität von {\displaystyle \oplus } und {\displaystyle \otimes } wegen) die direkte Summe der aus den zu einem Primideal gehörigen Primärkomponenten der beiden Torsionsmoduln gebildeten Tensorprodukte.

Tensorprodukt auf Moduln über nicht-kommutativen Ringen mit Einselement

Hauptartikel: Tensorprodukt von Moduln

Eine wesentliche Änderungen tritt ein, wenn der Ring R {\displaystyle R} nicht kommutativ ist, und diese Änderungen betrifft folglich auch Vektorräume über Schiefkörpern: Das liegt daran, dass die Eigenschaft der Bilinearität für Elemente m i M i {\displaystyle m_{i}\in M_{i}} zweier Moduln M i {\displaystyle M_{i}} (für i = 1 , 2 {\displaystyle i=1,2} ) und für eine bilineare Abbildung ϕ : M 1 × M 2 N {\displaystyle \phi \colon M_{1}\times M_{2}\to N} folgende Identität impliziert:

r 1 , r 2 R : r 1 r 2 ϕ ( m 1 , m 2 ) = ϕ ( r 1 m 1 , r 2 m 2 ) = r 2 r 1 ϕ ( m 1 , m 2 ) {\displaystyle \forall r_{1},r_{2}\in R\colon r_{1}r_{2}\phi (m_{1},m_{2})=\phi (r_{1}m_{1},r_{2}m_{2})=r_{2}r_{1}\phi (m_{1},m_{2})} .

Also operiert R {\displaystyle R} auf dem Bild ϕ ( M 1 × M 2 ) N {\displaystyle \phi (M_{1}\times M_{2})\subset N} und mithin auf dem von ihm aufgespannten R {\displaystyle R} -Untermodul kommutativ. Ist (für Bilinearformen etwa) N = R {\displaystyle N=R} und hat der Ring keine Links-Nullteiler oder gibt es ( m 1 , m 2 ) M 1 × M 2 {\displaystyle (m_{1},m_{2})\in M_{1}\times M_{2}} mit ϕ ( m 1 , m 2 ) = 1 R = N {\displaystyle \phi (m_{1},m_{2})=1\in R=N} , so ist der Ring notwendig kommutativ. Bilineare Abbildungen scheinen also (im Gegensatz zu „unilinearen“ Abbildungen) nach einer kommutativen Operation des Ringes auf dem Modul zu verlangen.

Daher wird diese Eigenschaft der Bilinearität in bedeutsamer, folgenschwerer Weise geändert: Das Tensorprodukt auf Moduln über nicht-kommutativen Ringen mit Einselement handelt nicht von bilinearen Abbildungen, sondern von Abbildungen anderer Art, und der Produktraum ist kein R {\displaystyle R} -Modul:

Dazu seien M 1 {\displaystyle M_{1}} ein Rechtsmodul, M 1 {\displaystyle M_{1}} ein Linksmodul über dem Ring R {\displaystyle R} , Y {\displaystyle Y} eine abelsche Gruppe (ein Modul (über dem Ring der ganzen Zahlen)).

Definition: Eine Abbildung ϕ : M 1 × M 2 Y {\displaystyle \phi \colon M_{1}\times M_{2}\to Y} heißt R {\displaystyle R} -balanziert, wenn gilt: Sie ist additiv in jeder Komponente und darüber hinaus assoziativ in folgendem Sinne:

r R : ϕ ( m 1 r , m 2 ) = ϕ ( m 1 , r m 2 ) {\displaystyle \forall r\in R\colon \phi (m_{1}r,m_{2})=\phi (m_{1},rm_{2})} .

Nun wird die Universaldefinition an die über dem Ring balanzierten Abbildungen angepasst und liefert daher für diese das Tensorprodukt. Dabei ist das „Produkt“ eben nicht mehr bilinear, sondern balanziert.

Universaldefinition: Eine R {\displaystyle R} -balanzierte Abbildung ϕ : M 1 × M 2 X {\displaystyle \phi \colon M_{1}\times M_{2}\to X} in eine abelsche Gruppe X {\displaystyle X} wird als Tensorprodukt von M 1 {\displaystyle M_{1}} und M 2 {\displaystyle M_{2}} bezeichnet, wenn für jede abelsche Gruppe Y {\displaystyle Y} der durch ϕ {\displaystyle \phi } gestiftete Rücktransport (Rückzug, Pullback)
ϕ : L ( X , Y ) L 2 ( M 1 , M 2 ; Y ) f f ϕ {\displaystyle {\begin{matrix}\phi ^{*}\colon L(X,Y)&{\stackrel {\sim }{\longrightarrow }}&L^{2}(M_{1},M_{2};Y)\\f&\longmapsto &f\circ \phi \end{matrix}}}
bijektiv, mithin ein Isomorphismus von Gruppen ist. Man schreibt M 1 M 2 := X {\displaystyle M_{1}\otimes M_{2}:=X} und m 1 m 2 := ϕ ( m 1 , m 2 ) {\displaystyle m_{1}\otimes m_{2}:=\phi (m_{1},m_{2})} .

Dies hat zur Folge, dass der Tensorproduktraum M 1 R M 2 {\displaystyle M_{1}\otimes _{R}M_{2}} kein Modul über dem Ring R {\displaystyle R} ist: Die „Skalarmultiplikation“ ist gewissermaßen eingekapselt und nicht mehr erreichbar, und der Tensorproduktraum ist lediglich ein Modul, also eine abelsche Gruppe, das heißt: ein Modul über dem Ring der ganzen Zahlen. Tatsächlich benötigt die Definition der Balanziertheit gar keine R {\displaystyle R} -Linearität des Moduls N {\displaystyle N} (soll heißen: keine Skalarmultiplikation mit Ringelementen). Es genügt, dass N {\displaystyle N} eine abelsche Gruppe ist. Entsprechend ist auch M 1 R M 2 {\displaystyle M_{1}\otimes _{R}M_{2}} eine abelsche Gruppe.

Tensorprodukt auf Vektorräumen über Schiefkörpern

Der Fall des Tensorprodukts von (oder auf) Vektorräumen V , W {\displaystyle V,W} über einem Schiefkörper K {\displaystyle K} ordnet sich selbstverständlich dem soeben beschriebenen Fall des Tensorprodukts von Moduln über nicht-kommutativen Ringen unter, während der Abschnitt über das Tensorprodukt von Vektorräumen wesentlich die Kommutativität des Skalarkörpers benutzt. Insbesondere sind die natürlichen Homomorphismen Ψ {\displaystyle \Psi } aus den Abschnitten über natürliche Homomorphismen und Homomorphismen als Tensoren nur noch Homomorphismen abelscher Gruppen (also von Z {\displaystyle \mathbb {Z} } -Moduln), denn für einen Schiefkörper K {\displaystyle K} ist die Menge Hom ( V , W ) {\displaystyle \operatorname {Hom} (V,W)} der Homomorphismen zwischen zwei Rechts-Vektorräumen (oder zwischen zwei Links-Vektorräumen) nur noch eine abelsche Gruppe (bei punktweiser Addition), kein Vektorraum: Die Begründung verläuft ähnlich wie in den obigen Überlegungen über den Zusammenhang zwischen Bilinearformen und der Kommutativität des Ringes.

Dank der Dualitätstheorie von Vektorräumen über Schiefkörpern bleiben die Dimensionsargumente auch für Schiefkörper bestehen. Allerdings ist darauf zu achten, dass im Tensorprodukt K {\displaystyle \otimes _{K}} die Faktoren auf der richtigen Seite stehen: Rechts-Vektorräume links, und Links-Vektorräume rechts, d. h., für einen Rechts-Vektorraum V {\displaystyle V} und einen Links-Vektorraum W {\displaystyle W} ist V K W {\displaystyle V\otimes _{K}W} definiert, nicht jedoch W K V {\displaystyle W\otimes _{K}V} . Dementsprechend müssen die natürlichen Homomorphismen Ψ {\displaystyle \Psi } notiert werden: Sie sind auf V K V {\displaystyle V\otimes _{K}V^{*}} definiert, nicht jedoch auf V K V {\displaystyle V^{*}\otimes _{K}V} . Dies spiegelt sich ja auch im Matrizenkalkül wider. So lohnt es sich also, beim Lesen des Abschnittes über das Tensorprodukt von Vektorräumen darauf zu achten, an welchen Stellen – häufig unauffällig – die Kommutativität des Grundkörpers K {\displaystyle K} genutzt wird.

Skalarerweiterung

Es sei M {\displaystyle M} ein Rechtsmodul über dem unitären Ring R {\displaystyle R} , N {\displaystyle N} ein Linksmodul über dem unitären Ring S {\displaystyle S} und f : R S {\displaystyle f\colon R\to S} ein Ringhomomorphismus in den unitären Ring S . {\displaystyle S.} Dann wird N {\displaystyle N} durch r n := f ( r ) n {\displaystyle r\cdot n:=f(r)\cdot n} zu einem Linksmodul über dem Ring R {\displaystyle R} , und mithin ist das Tensorprodukt M R N {\displaystyle M\otimes _{R}N} definiert.

Dies gilt insbesondere für N = S {\displaystyle N=S} selbst, betrachtet als Linksmodul über sich selbst: M R S {\displaystyle M\otimes _{R}S} .

Bei kommutativen Ringen R , S {\displaystyle R,S} entsteht mit M S := M R S {\displaystyle M_{S}:=M\otimes _{R}S} ein Modul über dem Ring S {\displaystyle S} . Dieser Vorgang wird als Skalarerweiterung bezeichnet.

Bei Anwendung der Skalarerweiterung auf den Fall des kanonischen Homomorphismus f : R R / a =: S {\displaystyle f\colon R\to R/{\mathfrak {a}}=:S} für ein Ideal a R {\displaystyle {\mathfrak {a}}\triangleleft R} in R {\displaystyle R} ist die Sequenz

0 M a M M R ( R / a ) 0 m m 1 ¯ {\displaystyle {\begin{array}{ccccccccc}0&\longrightarrow &M{\mathfrak {a}}&\longrightarrow &M&\longrightarrow &M\otimes _{R}(R/{\mathfrak {a}})&\longrightarrow &0\\&&&&m&\longmapsto &m\otimes {\overline {1}}&&\end{array}}}

exakt, und man erhält einen Isomorphismus von Moduln über R / a {\displaystyle R/{\mathfrak {a}}} :[12]

M R ( R / a ) M / ( M a ) m r ¯ m ¯ r ¯ {\displaystyle {\begin{array}{ccc}M\otimes _{R}(R/{\mathfrak {a}})&\longrightarrow &M/(M{\mathfrak {a}})\\m\otimes {\overline {r}}&\longmapsto &{\overline {m}}\cdot {\overline {r}}\end{array}}}

Im Falle eines Körperhomomorphismus f {\displaystyle f} handelt es sich notwendig um einen Monomorphismus R S {\displaystyle R\hookrightarrow S} , also um eine Körpererweiterung L = S {\displaystyle L=S} von K = R {\displaystyle K=R} , und es ergibt sich der im Abschnitt Erweiterung der Skalare beschriebene Fall.

Gestalt der Tensoren

Für die Gestalt der Tensoren gelten analoge Aussagen wie im Falle des Tensorprodukts auf Vektorräumen; siehe auch den Abschnitt zum Rang von Tensoren.

Elementare Tensoren

Ein elementarer Tensor (auch reiner oder einfacher Tensor) im Tensorprodukt M R N {\displaystyle M\otimes _{R}N} ist ein Element von der Form m n {\displaystyle m\otimes n} mit m M , n N {\displaystyle m\in M,\,n\in N} .

Allgemeine Gestalt

Jedes Element des Tensorprodukts ist eine endliche Summe von elementaren Tensoren. Im Allgemeinen lässt sich nicht jeder Tensor als elementarer Tensor schreiben.

Zum Beispiel ist der Tensor e 1 e 2 e 2 e 1 {\displaystyle e_{1}\otimes e_{2}-e_{2}\otimes e_{1}} kein elementarer Tensor im Tensorprodukt R 2 R R 2 {\displaystyle \mathbb {R} ^{2}\otimes _{\mathbb {R} }\mathbb {R} ^{2}} , wobei e i {\displaystyle e_{i}} die Standardbasisvektoren sind (dagegen e 1 e 1 e 1 e 2 e 2 e 1 + e 2 e 2 = ( e 1 e 2 ) ( e 1 e 2 ) {\displaystyle e_{1}\otimes e_{1}-e_{1}\otimes e_{2}-e_{2}\otimes e_{1}+e_{2}\otimes e_{2}=(e_{1}-e_{2})\otimes (e_{1}-e_{2})} durchaus).

Ist R {\displaystyle R} ein kommutativer Ring und M {\displaystyle M} ein von einem Element erzeugter R {\displaystyle R} -Modul, dann ist jeder Tensor des Tensorprodukts M R N {\displaystyle M\otimes _{R}N} ein elementarer Tensor für jeden beliebigen R {\displaystyle R} -Modul N . {\displaystyle N.}

Tensorprodukt von Algebren

Es seien nun R {\displaystyle R} ein kommutativer Ring mit Einselement sowie A , B {\displaystyle A,B} und X {\displaystyle X} unitäre Algebren über dem Ring R {\displaystyle R} . Dabei bezeichne L R -Alg ( A , X ) = H o m R -Alg ( A , X ) {\displaystyle L_{R{\text{-Alg}}}(A,X)=\mathrm {Hom} _{R{\text{-Alg}}}(A,X)} die Menge der R {\displaystyle R} -Algebren-Homomorphismen von A {\displaystyle A} in X {\displaystyle X} .

Definition

Auf dem für A {\displaystyle A} und B {\displaystyle B} als R {\displaystyle R} -Moduln definierten Tensorprodukt A × B A R B {\displaystyle A\times B{\stackrel {\otimes }{\longrightarrow }}A\otimes _{R}B} lässt sich die Struktur einer R {\displaystyle R} -Algebra in folgender Weise definieren:

( a 1 b 1 ) ( a 2 b 2 ) := ( a 1 a 2 ) ( b 1 b 2 ) . {\displaystyle (a_{1}\otimes b_{1})\cdot (a_{2}\otimes b_{2}):=(a_{1}a_{2})\otimes (b_{1}b_{2})\;.}

Anmerkung: Offenbar ist dann stets ( a 1 1 ) ( 1 b 2 ) := a 1 b 2 = ( 1 b 2 ) ( a 1 1 ) . {\displaystyle (a_{1}\otimes 1)\cdot (1\otimes b_{2}):=a_{1}\otimes b_{2}=(1\otimes b_{2})\cdot (a_{1}\otimes 1)\;.} Also sind die aus dem Tensorprodukt ϕ : A × B A B , ( a , b ) a b {\displaystyle \phi \colon A\times B\to A\otimes B\;,(a,b)\mapsto a\otimes b} durch Currying gewonnenen partiellen Abbildungen ϕ A ( a ) := ϕ ( a , 1 ) = a 1 {\displaystyle \phi _{A}(a):=\phi (a,1)=a\otimes 1} und ϕ B ( b ) := ϕ ( 1 , b ) = 1 b {\displaystyle \phi _{B}(b):=\phi (1,b)=1\otimes b} nicht nur linear über dem Ring R {\displaystyle R} , sondern auch R {\displaystyle R} -Algebren-Homomorphismen:

ϕ A H o m R -Alg ( A , A R B ) {\displaystyle \phi _{A}\in \mathrm {Hom} _{R{\text{-Alg}}}(A,A\otimes _{R}B)}
und
ϕ B H o m R -Alg ( B , A R B ) . {\displaystyle \phi _{B}\in \mathrm {Hom} _{R{\text{-Alg}}}(B,A\otimes _{R}B).}

Überdies gilt für sie ϕ A ( a ) ϕ B ( b ) = ϕ B ( b ) ϕ A ( a ) A B {\displaystyle \phi _{A}(a)\cdot \phi _{B}(b)=\phi _{B}(b)\cdot \phi _{A}(a)\in A\otimes B} .

Entsprechend lässt sich für R {\displaystyle R} -Algebren A 1 , A N {\displaystyle A_{1},\dots A_{N}} auf dem für sie als R {\displaystyle R} -Moduln definierten Tensorprodukt A 1 × × A N i = 1 N A i {\displaystyle A_{1}\times \dots \times A_{N}{\stackrel {\otimes }{\to }}\bigotimes _{i=1}^{N}A_{i}} die Struktur einer R {\displaystyle R} -Algebra in folgender Weise definieren:

( a 1 ( 1 ) a 1 ( N ) ) ( a 2 ( 1 ) a 2 ( N ) ) := ( a 1 ( 1 ) a 2 ( 1 ) ) ( a 1 ( N ) a 2 ( N ) ) . {\displaystyle (a_{1}^{(1)}\otimes \dots \otimes a_{1}^{(N)})\cdot (a_{2}^{(1)}\otimes \dots \otimes a_{2}^{(N)}):=(a_{1}^{(1)}\cdot a_{2}^{(1)})\otimes \dots \otimes (a_{1}^{(N)}\cdot a_{2}^{(N)})\;.}

Universelle Eigenschaft

Ist X {\displaystyle X} eine R {\displaystyle R} -Algebra und sind f L R -Alg ( A , X ) {\displaystyle f\in L_{R{\text{-Alg}}}(A,X)} sowie g L R -Alg ( B , X ) {\displaystyle g\in L_{R{\text{-Alg}}}(B,X)} Algebren-Homomorphismen mit f ( a ) g ( b ) = g ( b ) f ( a ) {\displaystyle f(a)\cdot g(b)=g(b)\cdot f(a)} für jedes Paar ( a , b ) A × B {\displaystyle (a,b)\in A\times B} , so gibt es einen eindeutig bestimmten R {\displaystyle R} -Algebren-Homomorphismus

A B X mit a b f ( a ) g ( b ) {\displaystyle {\begin{matrix}&A\otimes B&\longrightarrow &X\\{\text{mit}}&a\otimes b&\longmapsto &f(a)\cdot g(b)\end{matrix}}}

für jedes Paar ( a , b ) A × B {\displaystyle (a,b)\in A\times B} .

Entsprechend lässt sich auch die universelle Eigenschaft für mehrere Faktoren formulieren.

Tensorprodukt und Koprodukt

Es sollen nun Tensorprodukt und Koprodukt in der Kategorie unitärer Algebren über einem kommutativen unitären Ring beschrieben und verglichen werden.

In einem der folgenden Abschnitte wird hierauf aufbauend deutlich werden, dass Tensorprodukt und Koprodukt in der Kategorie kommutativer Algebren dasselbe universelle (initiale) Objekt beschreiben.

In diesem Abschnitt sei zunächst jedoch von nicht notwendig kommutativen, unitären Algebren die Rede.

Vorüberlegung

Für R {\displaystyle R} -Algebren A ( 1 ) , , A ( N ) {\displaystyle A^{(1)},\dots ,A^{(N)}} bezeichne L R -Alg N ( A ( 1 ) , , A ( N ) ; X ) {\displaystyle L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};X)} diejenige Teilmenge der Menge L N ( A ( 1 ) , , A ( N ) ; X ) {\displaystyle L^{N}(A^{(1)},\dots ,A^{(N)};X)} aller R {\displaystyle R} -bilinearen Abbildungen ϕ : A ( 1 ) × × A ( N ) X {\displaystyle \phi \colon A^{(1)}\times \dots \times A^{(N)}\longrightarrow X} , die zudem multiplikativ auf dem direkten Produkt sind, das heißt, für die gilt:

ϕ ( a 1 ( 1 ) , , a 1 ( N ) ) ϕ ( a 2 ( 1 ) , , a 2 ( N ) ) = ϕ ( a 1 ( 1 ) a 2 ( 1 ) , , a 1 ( N ) a 2 ( N ) ) {\displaystyle \phi (a_{1}^{(1)},\dots ,a_{1}^{(N)})\cdot \phi (a_{2}^{(1)},\dots ,a_{2}^{(N)})=\phi (a_{1}^{(1)}a_{2}^{(1)},\dots ,a_{1}^{(N)}a_{2}^{(N)})} für jedes Tupel ( a k ( 1 ) , , a k ( N ) ) A ( 1 ) × A ( N ) , k = 1 , 2 {\displaystyle (a_{k}^{(1)},\dots ,a_{k}^{(N)})\in A^{(1)}\times A^{(N)}\,,\;k=1,2} .

Für ein solches ϕ L R -Alg N ( A ( 1 ) , , A ( N ) ; X ) {\displaystyle \phi \in L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};X)} setze

ϕ A ( i ) ( a ) := ϕ i := ϕ ( 1 , , 1 , a , 1 , , 1 ) in jeder Stelle  1 , nur an der  i -ten  a . {\displaystyle \phi _{A^{(i)}}(a):=\phi _{i}:=\phi \underbrace {(1,\dots ,1,a,1,\dots ,1)} _{{\text{in jeder Stelle }}1{\text{, nur an der }}i{\text{-ten }}a}\;.}

Dann gilt ϕ ( a ( 1 ) , , a ( N ) ) = ϕ 1 ( a ( 1 ) ) ϕ N ( a ( N ) ) {\displaystyle \phi (a^{(1)},\dots ,a^{(N)})=\phi _{1}(a^{(1)})\cdot \dots \cdot \phi _{N}(a^{(N)})} für jedes Tupel ( a ( 1 ) , , a ( N ) ) A ( 1 ) × × A ( N ) {\displaystyle (a^{(1)},\dots ,a^{(N)})\in A^{(1)}\times \dots \times A^{(N)}} , und ferner ist für je zwei Indizes 1 i , j N {\displaystyle 1\leq i,j\leq N} stets die Vertauschbarkeit ϕ i ( a 1 ) ϕ j ( a 2 ) = ϕ j ( a 2 ) ϕ i ( a 1 ) {\displaystyle \phi _{i}(a_{1})\cdot \phi _{j}(a_{2})=\phi _{j}(a_{2})\cdot \phi _{i}(a_{1})} für jedes Paar ( a 1 , a 2 ) A ( i ) × A ( j ) {\displaystyle (a_{1},a_{2})\in A^{(i)}\times A^{(j)}} gegeben.

Anmerkung: Man beachte, wie sich auch hier, im Falle der Algebren, eine Vertauschbarkeitseigenschaft der beteiligten multiplikativen Struktur auf naheliegende Weise „empfiehlt“, sobald N 2 {\displaystyle N\geq 2} . Ähnliches war auch schon im Falle des Tensorprodukts für Moduln (und Vektorräume) festzustellen: Die Betrachtung bilinearer ( N = 2 {\displaystyle N=2} ) oder multilinearer ( N 2 {\displaystyle N\geq 2} ) Abbildungen ließ es sinnvoll erscheinen, die Kommutativität des Grundrings R {\displaystyle R} bzw. des Grundkörpers K {\displaystyle K} vorauszusetzen. Siehe dazu die Anmerkungen zum Fall nicht kommutativer Ringe. Nun ist sogar die Multiplikation der gesamten Algebra davon betroffen.

Nun bezeichne [ i = 1 N L R -Alg ( A ( i ) , X ) ] S N {\displaystyle \left[\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},X)\right]^{S_{N}}} diejenige Teilmenge der Menge i = 1 N L R -Alg ( A ( i ) , X ) {\displaystyle \prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},X)} aller Familien ( f i ) i = 1 , , N {\displaystyle \left(f_{i}\right)_{i=1,\dots ,N}} von Abbildungen f i L R -Alg ( A ( i ) , X ) {\displaystyle f_{i}\in L_{R{\text{-Alg}}}(A^{(i)},X)} , die jene Bedingung der Vertauschbarkeit erfüllen, die soeben für die ϕ i {\displaystyle \phi _{i}} verifiziert wurde, dass nämlich für zwei Indizes 1 i , j N {\displaystyle 1\leq i,j\leq N} stets f i ( a 1 ) f j ( a 2 ) = f j ( a 2 ) f i ( a 1 ) {\displaystyle f_{i}(a_{1})\cdot f_{j}(a_{2})=f_{j}(a_{2})\cdot f_{i}(a_{1})} für jedes Paar ( a 1 , a 2 ) A ( i ) × A ( j ) {\displaystyle (a_{1},a_{2})\in A^{(i)}\times A^{(j)}} .

Mit diesen Bezeichnungen besteht eine Bijektion von Mengen

L R -Alg N ( A ( 1 ) , , A ( N ) ; X ) [ i = 1 N L R -Alg ( A ( i ) , X ) ] S N ϕ ( ϕ A ( i ) ) i = 1 , , N . {\displaystyle {\begin{matrix}L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};X)&{\stackrel {\sim }{\longrightarrow }}&\left[\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},X)\right]^{S_{N}}\\\phi &\longmapsto &\left(\phi _{A^{(i)}}\right)_{i=1,\dots ,N}\;.\end{matrix}}}

Die Umkehrung ist durch ( f i ) i i = 1 N f i {\displaystyle \left(f_{i}\right)_{i}\mapsto \prod _{i=1}^{N}f_{i}} gegeben.

Universelle Eigenschaft des Tensorprodukts

Es sei eine Abbildung [ ϕ : A ( 1 ) × × A ( N ) X ] L R -Alg N ( A ( 1 ) , , A ( N ) ; X ) {\displaystyle \left[\phi \colon A^{(1)}\times \dots \times A^{(N)}\longrightarrow X\right]\in L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};X)} endlich vieler unitärer Algebren A ( i ) , ( i = 1 , , N ) {\displaystyle A^{(i)}\,,\;(i=1,\dots ,N)} über einem kommutativen unitären Ring R {\displaystyle R} gegeben.

Definition: Die Abbildung ϕ {\displaystyle \phi } heißt, zusammen mit X =: i = 1 N A ( i ) {\displaystyle X=:\bigotimes _{i=1}^{N}A^{(i)}} , das Tensorprodukt der Algebren A ( i ) {\displaystyle A^{(i)}} , wenn gilt:

Zu jedem Algebren-Homomorphismus ψ L R -Alg N ( A ( 1 ) , , A ( N ) ; Y ) {\displaystyle \psi \in L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};Y)} in eine unitäre R {\displaystyle R} -Algebra Y {\displaystyle Y} gibt es einen eindeutig bestimmten Algebren-Homomorphismus ψ ~ L R -Alg ( X , Y ) {\displaystyle {\tilde {\psi }}\in L_{R{\text{-Alg}}}(X,Y)} mit ψ = ϕ ( ψ ~ ) = ψ ~ ϕ {\displaystyle \psi =\phi ^{*}({\tilde {\psi }})={\tilde {\psi }}\circ \phi } .
Äquivalent ist die Forderung: ϕ : L R -Alg ( X , Y ) L R -Alg N ( A ( 1 ) , , A ( N ) ; Y ) {\displaystyle \phi ^{*}\colon L_{R{\text{-Alg}}}(X,Y)\longrightarrow L_{R{\text{-Alg}}}^{N}(A^{(1)},\dots ,A^{(N)};Y)} ist bijektiv.

Wie oben gezeigt, ist die Existenz des Tensorprodukts gesichert: Man nehme das Tensorprodukt der Moduln A ( i ) {\displaystyle A^{(i)}} und versehe es, wie oben beschrieben, dank der Algebrenstruktur der A ( i ) {\displaystyle A^{(i)}} mit der Struktur einer Algebra.

Universelle Eigenschaft des Koprodukts

Es sei nun eine Familie von Abbildungen ( ε i : A ( i ) X ) i = 1 , , N i = 1 N L R -Alg ( A ( i ) , X ) {\displaystyle \left(\varepsilon _{i}\colon A^{(i)}\longrightarrow X\right)_{i=1,\dots ,N}\in \prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},X)} endlich vieler unitärer Algebren A ( i ) , ( i = 1 , , N ) {\displaystyle A^{(i)}\,,\;(i=1,\dots ,N)} über einem kommutativen unitären Ring R {\displaystyle R} gegeben.

Definition: Die Abbildungen ε i {\displaystyle \varepsilon _{i}} heißen, zusammen mit X =: i = 1 N A ( i ) {\displaystyle X=:\coprod _{i=1}^{N}A^{(i)}} , das Koprodukt der Algebren A ( i ) {\displaystyle A^{(i)}} , wenn gilt:

Zu jeder Familie von Algebren-Homomorphismen ( ψ i ) i i = 1 N L R -Alg ( A ( i ) , Y ) {\displaystyle \left(\psi _{i}\right)_{i}\in \prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},Y)} in eine unitäre R {\displaystyle R} -Algebra Y {\displaystyle Y} gibt es einen eindeutig bestimmten Algebren-Homomorphismus ψ ~ L R -Alg ( X , Y ) {\displaystyle {\tilde {\psi }}\in L_{R{\text{-Alg}}}(X,Y)} mit der Eigenschaft:
ψ i = ε i ( ψ ~ ) = ψ ~ ε i {\displaystyle \psi _{i}=\varepsilon _{i}^{*}({\tilde {\psi }})={\tilde {\psi }}\circ \varepsilon _{i}} für jedes i = 1 , , N {\displaystyle i=1,\dots ,N} .
Äquivalent ist die Forderung: ε : L R -Alg ( X , Y ) i = 1 N L R -Alg ( A ( i ) , Y ) {\displaystyle \varepsilon ^{*}\colon L_{R{\text{-Alg}}}(X,Y)\longrightarrow \prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},Y)} ist bijektiv.

Dabei zieht die Vertauschbarkeitsbedingung der Familie ( ε i ) i {\displaystyle (\varepsilon _{i})_{i}} offensichtlich die der Familie ( ψ i ) i {\displaystyle (\psi _{i})_{i}} nach sich:

( ε i ) i [ i = 1 N L R -Alg ( A ( i ) , X ) ] S N ( ψ i ) i [ i = 1 N L R -Alg ( A ( i ) , Y ) ] S N . {\displaystyle \left(\varepsilon _{i}\right)_{i}\in \left[\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},X)\right]^{S_{N}}\Longrightarrow \left(\psi _{i}\right)_{i}\in \left[\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},Y)\right]^{S_{N}}\,.}

Ist diese Bedingung erfüllt, so ist die Forderung der universellen Eigenschaft äquivalent mit ψ = ε ( ψ ~ ) = ψ ~ ε {\displaystyle \psi =\varepsilon ^{*}({\tilde {\psi }})={\tilde {\psi }}\circ \varepsilon } , wobei ε := i ε i {\displaystyle \varepsilon :=\prod _{i}\varepsilon _{i}} und ebenso ψ := i ψ i {\displaystyle \psi :=\prod _{i}\psi _{i}} gemäß den obigen Vorüberlegungen.

Allerdings ist die Vertauschbarkeitsbedingung der Familie ( ε i ) i {\displaystyle (\varepsilon _{i})_{i}} nicht Bestandteil der universellen Eigenschaft das Koprodukts. Im Allgemeinen ist sie nicht erfüllt: Hierin besteht gerade der Unterschied zum Tensorprodukt. Doch in der Kategorie kommutativer Algebren verschwindet dieser Unterschied: Das ist der Inhalt des folgenden Abschnittes.

Tensorprodukt und Koprodukt in der Kategorie kommutativer Algebren

Nun wird deutlich, dass Koprodukt 1 N {\displaystyle \coprod _{1}^{N}} und Tensorprodukt 1 N {\displaystyle \bigotimes _{1}^{N}} in der Kategorie der kommutativen Algebren über kommutativen Ringen mit Einselement – bis auf Isomorphie, versteht sich – dasselbe universelle (initiale) Objekt beschreiben. Denn mit Blick auf die in der Vorüberlegung erwähnte Bijektion bleibt für die Kategorie kommutativer Algebren nur noch festzustellen, dass die Vertauschbarkeitseigenschaft stets gegeben ist:

[ i = 1 N L R -Alg ( A ( i ) , Y ) ] S N = i = 1 N L R -Alg ( A ( i ) , Y ) . {\displaystyle \left[\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},Y)\right]^{S_{N}}=\prod _{i=1}^{N}L_{R{\text{-Alg}}}(A^{(i)},Y)\,.}

Ist ϕ : A ( 1 ) × × A ( N ) X := A ( i ) {\displaystyle \phi \colon A^{(1)}\times \dots \times A^{(N)}\longrightarrow X:=\bigotimes A^{(i)}} das (universelle) Tensorprodukt kommutativer Algebren, so sind die Abbildungen ϕ i : A ( i ) X , a ( i ) 1 1 a ( i ) 1 1 {\displaystyle \phi _{i}\colon A^{(i)}\longrightarrow X,\,a^{(i)}\mapsto 1\otimes \dots \otimes 1\otimes a^{(i)}\otimes 1\otimes \dots \otimes 1} aus der Vorüberlegung als Einbettungen ε i {\displaystyle \varepsilon _{i}} im Sinne des Koproduktes zu verstehen.

Tensorprodukt kommutativer unitärer Ringe

Insbesondere ist also das Koprodukt kommutativer Ringe mit Einselement dasselbe wie das Tensorprodukt dieser Ringe (als Algebra über den ganzen Zahlen verstanden) über Z {\displaystyle \mathbb {Z} } .

Norm und Spur kommutativer Algebren

Es sei A {\displaystyle A} eine unitäre kommutative Algebra der endlichen Dimension n := dim K A {\displaystyle n:=\dim _{K}A} über dem Körper K {\displaystyle K} . Die Multiplikation mit einem Element a A {\displaystyle a\in A} ist ein Endomorphismus in der Algebra A {\displaystyle A} als einem Vektorraum über K {\displaystyle K} und mithin ein Tensor:

( mult a : A A , x a x ) End K A A K A , {\displaystyle \left(\operatorname {mult} _{a}\colon A\to A,\;x\mapsto a\cdot x\right)\in \operatorname {End} _{K}A\cong A^{*}\otimes _{K}A\;,}

wobei A {\displaystyle A^{*}} den Dualraum des K {\displaystyle K} -Vektorraums A {\displaystyle A} bezeichnen möge. Gemäß dem Abschnitt über die Spur eines Endomorphismus ist daher jedem Element seine Norm und Spur zugeordnet:

Sp A / K : A K a Sp A / K ( a ) := Sp A / K mult a {\displaystyle {\begin{array}{llll}\operatorname {Sp} _{A/K}\colon &A&\longrightarrow &K\\&a&\longmapsto &\operatorname {Sp} _{A/K}(a):=\operatorname {Sp} _{A/K}\operatorname {mult} _{a}\end{array}}}

und

N A / K : A K a N A / K ( a ) := det mult a {\displaystyle {\begin{array}{llll}\operatorname {N} _{A/K}\colon &A&\longrightarrow &K\\&a&\longmapsto &\operatorname {N} _{A/K}(a):=\det \operatorname {mult} _{a}\end{array}}}

Beide können anhand einer Darstellungsmatrix berechnet werden. Die Spur ist eine K {\displaystyle K} -lineare Abbildung mit Sp A / K ( 1 ) = n 1 K K {\displaystyle \operatorname {Sp} _{A/K}(1)=n\cdot 1_{K}\in K} . Wegen mult a mult b = mult a b {\displaystyle \operatorname {mult} _{a}\circ \operatorname {mult} _{b}=\operatorname {mult} _{ab}} und der Multiplikativität der Determinante ist auch die Norm multiplikativ:

N A / K ( a b ) = N A / K ( a ) N A / K ( b ) {\displaystyle \operatorname {N} _{A/K}(ab)=\operatorname {N} _{A/K}(a)\cdot \operatorname {N} _{A/K}(b)}

Da N A / K ( 1 ) = 1 {\displaystyle \operatorname {N} _{A/K}(1)=1} , bildet die Norm die Einheitengruppe A × {\displaystyle A^{\times }} der Algebra A {\displaystyle A} in die Einheitengruppe K × {\displaystyle K^{\times }} des Körpers K {\displaystyle K} ab und ist somit ein Gruppenhomomorphismus:

N A / K : A × K × , a N A / K ( a ) {\displaystyle \operatorname {N} _{A/K}\colon A^{\times }\longrightarrow K^{\times }\,,\quad a\longmapsto \operatorname {N} _{A/K}(a)}

Aufgrund der n {\displaystyle n} -fachen Multilinearität der Determinante ist auch die Norm n {\displaystyle n} -fach multilinear, d. h.

N A / K ( x a ) = x n N A / K ( a ) {\displaystyle \operatorname {N} _{A/K}(xa)=x^{n}\cdot \operatorname {N} _{A/K}(a)}

oder – was gleichbedeutend ist: N A / K ( x ) = x n {\displaystyle \operatorname {N} _{A/K}(x)=x^{n}} für x K {\displaystyle x\in K} .

Ist die Algebra sogar ein Körper L = A {\displaystyle L=A} , so handelt es sich um eine Körpererweiterung L / K {\displaystyle L/K} .

Eine Anwendung in der algebraischen Zahlentheorie

Im Folgenden eine Anwendung aus der algebraischen Zahlentheorie. Es sei L / K {\displaystyle L/K} eine endliche, separable Erweiterung algebraischer Zahlkörper oder – allgemeiner – globaler Körper der Dimension dim K L = n {\displaystyle \dim _{K}L=n} , und es sei p {\displaystyle {\mathfrak {p}}} eine – diskrete oder archimedische – Primstelle von K {\displaystyle K} , und K p {\displaystyle K_{\mathfrak {p}}} bezeichne den bezüglich dieser Primstelle komplettierten, mithin lokalen Körper. Dann kommutiert folgendes Diagramm mit den hierdurch induzierten Abbildungen:

L ψ L L K K p i n c l ψ p K ι p K p {\displaystyle {\begin{array}{ccc}L&{\stackrel {\psi _{L}}{\longrightarrow }}&L\otimes _{K}K_{\mathfrak {p}}\\\uparrow _{\mathrm {incl} }&&\uparrow _{\psi _{\mathfrak {p}}}\\K&{\stackrel {\iota _{\mathfrak {p}}}{\longrightarrow }}&K_{\mathfrak {p}}\end{array}}}

Dabei wird das Tensorprodukt L K K p {\displaystyle L\otimes _{K}K_{\mathfrak {p}}} als Grundkörpererweiterung, freilich für kommutative Algebren, aufgefasst, sodass dim K p L K K p = dim K L = n {\displaystyle \dim _{K_{\mathfrak {p}}}L\otimes _{K}K_{\mathfrak {p}}=\dim _{K}L=n} . Die (durch die Bewertungsnorm definierte) Topologie des Grundkörpers K p {\displaystyle K_{\mathfrak {p}}} induziert daher auf der endlichdimensionalen Algebra, dem Tensorprodukt L K K p {\displaystyle L\otimes _{K}K_{\mathfrak {p}}} , eine Topologie.

Jede Primstelle q {\displaystyle {\mathfrak {q}}} von L {\displaystyle L} über p {\displaystyle {\mathfrak {p}}} induziert nun Körperhomomorphismen

f q := ι q : L L q {\displaystyle f_{\mathfrak {q}}:=\iota _{\mathfrak {q}}\colon L\longrightarrow L_{\mathfrak {q}}}

sowie

g q := i n c l q : K p L q . {\displaystyle g_{\mathfrak {q}}:=\mathrm {incl} _{\mathfrak {q}}\colon K_{\mathfrak {p}}\longrightarrow L_{\mathfrak {q}}\,.}

Da diese selbstverständlich die Vertauschbarkeitsbedingung erfüllen, liefert die universelle Eigenschaft des Tensorprodukts (eigentlich des Koprodukts) zu jeder Primstelle q p {\displaystyle {\mathfrak {q}}\mid {\mathfrak {p}}} einen K p {\displaystyle K_{\mathfrak {p}}} -Algebren-Homomorphismus Ψ q : L K K p L q {\displaystyle \Psi _{\mathfrak {q}}\colon L\otimes _{K}K_{\mathfrak {p}}\longrightarrow L_{\mathfrak {q}}} mit f q = Ψ q ψ L {\displaystyle f_{\mathfrak {q}}=\Psi _{\mathfrak {q}}\circ \psi _{L}} und g q = Ψ q ψ p {\displaystyle g_{\mathfrak {q}}=\Psi _{\mathfrak {q}}\circ \psi _{\mathfrak {p}}} .

Diese Familie von Algebren-Homomorphismen ( Ψ q : L K K p L q ) q p {\displaystyle \left(\Psi _{\mathfrak {q}}\colon L\otimes _{K}K_{\mathfrak {p}}\longrightarrow L_{\mathfrak {q}}\right)_{{\mathfrak {q}}\mid {\mathfrak {p}}}} liefert also einen K p {\displaystyle K_{\mathfrak {p}}} -Algebra-Homomorphismus

Ψ : L K K p q | p L q y x ( Ψ q ( y x ) ) q , {\displaystyle {\begin{matrix}\Psi \colon &L\otimes _{K}K_{\mathfrak {p}}&\longrightarrow &\prod _{{\mathfrak {q}}|{\mathfrak {p}}}L_{\mathfrak {q}}\\&y\otimes x&\longmapsto &\left(\Psi _{\mathfrak {q}}(y\otimes x)\right)_{\mathfrak {q}}\,,\end{matrix}}}

sodass

Ψ ( ψ L ( y ) ) = ( f q ( y ) ) q {\displaystyle \Psi (\psi _{L}(y))=\left(f_{\mathfrak {q}}(y)\right)_{\mathfrak {q}}} für jedes y L {\displaystyle y\in L}

und

Ψ ( ψ p ( x ) ) = ( g q ( x ) ) q {\displaystyle \Psi (\psi _{\mathfrak {p}}(x))=\left(g_{\mathfrak {q}}(x)\right)_{\mathfrak {q}}} für jedes x K p {\displaystyle x\in K_{\mathfrak {p}}} .

Mit einigen Argumenten (u. a. Approximationssatz der Bewertungstheorie) lässt sich zeigen, dass dieser K p {\displaystyle K_{\mathfrak {p}}} -Algebra-Homomorphismus ein algebraischer und topologischer Isomorphismus bezüglich derjenigen Topologie ist, die auf den kommutativen Algebren durch die beteiligten Primstellen induziert wird.

Zur Erklärung im Einzelnen: Zunächst ist festzustellen, dass die Topologie auf dem Tensorprodukt durch die Norm auf dem erweiterten Grundkörper K p {\displaystyle K_{\mathfrak {p}}} und eine Auswahl einer Basis induziert wird: Dabei hat die Auswahl der Basis keinen Einfluss auf die Topologie, da Normen endlichdimensionaler Vektorräume äquivalent sind. Als K p {\displaystyle K_{\mathfrak {p}}} -lineare Abbildung ist die Abbildung Ψ q {\displaystyle \Psi _{\mathfrak {q}}} für jede Primstelle q | p {\displaystyle {{\mathfrak {q}}|{\mathfrak {p}}}} stetig, also auch Ψ {\displaystyle \Psi } . Daher sind die Bilder Ψ q ( L K K p ) {\displaystyle \Psi _{\mathfrak {q}}(L\otimes _{K}K_{\mathfrak {p}})} und ebenso Ψ ( L K K p ) {\displaystyle \Psi (L\otimes _{K}K_{\mathfrak {p}})} als endlichdimensionale Vektorräume über dem kompletten Grundkörper K p {\displaystyle K_{\mathfrak {p}}} komplett, liegen also abgeschlossen im Produkt q | p L q {\displaystyle \prod _{{\mathfrak {q}}|{\mathfrak {p}}}L_{\mathfrak {q}}} . Andererseits liegt das Bild Ψ ( L K K p ) {\displaystyle \Psi (L\otimes _{K}K_{\mathfrak {p}})} dicht, da nach dem Approximationssatz[13] schon die „Diagonaleinbettung“ ( ι q ) = ι : L q | p L q {\displaystyle (\iota _{\mathfrak {q}})=\iota \colon L\longrightarrow \prod _{{\mathfrak {q}}|{\mathfrak {p}}}L_{\mathfrak {q}}} dicht liegt. Also ist Ψ {\displaystyle \Psi } surjektiv. Daraus folgt die Surjektivität, da die Dimensionen – der Separabilität wegen! – übereinstimmen:
dim K p L K K p = [ L : K ] = ! q | p [ L q : K p ] = dim K p q | p L q . {\displaystyle \dim _{K_{\mathfrak {p}}}L\otimes _{K}K_{\mathfrak {p}}=[L:K]\;{\stackrel {!}{=}}\sum _{{\mathfrak {q}}|{\mathfrak {p}}}[L_{\mathfrak {q}}:K_{\mathfrak {p}}]=\dim _{K_{\mathfrak {p}}}\prod _{{\mathfrak {q}}|{\mathfrak {p}}}L_{\mathfrak {q}}\,.}
Also ist Ψ {\displaystyle \Psi } stetiger Isomorphismus von K p {\displaystyle K_{\mathfrak {p}}} -Algebren. Die Stetigkeit seiner Umkehrabbildung Ψ 1 {\displaystyle \Psi ^{-1}} folgt nun – wie schon oben – aus ihrer Linearität über K p {\displaystyle K_{\mathfrak {p}}} .

Tensorprodukt von Darstellungen

Seien

ρ 1 : G 1 GL ( V ρ 1 ) , ρ 2 : G 2 GL ( V ρ 2 ) {\displaystyle \rho _{1}\colon G_{1}\to {\text{GL}}(V_{\rho _{1}}),\,\rho _{2}\colon G_{2}\to {\text{GL}}(V_{\rho _{2}})}

lineare Darstellungen. Wir definieren die lineare Darstellung

ρ 1 ρ 2 : G 1 × G 2 GL ( V ρ 1 V ρ 2 ) {\displaystyle \rho _{1}\otimes \rho _{2}\colon G_{1}\times G_{2}\to {\text{GL}}(V_{\rho _{1}}\otimes V_{\rho _{2}})}

in das Tensorprodukt von V ρ 1 {\displaystyle V_{\rho _{1}}} und V ρ 2 {\displaystyle V_{\rho _{2}}} durch

ρ 1 ρ 2 ( s 1 , s 2 ) = ρ 1 ( s 1 ) ρ 2 ( s 2 ) , {\displaystyle \rho _{1}\otimes \rho _{2}(s_{1},s_{2})=\rho _{1}(s_{1})\otimes \rho _{2}(s_{2}),}

für s 1 G 1 , s 2 G 2 {\displaystyle s_{1}\in G_{1},s_{2}\in G_{2}} , wobei das Tensorprodukt von Matrizen das Kronecker-Produkt ist. Diese Darstellung wird äußeres Tensorprodukt der Darstellungen ρ 1 {\displaystyle \rho _{1}} und ρ 2 {\displaystyle \rho _{2}} genannt. Existenz und Eindeutigkeit folgen aus der universellen Eigenschaft des Tensorprodukts.

Seien ρ 1 : G GL ( V ρ 1 ) {\displaystyle \rho _{1}\colon G\to {\text{GL}}(V_{\rho _{1}})} und ρ 2 : G GL ( V ρ 2 ) {\displaystyle \rho _{2}\colon G\to {\text{GL}}(V_{\rho _{2}})} zwei lineare Darstellungen derselben Gruppe und sei s G , {\displaystyle s\in G,} dann kann

ρ ( s ) GL ( V ρ 1 V ρ 2 ) {\displaystyle \rho (s)\in {\text{GL}}(V_{\rho _{1}}\otimes V_{\rho _{2}})}

definiert werden durch

ρ ( s ) ( v 1 v 2 ) = ρ 1 ( s ) v 1 ρ 2 ( s ) v 2 , {\displaystyle \rho (s)(v_{1}\otimes v_{2})=\rho _{1}(s)v_{1}\otimes \rho _{2}(s)v_{2},}

für v 1 V ρ 1 , v 2 V ρ 2 . {\displaystyle v_{1}\in V_{\rho _{1}},v_{2}\in V_{\rho _{2}}.} Man schreibt dafür ρ ( s ) = ρ 1 ( s ) ρ 2 ( s ) . {\displaystyle \rho (s)=\rho _{1}(s)\otimes \rho _{2}(s).} Die Abbildung s ρ ( s ) {\displaystyle s\mapsto \rho (s)} definiert dann eine lineare Darstellung von G , {\displaystyle G,} die ebenfalls Tensorprodukt der gegebenen Darstellungen genannt wird.

Man muss diese beiden Fälle jedoch strikt unterscheiden. Der erste Fall ist eine Darstellung des Produkts zweier Gruppen in das Tensorprodukt der jeweils zugehörigen Darstellungsräume. Der zweite Fall ist eine Darstellung einer Gruppe G {\displaystyle G} ins Tensorprodukt von Darstellungsräumen dieser Gruppe. Der zweite Fall kann jedoch als Spezialfall des ersten Falls angesehen werden, indem man die diagonale Untergruppe G × G {\displaystyle G\times G} betrachtet. Die Definitionen können endlich oft iteriert werden.

Seien V {\displaystyle V} und W {\displaystyle W} Darstellungen der Gruppe G , {\displaystyle G,} dann ist Hom ( V , W ) {\displaystyle {\text{Hom}}(V,W)} eine Darstellung, wie durch die Identifikation

Hom ( V , W ) = V W {\displaystyle {\text{Hom}}(V,W)=V^{*}\otimes W}

ersichtlich ist. Sei B Hom ( V , W ) {\displaystyle B\in {\text{Hom}}(V,W)} und sei ρ {\displaystyle \rho } die Darstellung auf Hom ( V , W ) , {\displaystyle {\text{Hom}}(V,W),} ρ V {\displaystyle \rho _{V}} die Darstellung auf V , {\displaystyle V,} ρ W {\displaystyle \rho _{W}} die Darstellung auf W . {\displaystyle W.} Dann liefert die obige Identifikation die Gleichung

ρ ( s ) ( B ) v = ρ W ( s ) B ρ V ( s ) ( v ) {\displaystyle \rho (s)(B)v=\rho _{W}(s)\circ B\circ \rho _{V}(s)(v)}

für alle s G , v V . {\displaystyle s\in G,v\in V.}

Die irreduziblen Darstellungen von G 1 × G 2 {\displaystyle G_{1}\times G_{2}} sind bis auf Isomorphie genau die Darstellungen ρ 1 ρ 2 {\displaystyle \rho _{1}\otimes \rho _{2}} , für die ρ 1 {\displaystyle \rho _{1}} und ρ 2 {\displaystyle \rho _{2}} die irreduziblen Darstellungen von G 1 {\displaystyle G_{1}} bzw. G 2 {\displaystyle G_{2}} sind.

Dieses Ergebnis schränkt das Studium der Darstellungen von G 1 × G 2 {\displaystyle G_{1}\times G_{2}} auf das Studium der Darstellungen von G 1 {\displaystyle G_{1}} und G 2 {\displaystyle G_{2}} ein.

Das folgende Beispiel illustriert den Unterschied zwischen direkter Summe und Tensorprodukt. Sei

ρ 1 : Z / 2 Z GL 2 ( C ) {\displaystyle \textstyle \rho _{1}\colon \mathbb {Z} /2\mathbb {Z} \to {\text{GL}}_{2}(\mathbb {C} )}

die lineare Darstellung, die gegeben ist durch

ρ 1 ( 1 ¯ ) = ( 0 i i 0 ) . {\displaystyle \rho _{1}({\overline {1}})=\left({\begin{array}{cc}0&-i\\i&0\end{array}}\right).}

Und sei

ρ 2 : Z / 3 Z GL 3 ( C ) {\displaystyle \textstyle \rho _{2}\colon \mathbb {Z} /3\mathbb {Z} \to {\text{GL}}_{3}(\mathbb {C} )}

die lineare Darstellung, die gegeben ist durch

ρ 2 ( 1 ¯ ) = ( 1 0 e 2 π i 3 0 e 2 π i 3 0 0 0 e 4 π i 3 ) . {\displaystyle \rho _{2}({\overline {1}})=\left({\begin{array}{ccc}1&0&e^{\frac {2\pi i}{3}}\\0&e^{\frac {2\pi i}{3}}&0\\0&0&e^{\frac {4\pi i}{3}}\end{array}}\right).}

Dann ist das äußere Tensorprodukt

ρ 1 ρ 2 : Z / 2 Z × Z / 3 Z GL ( C 2 C 3 ) = GL 6 ( C ) {\displaystyle \rho _{1}\otimes \rho _{2}\colon \mathbb {Z} /2\mathbb {Z} \times \mathbb {Z} /3\mathbb {Z} \to {\text{GL}}(\mathbb {C} ^{2}\otimes \mathbb {C} ^{3})={\text{GL}}_{6}(\mathbb {C} )}

gegeben durch ρ 1 ( k ) ρ 2 ( l ) , {\displaystyle \rho _{1}(k)\otimes \rho _{2}(l),} wobei k Z / 2 Z , l Z / 3 Z . {\displaystyle k\in \mathbb {Z} /2\mathbb {Z} ,l\in \mathbb {Z} /3\mathbb {Z} .}
Die lineare Abbildung ρ 1 ( 1 ¯ ) ρ 2 ( 1 ¯ ) , {\displaystyle \rho _{1}({\overline {1}})\otimes \rho _{2}({\overline {1}}),} die zum Erzeuger ( 1 ¯ , 1 ¯ ) {\displaystyle ({\overline {1}},{\overline {1}})} gehört, ist dann in der Basis von C 2 C 3 C 6 {\displaystyle \mathbb {C} ^{2}\otimes \mathbb {C} ^{3}\cong \mathbb {C} ^{6}} gegeben durch:

ρ 1 ( 1 ¯ ) ρ 2 ( 1 ¯ ) = ( 0 0 0 i 0 i e 2 π i 3 0 0 0 0 i e 2 π i 3 0 0 0 0 0 0 i e 4 π i 3 i 0 i e 2 π i 3 0 0 0 0 i e 2 π i 3 0 0 0 0 0 0 i e 4 π i 3 0 0 0 ) {\displaystyle \rho _{1}({\overline {1}})\otimes \rho _{2}({\overline {1}})=\left({\begin{array}{cccccc}0&0&0&-i&0&-ie^{\frac {2\pi i}{3}}\\0&0&0&0&-ie^{\frac {2\pi i}{3}}&0\\0&0&0&0&0&-ie^{\frac {4\pi i}{3}}\\i&0&ie^{\frac {2\pi i}{3}}&0&0&0\\0&ie^{\frac {2\pi i}{3}}&0&0&0&0\\0&0&ie^{\frac {4\pi i}{3}}&0&0&0\end{array}}\right)}

Ein Vergleich mit der direkten Summe zeigt den Unterschied. Die erhaltenen Darstellungen besitzen auch nicht denselben Grad.

Symmetrisches und alternierendes Quadrat

Sei ρ : G V V {\displaystyle \rho \colon G\to V\otimes V} eine lineare Darstellung von G {\displaystyle G} und ( e k ) {\displaystyle (e_{k})} eine Basis von V . {\displaystyle V.} Definiere

ϑ : V V V V , {\displaystyle \vartheta \colon V\otimes V\to V\otimes V,}

indem wir

ϑ ( e k e j ) = e j e k {\displaystyle \vartheta (e_{k}\otimes e_{j})=e_{j}\otimes e_{k}}

linear fortsetzen. Dann gilt

u , v V : θ ( v u ) = u v {\displaystyle \forall u,v\in V\colon \theta (v\otimes u)=u\otimes v}

und ϑ 2 = 1. {\displaystyle \vartheta ^{2}=1.} Damit zerfällt V V {\displaystyle V\otimes V} in

V V = Sym 2 ( V ) Alt 2 ( V ) , {\displaystyle V\otimes V={\text{Sym}}^{2}(V)\oplus {\text{Alt}}^{2}(V),}

wobei

Sym 2 ( V ) = { z V V ϑ ( z ) = z } {\displaystyle {\text{Sym}}^{2}(V)=\{z\in V\otimes V\mid \vartheta (z)=z\}}

und

Alt 2 ( V ) = 2 ( V ) = { z V V ϑ ( z ) = z } . {\displaystyle \textstyle {\text{Alt}}^{2}(V)=\bigwedge ^{2}(V)=\{z\in V\otimes V\mid \vartheta (z)=-z\}.}

Diese Unterräume sind G {\displaystyle G} -invariant und definieren so Teildarstellungen, die symmetrisches bzw. alternierendes Quadrat genannt werden. Diese Teildarstellungen existieren auch für V m , {\displaystyle V^{\otimes m},} werden dann allerdings mit Hutprodukt m ( V ) {\displaystyle \textstyle \bigwedge ^{m}(V)} und symmetrisches Produkt Sym m ( V ) {\displaystyle {\text{Sym}}^{m}(V)} bezeichnet. Im Falle m > 2 {\displaystyle m>2} ergibt sich V m {\displaystyle V^{\otimes m}} dann im Allgemeinen nicht mehr als die direkte Summe der beiden Produkte.

Weiterführende Begriffe

In der Algebra:

In der Kategorientheorie:

In der homologischen Algebra:

In der Differentialgeometrie:

In der Funktionalanalysis:

Aus der Physik:

Informatik (neuronale Netzwerke), Neurowissenschaften, Sprachwissenschaften:

Literatur

  • Siegfried Bosch: Algebra. 7. Auflage. Springer-Verlag, 2009, ISBN 3-540-40388-4, doi:10.1007/978-3-540-92812-6. Abschnitt 4.11: Tensorprodukt von Vektorräumen, S. 230 und Abschnitt 7.2: Tensorprodukt über Ringen, S. 299.
  • Bartel Leendert van der Waerden: Algebra I, unter Benutzung von Vorlesungen von E. Artin und E. Noether, 8. Auflage (der Modernen Algebra), Springer-Verlag, 1971, Heidelberger Taschenbücher Band 12, ISBN 3-540-03561-3. Kapitel IV (Vektorräume und Tensorräume, S. 62), insbesondere § 24 ff., S. 76 ff.
  • Bartel Leendert van der Waerden: Algebra II, unter Benutzung von Vorlesungen von E. Artin und E. Noether, 5. Auflage (der Modernen Algebra), Springer-Verlag, 1967, Heidelberger Taschenbücher Band 23, ISBN 3-540-03869-8. Kapitel XIII Algebren § 93 (Beispiele von Algebren, S. 37 ff.) und § 94 (Produkte und verschränkte Produkte, S. 42 ff.).
  • Horst Schubert: Kategorien I, Springer-Verlag, 1970, Heidelberger Taschenbücher Band 65.
  • Serge Lang: Algebra, Chapter XVI, 2nd edition, Addison-Wesley, 1984, ISBN 0-201-05487-6. 3rd edition, New York, Springer, 2002, ISBN 0-387-95385-X.
  • Serge Lang: Algebraic number theory, Graduate Texts in Mathematics 110. 2. Auflage. Springer-Verlag, New York 1994, ISBN 0-387-94225-4.
  • Lek-Heng Lim: Tensors in computations. arXiv:2106.08090 (PDF). Acta Numerica, Volume 30, 2021.
  • Jens Carsten Jantzen, Joachim Schwermer: Algebra, Springer, Berlin/Heidelberg 2006, ISBN 3-540-21380-5, insbesondere Kapitel VII und IX.
  • Helmut Hasse, Walter Klobe: Aufgabensammlung zur höheren Algebra, Sammlung Göschen, Band 1082, Walter de Gruyter & Co, Berlin, 1961. S. 82 f.
  • Jean Dieudonné: Grundzüge der modernen Analysis, Friedrich Vieweg + Sohn, Braunschweig 1976, Lizenzausgabe für die Deutsche Demokratische Republik und die übrigen sozialistischen Länder, Lizenz-Nr. 206 435/5/76 und 206 435/6/76, Band 3 und 4, jeweilige Anhänge Ergänzungen aus der Algebra, A.10 und A.20.
  • Gottfried Köthe: Topological Vector spaces I, Springer-Verlag, Die Grundlehren der mathematischen Wissenschaften in Einzeldarstellungen, Band 159, 2. Auflage, New York 1969, ISBN 0-387-04509-0, § 9. The algebraic dual space. Tensor products, 7. Linear mappings of tensor products, Seite 80 (Übersetzer: D. J. H. Garling, Originaltitel: Topologische Lineare Räume I).
  • Nicolas Bourbaki: Elements of Mathematics, Algebra I, 2. Auflage, Springer-Verlag, 1998, ISBN 3-540-64243-9, Chapters 1–3, § 4. Relations between tensor products and homomorphism modules. No. 4 und Exercises 2, 3, 4, 7, Seiten 274, 396–398 (Textarchiv – Internet Archive, nicht abrufbar).
  • Falko Lorenz: Lineare Algebra II, Bibliographisches Institut Wissenschaftsverlag, dritte Auflage, Mannheim/Wien/Zürich 1991, ISBN 978-3-411-15233-9.
  • Ina Kersten: Brauergruppen. Universitätsdrucke Göttingen, Göttingen 2007, PDF (abgerufen an Himmelfahrt, 13. Mai 2021).
  • Ina Kersten: Brauergruppen von Körpern, Verlag Vieweg, Braunschweig, Wiesbaden, 1990, ISBN 3-528-06380-7.

Anmerkungen

  1. Z. B. unter Formelsammlung Mathematik: Multilineare Algebra auf wikibooks.org.
  2. Hierbei wird die Notation K ( X ) := { F : X K | Nur für endliche viele  x X  gilt  f ( x ) 0. } {\displaystyle K^{(X)}:=\left\{F:X\to K{\Big \vert }\,{\text{Nur für endliche viele }}x\in X{\text{ gilt }}f(x)\neq 0.\right\}} verwendet. K ( X ) {\displaystyle K^{(X)}} ist das freie abelsche Erzeugnis von X {\displaystyle X} über K. Die Funktionen F {\displaystyle F} lassen sich mit formalen endlichen Summen (Linearkombinationen) F x X F ( x ) x {\displaystyle F\leftrightarrow \sum _{x\in X}F(x)\cdot x} identifizieren. Bekanntlich ist ein Vektorraum V {\displaystyle V} das freie K {\displaystyle K} -lineare Erzeugnis K ( X ) K ( J ) {\displaystyle K^{(X)}\cong K^{(J)}} einer Basis X = { v j , j J } {\displaystyle X=\{v_{j},j\in J\}} .
  3. Salopp zugespitzt bedeutet dies: Die multilineare Algebra eröffnet kein neues Gebiet, denn mit Hilfe des – freilich multilinearen – Tensorproduktes ordnet sie sich der (uni)linearen Algebra unter.
  4. Nichts anderes ist Gegenstand des Schulunterrichts beim Thema „Lineare Funktionen“ y = f ( x ) = a x {\displaystyle y=f(x)=a\cdot x} : Hierbei ist a {\displaystyle a} ein einstufiger kovarianter Tensor. Bildet man das Produkt zweier Linearfunktionen f i ( x i ) = a i x , i { 1 , 2 } {\displaystyle f_{i}(x_{i})=a_{i}x,\;i\in \{1,2\}} , so erhält man eine quadratische (d. h. bilineare) Funktion y = f 1 ( x 1 ) f 2 ( x 2 ) =: f ( x 1 , x 2 ) = a 1 a 2 x 1 x 2 {\displaystyle y=f_{1}(x_{1})f_{2}(x_{2})=:f(x_{1},x_{2})=a_{1}a_{2}x_{1}x_{2}} , definiert auf K × K {\displaystyle K\times K} . Sie ist als Kompositum eines Tensorprodukts (der Körpermultiplikation) und einer linearen Funktion auf K = K K {\displaystyle K=K\otimes K} darstellbar: ( x 1 , x 2 ) x 1 x 2 = x 1 x 2 =: x ( a 1 a 2 ) x {\displaystyle (x_{1},x_{2})\mapsto x_{1}\otimes x_{2}=x_{1}\cdot x_{2}=:x\mapsto (a_{1}a_{2})\cdot x} . Die lineare Funktion ist das Tensorprodukt f 1 f 2 {\displaystyle f_{1}\otimes f_{2}} der linearen Abbildungen f i {\displaystyle f_{i}} , gegeben durch den Skalarfaktor a 1 a 2 {\displaystyle a_{1}a_{2}} . Die Kovarianz von a {\displaystyle a} steckt in folgender Trivialität: Bezeichnet t {\displaystyle t} eine „Basistransformation“ (also eine Skalartransformation x t x {\displaystyle x\mapsto t\cdot x} ) auf K {\displaystyle K} , so transformiert sich auch der einstufige kovariante Tensor a {\displaystyle a} mit t {\displaystyle t} , denn ( a t ) x = a ( t x ) {\displaystyle (a\cdot t)\cdot x=a\cdot (t\cdot x)} für jedes x K {\displaystyle x\in K} .
  5. Verschränkte Quantenzustände sind also Zustände, deren Rang größer als 1 ist. Vgl. den Abschnitt über Homomorphismen einfacher Tensoren.
  6. Nota bene: Wäre der Körper K {\displaystyle K} ein Schiefkörper und wären V {\displaystyle V} bzw. W {\displaystyle W} entsprechend Rechts- bzw. Links-Vektorräume, so träte an dieser Stelle eine wesentliche Änderung ein: Auf beiden Seiten stünden lediglich abelsche Gruppen, und die Abbildung wäre nur noch bilinear über Z {\displaystyle \mathbb {Z} } .
  7. Auch hier gilt: Ein Vektorraum unendlicher Dimension ist in seinen Bidualraum lediglich eingebettet.
  8. Zum Beweis des Satzes siehe bspw. Beweisarchiv: Lineare Algebra: Endomorphismen: Satz von Cayley-Hamilton, auf wikibooks.org.
  9. Die hochgestellten Indizes sind in diesem Kontext als solche, als Superindizes, zu verstehen, nicht als Potenzen. Vgl. etwa Bartel Leendert van der Waerden.
  10. Als griechischer Großbuchstabe „Tau“ zu lesen und zu unterscheiden vom kursiv gesetzten Funktor T s r {\displaystyle T_{s}^{r}} .
  11. Wiederum genügt die Definition auf den einfachen Tensoren als Erzeugende.
  12. Die Bezeichnung L 2 {\displaystyle L^{2}} ist hierbei zu unterscheiden von der in diesem Artikel sonst verbreiteten Bezeichnung für Räume bilinearer Abbildungen.
  13. Freie Moduln heißen bei Bartel Leendert van der Waerden Linearformenmoduln.
  14. Siehe etwa Multilinear mapping, auf encyclopediaofmath.org.

Einzelnachweise

  1. Siehe Horst Schubert und Serge Lang.
  2. Siehe Bartel Leendert van der Waerden, Algebra II, § 94.
  3. Serge Lang nennt diese Argumentationen „pfeiltheoretisch“ (arrow theoretical) und bezieht sich auf sie mit der Formulierung „by abstract nonsense“; siehe Serge Lang, Algebra, 2nd edition, Chapter XVI. Siehe ferner den Artikel zum „Allgemeinen Unsinn“.
  4. Siehe Serge Lang, Chapter XVI, § 1, Seite 560.
  5. Gottfried Köthe: Topological Vector spaces I (= Die Grundlehren der mathematischen Wissenschaften in Einzeldarstellungen. Band 159). 2. Auflage. Springer, New York 1969, ISBN 0-387-04509-0, § 9. The algebraic dual space. Tensor products, 7. Linear mappings of tensor products, S. 80 (deutsch: Topologische Lineare Räume I. Übersetzt von D. J. H. Garling). 
  6. Nicolas Bourbaki: Elements of Mathematics, Algebra I, Chapters 1–3. 2. Auflage. Springer, 1998, ISBN 3-540-64243-9, § 4. Relations between tensor products and homomorphism modules. No. 4 und Exercises 2, 3, 4, 7, S. 274, 396–398 (Textarchiv – Internet Archive, nicht abrufbar). 
  7. a b Jean Dieudonné, Anhang A.20.3
  8. Vgl. Bartel Leendert van der Waerden, Algebra II, § 24, S. 76 f.
  9. Nicolas Bourbaki: Elements of Mathematics, Algebra I, Chapters 1–3. 2. Auflage. Springer, 1998, ISBN 3-540-64243-9, § 4. Relations between tensor products and homomorphism modules. 2., S. 271 (Textarchiv – Internet Archive, nicht abrufbar). 
  10. Vgl. Bartel Leendert van der Waerden, Algebra, Band 1, § 24, Aufgabe 2.
  11. Siehe Bartel Leendert van der Waerden, 4. Kapitel, § 26 Ende.
  12. Siehe Ina Kersten, Brauergruppen von Körpern, Kapitel 4, Abschnitt (c), Seite 11.
  13. Vgl. bspw. Bartel Leendert van der Waerden, Algebra, Band 2, § 148, S. 232 ff.; mit einem Beweis aus einer Vorlesung von Emil Artin.
  14. Siehe etwa Tensornetzwerk-Theorie (engl. WP), Matrix-Produktzustand (engl. WP), Tensornetzwerk (engl. WP) mit Literaturhinweisen. Verwiesen sei auch auf die graphentheoretische Darstellung von Tensornetzwerken (TN), den Artikel „Hand-waving and Interpretive Dance: An Introductory Course on Tensor Networks“ auf arXiv.org (von Jacob C. Bridgeman, Christopher T. Chubb) und beispielhaft auf eine Anwendung in der Sprachmodellierung (Language Models, LM): „Tensorspace in Language Modelling (TSLM)“ auf arXiv.org von (Lipeng Zhang et al.). Abrufe am 26. Juni 2021.