Coniugato, trasposto e inverso di matrici commutano sempre?

Matrici, spazi vettoriali, trasformazioni lineari e affini, ...

Moderatore: Moderatori

Coniugato, trasposto e inverso di matrici commutano sempre?

Messaggioda Fedecart il mer 8 gen 2014, 20:22

Sia $A\in GL(n,\mathbb{C})$, e con $A^*$ si intenda la matrice complessa coniugata, ottenuta da $A$ prendendo il complesso coniugato di ogni entrata.
Dimostrare, o trovare un controesempio, al fatto che

1) $\left(A^*\right)^{-1}=\left(A^{-1}\right)^*$
2) $\left(A^*\right)^{t}=\left(A^{t}\right)^*$
3) $\left(A^t\right)^{-1}=\left(A^{-1}\right)^t$

Edit:
Vabbè la 2) "si vede". E' quando ci sono gli inversi di mezzo che mi crollano le certezze.
Avatar utente
Fedecart
 
Messaggi: 312
Iscritto il: gio 10 set 2009, 17:56
Località: Madrid, Es.

Re: Coniugato, trasposto e inverso di matrici commutano sempre?

Messaggioda killing_buddha il mer 8 gen 2014, 20:53

La prima cosa che hai detto e' vera se $\sigma\colon K\to K$ e' un automorfismo di campi e $A\in GL(n,K)$ e' una matrice invertibile di taglia $n$ a valori in $K$: da un lato, l'entrata $(i,j)$ della matrice inversa e' data da $\frac{1}{\det A}(-1)^{i+j}\det A^\text{c}_{i,j}$, dove $A^\text{c}_{i,j}$ e' la matrice che si ottiene da $A$ cancellando la riga $i$ e la colonna $j$; questo si dimostra semplicemente moltiplicando per $A$ da ambo i lati e notare che questo da' $\det A$ volte la matrice identica. Allora
$$
\begin{align*}
\sigma(A^{-1}) & := \left(\sigma\Big(\frac{1}{\det A}(-1)^{i+j}\det A^\text{c}_{i,j}\Big)\right)_{i,j}\\
& = \frac{1}{\sigma(\det A)} (-1)^{i+j} \sigma(\det A^\text{c}_{i,j})\\
& = \frac{1}{\det \sigma(A)} (-1)^{i+j}\det \sigma(A^\text{c}_{i,j}) = \sigma(A)^{-1}
\end{align*}
$$
dove ho indicato in modo ovvio $\sigma(A)$ come la matrice ottenuta applicando entrata per entrata l'automorfismo $\sigma$ (la funzione $GL(n,K)\to GL(n,K)$ che manda $A$ in $\sigma(A)$ e' un automorfismo di $K$-algebre, oserei dire, come non dovrebbe esserti difficile dimostrare). Ora, e' immediato dal fatto che sappiamo scrivere la formula di Laplace per il determinante, che
$$
\sigma(\det A) = \sigma\left( \sum_{\tau\in \text{Sym}(n)}(-1)^\tau \prod_{i=1}^n a_{i, \tau i}\right) = \sum_{\tau\in \text{Sym}(n)}(-1)^\tau\prod_{i=1}^n\sigma(a_{i, \tau i}) = \det\sigma(A)
$$
in cui ho indicato con $\text{Sym}(n)$ il gruppo delle biiezioni di $\{1,\dots,n\}$ in se' stesso, e con $(-1)^\tau$ il segno della permutazione $\tau$.

Per quanto riguarda il terzo la dimostrazione e' classica e sta in qualsiasi libro di Algebra Lineare: la matrice trasposta di $A$ ha al posto $(i,j)$ l'entrata $a_{j,i}$; usando ancora la formula di Laplace per il determinante (ma tu come li calcoli?) si ha un risultato simile re-indicizzando la somma:
$$
\sum_{\tau\in \text{Sym}(n)}(-1)^\tau \prod_{i=1}^n a_{\tau i, i} = \sum_{\tau\in \text{Sym}(n)}(-1)^{\tau^{-1}} \prod_{i=1}^n a_{i, \tau^{-1}(i)} = \sum_{\lambda \in \text{Sym}(n)}(-1)^{\lambda} \prod_{i=1}^n a_{i, \lambda(i)} = \det A
$$
ora usa di nuovo la formula di prima sui complementi algebrici.
- Se incontri il Buddha uccidilo. Devi vivere libero da ogni dogma: se non riesci a uccidere Buddha, come ucciderai il tuo pregiudizio?
- "Peu d'abstraction on éloigne de la géometrie; beaucoup on y ramène"
Avatar utente
killing_buddha
 
Messaggi: 2749
Iscritto il: gio 17 lug 2008, 19:51

Re: Coniugato, trasposto e inverso di matrici commutano sempre?

Messaggioda Fabricius il mer 8 gen 2014, 21:13

Ma per quanto riguarda la terza, prendendo i trasposti di $A \cdot A^{-1}=I_n$, abbiamo $(A^{-1})^t \cdot A^t=I_n$, da cui la tesi $(A^{-1})^t=(A^t)^{-1}$, no?
(Ho usato l'identità $(A\cdot B)^t=B^t \cdot A^t$ e indicato con $I_n$ la matrice identica d'ordine n).
Fabricius
 
Messaggi: 8
Iscritto il: dom 15 dic 2013, 20:06

Re: Coniugato, trasposto e inverso di matrici commutano sempre?

Messaggioda killing_buddha il mer 8 gen 2014, 21:23

Fabricius ha scritto:Ma per quanto riguarda la terza, prendendo i trasposti di $A \cdot A^{-1}=I_n$, abbiamo $(A^{-1})^t \cdot A^t=I_n$, da cui la tesi $(A^{-1})^t=(A^t)^{-1}$, no?
(Ho usato l'identità $(A\cdot B)^t=B^t \cdot A^t$ e indicato con $I_n$ la matrice identica d'ordine n).

Ovviamente quello e' il modo facile, stavo per aggiungerlo.
- Se incontri il Buddha uccidilo. Devi vivere libero da ogni dogma: se non riesci a uccidere Buddha, come ucciderai il tuo pregiudizio?
- "Peu d'abstraction on éloigne de la géometrie; beaucoup on y ramène"
Avatar utente
killing_buddha
 
Messaggi: 2749
Iscritto il: gio 17 lug 2008, 19:51

Messaggioda salvo.tringali il mer 8 gen 2014, 21:45

Fabricius ha scritto:Ma per quanto riguarda la terza, prendendo i trasposti di $A \cdot A^{-1}=I_n$, abbiamo $(A^{-1})^t \cdot A^t=I_n$, da cui la tesi $(A^{-1})^t=(A^t)^{-1}$, no? [...]

Ni: il prodotto matriciale non è commutativo, in generale. Dunque ti resterebbe perlomeno da menzionare che in modo del tutto analogo si trova $A^t \cdot (A^{-1})^t = I_n$.

killing_buddha ha scritto:Ovviamente quello e' il modo facile, stavo per aggiungerlo.

Direi che è piuttosto il modo giusto (in una certa visione del mondo, che tu stesso condividi): un monoide con trasposizione è un qualsiasi modello (classico) della teoria algebrica one-sorted del prim'ordine, chiamiamola $T$, ottenuta restringendo "la" teoria dei monoidi con l'aggiunta di un simbolo funzionale unario, chiamiamolo ${}^t$, alla sua segnatura e della formula $$\forall x, y: (x \cdot y)^t = (y^t) \cdot (x^t)$$ all'insieme dei suoi assiomi (dove $\cdot$ indica naturalmente il simbolo funzionale binario di $T$). In un monoide con trasposizione, se $x$ è un elemento invertibile e $x^{-1}$ è il suo inverso, è sempre vero che $(x^{-1})^t = (x^t)^{-1}$, poiché ogni monoide con trasposizione è un monoide, e in un monoide gli inversi sono unici.

Analogamente, la proprietà 1 ha poco a che vedere con le matrici (e nulla a che spartire con i determinanti): se $\varphi: \mathbb{M} \to \mathbb{M}$ è un endomorfismo della categoria dei monoidi piccoli, diciamo, rispetto a un universo fissato (in TG), allora $\varphi(x)^{-1} = \varphi(x^{-1})$ per ogni $x \in \mathbb{M}^\times$ (la notazione non dovrebbe necessitare chiarimenti). Nel caso specifico dell'OP, $\varphi$ è la funzione che manda una matrice nella sua coniugata, e si tratta effettivamente di un omomorfismo del monoide moltiplicativo dell'anello (ordinario) delle matrici quadrate di taglia $n$ a ingressi in $\mathbb{C}$: è una verifica di routine, sviluppando il prodotto matriciale secondo la sua definizione e utilizzando il fatto che il coniugato di una somma (risp., prodotto) di due numeri complessi è la somma (risp., il prodotto) dei coniugati degli addendi (risp., fattori).

Insomma, la 2 è l'unica proprietà che forse dipende in modo sostanziale dalla struttura algebrica dell'anello delle matrici quadrate su un anello con coniugio (e paradossalmente è la più "noiosa" da dimostrare). Qualcuno ha idee per astrarla ai magmi (o perlomeno ai semigruppi)? Notare che negli altri due casi l'associatività è necessaria (di fatto, garantisce l'unicità degli inversi), ma qui potrebbe non servire. Notare, inoltre, che ai monoidi si possono egualmente sostituire, più in generale, i monoidi parziali (di fatto, rimpiazzando la teoria dei modelli classica, che interpreta su $\sf Set$, con una teoria dei modelli che interpreti su $\sf pSet$, la categoria degli insiemi e delle funzioni parziali), o persino le categorie (con qualche piccolo accorgimento per definire bene cosa sia una trasposizione).
"Che bella storia", disse l'Alchimista. | Whatever can be encoded by syntax shouldn't be left to semantics. | Homomorphisms are to algebraic structures as seminorms are to ordered structures.
Avatar utente
salvo.tringali
 
Messaggi: 5354
Iscritto il: mar 17 giu 2008, 19:46
Località: Karl-Franzens-Universität, Graz (AT)


Torna a Algebra lineare

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite