Schéma pour trouver la matrice inverse. Trouver la matrice inverse : trois algorithmes et exemples

Ce sujet est l'un des plus détestés parmi les étudiants. Pire, probablement, seuls les déterminants.

L'astuce est que le concept même de l'élément inverse (et je ne parle pas seulement des matrices maintenant) nous renvoie à l'opération de multiplication. Même dans le programme scolaire, la multiplication est considérée comme une opération complexe, et la multiplication matricielle est généralement un sujet distinct, auquel j'ai consacré un paragraphe entier et une leçon vidéo.

Aujourd'hui nous n'entrerons pas dans les détails des calculs matriciels. Rappelez-vous simplement : comment les matrices sont notées, comment elles sont multipliées et ce qui en découle.

Révision : Multiplication matricielle

Tout d'abord, mettons-nous d'accord sur la notation. Une matrice $A$ de taille $\left[ m\times n \right]$ est simplement un tableau de nombres avec exactement $m$ lignes et $n$ colonnes :

\=\underbrace(\left[ \begin(matrice) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrice) \right])_(n)\]

Afin de ne pas confondre accidentellement les lignes et les colonnes par endroits (croyez-moi, à l'examen, vous pouvez en confondre un avec un deux - que pouvons-nous dire de certaines lignes là-bas), regardez simplement l'image:

Détermination des indices pour les cellules de la matrice

Ce qui se passe? Si nous plaçons le système de coordonnées standard $OXY$ dans le coin supérieur gauche et dirigeons les axes de sorte qu'ils couvrent toute la matrice, alors chaque cellule de cette matrice peut être associée de manière unique aux coordonnées $\left(x;y \right) $ - ce sera le numéro de ligne et le numéro de colonne.

Pourquoi le système de coordonnées est-il placé exactement dans le coin supérieur gauche ? Oui, car c'est à partir de là que l'on commence à lire n'importe quels textes. C'est très facile à retenir.

Pourquoi l'axe $x$ pointe-t-il vers le bas et non vers la droite ? Encore une fois, tout est simple : prenez le système de coordonnées standard (l'axe $x$ va vers la droite, l'axe $y$ monte) et faites-le pivoter pour qu'il englobe la matrice. Il s'agit d'une rotation de 90 degrés dans le sens des aiguilles d'une montre - nous voyons son résultat sur l'image.

En général, nous avons compris comment déterminer les indices des éléments de la matrice. Passons maintenant à la multiplication.

Définition. Les matrices $A=\left[ m\times n \right]$ et $B=\left[ n\times k \right]$, lorsque le nombre de colonnes dans la première correspond au nombre de lignes dans la seconde, sont dit cohérent.

C'est dans cet ordre. On peut être ambigu et dire que les matrices $A$ et $B$ forment un couple ordonné $\left(A;B \right)$ : si elles sont consistantes dans cet ordre, alors il n'est pas du tout nécessaire que $B $ et $A$, ceux-là. la paire $\left(B;A \right)$ est également cohérente.

Seules les matrices cohérentes peuvent être multipliées.

Définition. Le produit des matrices consistantes $A=\left[ m\times n \right]$ et $B=\left[ n\times k \right]$ est la nouvelle matrice $C=\left[ m\times k \right ]$ , dont les éléments $((c)_(ij))$ sont calculés par la formule :

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

En d'autres termes : pour obtenir l'élément $((c)_(ij))$ de la matrice $C=A\cdot B$, vous devez prendre la ligne $i$ de la première matrice, le $j$ -ième colonne de la deuxième matrice, puis multipliez les éléments de cette ligne et de cette colonne. Additionnez les résultats.

Oui, c'est une définition dure. Plusieurs faits en découlent immédiatement :

  1. La multiplication matricielle est, en général, non commutative : $A\cdot B\ne B\cdot A$ ;
  2. Cependant, la multiplication est associative : $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$ ;
  3. Et même distributif : $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$ ;
  4. Et encore distributif : $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

La distributivité de la multiplication devait être décrite séparément pour la somme multiplicatrice gauche et droite simplement à cause de la non-commutativité de l'opération de multiplication.

Si, néanmoins, il s'avère que $A\cdot B=B\cdot A$, de telles matrices sont dites permutables.

Parmi toutes les matrices qui y sont multipliées par quelque chose, il y en a des spéciales - celles qui, multipliées par n'importe quelle matrice $A$, donnent à nouveau $A$ :

Définition. Une matrice $E$ est dite identité si $A\cdot E=A$ ou $E\cdot A=A$. Dans le cas d'une matrice carrée $A$ on peut écrire :

La matrice d'identité est un invité fréquent dans la résolution des équations matricielles. Et en général, un invité fréquent dans le monde des matrices. :)

Et à cause de ce $E$, quelqu'un a inventé tout le jeu qui sera écrit ensuite.

Qu'est-ce qu'une matrice inverse

Comme la multiplication matricielle est une opération très chronophage (il faut multiplier un tas de lignes et de colonnes), le concept de matrice inverse n'est pas non plus des plus triviaux. Et il a besoin d'explications.

Définition clé

Eh bien, il est temps de connaître la vérité.

Définition. La matrice $B$ est appelée l'inverse de la matrice $A$ si

La matrice inverse est notée $((A)^(-1))$ (à ne pas confondre avec le degré !), donc la définition peut être réécrite comme ceci :

Il semblerait que tout soit extrêmement simple et clair. Mais lors de l'analyse d'une telle définition, plusieurs questions se posent immédiatement:

  1. Une matrice inverse existe-t-elle toujours ? Et si ce n'est pas toujours, alors comment déterminer : quand il existe et quand il n'existe pas ?
  2. Et qui a dit qu'une telle matrice en était exactement une ? Et si pour une matrice originale $A$ il y avait toute une foule d'inverses ?
  3. A quoi ressemblent tous ces "inverses" ? Et comment les compte-t-on concrètement ?

Quant aux algorithmes de calcul - nous en reparlerons un peu plus tard. Mais nous allons répondre au reste des questions tout de suite. Disposons-les sous la forme d'assertions-lemmes séparées.

Propriétés de base

Commençons par voir à quoi devrait ressembler la matrice $A$ pour qu'elle ait $((A)^(-1))$. Nous allons maintenant nous assurer que ces deux matrices doivent être carrées et de la même taille : $\left[ n\times n \right]$.

Lemme 1. Soit une matrice $A$ et son inverse $((A)^(-1))$. Alors ces deux matrices sont carrées et ont le même ordre $n$.

Preuve. Tout est simple. Soit la matrice $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Puisque le produit $A\cdot ((A)^(-1))=E$ existe par définition, les matrices $A$ et $((A)^(-1))$ sont cohérentes dans cet ordre :

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( aligner)\]

Ceci est une conséquence directe de l'algorithme de multiplication matricielle : les coefficients $n$ et $a$ sont "transit" et doivent être égaux.

En même temps, la multiplication inverse est également définie : $((A)^(-1))\cdot A=E$, donc les matrices $((A)^(-1))$ et $A$ sont également cohérent dans cet ordre:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( aligner)\]

Ainsi, sans perte de généralité, on peut supposer que $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Cependant, selon la définition de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, les dimensions des matrices sont donc exactement les mêmes :

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Il s'avère donc que les trois matrices - $A$, $((A)^(-1))$ et $E$ - sont de taille carrée $\left[ n\times n \right]$. Le lemme est prouvé.

Bon, c'est déjà bien. On voit que seules les matrices carrées sont inversibles. Assurons-nous maintenant que la matrice inverse est toujours la même.

Lemme 2. Soit une matrice $A$ et son inverse $((A)^(-1))$. Alors cette matrice inverse est unique.

Preuve. Commençons par le contraire : supposons que la matrice $A$ ait au moins deux instances d'inverses — $B$ et $C$. Alors, selon la définition, les égalités suivantes sont vraies :

\[\begin(align) & A\cdot B=B\cdot A=E ; \\ & A\cdot C=C\cdot A=E. \\ \end(aligner)\]

D'après le lemme 1, nous concluons que les quatre matrices $A$, $B$, $C$ et $E$ sont des carrés du même ordre : $\left[ n\times n \right]$. Ainsi, le produit est défini :

Comme la multiplication matricielle est associative (mais pas commutative !), on peut écrire :

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C ; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B ; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(aligner)\]

Nous avons la seule option possible : deux copies de la matrice inverse sont égales. Le lemme est prouvé.

Le raisonnement ci-dessus répète presque textuellement la preuve de l'unicité de l'élément inverse pour tous les nombres réels $b\ne 0$. Le seul ajout significatif est la prise en compte de la dimension des matrices.

Cependant, nous ne savons toujours pas si une matrice carrée est inversible. Ici, le déterminant vient à notre aide - c'est une caractéristique clé pour toutes les matrices carrées.

Lemme 3 . Soit une matrice $A$. Si la matrice $((A)^(-1))$ inverse existe, alors le déterminant de la matrice d'origine est non nul :

\[\gauche| Un \right|\ne 0\]

Preuve. Nous savons déjà que $A$ et $((A)^(-1))$ sont des matrices carrées de taille $\left[ n\times n \right]$. Ainsi, pour chacun d'eux, il est possible de calculer le déterminant : $\left| Un \right|$ et un $\left| ((A)^(-1)) \right|$. Or, le déterminant du produit est égal au produit des déterminants :

\[\gauche| A\cpoint B \right|=\left| Un \right|\cdot \left| B \right|\Rightarrow \left| Un\cdot ((A)^(-1)) \right|=\left| Un \right|\cdot \left| ((A)^(-1)) \right|\]

Mais selon la définition de $A\cdot ((A)^(-1))=E$, et le déterminant de $E$ est toujours égal à 1, donc

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \gauche| Un\cdot ((A)^(-1)) \right|=\left| E\droit| ; \\ & \gauche| Un \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(aligner)\]

Le produit de deux nombres n'est égal à un que si chacun de ces nombres est différent de zéro :

\[\gauche| Un \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Il s'avère donc que $\left| Un \right|\ne 0$. Le lemme est prouvé.

En fait, cette exigence est tout à fait logique. Nous allons maintenant analyser l'algorithme pour trouver la matrice inverse - et il deviendra tout à fait clair pourquoi, en principe, aucune matrice inverse ne peut exister avec un déterminant nul.

Mais d'abord, formulons une définition "auxiliaire":

Définition. Une matrice dégénérée est une matrice carrée de taille $\left[ n\times n \right]$ dont le déterminant est nul.

Ainsi, nous pouvons affirmer que toute matrice inversible est non dégénérée.

Comment trouver la matrice inverse

Considérons maintenant un algorithme universel pour trouver des matrices inverses. En général, il existe deux algorithmes généralement acceptés, et nous examinerons également le second aujourd'hui.

Celle qui va être considérée maintenant est très efficace pour les matrices de taille $\left[ 2\times 2 \right]$ et - en partie - de taille $\left[ 3\times 3 \right]$. Mais à partir de la taille $\left[ 4\times 4 \right]$ il vaut mieux ne pas l'utiliser. Pourquoi - maintenant vous comprendrez tout.

Ajouts algébriques

Sois prêt. Maintenant, il y aura de la douleur. Non, rassurez-vous : une belle infirmière en jupe, bas à dentelle ne vient pas à vous et ne vous fera pas de piqûre dans la fesse. Tout est beaucoup plus prosaïque : des ajouts algébriques et Sa Majesté la « Union Matrix » s'offrent à vous.

Commençons par le principal. Soit une matrice carrée de taille $A=\left[ n\times n \right]$ dont les éléments sont nommés $((a)_(ij))$. Ensuite, pour chacun de ces éléments, on peut définir un complément algébrique :

Définition. Complément algébrique $((A)_(ij))$ de l'élément $((a)_(ij))$ dans la $i$-ième ligne et la $j$-ième colonne de la matrice $A=\left [ n \times n \right]$ est une construction de la forme

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Où $M_(ij)^(*)$ est le déterminant de la matrice obtenue à partir du $A$ d'origine en supprimant la même $i$-ième ligne et la même $j$-ième colonne.

De nouveau. Le complément algébrique de l'élément de matrice de coordonnées $\left(i;j \right)$ est noté $((A)_(ij))$ et est calculé selon le schéma :

  1. Tout d'abord, nous supprimons la $i$-ligne et la $j$-ème colonne de la matrice d'origine. Nous obtenons une nouvelle matrice carrée, et nous désignons son déterminant par $M_(ij)^(*)$.
  2. Puis nous multiplions ce déterminant par $((\left(-1 \right))^(i+j))$ - au début cette expression peut sembler époustouflante, mais en fait on trouve juste le signe devant $ M_(ij)^(*) $.
  3. Nous comptons - nous obtenons un nombre spécifique. Ceux. l'addition algébrique n'est qu'un nombre, pas une nouvelle matrice, et ainsi de suite.

La matrice $M_(ij)^(*)$ elle-même est appelée le mineur complémentaire de l'élément $((a)_(ij))$. Et en ce sens, la définition ci-dessus d'un complément algébrique est un cas particulier d'une définition plus complexe - celle que nous avons considérée dans la leçon sur le déterminant.

Note importante. En réalité, en mathématiques "adultes", les additions algébriques sont définies comme suit :

  1. Nous prenons $k$ lignes et $k$ colonnes dans une matrice carrée. A leur intersection, on obtient une matrice de taille $\left[ k\times k \right]$ — son déterminant est appelé un mineur d'ordre $k$ et est noté $((M)_(k))$.
  2. Ensuite, nous biffons ces $k$ lignes et $k$ colonnes "sélectionnées". Encore une fois, nous obtenons une matrice carrée - son déterminant est appelé le mineur complémentaire et est noté $M_(k)^(*)$.
  3. Multipliez $M_(k)^(*)$ par $((\left(-1 \right))^(t))$, où $t$ est (attention maintenant !) la somme des nombres de toutes les lignes sélectionnées et colonnes. Ce sera l'addition algébrique.

Jetez un œil à la troisième étape : il y a en fait une somme de termes de 2 000 $ ! Une autre chose est que pour $k=1$ nous n'obtenons que 2 termes - ce seront les mêmes $i+j$ - les "coordonnées" de l'élément $((a)_(ij))$, pour lequel nous sommes à la recherche d'un complément algébrique.

Nous utilisons donc aujourd'hui une définition légèrement simplifiée. Mais comme nous le verrons plus tard, ce sera plus que suffisant. Beaucoup plus important est le suivant:

Définition. La matrice union $S$ à la matrice carrée $A=\left[ n\times n \right]$ est une nouvelle matrice de taille $\left[ n\times n \right]$, qui est obtenue à partir de $A$ en remplaçant $(( a)_(ij))$ par des compléments algébriques $((A)_(ij))$ :

\\Rightarrow S=\left[ \begin(matrice) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrice) \right]\]

La première pensée qui surgit au moment de réaliser cette définition est "c'est combien vous devez compter au total!" Détendez-vous : il faut compter, mais pas tant que ça. :)

Bon, tout cela est très joli, mais pourquoi est-ce nécessaire ? Mais pourquoi.

Théorème principal

Revenons un peu en arrière. Rappelons que le lemme 3 énonce qu'une matrice inversible $A$ est toujours non singulière (c'est-à-dire que son déterminant est non nul : $\left| A \right|\ne 0$).

Ainsi, l'inverse est également vrai : si la matrice $A$ n'est pas dégénérée, alors elle est toujours inversible. Et il existe même un schéma de recherche $((A)^(-1))$. Vérifiez-le:

Théorème de la matrice inverse. Soit une matrice carrée $A=\left[ n\times n \right]$, et son déterminant est non nul : $\left| Un \right|\ne 0$. Alors la matrice inverse $((A)^(-1))$ existe et est calculée par la formule :

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Et maintenant - tout de même, mais avec une écriture lisible. Pour trouver la matrice inverse, il vous faut :

  1. Calculez le déterminant $\left| Un \right|$ et assurez-vous qu'il est différent de zéro.
  2. Compilez la matrice d'union $S$, c'est-à-dire compter 100500 additions algébriques $((A)_(ij))$ et les mettre en place $((a)_(ij))$.
  3. Transposez cette matrice $S$ puis multipliez-la par un certain nombre $q=(1)/(\left| A \right|)\;$.

Et c'est tout! La matrice inverse $((A)^(-1))$ est trouvée. Regardons des exemples :

\[\left[ \begin(matrice) 3 & 1 \\ 5 & 2 \\\end(matrice) \right]\]

Décision. Vérifions la réversibilité. Calculons le déterminant :

\[\gauche| Un \right|=\left| \begin(matrice) 3 & 1 \\ 5 & 2 \\\end(matrice) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Le déterminant est différent de zéro. La matrice est donc inversible. Créons une matrice d'union :

Calculons les additions algébriques :

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\right|=2 ; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5\right|=-5 ; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1 ; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\droite|=3. \\ \end(aligner)\]

Attention : déterminants |2|, |5|, |1| et |3| sont les déterminants des matrices de taille $\left[ 1\times 1 \right]$, pas les modules. Ceux. s'il y avait des nombres négatifs dans les déterminants, il n'est pas nécessaire de supprimer le "moins".

Au total, notre matrice d'union ressemble à ceci :

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (tableau)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(tableau) \right]\]

C'est ça. Problème résolu.

Répondre. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Tâche. Trouvez la matrice inverse :

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Décision. Encore une fois, on considère le déterminant :

\[\begin(aligner) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrice ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrice)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Le déterminant est différent de zéro - la matrice est inversible. Mais maintenant ce sera le plus mince : il faut compter jusqu'à 9 (neuf, bon sang !) additions algébriques. Et chacun d'eux contiendra le qualificatif $\left[ 2\times 2 \right]$. A volé:

\[\begin(matrice) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matrice) 2 & -1 \\ 0 & 1 \\\end(matrice) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matrice) 0 & -1 \\ 1 & 1 \\\end(matrice) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matrice) 0 & 2 \\ 1 & 0 \\\end(matrice) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matrice) 1 & -1 \\ 0 & 2 \\\end(matrice) \right|=2; \\ \end(matrice)\]

En bref, la matrice d'union ressemblera à ceci :

La matrice inverse sera donc :

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrice) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrice) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Eh bien voilà tout. Voici la réponse.

Répondre. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Comme vous pouvez le voir, à la fin de chaque exemple, nous avons effectué une vérification. A ce sujet, une remarque importante :

Ne soyez pas paresseux pour vérifier. Multipliez la matrice originale par l'inverse trouvé - vous devriez obtenir $E$.

Il est beaucoup plus facile et rapide d'effectuer cette vérification que de rechercher une erreur dans des calculs ultérieurs, lorsque, par exemple, vous résolvez une équation matricielle.

Voie alternative

Comme je l'ai dit, le théorème de la matrice inverse fonctionne bien pour les tailles $\left[ 2\times 2 \right]$ et $\left[ 3\times 3 \right]$ (dans ce dernier cas, ce n'est pas si "génial" plus). » ), mais pour les grandes matrices, la tristesse commence.

Mais ne vous inquiétez pas : il existe un algorithme alternatif qui peut être utilisé pour trouver calmement l'inverse même pour la matrice $\left[ 10\times 10 \right]$. Mais, comme c'est souvent le cas, pour considérer cet algorithme, nous avons besoin d'un peu d'arrière-plan théorique.

Transformations élémentaires

Parmi les différentes transformations de la matrice, il en existe plusieurs spéciales - elles sont appelées élémentaires. Il existe exactement trois transformations de ce type :

  1. Multiplication. Vous pouvez prendre la $i$-ème ligne (colonne) et la multiplier par n'importe quel nombre $k\ne 0$ ;
  2. Une addition. Ajoutez à la $i$-ème ligne (colonne) toute autre $j$-ème ligne (colonne) multipliée par n'importe quel nombre $k\ne 0$ (bien sûr, $k=0$ est aussi possible, mais à quoi bon de cela ? Rien ne changera cependant).
  3. Permutation. Prenez les $i$-ième et $j$-ième rangées (colonnes) et échangez-les.

Pourquoi ces transformations sont-elles appelées élémentaires (pour les grandes matrices, elles n'ont pas l'air si élémentaires) et pourquoi il n'y en a que trois - ces questions dépassent le cadre de la leçon d'aujourd'hui. Par conséquent, nous n'entrerons pas dans les détails.

Une autre chose est importante : nous devons effectuer toutes ces perversions sur la matrice associée. Oui, oui, vous avez bien entendu. Maintenant, il y aura une autre définition - la dernière dans la leçon d'aujourd'hui.

Matrice jointe

À l'école, vous avez sûrement résolu des systèmes d'équations en utilisant la méthode d'addition. Eh bien, là, soustrayez une autre d'une ligne, multipliez une ligne par un nombre - c'est tout.

Donc : maintenant tout sera pareil, mais déjà « à la manière d'un adulte ». Prêt?

Définition. Soit la matrice $A=\left[ n\times n \right]$ et la matrice identité $E$ de même taille $n$. Alors la matrice associée $\left[ A\left| E\bon. \right]$ est une nouvelle matrice $\left[ n\times 2n \right]$ qui ressemble à ceci :

\[\gauche[ A\gauche| E\bon. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Bref, on prend la matrice $A$, à droite on lui attribue la matrice identité $E$ de la taille requise, on les sépare par une barre verticale pour la beauté - ici vous avez celle ci-jointe. :)

Quel est le piège? Et voici quoi :

Théorème. Soit la matrice $A$ inversible. Considérons la matrice adjointe $\left[ A\left| E\bon. \droit]$. Si vous utilisez transformations de chaînes élémentaires amenez-le sous la forme $\left[ E\left| Brillant. \right]$, c'est-à-dire en multipliant, soustrayant et réarrangeant les lignes pour obtenir à partir de $A$ la matrice $E$ de droite, alors la matrice $B$ obtenue de gauche est l'inverse de $A$ :

\[\gauche[ A\gauche| E\bon. \right]\vers \left[ E\left| Brillant. \right]\Rightarrow B=((A)^(-1))\]

C'est si simple! En bref, l'algorithme pour trouver la matrice inverse ressemble à ceci :

  1. Ecrire la matrice associée $\left[ A\left| E\bon. \right]$ ;
  2. Effectuez des conversions de chaînes élémentaires jusqu'à ce que la droite au lieu de $A$ apparaisse $E$ ;
  3. Bien sûr, quelque chose apparaîtra également à gauche - une certaine matrice $B$. Ce sera l'inverse ;
  4. BÉNÉFICES! :)

Bien sûr, beaucoup plus facile à dire qu'à faire. Examinons donc quelques exemples : pour les tailles $\left[ 3\times 3 \right]$ et $\left[ 4\times 4 \right]$.

Tâche. Trouvez la matrice inverse :

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Décision. Nous composons la matrice ci-jointe :

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Étant donné que la dernière colonne de la matrice d'origine est remplie de uns, soustrayez la première ligne du reste :

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(tableau) \right]\begin(matrice) \downarrow \\ -1 \\ -1 \\\end(matrice)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Il n'y a plus d'unités, sauf pour la première ligne. Mais nous n'y touchons pas, sinon les unités nouvellement supprimées commenceront à "se multiplier" dans la troisième colonne.

Mais nous pouvons soustraire deux fois la deuxième ligne de la dernière - nous obtenons une unité dans le coin inférieur gauche :

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(tableau) \right]\begin(matrice) \ \\ \downarrow \\ -2 \\\end(matrice)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Maintenant, nous pouvons soustraire la dernière ligne de la première et deux fois de la seconde - de cette façon, nous allons "mettre à zéro" la première colonne :

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(tableau) \right]\begin(matrice) -1 \\ -2 \\ \uparrow \\\end(matrice)\to \\ & \ à \gauche[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multipliez la deuxième ligne par -1 puis soustrayez-la 6 fois de la première et ajoutez 1 fois à la dernière :

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(tableau) \right]\begin(matrice) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrice)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(tableau) \right]\begin(matrice) -6 \\ \updownarrow \\ +1 \\\end (matrice)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Il ne reste plus qu'à échanger les lignes 1 et 3 :

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Prêt! À droite se trouve la matrice inverse requise.

Répondre. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Tâche. Trouvez la matrice inverse :

\[\left[ \begin(matrice) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrice) \right]\]

Décision. Encore une fois, nous composons celui ci-joint:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Empruntons un peu, inquiétons-nous de combien nous devons compter maintenant... et commençons à compter. Pour commencer, nous "mettons à zéro" la première colonne en soustrayant la ligne 1 des lignes 2 et 3 :

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\fin(tableau) \right]\begin(matrice) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrice)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Nous observons trop de "moins" dans les lignes 2-4. Multipliez les trois lignes par -1, puis brûlez la troisième colonne en soustrayant la ligne 3 du reste :

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(tableau) \right]\begin(matrice) \ \\ \left| \cdot \left(-1 \right) \right. \\ \gauche| \cdot \left(-1 \right) \right. \\ \gauche| \cdot \left(-1 \right) \right. \\\end(matrice)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (tableau) \right]\begin(matrice) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrice)\to \\ & \to \left[ \begin(tableau)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Il est maintenant temps de "faire frire" la dernière colonne de la matrice d'origine : soustrayez la ligne 4 du reste :

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrice) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrice)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Lancer final : "épuisez" la deuxième colonne en soustrayant la ligne 2 des lignes 1 et 3 :

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( tableau) \right]\begin(matrice) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrice)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Et encore une fois, la matrice identité à gauche, donc l'inverse à droite. :)

Répondre. $\left[ \begin(matrice) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrice) \right]$

Nous continuons à parler d'actions avec des matrices. À savoir, au cours de l'étude de cette conférence, vous apprendrez à trouver la matrice inverse. Apprendre. Même si le calcul est serré.

Qu'est-ce qu'une matrice inverse ? Ici, nous pouvons faire une analogie avec les réciproques : considérons, par exemple, le nombre optimiste 5 et sa réciproque. Le produit de ces nombres est égal à un : . C'est pareil avec les matrices ! Le produit d'une matrice et de son inverse est - matrice d'identité, qui est l'analogue matriciel de l'unité numérique. Cependant, tout d'abord, nous allons résoudre un problème pratique important, à savoir, nous allons apprendre à trouver cette matrice très inverse.

Que devez-vous savoir et être capable de trouver la matrice inverse ? Vous devez pouvoir décider déterminants. Vous devez comprendre ce qui est matrice et pouvoir effectuer certaines actions avec eux.

Il existe deux méthodes principales pour trouver la matrice inverse :
passant par additions algébriques et en utilisant des transformations élémentaires.

Aujourd'hui, nous allons étudier le premier moyen plus simple.

Commençons par le plus terrible et incompréhensible. Considérer carré matrice . La matrice inverse peut être trouvée en utilisant la formule suivante:

Où est le déterminant de la matrice , est la matrice transposée des compléments algébriques des éléments correspondants de la matrice .

Le concept de matrice inverse n'existe que pour les matrices carrées, matrices "deux par deux", "trois par trois", etc.

Notation: Comme vous l'avez probablement déjà remarqué, l'inverse d'une matrice est noté par un exposant

Commençons par le cas le plus simple - une matrice deux par deux. Le plus souvent, bien sûr, "trois par trois" est requis, mais néanmoins, je recommande fortement d'étudier une tâche plus simple afin d'apprendre le principe général de la solution.

Exemple:

Trouver l'inverse d'une matrice

Nous décidons. La séquence d'actions est commodément décomposée en points.

1) On trouve d'abord le déterminant de la matrice.

Si la compréhension de cette action n'est pas bonne, lisez le matériel Comment calculer le déterminant ?

Important! Si le déterminant de la matrice est ZÉRO– matrice inverse N'EXISTE PAS.

Dans l'exemple considéré, il s'est avéré, , ce qui signifie que tout est en ordre.

2) Trouver la matrice des mineurs.

Pour résoudre notre problème, il n'est pas nécessaire de savoir ce qu'est un mineur, cependant, il est conseillé de lire l'article Comment calculer le déterminant.

La matrice des mineurs a les mêmes dimensions que la matrice , c'est-à-dire dans ce cas .
Le boîtier est petit, il reste à trouver quatre chiffres et à les mettre à la place des astérisques.

Retour à notre matrice
Regardons d'abord l'élément en haut à gauche :

Comment le trouver mineur?
Et cela se fait comme ceci: barrez MENTALEMENT la ligne et la colonne dans lesquelles se trouve cet élément:

Le nombre restant est mineur de l'élément donné, que nous écrivons dans notre matrice des mineurs :

Considérez l'élément de matrice suivant :

Barrez mentalement la ligne et la colonne dans lesquelles se trouve cet élément :

Ce qui reste est le mineur de cet élément, que nous écrivons dans notre matrice :

De même, nous considérons les éléments de la deuxième ligne et trouvons leurs mineurs :


Prêt.

C'est simple. Dans la matrice des mineurs, vous devez CHANGER LES SIGNES pour deux nombres :

Ce sont ces chiffres que j'ai encerclés !

est la matrice des compléments algébriques des éléments correspondants de la matrice .

Et juste quelque chose…

4) Trouver la matrice transposée des additions algébriques.

est la matrice transposée des compléments algébriques des éléments correspondants de la matrice .

5) Répondre.

N'oubliez pas notre formule
Tout trouvé !

Donc la matrice inverse est :

Il est préférable de laisser la réponse telle quelle. PAS NÉCESSAIRE divisez chaque élément de la matrice par 2, car des nombres fractionnaires seront obtenus. Cette nuance est discutée plus en détail dans le même article. Actions avec des matrices.

Comment vérifier la solution ?

La multiplication matricielle doit être effectuée soit

Examen:

déjà mentionné matrice d'identité est une matrice avec des unités sur diagonale principale et des zéros ailleurs.

Ainsi, la matrice inverse est trouvée correctement.

Si vous effectuez une action, le résultat sera également une matrice d'identité. C'est l'un des rares cas où la multiplication matricielle est permutable, plus d'informations peuvent être trouvées dans l'article Propriétés des opérations sur les matrices. Expressions matricielles. Notez également que lors de la vérification, la constante (fraction) est reprise et traitée à la toute fin - après la multiplication de la matrice. C'est une prise standard.

Passons à un cas plus courant dans la pratique - la matrice trois par trois :

Exemple:

Trouver l'inverse d'une matrice

L'algorithme est exactement le même que pour le cas deux par deux.

On trouve la matrice inverse par la formule : , où est la matrice transposée des compléments algébriques des éléments correspondants de la matrice .

1) Trouvez le déterminant de la matrice.


Ici, le déterminant est révélé sur la première ligne.

N'oubliez pas non plus que, ce qui signifie que tout va bien - la matrice inverse existe.

2) Trouver la matrice des mineurs.

La matrice des mineurs a la dimension "trois par trois" , et nous devons trouver neuf nombres.

Je vais jeter un oeil à quelques mineurs en détail:

Considérez l'élément de matrice suivant :

Barrez MENTALEMENT la ligne et la colonne dans lesquelles se trouve cet élément :

Les quatre nombres restants sont écrits dans le déterminant "deux par deux"

Ce déterminant deux par deux et est un mineur de l'élément donné. Il faut calculer :


Tout, le mineur est trouvé, on l'écrit dans notre matrice de mineurs :

Comme vous l'avez peut-être deviné, il y a neuf déterminants deux par deux à calculer. Le processus, bien sûr, est morne, mais le cas n'est pas le plus difficile, il peut être pire.

Eh bien, pour consolider - trouver un autre mineur sur les photos :

Essayez de calculer vous-même le reste des mineurs.

Résultat final:
est la matrice des mineurs des éléments correspondants de la matrice .

Le fait que tous les mineurs se soient avérés négatifs est une pure coïncidence.

3) Trouver la matrice des additions algébriques.

Dans la matrice des mineurs, il faut CHANGER LES SIGNES strictement pour les éléments suivants :

Dans ce cas:

Trouver la matrice inverse pour la matrice "quatre sur quatre" n'est pas envisagé, car seul un enseignant sadique peut donner une telle tâche (pour que l'élève calcule un déterminant "quatre sur quatre" et 16 déterminants "trois sur trois") . Dans ma pratique, il n'y a eu qu'un seul cas de ce genre, et le client du test a payé assez cher mon supplice =).

Dans un certain nombre de manuels, vous pouvez trouver une approche légèrement différente pour trouver la matrice inverse, mais je recommande d'utiliser l'algorithme de solution ci-dessus. Pourquoi? Parce que la probabilité de se confondre dans les calculs et les signes est bien moindre.

En règle générale, les opérations inverses sont utilisées pour simplifier des expressions algébriques complexes. Par exemple, si le problème contient l'opération de division par une fraction, vous pouvez la remplacer par l'opération de multiplication par une réciproque, qui est l'opération inverse. De plus, les matrices ne peuvent pas être divisées, vous devez donc multiplier par la matrice inverse. Calculer l'inverse d'une matrice 3x3 est assez fastidieux, mais il faut pouvoir le faire manuellement. Vous pouvez également trouver l'inverse avec une bonne calculatrice graphique.

Pas

Utilisation de la matrice ci-jointe

Transposez la matrice d'origine. La transposition est le remplacement des lignes par des colonnes par rapport à la diagonale principale de la matrice, c'est-à-dire que vous devez échanger les éléments (i, j) et (j, i). Dans ce cas, les éléments de la diagonale principale (commence dans le coin supérieur gauche et se termine dans le coin inférieur droit) ne changent pas.

  • Pour échanger des lignes contre des colonnes, écrivez les éléments de la première ligne dans la première colonne, les éléments de la deuxième ligne dans la deuxième colonne et les éléments de la troisième ligne dans la troisième colonne. L'ordre de changement de position des éléments est indiqué sur la figure, dans laquelle les éléments correspondants sont entourés de cercles colorés.
  • Trouvez la définition de chaque matrice 2x2. Chaque élément de toute matrice, y compris celui transposé, est associé à une matrice 2x2 correspondante. Pour trouver une matrice 2x2 correspondant à un certain élément, barrez la ligne et la colonne dans lesquelles se trouve cet élément, c'est-à-dire que vous devez barrer cinq éléments de la matrice 3x3 d'origine. Quatre éléments qui sont des éléments de la matrice 2x2 correspondante resteront non barrés.

    • Par exemple, pour trouver la matrice 2x2 pour l'élément situé à l'intersection de la deuxième ligne et de la première colonne, barrez les cinq éléments qui se trouvent dans la deuxième ligne et la première colonne. Les quatre éléments restants sont des éléments de la matrice 2x2 correspondante.
    • Trouvez le déterminant de chaque matrice 2x2. Pour ce faire, soustrayez le produit des éléments de la diagonale secondaire du produit des éléments de la diagonale principale (voir figure).
    • Des informations détaillées sur les matrices 2x2 correspondant à certains éléments d'une matrice 3x3 peuvent être trouvées sur Internet.
  • Créer une matrice de cofacteurs. Enregistrer les résultats obtenus précédemment sous la forme d'une nouvelle matrice de cofacteurs. Pour ce faire, écrivez le déterminant trouvé de chaque matrice 2x2 où se trouvait l'élément correspondant de la matrice 3x3. Par exemple, si une matrice 2x2 est considérée pour l'élément (1,1), notez son déterminant en position (1,1). Modifiez ensuite les signes des éléments correspondants selon un certain schéma, qui est illustré sur la figure.

    • Schéma de changement de signe : le signe du premier élément de la première ligne ne change pas ; le signe du second élément de la première ligne est inversé ; le signe du troisième élément de la première ligne ne change pas, et ainsi de suite ligne par ligne. Veuillez noter que les signes "+" et "-", qui sont représentés sur le schéma (voir figure), n'indiquent pas que l'élément correspondant sera positif ou négatif. Dans ce cas, le signe "+" indique que le signe de l'élément ne change pas, et le signe "-" indique que le signe de l'élément a changé.
    • Des informations détaillées sur les matrices de cofacteurs sont disponibles sur Internet.
    • C'est ainsi que vous trouvez la matrice associée à la matrice d'origine. Elle est parfois appelée matrice conjuguée complexe. Une telle matrice est notée adj(M).
  • Divisez chaque élément de la matrice adjointe par le déterminant. Le déterminant de la matrice M a été calculé au tout début pour vérifier que la matrice inverse existe. Divisez maintenant chaque élément de la matrice adjointe par ce déterminant. Enregistrez le résultat de chaque opération de division où se trouve l'élément correspondant. Vous trouverez donc la matrice, l'inverse de l'original.

    • Le déterminant de la matrice représentée sur la figure est 1. Ainsi, la matrice associée ici est la matrice inverse (car diviser un nombre par 1 ne le change pas).
    • Dans certaines sources, l'opération de division est remplacée par l'opération de multiplication par 1/det(M). Dans ce cas, le résultat final ne change pas.
  • Écrivez la matrice inverse.Écrivez les éléments situés sur la moitié droite de la grande matrice comme une matrice séparée, qui est une matrice inverse.

    Entrez la matrice originale dans la mémoire de la calculatrice. Pour ce faire, cliquez sur le bouton Matrice, s'il est disponible. Pour une calculatrice Texas Instruments, vous devrez peut-être appuyer sur les boutons 2 nd et Matrix.

    Sélectionnez le menu Edition. Pour ce faire, utilisez les boutons fléchés ou le bouton de fonction correspondant situé en haut du clavier de la calculatrice (l'emplacement du bouton dépend du modèle de calculatrice).

    Saisissez la désignation de la matrice. La plupart des calculatrices graphiques peuvent fonctionner avec 3 à 10 matrices, qui peuvent être désignées par les lettres A-J. En règle générale, il suffit de sélectionner [A] pour désigner la matrice d'origine. Appuyez ensuite sur le bouton Entrée.

    Saisissez la taille de la matrice. Cet article parle de matrices 3x3. Mais les calculatrices graphiques peuvent fonctionner avec de grandes matrices. Entrez le nombre de lignes, appuyez sur le bouton Entrée, puis entrez le nombre de colonnes et appuyez à nouveau sur le bouton Entrée.

    Entrez chaque élément de la matrice. Une matrice s'affichera sur l'écran de la calculatrice. Si une matrice a déjà été entrée dans la calculatrice auparavant, elle apparaîtra à l'écran. Le curseur mettra en surbrillance le premier élément de la matrice. Entrez la valeur du premier élément et appuyez sur Entrée. Le curseur passera automatiquement à l'élément suivant de la matrice.

    Soit une matrice carrée d'ordre n

    La matrice A -1 est appelée matrice inverse par rapport à la matrice A, si A * A -1 = E, où E est la matrice identité d'ordre n.

    Matrice d'identité- une telle matrice carrée, dans laquelle tous les éléments le long de la diagonale principale, passant du coin supérieur gauche au coin inférieur droit, sont des uns et les autres sont des zéros, par exemple :

    matrice inverse peut exister uniquement pour les matrices carrées ceux. pour les matrices qui ont le même nombre de lignes et de colonnes.

    Théorème de la condition d'existence de la matrice inverse

    Pour qu'une matrice ait une matrice inverse, il faut et il suffit qu'elle soit non dégénérée.

    La matrice A = (A1, A2,...A n) est appelée non dégénéré si les vecteurs colonnes sont linéairement indépendants. Le nombre de vecteurs colonnes linéairement indépendants d'une matrice est appelé le rang de la matrice. Par conséquent, on peut dire que pour qu'une matrice inverse existe, il faut et il suffit que le rang de la matrice soit égal à sa dimension, c'est-à-dire r = n.

    Algorithme pour trouver la matrice inverse

    1. Écrivez la matrice A dans le tableau pour résoudre les systèmes d'équations par la méthode de Gauss et à droite (à la place des parties droites des équations) attribuez-lui la matrice E.
    2. À l'aide des transformations de Jordan, amenez la matrice A à une matrice composée de colonnes simples ; dans ce cas, il faut transformer simultanément la matrice E.
    3. Si nécessaire, réorganisez les lignes (équations) du dernier tableau afin que la matrice identité E soit obtenue sous la matrice A du tableau d'origine.
    4. Écrivez la matrice inverse A -1, qui se trouve dans le dernier tableau sous la matrice E du tableau d'origine.
    Exemple 1

    Pour la matrice A, trouvez la matrice inverse A -1

    Solution : Nous écrivons la matrice A et à droite nous attribuons la matrice identité E. En utilisant les transformations de Jordan, nous réduisons la matrice A à la matrice identité E. Les calculs sont présentés dans le tableau 31.1.

    Vérifions l'exactitude des calculs en multipliant la matrice d'origine A et la matrice inverse A -1.

    À la suite de la multiplication matricielle, la matrice d'identité est obtenue. Les calculs sont donc corrects.

    Répondre:

    Solution des équations matricielles

    Les équations matricielles peuvent ressembler à :

    AX = B, XA = B, AXB = C,

    où A, B, C sont des matrices données, X est la matrice souhaitée.

    Les équations matricielles sont résolues en multipliant l'équation par des matrices inverses.

    Par exemple, pour trouver la matrice d'une équation, vous devez multiplier cette équation par à gauche.

    Par conséquent, pour trouver une solution à l'équation, vous devez trouver la matrice inverse et la multiplier par la matrice du côté droit de l'équation.

    Les autres équations sont résolues de la même manière.

    Exemple 2

    Résolvez l'équation AX = B si

    Décision: Puisque l'inverse de la matrice est égal (voir exemple 1)

    Méthode matricielle en analyse économique

    Avec d'autres, ils trouvent également une application méthodes matricielles. Ces méthodes sont basées sur l'algèbre linéaire et matricielle. Ces méthodes sont utilisées à des fins d'analyse de phénomènes économiques complexes et multidimensionnels. Le plus souvent, ces méthodes sont utilisées lorsqu'il est nécessaire de comparer le fonctionnement des organisations et leurs divisions structurelles.

    Dans le processus d'application des méthodes d'analyse matricielle, plusieurs étapes peuvent être distinguées.

    Au premier stade la formation d'un système d'indicateurs économiques est effectuée et sur sa base une matrice de données initiales est compilée, qui est un tableau dans lequel les numéros de système sont indiqués dans ses lignes individuelles (i = 1,2,....,n), et le long des graphiques verticaux - nombre d'indicateurs (j = 1,2,....,m).

    A la deuxième étape pour chaque colonne verticale, la plus grande des valeurs disponibles des indicateurs est révélée, qui est prise comme une unité.

    Après cela, tous les montants reflétés dans cette colonne sont divisés par la plus grande valeur et une matrice de coefficients normalisés est formée.

    A la troisième étape tous les composants de la matrice sont au carré. S'ils ont une signification différente, chaque indicateur de la matrice se voit attribuer un certain coefficient de pondération k. La valeur de ce dernier est déterminée par un expert.

    Le dernier quatrième étape valeurs trouvées des notes Rj regroupés par ordre croissant ou décroissant.

    Les méthodes matricielles ci-dessus doivent être utilisées, par exemple, dans une analyse comparative de divers projets d'investissement, ainsi que dans l'évaluation d'autres indicateurs de performance économique des organisations.

    Considérons le problème de la définition de l'opération inverse de la multiplication matricielle.

    Soit A une matrice carrée d'ordre n. Matrice A^(-1) , qui, avec la matrice A donnée, satisfait les égalités suivantes :

    A^(-1)\cdot A=A\cdot A^(-1)=E,


    appelé sens inverse. La matrice A est appelée réversible, s'il existe un inverse, sinon - irréversible.

    Il découle de la définition que si une matrice inverse A^(-1) existe, alors elle est carrée du même ordre que A . Cependant, toutes les matrices carrées n'ont pas d'inverse. Si le déterminant de la matrice A est égal à zéro (\det(A)=0) , alors il n'y a pas d'inverse pour lui. En effet, en appliquant le théorème sur le déterminant du produit de matrices pour la matrice identité E=A^(-1)A, on obtient une contradiction

    \det(E)=\det(A^(-1)\cdot A)=\det(A^(-1))\det(A)=\det(A^(-1))\cdot0=0


    puisque le déterminant de la matrice identité est égal à 1. Il s'avère que la différence à zéro du déterminant d'une matrice carrée est la seule condition d'existence d'une matrice inverse. Rappelons qu'une matrice carrée dont le déterminant est égal à zéro est appelée dégénérée (singulière), sinon - non singulière (non singulière).

    Théorème 4.1 sur l'existence et l'unicité de la matrice inverse. Matrice Carrée A=\begin(pmatrix)a_(11)&\cdots&a_(1n)\\ \vdots&\ddots&\vdots\\ a_(n1)&\cdots&a_(nn) \end(pmatrix), dont le déterminant est non nul, a une matrice inverse et, de plus, une seule :

    A^(-1)=\frac(1)(\det(A))\cdot\ ! \begin(pmatrix)A_(11)&A_(21)&\cdots&A_(1n)\\ A_(12)&A_(22)&\cdots&A_(n2)\\ \vdots&\vdots&\ddots&\vdots\\ A_(1n )&A_(2n)&\cdots&A_(nn) \end(pmatrix)= \frac(1)(\det(A))\cdot A^(+),

    où A^(+) est la matrice transposée pour la matrice composée des compléments algébriques des éléments de la matrice A .

    La matrice A^(+) est appelée matrice jointe par rapport à la matrice A .

    En effet, la matrice \frac(1)(\det(A))\,A^(+) existe sous la condition \det(A)\ne0 . Il faut montrer qu'il est inverse de A , c'est-à-dire satisfait à deux conditions :

    \begin(aligned)\mathsf(1))&~A\cdot\!\left(\frac(1)(\det(A))\cdot A^(+)\right)=E;\\ \mathsf (2))&~ \!\left(\frac(1)(\det(A))\cdot A^(+)\right)\!\cdot A=E.\end(aligned)

    Démontrons la première égalité. D'après le point 4 des Remarques 2.3, il résulte des propriétés du déterminant que AA^(+)=\det(A)\cdot E. Alors

    A\cdot\!\left(\frac(1)(\det(A))\cdot A^(+)\right)= \frac(1)(\det(A))\cdot AA^(+) = \frac(1)(\det(A))\cdot \det(A)\cdot E=E,

    qui devait être montré. La seconde égalité se démontre de la même façon. Donc, sous la condition \det(A)\ne0, la matrice A admet une inverse

    A^(-1)=\frac(1)(\det(A))\cdot A^(+).

    Nous prouvons l'unicité de la matrice inverse par contradiction. Soit en plus de la matrice A^(-1) il existe une autre matrice inverse B\,(B\ne A^(-1)) telle que AB=E . En multipliant les deux côtés de cette égalité à gauche par la matrice A^(-1) , on obtient \underbrace(A^(-1)AB)_(E)=A^(-1)E. D'où B=A^(-1) , ce qui contredit l'hypothèse B\ne A^(-1) . Par conséquent, la matrice inverse est unique.

    Remarques 4.1

    1. Il résulte de la définition que les matrices A et A^(-1) sont permutables.

    2. La matrice inverse d'une diagonale non dégénérée est aussi diagonale :

    \Bigl[\operatorname(diag)(a_(11),a_(22),\ldots,a_(nn))\Bigr]^(-1)= \operatorname(diag)\!\left(\frac(1 )(a_(11)),\,\frac(1)(a_(22)),\,\ldots,\,\frac(1)(a_(nn))\right)\!.

    3. La matrice inverse d'une matrice triangulaire inférieure (supérieure) non dégénérée est triangulaire inférieure (supérieure).

    4. Les matrices élémentaires ont des inverses, qui sont également élémentaires (voir point 1 des Remarques 1.11).

    Propriétés de la matrice inverse

    L'opération d'inversion de matrice a les propriétés suivantes :

    \begin(aligned)\bold(1.)&~~ (A^(-1))^(-1)=A\,;\\ \bold(2.)&~~ (AB)^(-1 )=B^(-1)A^(-1)\,;\\ \bold(3.)&~~ (A^T)^(-1)=(A^(-1))^T\ ,;\\ \bold(4.)&~~ \det(A^(-1))=\frac(1)(\det(A))\,;\\ \bold(5.)&~~ E^(-1)=E\,. \end(aligné)


    si les opérations indiquées dans les égalités 1-4 ont un sens.

    Démontrons la propriété 2 : si le produit AB de matrices carrées non singulières du même ordre a une matrice inverse, alors (AB)^(-1)=B^(-1)A^(-1).

    En effet, le déterminant du produit des matrices AB n'est pas égal à zéro, puisque

    \det(A\cdot B)=\det(A)\cdot\det(B), où \det(A)\ne0,~\det(B)\ne0

    Par conséquent, la matrice inverse (AB)^(-1) existe et est unique. Montrons par définition que la matrice B^(-1)A^(-1) est inverse par rapport à la matrice AB . Vraiment.