En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire, et même de l'algèbre bilinéaire.
Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices.
En 1850, le terme de « matrix » (qui sera traduit par matrice) est forgé (sur la racine latine mater) par James Joseph Sylvester[5], qui le voit comme un objet donnant naissance à la famille de déterminants actuellement appelés mineurs, c'est-à-dire les déterminants des sous-matrices obtenues en retirant des lignes et des colonnes. Dans un article de 1851, Sylvester précise :
« Dans des articles antérieurs, j'ai appelé matrix un tableau rectangulaire de termes à partir desquels plusieurs systèmes de déterminants peuvent être engendrés, comme issus des entrailles d'un parent commun »[6].
En 1854, Arthur Cayley publie un traité sur les transformations géométriques utilisant les matrices de façon beaucoup plus générale que tout ce qui a été fait avant lui. Il définit les opérations usuelles du calcul matriciel (addition, multiplication et division) et montre les propriétés d'associativité et de distributivité de la multiplication[2]. Jusque-là, l'utilisation des matrices s'était essentiellement limitée au calcul des déterminants ; cette approche abstraite des opérations sur les matrices est révolutionnaire. En 1858, Cayley publie son A Memoir on the Theory of Matrices[7],[8], dans lequel il énonce et démontre le théorème de Cayley-Hamilton[2] pour les matrices 2×2.
Beaucoup de théorèmes ne sont d'ailleurs démontrés au début que pour de petites matrices : après Cauchy, Hamilton généralise le théorème aux matrices 4×4, et ce n'est qu'en 1898 que Frobenius, étudiant les formes bilinéaires, démontre le théorème en dimension quelconque. C'est aussi à la fin du XIXe siècle que Wilhelm Jordan établit la méthode d'élimination de Gauss-Jordan (généralisant la méthode de Gauss pour les matrices échelonnées). Au début du XXe siècle, les matrices occupent une place centrale en algèbre linéaire[9], en partie grâce au rôle qu'elles jouent dans la classification des systèmes de nombres hypercomplexes du siècle précédent.
Un mathématicien anglais du nom de Cullis est le premier, en 1913, à utiliser la notation moderne des crochets (ou des parenthèses) pour représenter les matrices, ainsi que de la notation systématique A = [ai,j] pour représenter la matrice dont ai,j est le terme de la i-ème ligne et de la j-ème colonne[2].
L'étude théorique des déterminants vient de plusieurs sources[11]. Des problèmes de théorie des nombres amènent Gauss à relier à des matrices (ou plus précisément à leur déterminant) les coefficients d'une forme quadratique ainsi que les applications linéaires en dimension trois. Gotthold Eisenstein développe ces notions, remarquant en particulier qu'en notation moderne, le produit des matrices est non commutatif. Cauchy est le premier à démontrer des résultats généraux sur les déterminants, en utilisant comme définition du déterminant de la matrice A = [ai,j] le résultat de la substitution, dans le polynôme , des puissances ak j par ajk. Il montre aussi, en 1829, que les valeurs propres d'une matrice symétrique sont réelles[12]. Jacobi étudie les « déterminants fonctionnels » (appelés par la suite jacobiens par Sylvester), utilisés pour décrire des transformations géométriques d'un point de vue infinitésimal ; les livres Vorlesungen über die Theorie der Determinanten[13] de Leopold Kronecker et Zur Determinantentheorie[14] de Karl Weierstrass, tous deux publiés en 1903, définissent pour la première fois les déterminants de manière axiomatique comme formes multilinéaires alternées.
Autres utilisations mathématiques du mot « matrice »
Deux mathématiciens notables au moins ont utilisé le mot dans un sens inhabituel.
Bertrand Russell et Alfred North Whitehead, dans leur Principia Mathematica, utilisent le mot « matrice » dans le cadre de leur axiome de réductibilité(en). Cet axiome permet de réduire le type d'une fonction, les fonctions de type 0 étant identiques à leur extension(en) ; ils appellent « matrice » une fonction n'ayant que des variables libres[15]. Ainsi, par exemple, une fonction Φ(x, y) de deux variables x et y peut être réduite à une collection de fonctions d'une seule variable, par exemple y, en « considérant » la fonction pour toutes les valeurs ai substituées à la variable x puis réduite à une « matrice » de valeurs en procédant de même pour y : ∀ bj, ∀ ai, Φ(ai, bj).
Une matrice à m lignes et n colonnes est un tableau rectangulaire de m × n nombres, rangés ligne par ligne. Il y a m lignes, et dans chaque ligne n éléments.
Plus formellement et plus généralement, soient I, J et K trois ensembles (K sera souvent muni d'une structure d'anneau ou même de corps commutatif).
Une matrice de type (I,J)[17] à coefficients dans K, est une famille d'éléments de K indexée par le produit cartésienI × J, c'est-à-dire une applicationA de I × J dans K. Son type (I,J) fait partie de la spécification de la matrice, mais pas l'ensemble K (par exemple une matrice à coefficients réels est aussi une matrice à coefficients complexes).
Le plus souvent, comme dans toute la suite de cet article, les ensembles I et J sont finis et sont respectivement les ensembles de nombres entiers {1, …, m} et {1, …, n} . Dans ce cas, on dit que la matrice a m lignes et n colonnes, ou qu'elle est de dimension ou taille(m,n). En notant ai,j l'image d'un couple(i,j) par l'application A, la matrice peut alors être notée
ou plus simplement (ai,j) si le contexte s'y prête.
Dans le cas particulier où I ou J est l'ensemble vide, la matrice correspondante est appelée la matrice vide de type (I,J). Il est nécessaire de distinguer les matrices vides de différents types pour définir le produit matriciel, car le produit de matrices (vides) de tailles respectives (m,0) et (0,n) est une matrice (nulle, mais non vide) de taille (m,n), et dépend donc des entiers m, n.
On représente généralement une matrice sous la forme d'un tableau rectangulaire. Par exemple, est représentée ci-dessous une matrice A, à coefficients entiers, et de dimension (3,4) :
Dans cette représentation, le premier coefficient de la dimension est le nombre de lignes, et le deuxième, le nombre de colonnes du tableau. Une matrice pour laquelle le nombre m de lignes est égal au nombre n de colonnes sera dite matrice carrée de taille (ou d’ordre) n. Une matrice ne comportant qu'une seule ligne et n colonnes est appelée matrice ligne (ou plus souvent vecteur ligne) de taille n. Une matrice comportant m lignes et une seule colonne est appelée matrice colonne (ou plus souvent vecteur colonne) de taille m.
Pour repérer un coefficient d'une matrice, on indique son indice de ligne puis son indice de colonne, les lignes se comptant du haut vers le bas et les colonnes de la gauche vers la droite. Par exemple, on notera ai,j, les coefficients de la matrice A, i compris entre 1 et 3 désignant le numéro de la ligne sur laquelle figure le coefficient envisagé, et j compris entre 1 et 4 désignant son numéro de colonne ; ainsi a2,4 = 7.
La disposition générale des coefficients d'une matrice A de taille (m,n) est donc la suivante
Les coefficients ai,j avec i = j sont dits diagonaux, ceux avec i ≠ j sont dits extradiagonaux.
Une sous-matrice de A est une matrice obtenue en sélectionnant une partie I ⊂ {1,...,m} de ses lignes et une partie J ⊂ {1,...,n} de ses colonnes ; on la note AI,J. On dit qu'une sous-matrice est principale si I = J dans la définition précédente. La diagonale principale de A est le vecteur
où p = min(m,n).
Pour effectuer certaines opérations, il peut être utile de travailler sur le système des lignes ou des colonnes d'une matrice. On pourra alors l'écrire sous une des formes suivantes
L'ensemble des matrices à coefficients dans K possédant m lignes et n colonnes est noté Mm,n(K) (ou parfois M(m,n,K)).
Lorsque m = n on note plus simplement Mn(K).
Soit K un ensemble et A = (ai,j)1 ≤ i ≤ m, 1 ≤ j ≤ n ∈ Mm,n(K) ; on appelle matrice transposée de A la matrice AT = (aj,i)1 ≤ j ≤ n, 1 ≤ i ≤ m ∈ Mn,m(K). Si K est un magma, AT = (aj,i)1 ≤ j ≤ n, 1 ≤ i ≤ m ∈ Mn,m(Kop) où Kop est le magma opposé de K.
Par exemple, avec la matrice A des exemples précédents, on a
Espaces de matrices
On suppose maintenant que K est muni d'une structure d'anneau ; les éléments de K seront appelés scalaires, par opposition aux matrices dont nous allons voir qu'elles peuvent être considérées comme des vecteurs.
Addition des matrices et multiplication par un scalaire
On ne peut additionner que deux matrices de même taille.
Exemple :
Pour chaque valeur du couple (m, n), l'espace Mm,n(K) devient alors un groupe abélien, d'élément neutre la matrice nulle, celle dont tous les coefficients valent 0.
On définit aussi une opération à droite de K sur chaque espace Mm,n(K) en associant, à chaque scalaire λ dans K et à chaque matrice (ai,j) à coefficients dans K, la matrice (ai,j)λ = (ai,jλ) obtenue en effectuant la multiplication à droite, dans K, de tous les coefficients de la matrice initiale par λ : c'est la multiplication par un scalaire. Lorsque l'anneau est commutatif, la multiplication peut également s'effectuer à gauche.
En reprenant toujours la matrice A du premier exemple (voir supra) :
Le K-module Mm,n(K) est libre de rang mn, c'est-à-dire qu'il possède une base de mn éléments : il suffit de considérer la base canonique(Ei,j)1 ≤ i ≤ m, 1 ≤ j ≤ n. La matrice Ei,j est celle dont tous les coefficients sont nuls sauf celui d'indice (i,j), qui vaut 1.
Les coordonnées dans la base canonique d'une matrice A sont ses coefficients :
On commence par définir le produit d'une matrice ligne par une matrice colonne[18],[19]. Soit n un nombre entier, L une matrice ligne, xi ses coefficients, C une matrice colonne, yi ses coefficients. On les suppose toutes deux de taille n. On définit alors le produit, considéré comme un scalaire ou une matrice de dimension (1, 1) :
On remarque la condition de compatibilité sur les tailles des matrices (égalité du nombre de colonnes de la première avec le nombre de lignes de la deuxième). On définit maintenant plus généralement un produit entre deux matrices, la première, (xi,j) dans Mm,n(K), la deuxième, (yi,j) dans Mn,p(K), toujours avec une condition de compatibilité sur les tailles (et l'ordre des facteurs de la multiplication ne peut en général pas être changé). Le résultat obtenu est une matrice de Mm,p(K), dont les coefficients (zi,j) sont obtenus par :
À la lumière de l'exemple de la multiplication d'une matrice ligne par une matrice colonne, on peut reformuler cette définition en disant que ce coefficient est égal au produit de la ligne i de la première matrice par la colonne j de la deuxième, ce qui s'écrit de la manière suivante, si les Li sont les lignes de la première matrice, et les Cj les colonnes de la deuxième, le produit est :
.
Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, même lorsque les dimensions permettent de donner un sens à la question et même si l'anneau des scalaires est commutatif, un produit de matrices ne commute en général pas : AB n'est pas en général égal à BA. On a par exemple :
Remarque : le produit de deux matrices non nulles peut être nul, comme ci-dessus ; on dit que l'anneau des matrices n'est pas intègre.
Il arrive même, selon les tailles respectives des matrices A et B, que l'un des deux produits existe et pas l'autre.
Pour chaque nombre entier n, on note In la matrice carrée de taille n dont les coefficients diagonaux sont égaux à 1 et dont les autres coefficients sont nuls ; elle est appelée matrice identité de taille n.
Sous réserve de compatibilité des tailles, les matrices In sont neutres à droite et à gauche pour la multiplication.
Soit A une matrice de dimension (m, n). On dit que A est inversible à droite (respectivement à gauche) s'il existe une matrice B de taille (n, m) telle que AB = Im (respectivement BA = In). Elle est simplement dite inversible si elle l'est à la fois à droite et à gauche. Le sous-ensemble de Mn(K) constitué des matrices inversibles possède une structure de groupe pour le produit matriciel ; il est appelé groupe linéaire et noté GLn(K).
Pour une matrice carrée à coefficients dans un anneau commutatifK, être inversible à droite ou à gauche ou avoir un déterminant inversible dans K (c'est-à-dire non nul si K est un corps) sont trois propriétés équivalentes.
Algèbre des matrices carrées
Lorsque l'anneau K est commutatif, l'ensemble Mn(K) des matrices carrées de taille n est muni d'une structure de K-algèbre associative et unitaire avec l'addition matricielle, le produit par un scalaire et le produit matriciel.
On appelle matrice scalaire une matrice de la forme In λ où λ est un élément de l'anneau K.
Ces matrices s'appellent matrices scalaires car elles se comportent comme des scalaires, vis-à-vis de la multiplication :
Lorsque K est commutatif, ou à défaut, lorsque λ est central dans K, c'est-à-dire lorsque λ commute avec tous les éléments de K, on a en outre :
Réciproquement, toute matrice B de Mn(K) telle que ∀ A ∈ Mn(K), AB = BA est une matrice scalaire In λ où λ est central dans K (ceci se démontre en prenant pour A les matrices de la base canonique).
Il existe plusieurs manières de faire agir le groupe linéaire GLn(K) sur les espaces de matrices, notamment :
action par multiplication à gauche de GLm(K) sur Mm,n(K), qui à P et A, associe PA,
action (à gauche) par multiplication à droite de GLn(K) sur Mm,n(K), qui à Q ∈ GLn(K) et A ∈ Mm,n(K), associe AQ−1,
action par conjugaison de GLn(K) sur Mn(K), qui à P ∈ GLn(K) et A ∈ Mn(K), associe PAP−1.
On décrit maintenant les résultats classiques sur ces actions, lorsque les scalaires forment un corps commutatif. Les deux premières actions sont souvent considérées simultanément ; on s'intéresse donc à la question : deux matrices A et B de dimension (m,n) étant données, existe-t-il des matrices P ∈ GLm(K) et Q ∈ GLm(K) telles que A = PBQ−1 ? Si tel est le cas, les deux matrices A et B sont dites équivalentes. Le résultat principal est que deux matrices sont équivalentes si et seulement si elles ont même rang, ce qui s'exprime encore en disant que le rang est un invariant complet pour les doubles classes définies par les deux actions de multiplication à gauche et à droite. Par ailleurs, une matrice étant donnée, on peut trouver d'autres matrices privilégiées (les matrices échelonnées) dans la même orbite pour une de ces actions par la méthode du pivot de Gauss.
Pour l'action par conjugaison, deux matrices carrées A et B de taille n dans la même orbite admettent une relation de la forme A = PBP−1, pour une certaine matrice P inversible de taille n ; deux telles matrices sont dites semblables. La description d'un système complet d'invariants (caractérisant des matrices semblables) est plus délicate. On appelle ces invariants les invariants de similitude. D'un point de vue algorithmique, la réduction d'une matrice quelconque à une matrice sous une forme privilégiée se fait par un algorithme inspiré de celui du pivot de Gauss, voir théorème des facteurs invariants.
Interprétations linéaires
Un intérêt principal des matrices est qu'elles permettent d'écrire commodément les opérations habituelles de l'algèbre linéaire, avec une certaine canonicité.
Le premier point est de remarquer que le K-module Kn s'identifie canoniquement à l'espace de matrices colonne Mn,1(K) : si ei est le n-uplet de Kn dont tous les coefficients sont nuls, sauf le i-ème qui vaut 1, on lui associe la i-ème matrice colonne Ei,1 de la base canonique de Mn,1(K) (celle dont tous les coefficients sont nuls sauf le i-ème qui vaut 1), et on étend l'identification par linéarité ; la matrice associée à chaque n-uplet sera appelée matrice coordonnée canonique.
D'autres identifications sont cependant possibles ; lorsqu'on peut parler de base (si l'anneau des scalaires est un corps, par exemple), on peut associer les matrices colonnes élémentaires à n'importe quelle base de l'espace Kn (ou plus généralement d'un K-module libre), puis à nouveau étendre par linéarité ; les matrices associées seront appelées matrices coordonnées dans la base envisagée.
On peut juxtaposer les matrices coordonnées, dans une base fixée, de plusieurs n-uplets. On obtient ainsi la matrice coordonnée d'une famille de vecteurs. Le rang de la matrice est alors défini comme la dimension de la famille de ces vecteurs. En particulier la matrice d'une base dans une autre base est appelée matrice de passage entre ces deux bases, ou matrice de changement de base. Si X et X' sont les matrices coordonnées du même vecteur dans deux bases B et C, et que P est la matrice de passage de la base C dans la base B, on a la relation (une matrice de passage est toujours inversible) :
Soient E et F deux espaces vectoriels de dimensions respectives n et m sur un corps commutatif[20]K, B une base de E, C une base de F et φ une application linéaire de E dans F.
On appelle matrice de φ dans le couple de bases (B, C) la matrice matB,C(φ) de Mm,n(K) telle que pour tout vecteur x de E, si l'on note y = φ(x), X = matB(x) et Y = matC(y), alors :
Si ψ est une deuxième application linéaire, de F dans un troisième espace vectoriel G de base D, alors, relativement aux bases B, C, D, la matrice de la composéeψ ∘ φ est égale au produit des matrices de ψ et φ. Plus précisément :
Pour toute matrice M de Mm,n(K), l'application X ↦ MX du K-espace vectoriel Mn,1(K) dans le K-espace vectoriel Mm,1(K) est linéaire. C'est un point clef du lien entre algèbre linéaire et matrices. En conséquence, il arrive souvent que l'on identifie la matrice M avec cette application linéaire. On parlera alors de noyau de la matrice, d'espaces propres de la matrice, d'image de la matrice, etc.
Si B et B' sont deux bases de E, C et C' deux bases de F, P = matB(B') la matrice de passage de B vers B' et Q la matrice de passage de C vers C', alors les deux matrices M et M' d'une même application linéaire de E dans F, dans les couples de bases (B, C) et (B', C'), sont liées par : M' = Q−1MP. On constate ainsi que deux matrices équivalentes sont deux matrices qui représentent la même application linéaire dans des bases différentes. En particulier, dans le cas d'un endomorphisme, si l'on impose B = C et B' = C', la formule précédente devient : M' = P−1MP et deux matrices semblables sont deux matrices qui représentent le même endomorphisme dans des bases différentes.
Soient de nouveau E et F deux K-espaces vectoriels de dimensions finies[20], de bases respectives B et C, et φ une application linéaire de E dans F. L'application linéaire transposée tφ : F* → E* entre leurs duals est définie par
Sa matrice dans le couple de bases duales (C*, B*) est liée à celle de φ dans (B, C) par :
Remarque
Lorsque l'anneau n'est pas commutatif, si l'on représente les vecteurs par des matrices colonne, l'algèbre linéaire n'est compatible avec le calcul matriciel que si les modules ou espaces vectoriels considérés sont à droite, comme dans les articles détaillés signalés ci-dessus, une application linéaire correspondant à la multiplication à gauche d'un vecteur colonne par la matrice qui la représente. Si l'on tient à avoir des modules ou espaces vectoriels à gauche, il faut représenter les vecteurs par des matrices ligne, une application linéaire étant cette fois représentée par la multiplication à droite d'un vecteur ligne par la matrice qui la représente[21].
En général, un système de m équations linéaires à n inconnues peut être écrit sous la forme suivante :
où x1, ..., xn sont les inconnues et les nombres ai,j sont les coefficients du système.
Ce système peut s'écrire sous la forme matricielle :
avec :
la théorie de la résolution des systèmes utilise les invariants liés à la matrice A (appelée matrice du système), par exemple son rang, et, dans le cas où A est inversible, son déterminant (voir l'article règle de Cramer).
Interprétations bilinéaires
Dans ce paragraphe, l'anneau K des scalaires sera supposé commutatif. Dans la plupart des applications, ce sera un corps commutatif.
Le cas non commutatif existe aussi mais il faut prendre quelques précautions et les notations deviennent trop lourdes pour cet article.
Matrice d'une forme bilinéaire
Soient E un K-module libre et B = (e1, … , en) une base de E.
Soit une forme bilinéaire. On définit la matrice de dans la base B par la formule suivante :
Dans le cas particulier où K = ℝ et f est un produit scalaire, cette matrice est appelée matrice de Gram.
Soient x et y deux vecteurs de E. Notons X et Y leurs coordonnées dans la base B et A = matBf. On a alors la formule : .
Deux formes bilinéaires sont égales si et seulement si elles ont la même matrice dans une base donnée.
Matrice d'une forme quadratique
Lorsque K est un corps de caractéristique différente de 2, on appelle matrice d'une forme quadratique la matrice de la forme bilinéaire symétrique dont est issue la forme quadratique.
Formule de changement de base
Soient E un K-module libre et B, C deux bases de E. Soit une forme bilinéaire.
Deux matrices carrées A et B sont dites congruentes s'il existe une matrice inversible P telle que
Deux matrices congruentes sont deux matrices qui représentent la même forme bilinéaire dans deux bases différentes.
Lorsque K est un corps de caractéristique différente de 2, toute matrice symétrique est congruente à une matrice diagonale. L'algorithme utilisé s'appelle réduction de Gauss à ne pas confondre avec le pivot de Gauss.
Une matrice est dite symétrique si elle est égale à sa transposée et antisymétrique si elle est opposée à sa transposée.
Une matrice A à coefficients complexes est dite hermitienne si elle est égale à la transposée de sa matrice conjuguéeA.
Une matrice A est dite
orthogonale si elle est à coefficient réels et si tA A = A tA = I,
unitaire si elle est à coefficients complexes et si tA A = A tA = I
(Pour plus d'exemples, voir en bas de page : « Articles connexes » et palette « Matrices »)
Décomposition d'une matrice
On utilise abusivement le terme décomposition d'une matrice, qu'il s'agisse d'une véritable décomposition (en somme) comme dans la décomposition de Dunford ou d'une factorisation comme dans la plupart des autres décompositions.
Réduire une matrice, c'est trouver une matrice qui lui est semblable la plus simple possible.
Une matrice diagonalisable est une matrice semblable à une matrice diagonale : A est diagonalisable s'il existe une matrice inversible P et une matrice diagonale D telles que A = P−1DP.
C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
C'est une factorisation en produit d'une matrice orthogonale et d'une matrice symétrique définie positive dans le cas réel, en produit d'une matrice unitaire et d'une matrice hermitienne définie positive dans le cas complexe.
On peut décomposer à droite ou à gauche.
On a unicité de la factorisation pour les matrices inversibles.
où désigne la trace (i.e., ) et les ai,j (resp. bi,j) désignent les éléments de A (resp. B). La norme associée à ce produit scalaire est la norme de Frobenius ou norme de Hilbert-Schmidt :
Cette inégalité peut être renforcée par l'inégalité de trace de von Neumann[22] :
où σ(A) est le vecteur des valeurs singulières de A, rangées en ordre décroissant. Elle a la même structure que l'inégalité de Ky Fan, laquelle suppose que les matrices sont carrées et symétriques (on peut alors remplacer σ(•) par le vecteur des valeurs propres).
L'espace vectoriel Mm,n(ℂ) est muni d'une structure similaire d'espace hermitien.
↑Chapitre 8 : Fang cheng - La disposition rectangulaire : problèmes à plusieurs inconnues, résolus selon un principe similaire à l'élimination de Gauss.
↑Gabriel Cramer, Introduction à l'Analyse des lignes courbes algébriques, Genève, Europeana, (lire en ligne), p. 656–659.
↑De nombreuses sources affirment qu'il l'aurait fait en 1848, mais Sylvester n'a rien publié cette année-là. (voir The Collected Mathematical Papers of James Joseph Sylvester (Cambridge, England: Cambridge University Press, 1904), vol. 1.). Sa première utilisation du terme matrix, en 1850, figure dans Additions to the articles in the September number of this journal, “On a new class of theorems,” and on Pascal's theorem, The London, Edinburgh and Dublin Philosophical Magazine and Journal of Science, 37 : 363-370. (1850), page 369 : « For this purpose we must commence, not with a square, but with an oblong arrangement of terms consisting, suppose, of m lines and n columns. This will not in itself represent a determinant, but is, as it were, a Matrix out of which we may form various systems of determinants […] ».
↑« I have in previous papers defined a “Matrix” as a rectangular array of terms, out of which different systems of determinants may be engendered as from the womb of a common parent » dans The Collected Mathematical Papers of James Joseph Sylvester : 1837–1853, Article 37, p. 247.
↑Phil. Trans. 1858, vol. 148, pp. 17-37 Math. Papers II 475-496.
↑(en) Jagdish Mehra et Helmut Rechenberg, The Historical Development of Quantum Theory, Berlin, DE; New York, NY, Springer-Verlag, , 366 p. (ISBN978-0-387-96284-9).
↑(en) Eberhard Knobloch, The intersection of history and mathematics, vol. 15, Basel, Boston, Berlin, Birkhäuser, , « From Gauss to Weierstrass: determinant theory and its historical evaluations », p. 51–66
↑(de) Karl Weierstrass, Collected works, vol. 3, (lire en ligne), p. 271–286
↑« Let us give the name of matrix to any function, of however many variables, which does not involve any apparent variables. Then any possible function other than a matrix is derived from a matrix by means of generalization, i.e., by considering the proposition which asserts that the function in question is true with all possible values or with some value of one of the arguments, the other argument or arguments remaining undetermined » . Alfred North Whitehead et Bertrand Russell, Principia Mathematica to *56, Cambridge at the University Press, Cambridge UK (1913, réédition de 1962) voir p. 162.
↑(en) Alfred Tarski, Introduction to Logic and the Methodology of Deductive Sciences, Dover Publications, Inc, New York NY, 1946 (ISBN0-486-28462-X). (lire en ligne)
↑Dans le cas plus général d'ensembles éventuellement infinis d'indices, on peut demander à K d'être muni d'une topologie, pour définir le produit comme la somme d'une série (convergente). Sans topologie, on peut également demander aux colonnes (ou aux lignes) des matrices de ne contenir qu'un nombre fini d'éléments non nuls ; c'est d'ailleurs toujours le cas quand ces matrices représentent des applications linéaires entre espaces vectoriels munis de bases, même infinies. Paul Halmos, qui donne ces diverses définitions, ajoute néanmoins que « Not much of matrix theory carries over to infinite-dimensional spaces, and what does is not so useful, but it sometimes helps. » (la théorie des matrices s'étend peu aux espaces de dimension infinie, et ce qui s'étend n'est guère utile, mais peut parfois aider), dans P. Halmos, A Hilbert space problem book, 1982, p. 23.
↑Voir par exemple : (en) Henri Bourlès et Bogdan Marinescu, Linear Time-Varying Systems : Algebraic-Analytic Approach, Springer, , 638 p. (ISBN978-3-642-19726-0 et 3-642-19726-4, lire en ligne), §§ 2.2.4-2.2.6 ; cette formulation est très courante dans la théorie des D-modules.
↑J. von Neumann (1937). Some matrix inequalities and metrization of matrix-space. Tomsk University Review, 1, 286–300. Collected Works, Pergamon, Oxford, 1962, Volume IV, 205-218
Resolusi 1468Dewan Keamanan PBBProvinsi Ituri, Republik Demokratik KongoTanggal20 Maret 2003Sidang no.4.723KodeS/RES/1468 (Dokumen)TopikSituasi terkait Republik Demokratik KongoRingkasan hasil15 mendukungTidak ada menentangTidak ada abstainHasilDiadopsiKomposisi Dewan KeamananAnggota tetap Tiongkok Prancis Rusia Britania Raya Amerika SerikatAnggota tidak tetap Angola Bulgaria Chili Kamerun Spanyol Jerman Guinea Meksiko...
Untuk kegunaan lain, lihat Purdah (disambiguasi). Para Perempuan dari Caubul (litografi tahun 1848, karya James Rattray) menampilkan pengangkatan purdah di kawasan-kawasan zenana – Oriental and India Office Collection, British Library Purdah atau pardah (dari bahasa Persia: پرده, artinya tirai) adalah praktik keagamaan dan sosial yang mengharuskan pemisahan perempuan dari laki-laki di tempat umum yang dilakukan oleh beberapa komunitas Muslim dan Hindu di Asia Selatan.[1] Ada dua...
Voce principale: Unione Sportiva Cremonese. Unione Sportiva CremoneseStagione 1970-1971Sport calcio Squadra Cremonese AllenatoreBattista Rota PresidenteDomenico Luzzara Serie D1º posto - girone B (promossa in Serie C) Coppa Italia DilettantiFase eliminatoria a gironi Maggiori presenzeCampionato: Luciano Cesini e Tarcisio Cantoni (34) Miglior marcatoreCampionato: Giorgio Guarnieri (20) 1969-1970 1971-1972 Si invita a seguire il modello di voce Questa pagina raccoglie le informazioni rig...
У этого термина существуют и другие значения, см. Чайки (значения). Чайки Доминиканская чайкаЗападная чайкаКалифорнийская чайкаМорская чайка Научная классификация Домен:ЭукариотыЦарство:ЖивотныеПодцарство:ЭуметазоиБез ранга:Двусторонне-симметричныеБез ранга:Вторич...
Premier League Malti 1924-1925 Competizione Premier League Malti Sport Calcio Edizione 14ª Organizzatore MFA Luogo Malta Partecipanti 8 Formula 1 girone all'italiana Risultati Vincitore Floriana(6º titolo) Statistiche Incontri disputati 52 Gol segnati 64 (1,23 per incontro) Cronologia della competizione 1923-24 1925-26 Manuale Il campionato era formato da otto squadre e il Floriana vinse il titolo. Classifica finale Pos. Squadra G V N P GF GS Punti 1 Floriana 7 6 1 0 12 2 ...
American actor Tim ChiouChiou at the premiere of Love Is All You Need? in 2016Born (1979-11-23) November 23, 1979 (age 44)Iowa City, Iowa, U.S.Occupation(s)Actor, ModelYears active2005–presentHeight6 ft 2 in (188 cm)Websitetimchiou.com Tim Chiou (born November 23, 1979) is an American actor who has played a number of television and film roles. He most notably played the reoccurring role of the venture capitalist Ed Chen on Season 4 of HBO's Silicon Valley. Educa...
Mercu suar di Burry Port. Burry Port (bahasa Wales: Porth Tywyn) adalah kota kecil yang terletak 5 mil di luar Llanelli di Carmarthenshire, Wales, berada di muara sungai Loughor. Kota ini adalah tempat di mana Amelia Earhart mendarat di mana ia menjadi wanita pertama yang terbang melintasi samudera Atlantik. Pada kota ini juga terdapat pelabuhan. Pranala luar http://www.pembrey-burryport.org.uk/[pranala nonaktif permanen] http://www.burry-port.co.uk/ Diarsipkan 2018-08-10 di Wayback M...
Ester 6Lima Gulungan (Megilloth) lengkap pada Kodeks Leningrad (1008 Masehi), dengan urutan: Rut, Kidung Agung, Pengkhotbah, Ratapan dan Ester.KitabKitab EsterKategoriKetuvimBagian Alkitab KristenPerjanjian LamaUrutan dalamKitab Kristen17← pasal 5 pasal 7 → Ester 6 (disingkat Est 6) adalah pasal keenam Kitab Ester dalam Alkitab Ibrani dan Perjanjian Lama di Alkitab Kristen.[1][2] Berisi riwayat Ahasyweros, raja Kekaisaran Persia, Mordekhai, Ester, dan Haman.[3&...
Hornillayuso localidad HornillayusoUbicación de Hornillayuso en España HornillayusoUbicación de Hornillayuso en la provincia de BurgosPaís España• Com. autónoma Castilla y León• Provincia Burgos• Municipio Merindad de SotoscuevaUbicación 43°00′57″N 3°35′42″O / 43.015927777778, -3.5950388888889Población 12 hab. (INE 2020)Código postal 09568Pref. telefónico 947[editar datos en Wikidata] H...
U.S. government radar system to detect orbital objects Part of the master transmitter antenna at Lake Kickapoo, Texas c.2001 The AN/FPS-133 Air Force Space Surveillance System, colloquially known as the Space Fence, was a U.S. government multistatic radar system built to detect orbital objects passing over America. It is a component of the U.S. space surveillance network, and according to the U.S. Navy was able to detect basketball sized (75 cm (30 in)) objects at heights up to 30,0...
General map of Germany This is a complete list of the 2,056 cities and towns in Germany (as of 1 January 2024).[1][2] There is no distinction between town and city in Germany; a Stadt is an independent municipality (see Municipalities of Germany) that has been given the right to use that title. In contrast, the generally smaller German municipalities that do not use this title, and are thus not included here, are usually just called Gemeinden. Historically, the title Stadt wa...
هذه المقالة عن مرتضى القزويني. لمعانٍ أخرى، طالع القزويني (توضيح). آية الله السيد مرتضى القزويني معلومات شخصية الميلاد 1 أغسطس 1930 (العمر 93 سنة)كربلاء، المملكة العراقية. الإقامة كربلاء، العراق. مواطنة العراق الأولاد السيد مصطفى القزويني [لغات أخرى]ح...
This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Sweep rowing – news · newspapers · books · scholar · JSTOR (September 2023) (Learn how and when to remove this message) An example of sweep rowing, with Peter van de Pas (left), Evert Kroes (right), 1977 College women's eights during Oxford University Eights We...
Mochamad Nur ArifinMochamad Nur Arifin memberikan pidato pada saat rakor pelaksanaan Pemilu serentak tahun 2024 di Pendhapa Manggala Praja Nugraha, 2022. Bupati Trenggalek ke-17PetahanaMulai menjabat 26 Februari 2021PresidenJoko WidodoGubernurKhofifah Indar ParawansaWakilSyah Muhammad NatanegaraMasa jabatan28 Mei 2019 – 17 Februari 2021 (Pelaksana tugas: 14 Februari 2019 – 28 Mei 2019)PresidenJoko WidodoGubernurKhofifah Indar ParawansaPendahuluEmil DardakPenggantiPetahana...
Bernard de La VillardièreBernard de La Villardière en 2015.FonctionsPrésidentSolidarités International2002-2005Patrice FranceschiPrésidentPress club de France2001-2004Christian MalardAndré BercoffBiographieNaissance 25 mars 1958 (66 ans)Boulogne-BillancourtNom de naissance Bernard Berger de La VillardièreNationalités argentinefrançaiseFormation Université Paris-NanterreÉcole des hautes études en sciences de l'information et de la communication - Celsa (licence)Activités Jour...
Artikel ini sebatang kara, artinya tidak ada artikel lain yang memiliki pranala balik ke halaman ini.Bantulah menambah pranala ke artikel ini dari artikel yang berhubungan atau coba peralatan pencari pranala.Tag ini diberikan pada Februari 2023. That Time Of Year adalah lagu yang di buat oleh Sick Puppies.Di luncurkan pada tahun 2009 di NCIS The Offical Soundtrack. Lagu ini mulai di kenal di Indonesia pada antara bulan Juni-Juli di iklan NCIS 6 di FOX Channel. Lihat Pula FOX Asia NCIS (Serial...
A metaclass describes commen behaviour for classes, like a class does for objects This article has multiple issues. Please help improve it or discuss these issues on the talk page. (Learn how and when to remove these template messages) This article possibly contains original research. Please improve it by verifying the claims made and adding inline citations. Statements consisting only of original research should be removed. (September 2013) (Learn how and when to remove this message) This ar...
Bagian dari seriIslam Rukun Iman Keesaan Allah Malaikat Kitab-kitab Allah Nabi dan Rasul Allah Hari Kiamat Qada dan Qadar Rukun Islam Syahadat Salat Zakat Puasa Haji Sumber hukum Islam al-Qur'an Sunnah (Hadis, Sirah) Tafsir Akidah Fikih Syariat Sejarah Garis waktu Muhammad Ahlulbait Sahabat Nabi Khulafaur Rasyidin Khalifah Imamah Ilmu pengetahuan Islam abad pertengahan Penyebaran Islam Penerus Muhammad Budaya dan masyarakat Akademik Akhlak Anak-anak Dakwah Demografi Ekonomi Feminisme Filsafat...
Type of knowledge base For other uses, see Knowledge graph (disambiguation). Example conceptual diagram In knowledge representation and reasoning, a knowledge graph is a knowledge base that uses a graph-structured data model or topology to represent and operate on data. Knowledge graphs are often used to store interlinked descriptions of entities – objects, events, situations or abstract concepts – while also encoding the free-form semantics or relationships un...
1980 USSR filmDo Not Part with Your BelovedDirected byPavel ArsenovWritten byAlexander VolodinStarringAleksandr AbdulovIrina AlfyorovaCinematographyGrigory BelenkyMusic byYevgeny KrylatovProductioncompanyGorky Film StudioRelease date 1980 (1980) Running time76 min.CountryUSSRLanguageRussian Do Not Part with Your Beloved or (‹See Tfd›Russian: С любимыми не расставайтесь, romanized: S lyubimymi ne rasstavaytes) is a Soviet romantic drama, directed by Pavel ...