Des articles

9.2 : Analyse avec espaces vectoriels - Mathématiques


NormesCommençons à mesurer la distance. Si (X) est un espace vectoriel, alors on dit qu'une fonction à valeur réelle (leftlVert {cdot} ight Vert) est une norme si :(left lVert {x} ight Vert geq 0), avec (leftlVert {x} ight Vert=0) si et seulement si (x=0).(leftlVert {cx} ight Vert = leftlvert {c} ight vertleftlVert {x} ight Vert) pour tous les (c in {mathbb{R}}) et (x in X).(leftlVert {x+y} ight Vert leq leftlVert {x} ight Vert+leftlVert {y} ight Vert) pour all (x,y in X) (Inégalité triangulaire). Avant de définir la norme standard sur ({mathbb{R}}^n), définissons le produit scalaire scalaire standard sur ({mathbb {R}}^n). Pour deux vecteurs si (x=(x^1,x^2,ldots,x^n) in {mathbb{R}}^n) et (y=(y^1,y^2 ,ldots,y^n) in {mathbb{R}}^n), définissez [x cdot y := sum_{j=1}^nx^jy^j .] C'est facile pour voir que le produit scalaire est linéaire dans chaque variable séparément, c'est-à-dire qu'il s'agit d'un mappage linéaire lorsque vous gardez l'une des variables constante. La norme euclidienne est alors définie comme [leftlVert {x} ight Vert := sqrt{x cdot x} = sqrt{(x^1)^2+(x^2)^2 + cdots + (x^n)^2}.] Il est facile de voir que la norme euclidienne satisfait (i) et (ii). Pour prouver que (iii) est vérifiée, l'inégalité clé dans l'inégalité dite de Cauchy-Schwarz que nous avons vue auparavant. Comme cette inégalité est si importante, reformulons et reproduisons-la en utilisant la notation de ce chapitre. Soit (x, y in {mathbb{R}}^n), puis [leftlvert {x cdot y} ight vert leq leftlVert {x} ight VertleftlVert {y} ight Vert = sqrt{xcdot x}, sqrt{ycdot y}, ] avec égalité si et seulement si les vecteurs sont des multiples scalaires les uns des autres. Si (x=0) ou (y = 0), alors le théorème est valable de manière triviale. Supposons donc (x ot= 0) et (y ot= 0). Si (x) est un multiple scalaire de (y), c'est (x = lambda y) pour certains (lambda in {mathbb{R}}), alors le théorème est vérifié avec égalité : [leftlvert {lambda y cdot y} ight vert = leftlvert { lambda} ight vert , leftlvert {ycdot y} ight vert = leftlvert {lambda} ight vert , leftlVert {y} ight Vert^2 = leftlVert {lambda y} ight Vert leftlVert {y} ight Vert .]Prendre ensuite (x+ty), [leftlVert {x+ty} right Vert^2 = (x+ty) cdot (x+ty) = x cdot x + x cdot ty + ty cdot x + ty cdot ty = leftlVert {x} ight Vert ^2 + 2t(x cdot y) + t^2 leftlVert {y} ight Vert^2 .] Si (x) n'est pas un multiple scalaire de (y), alors (leftlVert {x+ty} ight Vert^2 > 0) pour tout (t). Donc le polynôme ci-dessus dans (t) n'est jamais nul. De l'algèbre élémentaire il résulte que le discriminant doit être négatif : [4 {(x cdot y)}^2 - 4 leftlVert {x} ight Vert^2leftlVert {y} ight rVert^2 < 0,] ou en d'autres termes ({(x cdot y)}^2 < leftlVert {x} ight Vert^2leftlVert {y} ight Vert^ 2). L'item (iii), l'inégalité triangulaire, suit via un calcul simple : [leftlVert {x+y} ight Vert^2 = x cdot x + y cdot y + 2 (x cdot y) leq leftlVert {x} ight Vert^2 + leftlVert {y} ight Vert^2 + 2 (leftlVert {x} ight Vert+left lVert {y} ight Vert) = {(leftlVert {x} ight Vert + leftlVert {y} ight Vert)}^2 .]La distance (d(x, y) := leftlVert {xy} ight Vert) est la fonction de distance standard sur ({mathbb{R}}^n) que nous avons utilisée lorsque nous avons parlé d'espaces métriques. En fait, sur tout espace vectoriel (X), une fois qu'on a une norme (toute norme), on définit une distance (d(x,y) := leftlVert {xy} ight Vert) qui fait ( X) dans un espace métrique (un exercice facile). Soit (A in L(X,Y)). Définir [leftlVert {A} ight Vert := sup { leftlVert {Ax} ight Vert : x in X ~ ext{with} ~ leftlVert {x} ight Vert = 1 } .] Le nombre (leftlVert {A} ight Vert) est appelé la norme de l'opérateur. Nous verrons plus loin qu'il s'agit bien d'une norme (au moins pour les espaces de dimension finie). Par linéarité on obtient [leftlVert {A} ight Vert = sup { leftlVert {Ax} ight Vert : x in X ~ ext{with} ~ leftlVert { x} ight Vert = 1 } = sup_{substack{x in Xx eq 0}} frac{leftlVert {Ax} ight Vert}{leftlVert { x} ight Vert} .] Ceci implique que [leftlVert {Ax} ight Vert leq leftlVert {A} ight Vert leftlVert {x} ight Vert .]Il n'est pas difficile de voir d'après la définition que (leftlVert {A} ight Vert = 0) si et seulement si (A = 0), c'est-à-dire si (A ) amène chaque vecteur au vecteur zéro. Pour les espaces de dimension finie (leftlVert {A} ight Vert) est toujours fini comme nous le montrons ci-dessous. Ceci implique également que (A) est continue. Pour les espaces de dimension infinie, aucune déclaration n'a besoin d'être vraie. Pour un exemple simple, prenons l'espace vectoriel des fonctions continûment dérivables sur ([0,1]) et comme norme utiliser la norme uniforme. Les fonctions (sin(nx)) ont la norme 1, mais les dérivées ont la norme (n). Ainsi, la différenciation (qui est un opérateur linéaire) a une norme non bornée sur cet espace. Mais tenons-nous en aux espaces de dimension finie maintenant. Si (A in L({mathbb{R}}^n,{mathbb{R}}^m)), alors (leftlVert {A } ight Vert < infty) et (A) est uniformément continue (Lipschitz avec constante (leftlVert {A} ight Vert)).Si (A,B in L( {mathbb{R}}^n,{mathbb{R}}^m)) et (c in {mathbb{R}}), puis [leftlVert {A+B} ight Vert leq leftlVert {A} ight Vert+leftlVert {B} ight Vert, qquad leftlVert {cA} ight Vert = leftlvert {c} ight vertleftlVert {A} ight Vert .] En particulier (L({mathbb{R}}^n,{mathbb{R}}^m)) est un espace métrique avec la distance (leftlVert {AB} ight Vert).Si (A in L({mathbb{R}}^n,{mathbb{R}}^m)) et (B in L({mathbb{R}}^m,{mathbb{R}}^k)), puis [leftlVert {BA} ight Vert leq leftlVert { B} ight Vert leftlVert {A} ight Vert .]Pour (i), soit (x in {mathbb{R}}^n). On sait que (A) est défini par son action sur une base. Ecrire [x = sum_{j=1}^nc^j e_j .] Puis [leftlVert {Ax} ight Vert = leftlVert {sum_{j=1}^nc^ j Ae_j} ight Vert leq sum_{j=1}^n leftlvert {c^j} ight vert leftlVert {Ae_j} ight Vert .] Si (left lVert {x} ight Vert = 1), alors il est facile de voir que (leftlvert {c^j} ight vert leq 1) pour tout (j), donc [leftlVert {Ax} ight Vert leq sum_{j=1}^n leftlvert {c^j} ight vert leftlVert {Ae_j} ight Vert leq sum_{j=1}^n leftlVert {Ae_j} ight Vert .] Le membre de droite ne dépend pas de (x) et c'est fait, nous avons trouvé une borne supérieure finie. Ensuite, [leftlVert {A(x-y)} ight Vert leq leftlVert {A} ight Vert leftlVert {x-y} ight Vert] comme nous l'avons mentionné ci-dessus. Donc si (leftlVert {A} ight Vert < infty), alors cela dit que (A) est Lipschitz avec la constante (leftlVert {A} ight Vert). Pour (ii), notons que [leftlVert {(A+B)x} ight Vert = leftlVert {Ax+Bx} ight Vert leq leftlVert {Ax} ight Vert+leftlVert {Bx} ight Vert leq leftlVert {A} ight Vert leftlVert {x} ight Vert+leftlVert {B} ight Vert leftlVert {x} ight Vert = (leftlVert {A} ight Vert+leftlVert {B} ight Vert) leftlVert {x} ight Vert .] Donc (leftlVert {A+B} ight Vert leq leftlVert {A} ight Vert+leftlVert {B} ight Vert).De même [leftlVert {(cA)x} ight Vert = leftlvert {c} ight vert leftlVert {Ax} ight Vert leq (leftlvert {c} ight vertleft lVert {A} ight Vert) leftlVert {x} ight Vert .] Donc (leftlVert {cA} ight Vert leq leftlvert {c} ight vert gauchelVert {A} droit Vert). Note suivante [leftlvert {c} ight vert leftlVert {Ax} ight Vert = leftlVert {cAx} ight Vert leq leftlVert {cA} ight rVert leftlVert {x} ight Vert .] Donc (leftlvert {c} ight vertleftlVert {A} ight Vert leq leftlVert {cA} right Vert).Que nous ayons un espace métrique suit assez facilement, et est laissé à l'étudiant.Pour (iii) écrire [leftlVert {BAx} ight Vert leq leftlVert {B} right Vert leftlVert {Ax} ight Vert leq leftlVert {B} ight Vert leftlVert {A} ight Vert leftlVert {x} ight Vert . qedhere]Comme une norme définit une métrique, nous avons défini une topologie d'espace métrique sur (L({mathbb{R}}^n,{mathbb{R}}^m)) donc nous pouvons parler de ensembles ouverts/fermés, continuité et convergence. Notez que nous avons défini une norme uniquement sur ({mathbb{R}}^n) et non sur un espace vectoriel arbitraire de dimension finie. Cependant, après avoir choisi les bases, nous pouvons définir une norme sur n'importe quel espace vectoriel de la même manière. Nous avons donc vraiment une topologie sur n'importe quel (L(X,Y)), bien que la métrique précise dépende de la base choisie. Soit (U subset L({mathbb{R}}^n)) être l'ensemble des opérateurs linéaires inversibles. Si (A in U) et (B in L({mathbb{R}}^n)), et [label{eqcontineq} leftlVert {AB} ight Vert < frac{1}{leftlVert {A^{-1}} ight Vert},] alors (B) est inversible.(U) est ouvert et (A mapsto A^{-1}) est une fonction continue sur (U). La proposition dit que (U) est un ouvert et (A mapsto A^{-1} ) est continu sur (U). Vous devriez toujours penser à ({mathbb{R}}^1), où les opérateurs linéaires ne sont que des nombres (a). L'opérateur (a) est inversible ((a^{-1} = icefrac{1}{a})) chaque fois que (a ot=0). Bien sûr (a mapsto icefrac{1}{a}) est continu. Quand (n > 1), alors il y a d'autres opérateurs non inversibles, et en général les choses sont un peu plus difficiles. Démontrons (i). D'abord un calcul simple [leftlVert {x} ight Vert = leftlVert {A^{-1}Ax} ight Vert leq leftlVert {A^{-1}} ight Vert leftlVert {Ax} ight Vert leq leftlVert {A^{-1}} ight Vert ( leftlVert {(AB)x} ight Vert + leftlVert {Bx} ight Vert ) leq leftlVert {A^{-1}} ight VertleftlVert {AB} ight Vert leftlVert {x} ight rVert + leftlVert {A^{-1}} ight VertleftlVert {Bx} ight Vert .] Supposons maintenant (x eq 0) et donc (leftlVert {x} ight Vert eq 0). En utilisant [eqcontineq] on obtient [leftlVert {x} ight Vert < leftlVert {x} ight Vert + leftlVert {A^{-1}} ight Vertleft lVert {Bx} ight Vert ,] ou en d'autres termes (leftlVert {Bx} ight Vert ot= 0) pour tout (x) non nul, et donc (Bx not= 0) pour tout (x) différent de zéro. Cela suffit pour voir que (B) est un à un (si (Bx = By), alors (B(x-y) = 0), donc (x=y)). Comme (B) est un opérateur un-à-un de ({mathbb{R}}^n) à ({mathbb{R}}^n) il est sur et donc inversible. regardez (ii). Soit (B) inversible et proche de (A^{-1}), c'est-à-dire que [eqcontineq] est satisfait. En fait, supposons (leftlVert {A-B} ight Vert leftlVert {A^{-1}} ight Vert < icefrac{1}{2}). Ensuite, nous avons montré ci-dessus (en utilisant (B^{-1}y) au lieu de (x)) [leftlVert {B^{-1}y} ight Vert leq left lVert {A^{-1}} ight VertleftlVert {AB} ight Vert leftlVert {B^{-1}y} ight Vert + leftlVert {A^{ -1}} ight VertleftlVert {y} ight Vert leq icefrac{1}{2} leftlVert {B^{-1}y} ight Vert + left lVert {A^{-1}} ight VertleftlVert {y} ight Vert ,] ou [leftlVert {B^{-1}y} ight Vert leq % frac{1}{1- orm{A^{-1}} orm{AB}) orm{A^{-1}} orm{y} . 2leftlVert {A^{-1}} ight VertleftlVert {y} ight Vert .] Donc (leftlVert {B^{-1}} ight Vert leq 2 leftlVert {A^{-1}} ight Vert %frac{ orm{A^{-1}}}{1- orm{A^{-1}} orm{ AB})} .).Notez maintenant que [A^{-1}(AB)B^{-1} = A^{-1}(AB^{-1}-I) = B^{- 1}-A^{-1} ,] et [leftlVert {B^{-1}-A^{-1}} ight Vert = leftlVert {A^{-1} (AB)B^{-1}} ight Vert leq leftlVert {A^{-1}} ight VertleftlVert {AB} ight VertleftlVert {B^ {-1}} ight Vert leq %frac{ orm{A^{-1}}^2}{1- orm{A^{-1}} orm{AB})} % norm{AB} %leq 2leftlVert {A^{-1}} ight Vert^2 leftlVert {AB} ight Vert . qedhere]FIXME : continuité de l'espace vectorielMatricesEnfin, abordons les matrices, qui sont un moyen pratique de représenter des opérateurs de dimension finie. Si nous avons des bases ({ x_1, x_2, ldots, x_n }) et ({ y_1, y_2, ldots, y_m }) pour les espaces vectoriels (X) et (Y ), alors nous savons qu'un opérateur linéaire est déterminé par ses valeurs sur la base. Étant donné (A in L(X,Y)), définissez les nombres ({ a_i^j }) comme suit [A x_j = sum_{i=1}^m a_j^i y_i , ] et les écrire sous forme de matrice [A = egin{bmatrix} a_1^1 & a_2^1 & cdots & a_n^1 a_1^2 & a_2^2 & cdots & a_n^2 vdots & vdots & ddots & vdots a_1^m & a_2^m & cdots & a_n^m end{bmatrix} .] Notez que les colonnes de la matrice sont précisément les coefficients qui représentent (A x_j). Dérivons la règle familière pour la multiplication matricielle. Lorsque [x = sum_{j=1}^n gamma^j x_j ,] alors [A x = sum_{j=1}^n sum_{ i=1}^m gamma^j a_j^i y_i , = sum_{i=1}^m left(sum_{j=1}^n gamma^j a_j^i ight) y_i , ] qui donne lieu à la règle familière de la multiplication matricielle. Il existe une correspondance bijective entre les matrices et les opérateurs linéaires dans (L(X,Y)). C'est-à-dire, une fois que nous avons fixé une base dans (X) et dans (Y). Si nous choisissions une base différente, nous obtiendrions des matrices différentes. Ceci est important, l'opérateur (A) agit sur les éléments de (X), la matrice est quelque chose qui fonctionne avec des (n)-uplets de nombres. Si (B) est un (r )-by-(m) avec les entrées (b_k^j), alors la matrice pour (BA) a la (i,k)ème entrée (c_k^i) étant [ c_k^i = sum_{j=1}^m b_k^ja_j^i .] Notez comment les indices supérieur et inférieur s'alignent. Un mappage linéaire changeant une base en une autre est alors juste une matrice carrée dans laquelle les colonnes représentent la base éléments de la deuxième base par rapport à la première base. Nous appelons une telle application linéaire un changement de base. Supposons maintenant que toutes les bases ne soient que les bases standard et (X={mathbb{R}}^n) et (Y={mathbb{R}}^ m). Si l'on rappelle l'inégalité de Cauchy-Schwarz on note que [leftlVert {Ax} ight Vert^2 = sum_{i=1}^m { left(sum_{j=1}^n gamma^j a_j^i ight)}^2 leq sum_{i=1}^m { left(sum_{j=1}^n {(gamma^j)}^2 ight) left(sum_{j=1}^n {(a_j^i)}^2 ight) } = sum_{i=1}^m left(sum_{j=1}^n {(a_j^ i)}^2 ight) leftlVert {x} ight Vert^2 .] Autrement dit, on a une borne sur l'opérateur norm [leftlVert {A} ight Vert leq sqrt{sum_{i=1}^m sum_{j=1}^n {(a_j^i)}^2} .] Si les entrées vont à zéro, alors (leftlVert { A} ight Vert) passe à zéro. En particulier, si (A) si fixe et (B) change de telle sorte que les entrées de (A-B) passent à zéro alors (B) passe à (A) dans la norme de l'opérateur. C'est-à-dire que (B) va vers (A) dans la topologie de l'espace métrique induite par la norme de l'opérateur. Nous avons prouvé la première partie de : Si (f colon S o {mathbb{R}}^{nm}) est une fonction continue pour un espace métrique (S), alors en prenant les composantes de (f) en tant qu'entrées d'une matrice, (f) est une application continue de (S) vers (L({mathbb{R}}^n,{mathbb{R}}^m )). Inversement si (f colon S o L({mathbb{R}}^n,{mathbb{R}}^m)) est une fonction continue alors les entrées de la matrice sont des fonctions continues.La preuve de la deuxième partie est assez facile. Prenez (f(x) e_j) et notez qu'il s'agit d'une fonction continue vers ({mathbb{R}}^m) avec la norme euclidienne standard (Note (leftlVert {(AB)e_j} right Vert leq leftlVert {AB} ight Vert)). Une telle fonction rappelle depuis le semestre dernier qu'une telle fonction est continue si et seulement si ses composantes sont continues et ce sont les composantes de la (j)ème colonne de la matrice (f(x)). agréable d'avoir un test facile pour savoir quand une matrice est inversible. C'est là qu'interviennent les déterminants. Définissez d'abord le symbole (operatorname{sgn}(x)) pour un nombre est défini par [operatorname{sgn}(x) := egin{cases} -1 & text{ if $x < 0$} , 0 & ext{ if $x = 0$} , 1 & ext{ if $x > 0$} . end{cases}] Supposons que (sigma = (sigma_1,ldots,sigma_n)) soit une permutation des entiers ((1,ldots,n)). Il n'est pas difficile de voir que toute permutation peut être obtenue par une séquence de transpositions (commutations de deux éléments). Appelez une permutation paire (resp. impair) s'il faut un nombre pair (resp. impair) de transpositions pour passer de (sigma) à ((1,ldots,n)). On peut montrer que cela est bien défini, en fait il n'est pas difficile de montrer que [operatorname{sgn}(sigma) := operatorname{sgn}(sigma_1,ldots,sigma_n) = prod_ {p < q} operatorname{sgn}(sigma_q-sigma_p)] est (1) si (sigma) est pair et (-1) si (sigma) est impair . Ce fait peut être prouvé en remarquant que l'application d'une transposition change le signe, ce qui n'est pas difficile à prouver par récurrence sur (n). Notons ensuite que le signe de ((1,2,ldots,n)) est 1. Soit (S_n) l'ensemble de toutes les permutations sur les éléments (n) (le groupe symétrique). Soit (A= [a_j^i]) une matrice. Définir le déterminant de (A) [det(A) := sum_{sigma in S_n} operatorname{sgn} (sigma) prod_{i=1}^n a_{sigma_i} ^i .](det(I) = 1).(det([x_1 x_2 ldots x_n ])) en fonction des vecteurs colonnes (x_j) est linéaire dans chaque variable ( x_j) séparément.Si deux colonnes d'une matrice sont interverties, alors le déterminant change de signe.Si deux colonnes de (A) sont égales, alors (det(A) = 0).Si une colonne est nulle , alors (det(A) = 0).(A mapsto det(A)) est une fonction continue.(detleft[egin{smallmatrix} a & b c &d end{smallmatrix} ight] = ad-bc) et (det [a] = a).En fait, le déterminant est l'unique fonction qui satisfait (i), (ii) et (iii) . Mais nous nous écartons. Nous parcourons la preuve rapidement, comme vous l'avez probablement déjà vu. (i) est trivial. Pour (ii) Notez que chaque terme dans la définition du déterminant contient exactement un facteur de chaque colonne. La partie (iii) suit en notant que la commutation de deux colonnes est comme la commutation des deux nombres correspondants dans chaque élément dans (S_n). Par conséquent, tous les signes sont modifiés. La partie (iv) suit parce que si deux colonnes sont égales et que nous les intervertissons, nous obtenons la même matrice et donc la partie (iii) dit que le déterminant doit avoir été 0. La partie (v) suit parce que le produit dans chaque terme de la définition comprend un élément de la colonne zéro. La partie (vi) suit car (det) est un polynôme dans les entrées de la matrice et donc continu. Nous avons vu qu'une fonction définie sur des matrices est continue dans la norme de l'opérateur si elle est continue dans les entrées. Enfin, la partie (vii) est un calcul direct. Si (A) et (B) sont des matrices (n imes n), alors (det(AB) = det(A)det (B)). En particulier, (A) est inversible si et seulement si (det(A) ot= 0) et dans ce cas, (det(A^{-1}) = frac{1} {det(A)}). Soit (b_1,b_2,ldots,b_n) les colonnes de (B). Alors [AB = [ Ab_1 quad Ab_2 quad cdots quad Ab_n ] .] Autrement dit, les colonnes de (AB) sont (Ab_1,Ab_2,ldots,Ab_n). Soit (b_j ^i) désignent les éléments de (B) et (a_j) les colonnes de (A). Notez que (Ae_j = a_j). Par linéarité du déterminant comme prouvé ci-dessus on a [egin{split} det(AB) & = det ([ Ab_1 quad Ab_2 quad cdots quad Ab_n ]) = det left(left[ sum_{j=1}^n b_1^ja_j quad Ab_2 quad cdots quad Ab_n ight] ight) & = sum_{j=1}^n b_1^j det ([ a_j quad Ab_2 quad cdots quad Ab_n ]) & = sum_{1 leq j_1,j_2,ldots,j_n leq n} b_1^{j_1} b_2^{j_2} cdots b_n^{j_n} det ([ a_{j_1} quad a_{j_2} quad cdots quad a_{j_n} ]) & = left( sum_{(j_1,j_2,ldots,j_n) in S_n} b_1^{j_1} b_2^{j_2} cdots b_n^{j_n} operatorname{sgn}(j_1,j_2,ldots,j_n) ight) det ([ a_{1} quad a_{2} quad cdots quad a_{n} ]) . end{split}] Dans ce qui précède, passez de tous les entiers compris entre 1 et (n), aux éléments de (S_n) en notant que lorsque deux colonnes du déterminant sont identiques alors le déterminant est zéro . Nous réorganisons ensuite les colonnes dans l'ordre d'origine et obtenons le sgn. La conclusion suit en reconnaissant le déterminant de (B). Les lignes et les colonnes sont permutées, mais un instant de réflexion révèle que cela n'a pas d'importance. On pourrait aussi simplement brancher (A=I) ci-dessus. Pour la deuxième partie du théorème notons que si (A) est inversible, alors (A^{-1}A = I) et ainsi (det(A^{-1})det(A) = 1). Si (A) n'est pas inversible, alors les colonnes sont linéairement dépendantes. C'est-à-dire, supposons [sum_{j=1}^n c^j a_j = 0 .] Sans perte de généralité, supposons (c^1 eq 1). Prenons [B := egin{bmatrix} c^1 & 0 & 0 & cdots & 0 c^2 & 1 & 0 & cdots & 0 c^3 & 0 & 1 & cdots & 0 vdots & vdots & vdots & ddots & vdots c^n & 0 & 0 & cdots & 1 end{bmatrix} .] Il n'est pas difficile de voir d'après la définition que (det(B) = c^1 ot= 0). Alors (det(AB) = det(A)det(B) = c^1det(A)). Notez que la première colonne de (AB) est zéro, et donc (det(AB) = 0). Ainsi (det(A) = 0). Il existe des types arborescents de matrices dites élémentaires. D'abord pour certains (j = 1,2,ldots,n) et certains (lambda in {mathbb{R}}), (lambda eq 0), un (n fois n) matrice (E) définie par [Ee_i = egin{cases} e_i & ext{if $i eq j$} , lambda e_i & ext{if $i = j$ } . end{cases}] Étant donné toute matrice (n imes m) (M) la matrice (EM) est la même matrice que (M) sauf avec la (k)ème rangée multiplié par (lambda). C'est un calcul (exercice) facile que (det(E) = lambda).Deuxièmement, pour certains (j) et (k) avec (j eq k), et ( lambda in {mathbb{R}}) une matrice (n imes n) (E) définie par [Ee_i = egin{cases} e_i & ext{if $i eq j $} , e_i + lambda e_k & ext{if $i = j$} . end{cases}] Étant donné toute matrice (n imes m) (M) la matrice (EM) est la même matrice que (M) sauf avec (lambda) fois le (k)ème ligne ajoutée à la (j)ème ligne. C'est un calcul (exercice) facile que (det(E) = 1).Enfin pour certains (j) et (k) avec (j eq k) un (n imes n) matrice (E) définie par [Ee_i = egin{cases} e_i & ext{if $i eq j$ et $i eq k$} , e_k & ext{if $ i = j$} , e_j & ext{if $i = k$} . end{cases}] Étant donné toute matrice (n imes m) (M) la matrice (EM) est la même matrice avec les (j)ème et (k)ème lignes échangées . C'est un calcul (exercice) facile que (det(E) = -1). Les matrices élémentaires sont utiles pour calculer le déterminant. La preuve de la proposition suivante est laissée en exercice.[prop:elemmatrixdecomp] Soit (T) une matrice (n imes n) inversible. Alors il existe une suite finie de matrices élémentaires (E_1, E_2, ldots, E_k) telle que [T = E_1 E_2 cdots E_k ,] et [det(T) = det(E_1) det(E_2)cdots det(E_k) .]Le déterminant est indépendant de la base. Autrement dit, si (B) est inversible alors, [det(A) = det(B^{-1}AB) .]La preuve est immédiate. Si dans une base (A) est la matrice représentant un opérateur linéaire, alors pour une autre base on peut trouver une matrice (B) telle que la matrice (B^{-1}AB) nous amène au première base, applique (A) dans la première base, et nous ramène à la base avec laquelle nous avons commencé. Par conséquent, le déterminant peut être défini comme une fonction sur l'espace (L(X)) pour un espace métrique de dimension finie (X), pas seulement sur les matrices. Nous choisissons une base sur (X), et nous pouvons représenter une application linéaire en utilisant une matrice par rapport à cette base. On obtient le même déterminant que si on avait utilisé n'importe quelle autre base. Il résulte des deux propositions que [det colon L(X) o {mathbb{R}}] est une fonction bien définie et continue.ExercicesSi (X) est un espace vectoriel avec une norme (leftlVert {cdot} ight Vert), puis montrer que (d(x,y) := leftlVert {xy} ight Vert) fait de (X) un espace métrique.Vérifier le calcul du déterminant pour les trois types de matrices élémentaires.

9.2 - Analyse discriminante

Soit le vecteur caractéristique X et les étiquettes de classe Y.

La règle de Bayes dit que si vous avez la distribution conjointe de X et Y, et si X est donné, sous une perte de 0-1, la décision optimale sur Y est de choisir une classe avec une probabilité postérieure maximale étant donné X.

L'analyse discriminante appartient à la branche des méthodes de classification appelée modélisation générative, où nous essayons d'estimer la densité intra-classe de X étant donné l'étiquette de classe. Combinée à la probabilité a priori (probabilité inconditionnée) des classes, la probabilité a posteriori de Y peut être obtenue par la formule de Bayes.

Notation

Supposons la probabilité a priori ou le pmf marginal pour la classe k est noté (pi_k), (sum^_ pi_k =1 ).

πk est généralement estimé simplement par les fréquences empiriques de l'ensemble d'apprentissage :

Vous disposez de l'ensemble de données d'entraînement et vous comptez le pourcentage de données provenant d'une certaine classe.

Ensuite, nous avons besoin de la densité conditionnelle de classe de X. Rappelez-vous qu'il s'agit de la densité de X conditionnée par la classe k, ou classe g = k noté(f _ < k >( x )).

Selon la règle de Bayes, ce dont nous avons besoin est de calculer la probabilité a posteriori :

C'est une probabilité conditionnelle de classe g étant donné X.

Par MAP (maximum a posteriori, c'est-à-dire la règle de Bayes pour une perte 0-1) :

Notez que le dénominateur est identique quelle que soit la classe k vous utilisez. Par conséquent, pour la maximisation, cela ne fait pas de différence dans le choix de k. La règle MAP essaie essentiellement de maximiser (pi_k)fois (f_k(x)).


Analyse dans les espaces vectoriels

Les concepts et les théorèmes du calcul avancé combinés aux méthodes de calcul connexes sont essentiels pour comprendre presque tous les domaines de la science quantitative. Analyse dans les espaces vectoriels présente les résultats centraux de ce sujet classique à travers des arguments rigoureux, des discussions et des exemples. Le livre vise à cultiver non seulement la connaissance des principaux résultats théoriques, mais aussi l'intuition géométrique nécessaire à la fois à la résolution de problèmes mathématiques et à la modélisation dans les sciences formelles.

Les auteurs commencent par un aperçu des concepts clés, de la terminologie et de la notation et fournissent également une introduction de base à la théorie des ensembles, aux propriétés des nombres réels et une revue de l'algèbre linéaire. Une approche élégante des problèmes de vecteurs propres et du théorème spectral prépare le terrain pour des résultats ultérieurs sur le volume et l'intégration. Les chapitres suivants présentent les principaux résultats du calcul différentiel et intégral de plusieurs variables ainsi que la théorie des variétés. La couverture thématique supplémentaire comprend :

  • Ensembles et fonctions
  • Nombres réels
  • Fonctions vectorielles
  • Espaces vectoriels normés
  • Dérivées de premier ordre et d'ordre supérieur
  • Difféomorphismes et variétés
  • Intégrales multiples
  • Intégration sur collecteurs
  • théorème de Stokes
  • Topologie d'ensemble de points de base

De nombreux exemples et exercices sont fournis dans chaque chapitre pour renforcer les nouveaux concepts et pour illustrer comment les résultats peuvent être appliqués à des problèmes supplémentaires. De plus, les preuves et les exemples sont présentés dans un style clair qui met l'accent sur les idées intuitives sous-jacentes. Des contre-exemples sont fournis tout au long du livre pour mettre en garde contre d'éventuelles erreurs, et des annexes détaillées décrivent la construction de nombres réels, incluent un résultat fondamental sur la dimension et présentent des résultats généraux sur les déterminants.

En supposant seulement une compréhension fondamentale de l'algèbre linéaire et du calcul à variable unique, Analyse dans les espaces vectoriels est un excellent livre pour un deuxième cours d'analyse pour les mathématiques, la physique, l'informatique et l'ingénierie aux niveaux du premier cycle et des cycles supérieurs. Il sert également de référence précieuse pour une étude plus approfondie dans toute discipline qui nécessite une solide compréhension des techniques et des concepts mathématiques.


무한차원 벡터공간(espace vectoriel)의 기저(base)

$n$차원 벡터공간(espace vectoriel) $R^n$의 표준기저(base standard)다음과 같이 정의한다.

여기서 각각의 $i = 1,, ldots,, n$에 $e_i$는 $i$번째 성분이 $1$이고 나머지 모든 성분은 $인 $n$차원 벡터이다. 예를 들어 $3$차원 벡터공간 $R^3$는 다음의 표준기저 $B_3 = $를 갖는다.

$R^$에 보자. $R^n$의 표준기저를 정의했던 것과 유사하게, 각각의 $i in N$에 대하여 $e_i$를 $i$번째 항이 $1$이고 나머지 모든 항은 $인 수열로 정의하여 ,

$R^$의 (표준)기저로 있다. 이는 틀린 짐작인데, 그 이유를 확인하기 위해서는 먼저 기저(base)정의를 한다. .

$V$의 원소들로 이루어진 "유한"집합 $B = $가 하자. $V$의 임의의 원소 $x$에 대하여, 스칼라 $t_1,, t_2,, ldots,, t_n$이 유일하게 존재하여

나타낼 수 있으면, $B$를 $V$의 기저(base)하고 이 때의 집합 $B$의 원소의 개수를 $V$의 차원(dimension)정의한다.

. 의하면 하는데, $V$가 벡터공간이라면 $V$를 생성하는 유한집합이 존재하지 않기 때문에, $V$에 기저가 존재하지 않는다는 결론 얻는다. 하지만 초른의 보조정리(Lemme de Zorn)사용하면, (유한차원, 상관 없이) 기저를 있다. [1]

때문에, 간단히 위하여 벡터공간의 한정하여 정의하고 . 정의해야 할까?

, $B$가 보았다. $B$가 무한선형결합

고려해 주어야 하는데, 위 식의 우변의 무한합을 정의하기 위해서는 주어진 벡터공간에 최소한 위상(topologie)주어져야 하기 때문이다. (위상을 정의하지 않은) $V$에 , $V$의 $B$가 .

. 벡터공간의 하멜 기저(base Hamel)

$V$의 $B$가 . (이 때, $B$는 크기는 유한 또는 무한이 될 수 있다.) 만약 $V$의 임의의 원소 $x$에 대하여, $B$의 원소 $e_,, e_,, ldots,, e_$과 스칼라 $t_1,, t_2,, ldots,, t_n$이 유일하게 존재하여

나타낼 수 있으면, $B$를 $V$의 하멜 기저(base Hamel)하고 이 때의 $B$의 기수(cardinalité)$V$의 (하멜) 차원(dimension)정의한다.

를 택하면, $a$는 $B_$의 원소들의 "유한"선형결합으로 표현할 수 없음을 쉽게 확인할 수 있고, 따라서 $B_$는 $R^ $가 . 그렇다면 새로운 집합 $B_ cup $는 $R^$의 있을까? 다음과 같이 실수열

정의하면, $b$는 $B_ cup $의 "유한"선형결합으로 . 물론 집합을 더 확장하여 $B_ cup $를 고려해 주더라도, 이 집합의 원소들의 "유한"선형결합으로 표현되지 않는 $R^$의 원소가 존재한다. 하지만 이와 같은 과정을 무한히 반복하다보면 언젠가는 $R^$의 (하멜) 기저를 구성할 수 있으리라는 사실 또한 (초른의 보조정리에 의해) 알 수 있다. 그렇다면 $R^$의 기저의 기수는 얼마나 커야 하는 것일까?

벡터공간 $R^$에 적당히 노름(norm)을 정의하면, ($R^$는 모든 수열을 포함하고 있으므로) 자명하게 바나흐 공간이 된다. 그러면 아래 정리에 의해서 $R^$의 기저의 기수는 가산일 수 없음을 보일 수 있다.

무한차원 바나흐 공간은 가산개의 하멜 기저를 가질 수 없다.

증명. $V$가 무한차원 바나흐 공간이라 하고, $V$에 가산개의 하멜 기저 $B$가 존재한다고 가정해 보자. $B$가 가산이므로 $B = < e_1,, e_2,, e_3,, ldots >$와 같이 나타낼 수 있다. 또한 임의의 $x in V$가 $B$의 원소들의 유한선형결합으로 표현이 가능하므로

이 성립한다. 이제 각각의 $n in N$에 대하여, $W_n = operatorname$으로 정의하자. 그러면 각각의 $W_n$은 $V$의 부분집합이면서 유한차원이므로, $V$의 진부분집합(proper subspace)이어야만 한다. 한 편, 임의의 노름공간(normed space)의 진부분집합의 내부(interior)는 공집합이므로, 각각의 $W_n$은 조밀한 곳이 없는 집합(nowhere dense set)임을 알 수 있다.

즉, $V$를 조밀한 곳이 없는 집합의 가산 합집합으로 나타낼 수 있고 이는 $V$가 제1범주(first category)에 속함을 의미한다. 하지만 $V$는 바나흐 공간이므로 제2범주(second category)여야만 하므로, 모순이 발생한다. 따라서 $V$는 가산개의 하멜 기저를 가질 수 없다. .

  1. 사실, 무한차원 바나흐 공간의 (하멜) 차원은 (연속체 가설(continuum hypothesis)의 참/거짓 여부에 상관 없이) 적어도 $abs$ 이상이어야 한다. 이와 같은 이유로, 무한차원 바나흐 공간에서 (하멜) 기저는 거의 이용되지 않는다.
  2. 위의 정리에 의하면, 만약 어떤 벡터공간 $V$의 (하멜) 차원이 가산이라면, $V$에 완비 노름(complete norm)을 정의할 수 없다. 예를 들어 $B_$로 생성되는 벡터공간 (즉, 유한개의 항을 제외한 모든 항이 $인 실수열들을 모아놓은 공간. 이는 다항식을 모두 모아 놓은 벡터공간과 동형이다.) 에는 완비 노름을 정의할 수 없다.

무한차원 벡터공간 $V$에 노름이 주어지지 않은 경우, 유한선형결합만을 이용할 수 밖에 없다는 사실로 인해 하멜 기저를 이용하여 $V$의 성질을 연구하는데 제약이 많다. 반면에, 벡터공간 $V$에 노름 $ orm$을 (좀 더 일반적으로, 위상을) 정의하고 나면, 다음과 같은 무한선형결합

을 정의할 수 있다. 따라서 노름이 정의된 벡터공간에는 위의 무한합을 이용하여 다음과 같이 샤우데르 기저(Schauder basis)를 정의할 수 있다.

정의. 바나흐 공간의 샤우데르 기저(Schauder basis)

가 있다고 하자. 만약 임의의 $x in V$에 대하여, 스칼라로 이루어진 수열 $(t_n)$이 유일하게 존재하여

로 나타낼 수 있을 때, 수열 $B$를 $V$의 샤우데르 기저(Schauder basis)라 한다.

위에서 식 $myblue<(ast)>$의 무한합의 수렴성은 주어진 노름에 의해 결정된다. 즉, 위 식은 스칼라 수열 $(t_n)$이 유일하게 존재하여


MATLAB ASSIGNMENTS (due in discussion session):

  • Assignment #1 Due Friday March 1
  • Assignment #2 Due Friday March 15
  • Assignment #3 Due Friday April 5
  • Assignment #4 Due Friday April 19
  • Assignment #5 Due Friday May 3
  • Midterm 1: Monday February 18th - Exam, Solution
  • Midterm 2: Monday April 1st - Exam, Solution
  • Midterm 3: Monday May 6th - Exam, Solution

Note: The homework assignments below are from the latest 4th edition of Lay's book. Unfortunately, the problems in the 3rd edition are different (so the 3rd edition cannot be used to complete homework assignments).


Analysis in Vector Spaces

A rigorous introduction to calculus in vector spaces The concepts and theorems of advanced calculus combined with related computational methods are essential to understanding nearly all areas of quantitative science. Analysis in Vector Spaces presents the central results of this classic subject through rigorous arguments, discussions, and examples. The book aims to cultivate.

A rigorous introduction to calculus in vector spaces The concepts and theorems of advanced calculus combined with related computational methods are essential to understanding nearly all areas of quantitative science. Analysis in Vector Spaces presents the central results of this classic subject through rigorous arguments, discussions, and examples. The book aims to cultivate not only knowledge of the major theoretical results, but also the geometric intuition needed for both mathematical problem-solving and modeling in the formal sciences. The authors begin with an outline of key concepts, terminology, and notation and also provide a basic introduction to set theory, the properties of real numbers, and a review of linear algebra. An elegant approach to eigenvector problems and the spectral theorem sets the stage for later results on volume and integration. Subsequent chapters present the major results of differential and integral calculus of several variables as well as the theory of manifolds. Additional topical coverage includes: Sets and functions Real numbers Vector functions Normed vector spaces First- and higher-order derivatives Diffeomorphisms and manifolds Multiple integrals Integration on manifolds Stokes' theorem Basic point set topology Numerous examples and exercises are provided in each chapter to reinforce new concepts and to illustrate how results can be applied to additional problems. Furthermore, proofs and examples are presented in a clear style that emphasizes the underlying intuitive ideas. Counterexamples are provided throughout the book to warn against possible mistakes, and extensive appendices outline the construction of real numbers, include a fundamental result about dimension, and present general results about determinants. Assuming only a fundamental understanding of linear algebra and single variable calculus, Analysis in Vector Spaces is an excellent book for a second course in analysis for mathematics, physics, computer science, and engineering majors at the undergraduate and graduate levels. It also serves as a valuable reference for further study in any discipline that requires a firm understanding of mathematical techniques and concepts.


9.2: Analysis with Vector spaces - Mathematics

Course description: Basic linear algebra matrix arithmetic and determinants. Vector spaces inner product spaces. Eigenvalues and eigenvectors linear transformations symmetric matrices and SVD. Homogeneous ordinary differential equations Fourier series and partial differential equations.

Instructeur: Nikhil Srivastava, email: firstname at math.obvious.edu

Please come to office hours or consult with your GSI before sending me email about logistical concerns. As far as possible, please use Piazza for mathematical questions.

Lectures: TTh 5:00-6:30pm, Wheeler 150.

Section: MWF, see list for times

Office Hours: W 5-6:30pm, Th 12:30-2pm (1035 Evans)

Course Control Number: 20365

List of GSI's and Office Hours: txt

  • Thomas Brown, 965 Evans, [email protected]
  • Jennifer Sixt, 964 Evans, [email protected]

Online Guidelines, describing how the course will be delivered online

Textbook:Linear Algebra and Differential Equations, Second Third Custom Edition for UC Berkeley, by Lay, Nagle, Saff and Snider (includes 5e of Lay and 9e of NSS). picture of the cover

Classement: 5% HW, 15% quizzes, 20% x 2 midterms, 40% final. The bottom three HW and Quiz grades will be dropped, and the lower midterm score will be replaced by the final, if it helps. All exams will be curved. The median grade will be at least a B-. This is not an upperbound if everyone does extremely well, I will be happy to give everyone an A+.

Exams: There will be two in-class midterm exams on Thursday, 2/20, et Tuesday, 4/7. There will be no makeup exams, except for documented medical emergencies.

Quizzes will be held in section every Wednesday. They will cover material up to the preceding Thursday. The quizzes will be substantially easier than the exams, are and designed to regularly check basic understanding of the material, so that you know in case you are falling behind.


Product description

Review

From the Inside Flap

A rigorous introduction to calculus in vector spaces

The concepts and theorems of advanced calculus combined with related computational methods are essential to understanding nearly all areas of quantitative science. Analysis in Vector Spaces presents the central results of this classic subject through rigorous arguments, discussions, and examples. The book aims to cultivate not only knowledge of the major theoretical results, but also the geometric intuition needed for both mathematical problem-solving and modeling in the formal sciences.

The authors begin with an outline of key concepts, terminology, and notation and also provide a basic introduction to set theory, the properties of real numbers, and a review of linear algebra. An elegant approach to eigenvector problems and the spectral theorem sets the stage for later results on volume and integration. Subsequent chapters present the major results of differential and integral calculus of several variables as well as the theory of manifolds. Additional topical coverage includes:

  • Sets and functions
  • Real numbers
  • Vector functions
  • Normed vector spaces
  • First- and higher-order derivatives
  • Diffeomorphisms and manifolds
  • Multiple integrals
  • Integration on manifolds
  • Stokes' theorem
  • Basic point set topology

Numerous examples and exercises are provided in each chapter to reinforce new concepts and to illustrate how results can be applied to additional problems. Furthermore, proofs and examples are presented in a clear style that emphasizes the underlying intuitive ideas. Counterexamples are provided throughout the book to warn against possible mistakes, and extensive appendices outline the construction of real numbers, include a fundamental result about dimension, and present general results about determinants.

Assuming only a fundamental understanding of linear algebra and single variable calculus, Analysis in Vector Spaces is an excellent book for a second course in analysis for mathematics, physics, computer science, and engineering majors at the undergraduate and graduate levels. It also serves as a valuable reference for further study in any discipline that requires a firm understanding of mathematical techniques and concepts.

From the Back Cover

A rigorous introduction to calculus in vector spaces

The concepts and theorems of advanced calculus combined with related computational methods are essential to understanding nearly all areas of quantitative science. Analysis in Vector Spaces presents the central results of this classic subject through rigorous arguments, discussions, and examples. The book aims to cultivate not only knowledge of the major theoretical results, but also the geometric intuition needed for both mathematical problem-solving and modeling in the formal sciences.

The authors begin with an outline of key concepts, terminology, and notation and also provide a basic introduction to set theory, the properties of real numbers, and a review of linear algebra. An elegant approach to eigenvector problems and the spectral theorem sets the stage for later results on volume and integration. Subsequent chapters present the major results of differential and integral calculus of several variables as well as the theory of manifolds. Additional topical coverage includes:

  • Sets and functions
  • Real numbers
  • Vector functions
  • Normed vector spaces
  • First- and higher-order derivatives
  • Diffeomorphisms and manifolds
  • Multiple integrals
  • Integration on manifolds
  • Stokes' theorem
  • Basic point set topology

Numerous examples and exercises are provided in each chapter to reinforce new concepts and to illustrate how results can be applied to additional problems. Furthermore, proofs and examples are presented in a clear style that emphasizes the underlying intuitive ideas. Counterexamples are provided throughout the book to warn against possible mistakes, and extensive appendices outline the construction of real numbers, include a fundamental result about dimension, and present general results about determinants.

Assuming only a fundamental understanding of linear algebra and single variable calculus, Analysis in Vector Spaces is an excellent book for a second course in analysis for mathematics, physics, computer science, and engineering majors at the undergraduate and graduate levels. It also serves as a valuable reference for further study in any discipline that requires a firm understanding of mathematical techniques and concepts.

About the Author

PAUL F.A. BARTHA, PhD, is Associate Professor in the Department of Philosophy at The University of British Columbia, Canada. He has authored or coauthored journal articles on topics such as probability and symmetry, probabilistic paradoxes, and the general philosophy of science.

DZUNG MINH HA, PhD, is Associate Professor in the Department of Mathematics at Ryerson University, Canada. Dr. Ha focuses his research in the areas of ergodic theory and operator theory.


Table of Contents

This book introduces functional analysis to undergraduate mathematics students who possess a basic background in analysis and linear algebra. By studying how the Volterra operator acts on vector spaces of continuous functions, its readers will sharpen their skills, reinterpret what they already know, and learn fundamental Banach-space techniques&mdashall in the pursuit of two celebrated results: the Titchmarsh Convolution Theorem and the Volterra Invariant Subspace Theorem. Exercises throughout the text enhance the material and facilitate interactive study.

Undergraduate students interested in functional analysis and operator theory.

I would recommend this book to anyone seeking a pleasant read on functional analysis. The book elegantly and clearly traverses the varied paths of mathematics (algebraic and analytical, real and complex, finite and transfinite), gently leading the reader to profound and relevant results of modern analysis.

-- Daniel M. Pellegrino, Mathematical Reviews

The author has worked hard to make these topics accessible to undergraduates who have taken (good) courses in linear algebra and real analysis. The exposition is, throughout the book, of very high quality. Shapiro is a talented writer, and he knows how to explain things clearly and engagingly, in easily-digested pieces for an undergraduate audience. it will offer students an accessible, stimulating, and informative look at a beautiful branch of mathematics.


Practice Using Scikit-learn (sklearn)

* In this tutorial I’m using the Python 2.7.5 and Scikit-learn 0.14.1.

The first thing we need to do is to define our set of example documents:

And then we instantiate the Sklearn TF-IDF Vectorizer and transform our documents into the TF-IDF matrix:

Now we have the TF-IDF matrix (tfidf_matrix) for each document (the number of rows of the matrix) with 11 tf-idf terms (the number of columns from the matrix), we can calculate the Cosine Similarity between the first document (“The sky is blue”) with each of the other documents of the set:

le tfidf_matrix[0:1] is the Scipy operation to get the first row of the sparse matrix and the resulting array is the Cosine Similarity between the first document with all documents in the set. Note that the first value of the array is 1.0 because it is the Cosine Similarity between the first document with itself. Also note that due to the presence of similar words on the third document (“The sun in the sky is bright”), it achieved a better score.

If you want, you can also solve the Cosine Similarity for the angle between vectors:

We only need to isolate the angle () and move the to the right hand of the equation:

The is the same as the inverse of the cosine ().

58.5 is the angle between the first and the third document of our document set.


Voir la vidéo: yhtälön ratkaisu keinulauta 2 (Décembre 2021).