Independance lineaire

Independance lineaire

Indépendance linéaire

En algèbre linéaire, étant donnée une famille de vecteurs, les vecteurs de la famille sont linéairement indépendants si toute combinaison linéaire finie nulle de ces vecteurs a nécessairement tous ses coefficients nuls. Cela revient à dire qu'aucun des vecteurs de la famille n'est combinaison linéaire finie des autres. Par exemple dans l'espace vectoriel euclidien \mathbb{R}^3 les trois vecteurs (1,0,0), (0,1,0) et (0,0,1) sont linéairement indépendants, tandis que (2, − 1,1), (1,0,1) et (3, − 1,2) ne sont pas linéairement indépendants. Dans le cas où des vecteurs ne sont pas linéairement indépendants, ils sont dits linéairement dépendants.

Sommaire

Définitions

  • Soient n un entier naturel non nul, et v_1, \ldots, v_n n vecteurs d'un espace vectoriel E sur un corps commutatif K. Les vecteurs sont dits linéairement indépendants si
\forall (a_1, \ldots, a_n)\in K^n, \quad a_1.v_1+\ldots+a_n.v_n=0_E\Rightarrow a_1=a_2=\cdots=a_n=0_K.

Autrement dit toute combinaison linéaire nulle des vecteurs v_1, \ldots, v_n a nécessairement des coefficients tous nuls, c'est-à-dire que la seule combinaison linéaire nulle de ces vecteurs est la combinaison linéaire triviale.

La famille (v_1, \ldots, v_n) est alors dite libre.

Dans le cas contraire, les vecteurs sont dits linéairement dépendants et ainsi v_1, \ldots, v_n sont linéairement dépendants si par définition:

\exists (a_1, \ldots, a_n)\in K^n\backslash \{0\}, \quad a_1.v_1+a_2.v_2+\cdots+a_n.v_n=0_E.

Cela signifie qu'il existe des scalaires non tous nuls tels que la combinaison linéaire de v_1, \ldots, v_n associée soit nulle.

Dans ce cas, la famille (v_1, \ldots, v_n) est dite liée.

Remarque: le zéro à droite est le vecteur nul, pas le zéro du corps.

  • Soit E un K-espace vectoriel, et soit (v_i)_{i\in I} une famille de vecteurs de E. La famille est libre (ou les vecteurs de la famille sont linéairement indépendants) si pour toute famille finie (a_j)_{j\in J} d'éléments de K dont l'ensemble d'indices J est inclus dans I,
 \sum_{j \in J} a_j.v_j = 0_E\Rightarrow (\forall j\in J, a_j=0_K) \,.

Soit E un K-espace vectoriel, et soit (v_i)_{i\in I} une famille de vecteurs de E. La famille est liée (ou les vecteurs de la famille sont linéairement dépendants) s'il existe une famille finie (a_j)_{j\in J} d'éléments de K non nuls telle que

 \sum_{j \in J} a_j.v_j = 0_E \,

où l'ensemble d'indices J est un sous-ensemble fini non vide de I.

Nous définirions de même la notion de partie libre ou liée. Une partie A de E est alors libre si et seulement si la famille (a)_{a\in A} est libre et une partie A de E est liée si et seulement si la famille (a)_{a\in A} est liée.

Une famille est liée si et seulement si l'un de ses éléments appartient au sous-espace vectoriel engendré par les autres vecteurs de la famille.

Résultat important: Une partie libre de vecteurs d'un espace vectoriel forme une partie basique de l'espace vectoriel engendré par la partie.

Exemples

Exemple 1

Les vecteurs (1,1) et ( − 3,2) dans \mathbb{R}^2 sont linéairement indépendants.

Démonstration

Soit a et b deux nombres réels tels que

a \left( 1, 1 \right) + b \left( -3, 2 \right) = \left( 0, 0 \right)

Alors

\left( a - 3b, a + 2b\right) = \left(0, 0\right) et
\ a - 3b = 0 et \ a + 2b = 0.

Ces deux relations nous donnent immédiatement a = 0 et b = 0.

Autre démonstration utilisant les déterminants

Une autre méthode utilise le fait que n vecteurs de \mathbb{R}^n sont linéairement dépendants si et seulement si le déterminant de la matrice obtenue en plaçant les composantes des vecteurs en colonne est nulle.

Dans ce cas, la matrice formées par les composantes des vecteurs s'écrit:

A = \begin{pmatrix}1&-3\\1&2\end{pmatrix}. \,

Le déterminant de cette matrice est:

\det(A) = 1\cdot2 - 1\cdot(-3) = 5 \ne 0.

Puisque le déterminant de cette matrice est non nul, les vecteurs (1,1) et ( − 3,2) sont linéairement indépendants. Cette méthode peut seulement être appliquée lorsque le nombre de vecteurs est égal au nombre de composantes des vecteurs.

Exemple 2

Soit E=\mathbb{R}^n et considérons les éléments suivants de E:

\begin{matrix}
\mathbf{e}_1 & = & (1,0,0,\ldots,0) \\
\mathbf{e}_2 & = & (0,1,0,\ldots,0) \\
& \vdots \\
\mathbf{e}_n & = & (0,0,0,\ldots,1).\end{matrix}

Alors \mathbf{e}_1, \mathbf{e}_2,\ldots, \mathbf{e}_n sont linéairement indépendants.

Démonstration

Supposons que a1, a2, ..., an soient des réels tels que :

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = 0 \,

Donc

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = (a_1 ,a_2 ,\ldots, a_n) \,

Et ainsi

\forall i\in \{1,\ldots, n\}, a_i=0.

Exemple 3

Soit \mathcal{F} l'espace vectoriel de toutes les fonctions réelles d'une variable réelle.

Alors les fonctions t\mapsto e^t et t\mapsto e^{2t} de \mathcal{F} sont linéairement indépendantes.

Démonstration

Supposons que a et b soient des nombres réels tels que

a(t\mapsto e^t)+b(t\mapsto e^{2t})=(t\mapsto 0)

Alors

\forall t\in \mathbb{R}, ae^{t}+be^{2t}=0

Nous voulons montrer que a = 0 et b = 0;

Dans ce but, divisons pat et (qui n'est jamais nul) et soustrayons a pour obtenir:

\forall t\in \mathbb{R}, be^t=-a

En d'autres termes, la fonction t\mapsto be^t doit être constante, ce qui ne peut se produire que lorsque b = 0. Il s'ensuit que a est aussi nul.

Espace projectif des dépendances linéaires

Une relation de dépendance linéaire de n vecteurs \mathbf{v}_1, \ldots, \mathbf{v}_n peut être représentée par un n-uplet (a_1, \ldots, a_n) de n scalaires, non tous nuls, tels que

a_1 \mathbf{v}_1 + \cdots + a_n \mathbf{v}_n=0. \,

Si une telle relation de dépendance linéaire existe, alors les n vecteurs sont linéairement dépendants. Il est alors possible d'identifier deux relations de dépendances linéaires si l'une est multiple non nul de l'autre relation, parce que dans ce cas les deux correspondent à la même dépendance linéaire des vecteurs entre eux. Sous, cette identification, l'ensemble des n-uplets décrivant les dépendances linéaires des vecteurs \mathbf{v}_1, \ldots, \mathbf{v}_n est un espace projectif.

Voir aussi

  • Portail des mathématiques Portail des mathématiques
Ce document provient de « Ind%C3%A9pendance lin%C3%A9aire ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Independance lineaire de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать реферат

Regardez d'autres dictionnaires:

  • Indépendance Linéaire — En algèbre linéaire, étant donnée une famille de vecteurs, les vecteurs de la famille sont linéairement indépendants si toute combinaison linéaire finie nulle de ces vecteurs a nécessairement tous ses coefficients nuls. Cela revient à dire qu… …   Wikipédia en Français

  • Indépendance linéaire — En algèbre linéaire, étant donnée une famille de vecteurs, les vecteurs de la famille sont linéairement indépendants, ou forment une famille libre, si toute combinaison linéaire finie nulle de ces vecteurs a nécessairement tous ses coefficients… …   Wikipédia en Français

  • LINÉAIRE ET MULTILINÉAIRE (ALGÈBRE) — LINЙAIRE ET MULTILINЙAIRE (ALGИBRE) L’algèbre linéaire sur un corps commutatif, telle qu’on la trouvera présentée ici, s’est progressivement dégagée, au cours du XIXe siècle et au début du XXe, de la théorie des équations linéaires (systèmes de n …   Encyclopédie Universelle

  • Indépendance — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom. Sur les autres projets Wikimedia : « Indépendance », sur le Wiktionnaire (dictionnaire universel) L indépendance est l’absence de relation… …   Wikipédia en Français

  • Dépendance linéaire — Indépendance linéaire En algèbre linéaire, étant donnée une famille de vecteurs, les vecteurs de la famille sont linéairement indépendants si toute combinaison linéaire finie nulle de ces vecteurs a nécessairement tous ses coefficients nuls. Cela …   Wikipédia en Français

  • Indépendance (probabilités) — L indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n ayant aucune influence l un sur l autre. Il s agit d une notion très importante en statistique et calcul de probabilités. Par exemple, la… …   Wikipédia en Français

  • Indépendance en probabilité élémentaire — L étude de l indépendance d événements ou d expériences consiste à chercher si les événements ou les expériences sont liées ou se produisent indépendamment l une de l autre (On peut raisonnablement penser que le fait de boire de l alcool et celui …   Wikipédia en Français

  • Combinaison Linéaire — En mathématiques, les combinaisons linéaires sont un concept central de l algèbre linéaire et d autres domaines des mathématiques connexes. La majeure partie de cet article traite des combinaisons linéaires dans le contexte d espace vectoriel sur …   Wikipédia en Français

  • Combinaison lineaire — Combinaison linéaire En mathématiques, les combinaisons linéaires sont un concept central de l algèbre linéaire et d autres domaines des mathématiques connexes. La majeure partie de cet article traite des combinaisons linéaires dans le contexte d …   Wikipédia en Français

  • Espace vectoriel linéaire — Espace vectoriel En algèbre linéaire, un espace vectoriel est une structure algébrique permettant en pratique d effectuer des combinaisons linéaires. Étant donné un corps (commutatif) K, un espace vectoriel E sur K est un groupe commutatif (dont… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”