Algèbre1 230307
Algèbre1 230307
Algèbre1 230307
3 Nombres complexes 8
3.1 Construction des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.2 Représentation des nombres complexes . . . . . . . . . . . . . . . . . . . . 8
3.1.3 Opérations avec les nombres complexes . . . . . . . . . . . . . . . . . . . 8
3.1.4 Conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Équation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Forme trigonométrique et exponentielle . . . . . . . . . . . . . . . . . . . . . . . 9
3.3.1 Forme trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3.2 Forme exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1
4.2.1 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . 12
4.2.2 Pratique de la décomposition éléments simples dans C(X) . . . . . . . . . 13
4.2.3 Pratique de la décomposition éléments simples dans R(X) . . . . . . . . . 13
5 Espace vectoriel 14
5.1 Introduction au groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.2 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3.2 Sous-espace vectoriel engendré par une partie d’un espace vectoriel . . . . 15
5.4 Systèmes de vecteurs et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.5 Sous espace et sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.6 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.6.2 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . 18
6 Matrices 19
6.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.1.2 (Mn,p (K), +, .) est un K-espace vectoriel . . . . . . . . . . . . . . . . . . . 20
6.1.3 Propriétés du produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . 21
6.2 Représentations matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2.1 Matrice colonne des composantes d’un vecteur . . . . . . . . . . . . . . . 23
6.2.2 Matrice des composantes d’une famille de vecteurs . . . . . . . . . . . . . 23
6.2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 23
6.3 Formule de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.1 Déterminant d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.2 Déterminant d’ordre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.3 Déterminant d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.4.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.1 Logique
1.1.1 Logique des propositions
Définition 1.1.1. Une proposition est un énoncé déclaratif dont on peut dire s’il est vrai (valeur
1) ou s’il est faux (valeur 0), indépendamment de tout context de lieu, de temps, ou de personne
qui le prononce. De plus, un énoncé qui est à la fois vrai et faux n’est pas une proposition.
Définition 1.1.2. La négation d’une proposition est une proposition qui est vraie si celle-ci est
fausse et vice-versa. On note ¬.
p ¬p
La table de vérité de la négation est la suivante 0 1
1 0
Définition 1.1.3. La conjonction de deux propositions est une proposition qui est vraie si les
deux propositions sont simultanément vraies. Elle est fausse dès que l’une au moins des deux
propositions est fausse. On la note ∧.
p q p∧q
0 0 0
La table de vérité de la conjonction est la suivante : 0 1 0
1 0 0
1 1 1
Exemple 1.1.4. Céline est un grand écrivain mais c’est un personnage contreversé.
Définition 1.1.5. La disjonction de deux propositions est une proposition qui est vraie dès
que l’une au moins des deux propositions est vraie. Elle est fausse si les deux propositions sont
simultanément fausses. On la note V .
3
∀ ET ∃
1.2. LES QUANTIFICATEURSCHAPITRE 1. LOGIQUE ET THÉORIE DES ENSEMBLES
Définition 1.1.7. Si p et q sont deux propositions, alors l’implication “si p alors q” est une
proposition qui est vraie si p est faux, ou bien si p et q sont simultanément vrais. Cette implication
est fausse uniquement si l ?antécédant p est vrai et le conséquent q faux. On note →
La table de vérité de l’implication est la suivante est la suivante :
p q p→q
0 0 1
0 1 1
1 0 0
1 1 1
Exemple 1.1.8. Si Jupin a de bons avocats alors il n’ira pas en prison.
Définition 1.1.9. Si p et q sont deux propositions, alors l’équivalence “ p si et seulement q”
est une proposition qui signifie ( p si q) et (p seulement si q). La table devérité de l’équivalence
‘p si et seulement si q est la valeur de vérité de (q → p) ∧ (p → q). On la note ⇐⇒ .
La table de vérité de l’équivalence est la suivante est la suivante :
p q p ⇐⇒ q
0 0 1
0 1 0
1 0 0
1 1 1
-La proposition : “ il existe au moins un élément x de E, tel que la proposition P (x) est vraie”
s’écrit en abrégé :“ ∃x ∈ E/P (x), ou aussi “∃x ∈ E/P (x)”
-La proposition : “ il existe un et un seul élément x de E, tel que la proposition P (x) est vraie
” s’écrit en abrégé :“ ∃!x ∈ E/P (x).
Théorème 1.2.3. Soient E un ensemble et P (x) une proposition dont les valeurs de vérité sont
fonction des éléments x de E.
1) ¬(∀x ∈ E, P (x)) ⇐⇒ (∃x ∈ E, ¬P (x))
2) ¬(∃x ∈ E, P (x)) ⇐⇒ (∀x ∈ E, ¬P (x))
2.1 Groupes
2.1.1 Loi de composition interne
Définition 2.1.1. Soit E un ensemble. Une loi de composition interne (LCI) sur E est une
application T de E × E dans E, notée généralement xT y.
Exemple 2.1.2. La somme sur N, Z, Q, R.
Définition 2.1.3. - Une LCI T sur E est dite associative lorsque :
∀x, y ∈ E, xT y = yT x.
∀x ∈ E, xT e = eT x = x.
Proposition 2.1.4. Si T est une LCI associative sur E qui admet un neutre, alors ce neutre
est unique. On peut alors parler du neutre de T .
Définition 2.1.5. Si T est une LCI associative sur E qui admet un neutre e et x ∈ E, on dit
que x admet un symétrique pour T s’il existe y ∈ E tel que xT y = yT x = e.
Proposition 2.1.6. Dans la définition précédente, si y existe, il est unique. On peut alors parler
du symétrique de x pour T . On le note généralement x−1 .
2.1.2 Groupes
Définition 2.1.7. Un groupe est un ensemble non vide muni d’une loi de composition interne
(G, ?) tels que :
- ? est associative
- ? admet un élément neutre eG
- tout élément de G est symétrisable (admet un symétrique) pour ?. Si ? est commutative, on
dit que (G, ?) est commutatif ou abélien.
Exemple 2.1.8. (Z, +), (Q, +), (R, +) sont des groupes abéliens
6
2.2. ANNEAUX
CHAPITRE 2. STRUCTURES ALGÉBRIQUES : GROUPES, ANNEAUX ET CORPS
2.2 Anneaux
2.2.1 Structure d’anneaux
Définition 2.2.1. Un anneau est un ensemble muni de deux LCI (A, +, .) tels que :
- (A, +) est un groupe commutatif de neutre noté 0A .
- La loi . est une LCI sur A associative et distributive à gauche et à droite par rapport à + :
Exemple 2.2.2. (Z, +, .), (Q, +, .), (R, +, .) sont des anneaux.
2.2.2 Sous-anneaux
Soit (A, +, .) un anneau. Une partie non vide A1 de A est un sous-anneau de A lorsque :
- 1A ∈ A1
- les lois + et . induisent des LCI sur A1 , et , muni de ces lois, (A1 , +, .) es un anneaux.
2.3 Corps
Définition 2.3.1. - Un corps est un anneau commutatif dans lequel tout élément non nul est
inversible.
- Si (K, +, .) est un corps, un sous-corps de K est un sous-anneau de K1 de K tel que pour tout
élément non nul x de K1 , on a x−1 ∈ K1 .
Nombres complexes
3.1.4 Conjugué
Définition 3.1.4. Soit z un nombre complexe dont la forme algébrique est : z = a + ib. On
appelle le nombre conjugué de z, le nombre noté z tel que : z = a − ib
8
3.3. FORME TRIGONOMÉTRIQUE ET EXPONENTIELLE
CHAPITRE 3. NOMBRES COMPLEXES
Théorème 3.2.1. Toute équation du second degré dans C admet toujours 2 solutions distinctes
ou confondues. Si cette équation est à coefficients réels, c ?est à dire
az 2 + bz + c = 0 avec a ∈ R∗ , b, c ∈ R.
où n ∈ N et les coefficients a0 , a1 , · · ·.an sont des éléments de K. Le symbole X est appélé
l ?indéterminée (On note X 0 = 1). On note K[X] l’ensemble des polynômes à coefficients dans
K.
Définition 4.1.4. Soit P un polynôme non nul, on appelle degré de P , le plus grand indice de ses
coefficients non nuls,et on le note degP . Ainsi degP = n équivaut à P (X) = a0 +a1 X+· · ·+an X n
avec an 6= 0. an s’appelle coefficient dominant de P . Par convention deg0 = −∞.
Théorème 4.1.5. deg(P + Q) ≤ max(degP, degQ), avec égalité dans le cas où degP 6= degQ.
Théorème 4.1.6. deg(P Q) = degP + degQ. En particulier si λ est une constante non nulle
alors : deg(λP ) = degP .
10
4.1. POLYNÔMES SUR R CHAPITRE
OU C 4. POLYNÔMES ET FRACTION RATIONNELLES
Définition 4.1.14. Deux polynômes sont dits premiers entre eux si leur PGCD vaut 1.
Corollaire 4.1.16. Deux polynômes A et B sont premiers entre eux, si et seulement si, il existe
deux polynômes U et V tel que AU + BV = 1.
Définition 4.1.20. Soit k ∈ N∗ , on dit que a est racine d’ordre k, (ou de multiplicité k) de P
si (X − a)k divise P et si (X − a)k+ ne divise pas P .
Définition 4.1.22. Un polynôme non constant P est dit irréductible sur K si ses seuls diviseurs
sont les constantes non nulles et les polynômes de K[X] de la forme λP (λ ∈ K). Concrètement,
cela signifie que P n’est “ pas factorisable ”
Théorème 4.1.26. (de D’Alembert) Tout polynôme non constant de C[X] admet au moins une
racine.
Théorème 4.1.28. Les polynômes irréductibles de R[X] sont soit de la forme : λ(X −α), (λ, α ∈
R), soit de la forme λ(X 2 − sX + p) avec s2 − 4p < 0, (s, p ∈ R). Tout polynôme de R[X] peut
se décomposer en produit de tels facteurs irréductibles
Espace vectoriel
Exemple 5.1.2. L’addition ou la multiplication sont des lois de composition internes sur
N, Z, Q, R, C.
Définition 5.1.3. Un groupe est la donnée d’un ensemble G et d’une loi de composition interne
notée ? suivante :
G×G→G
(x, y) 7→ x ? y
Exemple 5.1.4. (Z, +), (Q, +), (R, +), (C, +), sont des groupes abéliens : 0 est l’élément neutre,
l’inverse de x est −x.
Définition 5.2.1. On appelle K-espace vectoriel (ou espace vectoriel sur K ) tout ensemble
non vide E muni d’une loi de composition interne notée + et d’une deuxième loi · définit par
∀(λ, x) ∈ (K × E), λ · x = λx telles que
14
5.3. SOUS-ESPACE VECTORIEL CHAPITRE 5. ESPACE VECTORIEL
Les éléments d’un espace vectoriel sont appelés vecteurs et les éléments de K sont appelés
scalaires.
Remarque 5.3.2. Tout sous-espace vectoriel de E, est un espace vectoriel pour les lois induites
par E.
5.3.2 Sous-espace vectoriel engendré par une partie d’un espace vectoriel
Définition 5.3.5. Soit {x1 , ..., xp } une famille de vecteurs d’un espace vectoriel E. Tout vecteur
Xp
de E de la forme a1 x1 + .... + ap xp = ak xk où les ak ∈ R est appelé combinaison linéaire des
k=1
vecteurs xk , k = 1, ..., p.
Théorème 5.3.6. Soit A une partie d’un espace vectoriel E. vect(A) est l’unique sous-espace
vectoriel de E vérifiant :
1) A ⊂ vect(A)
2) vect(A) est inclus dans tout sous-espaces vectoriels contenant A
Le sous-espace vectoriel vect(A) se comprend comme étant le plus petit sous-espace vectoriel
contenant A, on l’appelle espace vectoriel engendré par A.
Corollaire 5.3.7. vect(A) est l’intersection de tous les sous-espaces vectoriel de E contenant
A.
Définition 5.4.1. Un système (v1 , ..., vn ) est lié si il existe λ1 , ...., λn non tous nuls tels que
λ1 v1 + ... + λn vn = 0. Si le système n’est pas lié il est libre.
Définition 5.4.2. Un système (v1 , ..., vn ) est générateur pour un espace vectoriel E si tout
vecteur de E est combinaison linéaire des vi .
Définition 5.4.3. Un système (v1 , ..., vn ) est une base d ?un espace vectoriel E si il est générateur
et libre.
Théorème 5.4.4. Toutes les bases d’un espace vectoriel de dimension finie ont le même nombre
d’éléments appelé dimension de l’espace.
Proposition 5.4.5. Soit E un espace vectoriel de dimension finie n, et soit (v1 , ...., vn ) une
famille de n vecteurs. On a équivalence entre :
1) (v1 , ...., vn ) est une base de E
2) (v1 , ...., vn ) est une famille libre
3) (v1 , ...., vn ) est une famille génératrice (est un système générateur)
Proposition 5.4.6. Soient e1 , ..., ek une famille libre de vecteurs d’un espace E de dimension
n. Il existe des vecteurs ek+1 , ..., en tel que e1 , ..., en soit une base de E.
Définition 5.4.7. On appelle rang d’un système de vecteurs d’un espace E la dimension du
sous-espace vectoriel engendré par ce système.
Proposition 5.6.9. On a
rang(f ) = dim(E) − dim(kerf )
Matrices
Notations
- On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes à coefficients dans K.
- Si p = n, on note Mn (K) l’ensemble des matrices carrées à n lignes et à n colonnes
- Un élément de Mn (K) est dite matrice carrée de taille n.
- Soit M = (aij )1≤i≤n,1≤j≤p , alors aij est le coefficient situé sur la i ième ligne et la j ième
colonne de la matrice M .
Définition 6.1.2. Soit M = (aij )1≤i,j≤n une matrice carrée de taille n. On dit que :
1) M est une matrice triangulaire supérieure si aij = 0 pour tout i > j. C’est à dire
a11 a12 · · · a1n
0 a22 · · · a2n
M = .
. . . . . ..
. . . .
0 ··· 0 ann
2) M est une matrice triangulaire inférieure si aij = 0 pour tout i < j. C’est à dire
a11 0 ··· 0
.. ..
a21 a22 . .
M = .. .. ..
. . . 0
an1 an2 · · · ann
19
6.1. OPÉRATIONS SUR LES MATRICES CHAPITRE 6. MATRICES
3) M est une matrice triangulaire diagonale si aij = 0 pour tout i 6= j. C’est à dire
a11 0 ··· 0
..
0 ... ..
. .
M = .
..
..
. an−1,n−1 0
0 ··· ··· ann
4) M est une matrice symétrique si aij = aji pour tout 1 ≤ i, j ≤ n. C’est à dire
a11 a12 · · · a1n
a12 a22 · · · a2n
M = .
.. .. ..
.. . . .
a1n a2n · · · ann
5) M est une matrice antisymétrique si aij = −aji pour tout 1 ≤ i, j ≤ n. C’est à dire
a11 a12 · · · a1n
−a12 a22 · · · a2n
M = .
. .. . . ..
. . . .
−a1n −a2n · · · ann
Définition 6.1.3. Soit M = (aij )1≤i≤n,1≤j≤p ∈ Mn,p (K). On appelle transposée de M la ma-
trice M t = (bij )1≤i≤n,1≤j≤p ∈ Mn,p (K) où bij = aji . C’est à dire
a11 a21 · · · an1
a12 a22 · · · an2
Mt = .
. .. . . ..
. . . .
a1p a2p · · · anp
Autrement dit, les n lignes de M sont les n colonnes de M t et les p colonnes de M sont les
p lignes de M t .
Définition 6.1.7. Soit A = (aij )1≤i≤n,1≤j≤p ∈ Mn,p (K) et soit λ ∈ K On définit la matrice λA
de Mn,p (K) par λA = (λaij )1≤i≤n,1≤j≤p . Ainsi
λa11 λa12 · · · λa1p
λa21 λa22 · · · λa2p
λA = .
.. .. ..
.. . . .
λan1 λan2 · · · λanp
Théorème 6.1.8. (Mn,p (K), +, .) est un K-espace vectoriel d’élément nul 0 = 0Mn,p (K)
Proposition 6.1.17. 1) Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,m (K), (AB)C=A(BC)
2) Pour tout A ∈ Mn,p (K), B ∈ Mn,p (K), C ∈ Mp,q (K), (A+B)C=AC+BC
3) Pour tout A ∈ Mn,p (K), B, C ∈ Mp,q (K), A(B+C)=AB+AC
4) Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K) et pour tout λ ∈ K, λ(AB) = (λA)B = A(λB)
Remarque 6.1.18. Dans l’ensemble Mn (K) des matrices carrées, la multiplication est une loi
de composition interne. Elle admet comme élément neutre la matrice diagonale
1 0 ··· 0
.
0 1 . . . ..
In = . .
.
.
. . . .
. 0
0 ··· 0 1
xn yn
Mn,1 (K) tel que Y = AX, c’est à dire
y1 a11 · · · ann x1
.. .. .. .. ..
. = . . . .
yn an1 · · · ann xn
Ce qui est équivalent à
y1 = a11 x1 + a12 x2 + ... + a1n xn
(S) ..
.
yn = an1 x1 + an2 x2 + ... + ann xn
Soit B = (bij )1≤i,j≤n ∈ GLn (K). Le système (S) est équivalent à X = BY . Ainsi In X = BAX,
pour tout X ∈ Mn,1 (K). D’après le Lemme 3.1.25, In = BA. et A−1 = B.
Exemple 6.1.26. Calculer l’inverse de
0 1 1
A= 1 0 1
1 1 0
Définition 6.2.1. On appelle matrice des composantes du vecteur x dans B, la matrice colonne
α1
A = ... .
αn
Définition 6.2.3. On appelle matrice des composantes de la famille F, la matrice dont les
colonnes sont c1 , ..., cp . On la note M atB (F) = M atB (x1 , ..., xp ).
Définition 6.2.4. On appelle matrice représentative dans les bases B et C d’une application
linéaire f ∈ L(E, F ), la matrice des composantes de la famille (f (e1 ), ...., f (en )) dans C. On la
note M atB,C (f ).
f : R3 → R2
(x, y, z) 7→ (x + 2y − z, x − y)
1 −3
Exemple 6.4.1. Calculer
2 4
1 3 0
Exemple 6.4.2. Calculer 2 6 4
−1 0 2
a11 a13
Exemple 6.4.4. Le cofacteur de a22 est (−1)2+2
a31 a33
Remarque 6.4.5. 1) On remarque que l’on peut écrire det(A) = a11 C11 + a21 C21 + a31 C31 .
2) Le déterminant de A peut être développé suivant n’importe quelle ligne ou colonne.
· · · ann
a11
det(A) = ..
.. ..
. . .
an1 · · · ann
= ai1 Ci1 + ai2 Ci3 + ..... + ain Cin (i = 1, 2, ...., ou n)
= a1k C1k + a2k C3k + ..... + ank Cnk (k = 1, 2, ...., ou n)
6.4.4 Application
1
Une matrice A est inversible si det(A) 6= 0. Dans ce cas A−1 = (adj(A)), où adj(A)
det(A)
désigne l’adjoint classique de A. C’est à dire la matrice [Cij ]t , où [Cij ] désigne la matrice des
cofacteurs de A