Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Saltar para o conteúdo

Matriz (matemática)

Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de Matriz quadrada)
 Nota: Este artigo é sobre o conceito matemático. Para outros significados, veja Matriz.

Na álgebra linear, uma matriz é um quadro rectangular composto por números. Uma matriz costuma ser representada por uma letra maiúscula, tal como A, e tem um determinado número de linhas (m) e de colunas (n). Neste caso, representa-se por .

Os termos individuais da Matriz geralmente denotados por onde e são as entradas da matriz. Quando as matrizes têm o mesmo tamanho, ou seja, têm o mesmo número de linhas e colunas que a outra, então essas duas matrizes podem ter seus elementos somados e subtraídos 1 a 1. Para multiplicar, no entanto, deve-se prestar atenção se o número de colunas da primeira matriz é igual ao número de linhas da segunda matriz. Dessa forma, percebe-se que as matrizes não comutam, logo (). Toda matriz pode ser multiplicada por um escalar, novamente elemento por elemento. A mais importante aplicação de matrizes é para representar transformações lineares.

Introdução histórica

[editar | editar código-fonte]

O primeiro nome dado às matrizes foi por Cauchy, tableau (em português, "tabela"), mas a denominação matriz veio com James Joseph Sylvester (1814–1897), em 1850. Seu significado coloquial: local onde algo se gera ou cria. Sylvester era um matemático respeitado na álgebra britânica, e foi na Universidade de Cambridge que ele conheceu o matemático inglês Arthur Cayley (1821–1895). Sylvester via as matrizes como mero ingrediente dos determinantes, mas com Cayley elas passam a gradativamente mostrar sua importância.

O primeiro uso implícito da noção de matriz ocorreu com Lagrange que reduziu a caracterização dos máximos e mínimos, de uma função real de várias variáveis, ao estudo do sinal da forma quadrática associada à matriz das segundas derivadas dessa função. Concluímos que a Teoria das Matrizes teve como base a Teoria das Formas Quadráticas, porque seus métodos e resultados básicos foram lá gerados, mas atualmente o estudo das formas quadráticas é um mero capítulo da Teoria das Matrizes.

No estudo da álgebra linear é possível perceber que as matrizes são mais do que objetos estáticos, que gravam informações e dados, na realidade elas representam funções que agem em vetores transformando-os em outros vetores.

Cada elemento de uma matriz é muitas vezes representado por uma variável com dois subscritos. A variável a2,1, por exemplo, representa o elemento da segunda linha e primeira coluna de uma matriz A.

Matrizes são normalmente escritas em colchetes ou parênteses:

Matrizes normalmente são denotadas com letras maiúsculas enquanto seus elementos são denotados por letras minúsculas. Além disso, podemos simbolizar matrizes com um estilo tipográfico especial, comumente em negrito em posição vertical não itálico, para distinguir ainda mais matrizes de outros objetos matemáticos.

As linhas horizontais da matriz são chamadas de linhas e as linhas verticais são chamadas de colunas. Logo uma matriz com linhas e colunas é chamada de uma matriz por (escreve-se ) e e são chamadas de suas dimensões, tipo ou ordem. Por exemplo, a matriz a seguir é uma matriz de ordem com elementos naturais.

Um elemento de uma matriz que está na -ésima linha e na -ésima coluna é chamado de elemento ou -ésimo elemento de Ele é escrito como ou . Nesse exemplo, o elemento é , o número na primeira linha e segunda coluna do quadro.

As entradas (símbolos) de uma matriz também podem ser definidas de acordo com seus índices i e j. Por exemplo, para de 1 a 3 e de 1 a 2, define a matriz de ordem

Nas linguagens de programação, os elementos da matriz podem estar indexados a partir de 1 (Fortran, MATLAB, R, etc) ou a partir de 0 (C e seus dialetos). Por exemplo, o elemento em Fortran corresponde ao elemento em C.

Classificação

[editar | editar código-fonte]

Matriz quadrada

[editar | editar código-fonte]

Uma matriz é dita quadrada se tem o mesmo número de linhas e colunas, ou seja, quando . Numa matriz quadrada de ordem , a diagonal principal é aquela formada pelos elementos tais que , para de a (ou seja, é a diagonal que se estende do canto superior esquerdo ao canto inferior direito). No exemplo abaixo, a diagonal principal é formada pelos seguintes elementos: 1, 0 e 2. A outra diagonal é chamada diagonal secundária, que é formada pelos elementos cuja soma dos índices da linha e da coluna é igual a n + 1. Na matriz abaixo, os elementos 4, 0 e 7 constituem a diagonal secundária.

A=

Dizemos que A é uma matriz de ordem 3, pois possui 3 linhas e 3 colunas.

Matriz diagonal

[editar | editar código-fonte]

Uma matriz diagonal é definida como uma matriz quadrada onde todos os elementos cujo (ou seja, todos os elementos fora da diagonal principal) são nulos, podendo os elementos (os da diagonal principal) ser nulos ou não.

Matriz escalar

[editar | editar código-fonte]

Um múltiplo escalar não nulo de uma matriz identidade é chamado de matriz escalar. Se as entradas da matriz vêm de um corpo, as matrizes escalares formam um grupo, sob a multiplicação matricial, que é isomorfo ao grupo multiplicativo dos elementos não nulos do corpo.

Uma matriz onde uma de suas dimensões é igual a 1 é geralmente chamada de vetor. Uma matriz (uma linha e colunas) é chamada de vetor linha ou matriz linha, e uma matriz (uma coluna e m linhas) é chamada de vetor coluna ou matriz coluna.

Classificação de matrizes quanto às suas propriedades

[editar | editar código-fonte]
Tipo de matriz é quadrada? Tem inversa? Qual é sua transposta? Positiva/ negativa definida?
Matriz identidade Sempre Sim, ela mesma: Ela mesma, (é uma matriz simétrica) Sempre é positiva definida
Matriz inversa Sempre Sim, e é igual à matriz original, Positiva definida se for positiva definida
Matriz singular Sempre Nunca
Matriz simétrica Sempre Não necessariamente Negativa definida se e apenas se todos os valores característicos de forem negativos [1]
Matriz transposta Não necessariamente Não necessariamente
Matriz positiva definida Sempre Sim, e também é positiva definida Sempre é positiva definida
Matriz negativa definida Sempre Sim, e também é negativa definida[1] Sempre é negativa definida

Matriz identidade

[editar | editar código-fonte]
Ver artigo principal: Matriz identidade

A Matriz identidade é a matriz quadrada em que todas as entradas da diagonal principal são iguais a 1 e as demais são iguais a zero, por exemplo

Ela é chamada de matriz identidade pois multiplicá-la por outra matriz não altera a matriz:

para qualquer matriz de ordem por .

Matriz inversa

[editar | editar código-fonte]
Ver artigo principal: Matriz inversa

Uma matriz é dita inversa de uma matriz se obedece às equações matriciais ou seja, se o produto entre as matrizes é a Matriz identidade.[2] A analogia com os números reais é evidente, pois assim como o produto entre dois números inversos é a unidade (elemento neutro da multiplicação), o produto de duas matrizes inversas é a matriz identidade (elemento neutro da multiplicação entre matrizes). Uma matriz que possui inversa é dita inversível.

A condição necessária e suficiente para que uma matriz quadrada seja inversível é possuir um determinante não nulo, sendo que para uma dada matriz a matriz inversa é única. A necessidade de possuir determinante não nulo é evidente na equação pois nela o determinante da matriz original é denominador de uma fração.

Matriz transposta

[editar | editar código-fonte]
Ver artigo principal: matriz transposta

A matriz transposta de uma matriz é a matriz em que ou seja, todos os elementos da primeira linha, tornar-se-ão elementos da primeira coluna, todos os elementos da segunda linha, tornar-se-ão elementos da segunda coluna, todos os elementos da linha tornar-se-ão elementos da coluna Exemplo:

Matriz simétrica

[editar | editar código-fonte]
Ver artigo principal: Matriz simétrica

Uma matriz é simétrica se Isso só ocorre com matrizes quadradas.

Um tipo especial de matriz simétrica é a matriz idempotente.

Matriz positiva/negativa (semi)definida

[editar | editar código-fonte]
Ver artigo principal: Matriz positiva definida

A classificação de uma matriz em positiva ou negativa definida ou semi-definida é similar à classificação dos números reais em positivos ou negativos.

Seja uma matriz quadrada de dimensão e um vetor não nulo (ou seja, que tenha pelo menos um elemento diferente de zero) de dimensão Note que se temos a definição de número real positivo ou negativo.

Tipo de matriz Semi-definida Definida
Positiva positiva semidefinida se é positiva definida se
Negativa é negativa semidefinida se [1] é negativa definida se

Operações envolvendo matrizes

[editar | editar código-fonte]

Não se define adição ou subtração de um número com uma matriz, e nem divisões envolvendo matrizes.

Multiplicação de um número real por uma matriz

[editar | editar código-fonte]

A multiplicação de um número real por uma matriz é uma das operações mais simples que podem ser feitas com matrizes. Para multiplicar um número real qualquer por uma matriz basta multiplicar cada elemento de por Assim, a matriz resultante será também e [3] Com isso, pode-se pensar também na noção de dividir uma matriz por um número: basta multiplicá-la pelo inverso desse número. Mas essa noção pode ser perigosa: enquanto a multiplicação entre um número e uma matriz pode ser dita "comutativa", o mesmo não vale para a divisão, pois não se pode dividir um número por uma matriz.

Por exemplo:

Adição e subtração entre matrizes

[editar | editar código-fonte]
Ver artigo principal: Adição de matrizes

Dado as matrizes e do tipo por sua soma é a matriz por computada adicionando os elementos correspondentes:[4]

Por exemplo:

Para melhorar a forma de calcular, você pode reescrever a segunda matriz, revertendo seus elementos, onde o elemento (-1) passará para (1) e o elemento (2) passará para (-2) e assim sucessivamente. Após feito isso, além de fazer você usará

Lembre-se: Você só pode fazer isso com uma matriz negativa, onde recebe o sinal negativo, por exemplo: em o que poderá ser reescrito.

Multiplicação de matrizes

[editar | editar código-fonte]
Ver artigo principal: Produto de matrizes

A multiplicação de duas matrizes é bem definida apenas se o número de colunas da matriz da esquerda é o mesmo número de linhas da matriz da direita. Se é uma matriz por e é uma matriz por então seu produto é a matriz por ( linhas e colunas) dada por:[5]

para cada par e .

Por exemplo:

É importante notar que a multiplicação de matrizes não é comutativa, isto é, existem matrizes e tais que

Ver artigo principal: Determinante

O determinante é uma propriedade matricial útil na resolução de sistema de equações lineares (que sempre podem ser representados através de matrizes), além de outras aplicações matemáticas.

Transposta da multiplicação

[editar | editar código-fonte]

Para respeitar a correspondência entre linhas e colunas de uma multiplicação, a transposta de uma multiplicação de matrizes é dada como a transposta de cada matriz multiplicada na ordem inversa.

Para o caso de duas matrizes:

No caso de várias matrizes:

Característica

[editar | editar código-fonte]
Ver artigo principal: Posto matricial

A característica ou posto de uma matriz é um inteiro não negativo que representa o número máximo de linhas (ou colunas) da matriz que são linearmente independentes.[6]

As aplicações das matrizes são encontradas em todos os campos científicos.

Em física, são usadas em ramos como mecânica clássica, ótica, eletromagnetismo, mecânica quântica e eletrodinâmica quântica, além de serem essenciais na descrição do movimento de corpos rígidos.

Na teoria da probabilidade e estatística, podem ser utilizadas matrizes estocásticas que são usadas para descrever os conjuntos de probabilidades.

Em computação, as matrizes são usadas em algoritmos de rankeamento de páginas e, por exemplo, no método dos elementos finitos, em que se define um elemento e, através de matrizes, os elementos são reescritos e associados.

Além disso, as matrizes podem ser usadas em Cadeias de Markov, crescimento populacional, grafos, códigos coletores de erros, modelo quântico entre outros.

1) Calculando a matriz inversa:

, pode ser feito a partir de um simples método algorítmico utilizando do conceito de Matriz Ampliada, podendo calcular qualquer Matriz inversa .

O método algorítmico consiste primeiramente em expressar as matrizes A e I na forma de matriz ampliada.

Após construída a matriz ampliada  devemos transformar o lado correspondente a matriz , na matriz Identidade() através de respectivas somas e subtrações entre linhas e múltiplos das linhas. Consideremos

Dividindo a por

Agora somando , e na .

Somando em e em .

Somando em .

Neste momento a matriz à direita é a matriz inversa de .

2)Resolução do sistema linear pelo método de Cramer:

Sabendo

Definimos quatro determinantes (onde ocorre a substituição da coluna referente as variáveis por )

Resolvendo :

E portanto:

Outros projetos Wikimedia também contêm material sobre este tema:
Wikilivros Livros e manuais no Wikilivros
  • O conjunto das matrizes sobre um corpo com as operações de soma de matrizes e multiplicação de escalar por matriz forma um espaço vetorial de dimensão sobre
  • O espaço vetorial das matrizes sobre um corpo com a operação de multiplicação de matrizes forma uma álgebra associativa com elemento identidade sobre o corpo
  • O conceito de matriz pode ser generalizado para o de tensor. Assim como uma matriz representa uma transformação linear de um espaço de dimensão em um espaço de dimensão , um tensor representa uma transformação n-linear que leva vetores em

Referências

  1. a b c MAS-COLELL, Andreu; WHINSTON, Michael e GREEN, Jerry. Microeconomic Theory. Oxford University press, 1995. Section M.D matrices: Negative (Semi)Definiteness and Other properties, página 936.
  2. Callioli, Domingues & Costa, 1990, p. 27
  3. Callioli, Domingues & Costa, 1990, p. 19-20
  4. Callioli, Domingues & Costa, 1990, p. 18
  5. Callioli, Domingues & Costa, 1990, p. 20
  6. Condensação e característica de uma matriz, Universidade dos Açores
  • Callioli, Carlos A.; Hygino H. Domingues; Roberto C. F. Costa (1990). Álgebra Linear e Aplicações 6 ed. São Paulo: Atual. ISBN 9788570562975