Matemática Essencial

Ensino Fundamental, Médio e Superior no Brasil

Superior >> Álgebra Linear
Transformacoes Lineares: Elementos historicos
Ulysses Sodré

Material desta página

1 Transformacoes Lineares: Elementos historicos

Boa parte dos Elementos históricos expostos nesta seção foi pesquisada em vários livros, entre os quais Boyer [1] e Eves [2].

A álgebra das matrizes foi descoberta em 1857, pelo matemático inglês Arthur Cayley que viveu entre 1821 e 1895. Para Cayley, as matrizes surgiram ligadas à transformação linear do seguinte tipo:

\begin{align} T_1 & {} \cr x_1 &= ax + by \cr y_1 &= cx + dy \end{align}

onde \(a,b,c,d\in R\). Esta transformação pode ser pensada como uma aplicação que associa a cada ponto \((x,y)\) um ponto \((x_1,y_1)\).

Os coeficientes \(a,b,c,d\) determinam a transformação simbolizada pela matriz quadrada de ordem \(2{\times}2\):

\[A = \begin{pmatrix} a & b \cr c & d \end{pmatrix}\]

Do mesmo modo, aplicando a transformação \(T_2\) com \(e,f,g,h\in R\), tal que

\begin{align} T_2 & {} \cr x_2 &= e x_1 + f y_1 \cr y_2 &= g x_1 + h y_1 \end{align}

notamos que a transformação é associada à matriz quadrada \(M\), de ordem \(2{\times}2\):

\[M = \begin{pmatrix} e & f \cr g & h \end{pmatrix}\]

Ao aplicar a transformação \(T_1\) na transformação \(T_2\), podemos mostrar, com a Álgebra elementar, que obtemos a transformação composta (resultado que Gauss mostrou em 1801).

\begin{align} T_1 * T_2 & {} \cr x_2 &= (ea + fc)x + (eb + fd)y \cr y_2 &= (ga + hc)x + (gb + hd)y \end{align}

Invertendo a ordem de \(T_1\) e de \(T_2\), de forma que \(T_2\) seja a transformação

\begin{align} T_2 & {} \cr x_1 &= e x + f y \cr y_1 &= g x + h y \end{align}

e a transformação

\begin{align} T_1 & {} \cr x_2 &= ax_1 + by_1 \cr y_2 &= cx_1 + dy_1 \end{align}

A transformação composta é então

\begin{align} T_2 * T_1 & {} \cr x_2 &= (ae+bg)x + (af+bh)y \cr y_2 &= (ce+dg)x + (cf+dh)y \end{align}

Conclui-se então, que quando trocamos a ordem das transformações, em geral, obtemos resultados diferentes.

Utilizando a linguagem de matrizes, temos um primeiro produto:

\[\begin{pmatrix} a & b \cr c & d \end{pmatrix} * \begin{pmatrix} e & f \cr g & h \end{pmatrix} = \begin{pmatrix} ae + bg & af + bh \cr ce + dg & cf + dh \end{pmatrix}\]

mas, o segundo produto é diferente do anterior:

\[\begin{pmatrix} e & f \cr g & h \end{pmatrix} * \begin{pmatrix} a & b \cr c & d \end{pmatrix} = \begin{pmatrix} ea+fc & eb+fd \cr ga+hc & gb+hd \end{pmatrix}\]

Como duas matrizes quadradas de ordem \(2{\times}2\), associadas a duas transformações são iguais, se e somente se, possuem os mesmos coeficientes, isto é, \(a=e\), \(b=f\), \(c=g\) e \(d=h\), é claro que mais uma vez estamos diante de um exemplo de multiplicação não comutativa.

A definição de multiplicação de matrizes é a indicada acima. A soma de duas matrizes (de iguais dimensões) é definida como a matriz obtida somando os elementos correspondentes das matrizes. Assim:

\[\begin{pmatrix} a & b \cr c & d \end{pmatrix} + \begin{pmatrix} e & f \cr g & h \end{pmatrix} = \begin{pmatrix} a + e & b + f \cr c + g & d + h \end{pmatrix}\]

A multiplicação de um escalar \(k\) por uma matriz é definida pela equação

\[k \cdot \begin{pmatrix} a & b \cr c & d \end{pmatrix} = \begin{pmatrix} ka & kb \cr kc & kd \end{pmatrix}\]

A matriz

\[I = \begin{pmatrix} 1 & 0 \cr 0 & 1 \end{pmatrix}\]

deixa qualquer matriz quadrada de ordem \(2{\times}2\) invariante para a multiplicação. Dizemos então, que a matriz \(I\) é a identidade para a multiplicação.

A única matriz que deixa outra matriz invariante para a adição é a matriz \(N\), nula (zero)

\[N = \begin{pmatrix} 0 & 0 \cr 0 & 0 \end{pmatrix}\]

que é o elemento neutro para adição de matrizes.

Com estas definições, podemos pensar nas operações sobre matrizes como nas operações de uma Álgebra.

Conclui-se então que, como resultado da álgebra de matrizes:

  1. Vale a comutatividade e associatividade para a adição;
  2. Vale a associatividade e distributividade em relação à adição para a multiplicação;
  3. Não vale a comutatividade para a multiplicação.

Exemplo: Sejam as matrizes

\[A = \begin{pmatrix} a & 0 \cr 0 & 0 \end{pmatrix} \quad e \quad B = \begin{pmatrix} 0 & 0 \cr 0 & 0 \end{pmatrix}\]

Desse modo

\[A*B = \begin{pmatrix} a & 0 \cr 0 & 0 \end{pmatrix} * \begin{pmatrix} 0 & a \cr 0 & a \end{pmatrix} = \begin{pmatrix} 0 & a^2 \cr 0 & 0 \end{pmatrix}\]

mas

\[B * A = \begin{pmatrix} 0 & a \cr 0 & a \end{pmatrix} * \begin{pmatrix} a & 0 \cr 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0 \cr 0 & 0 \end{pmatrix}\]

Como já citado antes, os primeiros passos na álgebra de matrizes, foram dados por Cayley e também pelos matemáticos americanos Benjamin Peirce (1809-1880) e seu filho Charles S. Peirce (1839-1914).

2 Referências bibliográficas

  1. Carl Boyer História da Matemática, Edgard Blücher, S.Paulo. Pag. 424-427. 1974.
  2. Howard Eves Introdução à História da Matemática. 3a.ed. Campinas-SP: Editora da UNICAMP. Pag. 552-556. 2002.