A   B   C   D   E   F   G   H   I   L   M   N   O   P   S   T   V

autoespaço O autoespaço associado ao autovalor c de uma matriz A é o núcleo da matriz A-cI. O autoespaço é um subespaço vetorial de Rn.

autovalor Um autovalor de uma matriz quadrada A é um escalar c tal que Av=cv é verdadeiro para algum vetor v não nulo.

autovetor Um autovetor de uma matriz quadrada A é um vetor não nulo V tal que Av=cv é verdadeiro para algum escalar c.

base Um conjunto de vetores {v1,...,vk} contido em um subespaço W é uma base para W, se:

  1. {v1,...,vk} é linearmente independente

  2. {v1,...,vk} gera W.

combinação linear Um vetor v é uma combinação linear dos vetores v1, ..., vk se existem escalares a1, ..., ak tal que

v = a1v1 +...+ akvk

complemento ortogonal O complemento ortogonal de um subespaço S de Rn é o conjunto de todos os vetores vinRn que são ortogonais a todos os vetores de S.

conjunto ortogonal Um conjunto de vetores em Rn é ortogonal se o produto escalar de quaisquer dois vetores deste conjunto é zero.

conjunto ortonormal Um conjunto de vetores em Rn é ortonormal se é um conjunto ortogonal de vetores e cada vetor tem comprimento 1.

consistente Um sistema de equações lineares é consistente se tem pelo menos uma solução. Ver: inconsistente.

coordenadas relativas a uma base Se uinRn pode ser escrito como uma combinação linear dos vetores de uma base {v1,...,vn} de Rn

u = a1v1 +...+ anvn

os coeficientes a1,...,an são as coordenadas do vetor u relativo a esta base {v1,...,vn}.

dependência linear Uma relação de dependência linear para um conjunto de vetores {v1,...,vk} é uma equação da forma

a1v1 +...+ akvk = Ö

em que nem todos os escalares a1,..., ak são nulos.

diagonalizável Uma matriz é diagonalizável se ela é semelhante a uma matriz diagonal.

dimensão A dimensão de um subespaço W é o número de vetores em qualquer base de W. Se W é o subespaço nulo, dizemos que a sua dimensão é 0.

espaço coluna O espaço coluna de uma matriz é o subespaço gerado pelas colunas da matriz considerada como um conjunto de vetores.

espaço linha o espaço linha de uma matriz é o subespaço gerado pelas linhas da matriz considerada como um conjunto de vetores.

espaço vetorial Espaço vetorial sobre um corpo K é um conjunto V de objetos (denominados vetores), munido de duas operações binárias: adição e multiplicação por escalar, satisfazendo às seguintes propriedades:

  1. Associativa Quaisquer que sejam uinV, vinV e winV, tem-se que

    (u + v) + w = u + (v + w)

  2. Comutativa Quaisquer que sejam uinV, vinV e winV, tem-se que

    u + v = v + u

  3. Elemento neutro Existe um elemento ÖinV tal que para todo vinV

    Ö + v = v

  4. Elemento oposto Para cada vinV, existe -vinV tal que

    v + (-v) = Ö

  5. Produto pelo escalar 1 Para todo vinV, tem-se que

    1.v = v

  6. Distributiva da adição pelo escalar Para todo escalar cinK e para todos vinV e winV, vale:

    c.(v+w) = c.v + c.w

  7. Distributiva dos escalares pelo vetor Para todos os escalares cinK e dinK e para todo vinV, vale:

    (c+d).v = c.v + d.v

  8. Associatividade mista Para todos os escalares cinK e dinK e para todo vinV, vale:

    (c.d).v = (d.c).v = c.(dv)

forma escalonada por linhas Uma matriz está na forma escalonada por linhas, se:

  1. Linhas nulas: Todas as linhas que são totalmente nulas são colocadas juntas na parte de baixo da matriz;

  2. Pivot: O primeiro elemento não nulo (contado da esquerda para a direita) em cada linha não nula aparece em uma coluna à direita da primeiro elemento não nulo da linha anterior (se existir algum na linha anterior).

forma reduzida escalonada por linhas Uma matriz está na forma reduzida escalonada por linhas, se:

  1. Forma da matriz: escalonada por linhas;

  2. Unitário: o primeiro elemento não nulo em cada linha não nula é o número 1, isto é, o pivot é , e

  3. Unicidade do pivot: o primeiro elemento não nulo em cada linha não nula é o único elemento não nulo nesta coluna.

gera Um conjunto de vetores {v1,...,vk} gera um subespaço S se todo vetor de S pode ser escrito como combinação linear de v1,...,vk.

gerado O subespaço gerado por um conjunto de vetores {v1,...,vk} é o subespaço S de todas as combinações lineares de v1, ..., vk. Afirmamos que este subespaço S é gerado pelo conjunto de vetores {v1,...,vk} e que este conjunto de vetores gera S.

homogêneo Um sistema de equações lineares Ax=b é homogêneo se b=Ö. Se b é diferente de Ö, o sistema é denominado não-homogêneo.

identidade Matriz quadrada em que os elementos da diagonal principal são iguais a 1 e todos os outros elementos da matriz são iguais a zero. Ver matriz identidade.

imagem de uma transformação linear A imagem da transformação linear T é o conjunto de todos os vetores T(v), onde vindom(T) = domínio de T.

inconsistente Um sistema de equações lineares é inconsistente se ele não possui qualquer solução. Ver: consistente.

inversa Uma matriz B é uma inversa para uma matriz A se

A B = B A = I

inversível Uma matriz é inversível se ela tem uma inversa. Uma palavra sinônima é não-singular.

linearmente dependente Um conjunto de vetores {v1,...,vk} é linearmente dependente se a equação

a1v1 +...+ akvk = Ö

tem uma solução, sendo que nem todos os escalares a1,...,ak podem ser nulos, isto é, se {v1,...,vk} satisfaz uma relação de dependência linear.

linearmente independente Um conjunto de vetores {v1,...,vk} é linearmente independente se, a única solução para a equação

a1v1 +...+ akvk = Ö

é a solução onde todos os escalares a1,...,ak são nulos, isto é, se {v1,..., vk} não satisfaz qualquer relação de dependência linear.

matriz elementar É uma matriz que pode ser obtida por operações elementares por linhas sobre a matriz identidade.

matriz identidade Matriz quadrada em que os elementos da diagonal principal são iguais a 1 e todos os outros escalares são nulos.

matriz ortogonal Uma matriz A é ortogonal se A é inversível e sua inversa é igual à sua transposta, isto é:

A-1 = At

matriz simétrica Uma matriz A é simétrica se ela é igual à sua transposta, isto é:

A = At

matrizes linha equivalentes Duas matrizes são linha equivalentes se uma pode ser obtida da outra por uma sequência de operações elementares por linhas.

multiplicidade algébrica A multiplicidade algébrica do autovalor c de uma matriz A é o número de vezes que o fator (t-c) ocorre no polinômio característico de A.

multiplicidade geométrica A multiplicidade geométrica de um autovalor c de uma matriz A é a dimensão do autoespaço de c.

não-singular Uma matriz quadrada A é não-singular se a única solução para a equação Ax=Ö é x=Ö. Uma palavra sinônima é inversível. Ver: singular.

núcleo de uma matriz O núcleo de uma matriz A de ordem m×n é o conjunto de todos os vetores xinRn tal que Ax=Ö.

núcleo de uma transformação linear O núcleo de uma transformação linear T é o conjunto de todos os vetores v do domínio de T tal que T(v) = Ö.

nulidade de uma matriz Nulidade de uma matriz é a dimensão do núcleo dessa matriz.

nulidade de uma transformação linear Nulidade de uma transformação linear é a dimensão do núcleo dessa transformação.

operações elementares por linhas Operações elementares por linhas realizadas sobre uma matriz são:

  1. Trocar duas linhas;

  2. Multiplicar linha por escalar não nulo;

  3. Somar múltiplo de linha com outra linha.

polinômio característico Polinômio característico de uma matriz quadrada A de ordem n é o polinômio na variável t definido por

p(t) = det(A - t In)

posto de uma matriz É o número de linhas não nulas quando a mesma está escrita na forma reduzida escalonada por linhas. O posto de uma matriz coincide com a dimensão do espaço linha da matriz.

posto de uma transformação linear O posto de uma transformação linear (e também de uma matriz pensada como uma transformação linear) é a dimensão da imagem da transformação linear. Observação: Há um teorema que afirma que as duas definições de posto de uma matriz são equivalentes.

semelhante As matrizes A e B são semelhantes se existe uma matriz quadrada inversível P tal que

P-1A P = B

solução por mínimos quadrados Uma solução por mínimos quadrados para um sistema de equações lineares Ax=b é um vetor x que minimiza o comprimento do vetor Ax-b.

singular Uma matriz quadrada A é singular se a equação Ax=Ö tem uma solução não nula para x. Ver: não-singular.

sistemas equivalentes Dois sistemas de equações lineares em n incógnitas são equivalentes se, eles têm o mesmo conjunto de soluções.

subespaço vetorial Um subconjunto W de Rn é um subespaço de Rn:

  1. se xinW e yinW implica que x+yinW e

  2. se xinW e kinK (corpo de escalares), implica que kxinW.

O vetor nulo (Ö) sempre pertence a todo subespaço vetorial.

transformação linear Uma transformação linear T:VtoW é uma aplicação T que associa a cada vetor de V um vetor no espaço vetorial W, tal que:

  1. para todos os vetores uinV e vinV

    T(u+v) = T(u) + T(v)

  2. para todo vetor vinV e todo k no corpo K

    T(kv) = k T(v)

transformação linear ortogonal Uma transformação linear T:VtoW é ortogonal se T(v) têm o mesmo comprimento que v, para todo vinV, isto é:

|T(v)|=|v|

vetor nulo Vetor nulo ou vetor zero de um espaço vetorial, denotado aqui por Ö.


Modificações autorizadas por Eugene Herman (herman@math.grin.edu)
Construída por Ulysses Sodré.