You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: aplicacoes/matrizes-simetricas.md
+3-3Lines changed: 3 additions & 3 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,9 +1,9 @@
1
1
---
2
-
title: Máximos e mínimos utilizando matrizes simétricas
2
+
title: 12. Máximos e mínimos utilizando matrizes simétricas
3
3
subject: Aplicações
4
4
---
5
5
6
-
###Máximos e mínimos locais de funções de duas variáveis
6
+
# Máximos e mínimos locais de funções de duas variáveis
7
7
8
8
A modelagem matemática de fenômenos físicos (em áreas como Mecânica Clássica, Termodinâmica, Óptica, etc.), de processos da Engenharia e Economia - entre outras atividades de grande relevância para o empreendimento humano - naturalmente recai sobre o estudo de funções de múltiplas variáveis, uma vez que estes lidam com intricados fatores que interagem entre si e dependem uns dos outros. Em particular, **funções de duas variáveis** aparecem com bastante frequência nos exemplos citados.
9
9
@@ -13,7 +13,7 @@ Munidos das ferramentas do Cálculo, as propriedades de [matrizes simétricas e
13
13
14
14
A ideia central é analisarmos as propriedades da ***matriz Hessiana***, uma das principais ferramentas do Cálculo Vetorial, que é constituída das derivadas parciais de segunda ordem da função, que naturalmente nos fornecem informações sobre os pontos de máximo e mínimo, chamados **pontos críticos**.
15
15
16
-
:::{prf:definition} Matriz Hessiana
16
+
:::{note} Definição 12.1 Matriz Hessiana
17
17
18
18
Dada uma função $f(x,y)$, sua ***matriz Hessiana*** é dada por
Copy file name to clipboardExpand all lines: aplicacoes/quadradosminimos.md
+11-9Lines changed: 11 additions & 9 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,8 +1,8 @@
1
1
---
2
-
title: Resolução de sistemas lineares por Quadrados Mínimos
2
+
title: 14. Resolução de sistemas lineares por Quadrados Mínimos
3
3
---
4
4
5
-
###O Problema de Quadrados Mínimos
5
+
# O Problema de Quadrados Mínimos
6
6
7
7
Suponha que na modelagem de um determinado problema chegue-se ao seguinte sistema linear, o qual deseja-se determinar as incógnitas $x$ e $y$:
8
8
@@ -81,7 +81,7 @@ $$
81
81
82
82
O que por sua vez nos dá $A^{T}(b-A\bar{x})=0$. Essa equação, comumente escrita como $\boxed{A^{T}A\bar{x}=A^{T}b}$, é chamada de ***equação normal*** e é a base para a solução do problema $Ax=b$ através da abordagem desenvolvida até aqui, denominada de ***Método dos Quadrados Mínimos*** (o nome vem da análise do problema do ponto de vista do Cálculo, que procura **minimizar o erro quadrático** $\lVert b-A\bar{x} \rVert^{2}$, resultando na mesma equação normal).
83
83
84
-
### Soluções da Equação Normal
84
+
# Soluções da Equação Normal
85
85
86
86
Consideremos primeiramente o caso mais simples, quando $A\in \mathbb{R}^{m\times n}$, com $m\geq n$, possui posto completo (ou seja, $n$). Pelo [](#pre-teorema-valores-singulares) e a equivalência entre transformações lineares e matrizes, sabemos que o posto de $A^{T}A$, que é $n \times n$, também será $n$. Logo, $A^{T}A$ é invertível e podemos resolver $A^{T}A\bar{x}=A^{T}b$ por:
87
87
@@ -101,11 +101,11 @@ O mesmo acontece quando $Ax=b$ é **possível e indeterminado**. Nesse caso, $A^
101
101
102
102
Uma vez que $Ax=b$ é um **sistema impossível**, as soluções (ou a solução única, no caso $m \geq n$ e posto completo) de $A^{T}A\bar{x}=A^{T}b$ são **soluções aproximadas** de $Ax=b$, com base no critério de minimizar $\lVert b - A\bar{x} \rVert$.
103
103
104
-
### Caso geral e pseudoinversa
104
+
# Caso geral e pseudoinversa
105
105
106
106
Utilizando a pseudoinversa de Moore-Penrose, dada por [](#def-pseudoinversa), podemos resolver $A^{T}Ax=A^{T}b$ no caso geral, que independe da quantidade de linhas e colunas, assim como do posto de $A$.
107
107
108
-
:::{prf:theorem}
108
+
:::{important} Teorema 14.1
109
109
:label: teo-pseudoinversa-postocompleto
110
110
111
111
Quando $A \in \mathbb{R}^{m\times n}$ possui $m\geq n$ e posto completo, a solução única da equação normal $A^{T}A\bar{x}=A^{T}b$ é dada por:
@@ -116,7 +116,8 @@ $$
116
116
117
117
:::
118
118
119
-
:::{prf:proof}
119
+
:::{tip} Demonstração 14.1
120
+
:class: dropdown
120
121
121
122
Uma vez que $A$ tem $m\geq n$ e posto completo, então seu posto é igual a $n$. Consequentemente, $A^{T}A$ é invertível e a solução da equação normal é dada unicamente por $\bar{x}=(A^{T}A)^{-1}A^{T}b$. Seja $A=U\Sigma V^{T}$, substituindo e utilizando o fato que $U$ e $V$ são matrizes ortogonais, obtemos o seguinte:
122
123
@@ -141,7 +142,7 @@ Concluímos que, quando $m\geq n$ e $A$ tem posto completo, $(A^{T}A)^{-1}A^{T}=
141
142
142
143
Agora, estendemos esse resultado para o caso geral, onde $A^{+}b$ nos dará uma solução única para a equação normal em função de um critério específico.
143
144
144
-
:::{prf:theorem}
145
+
:::{important} Teorema 14.2
145
146
146
147
$A^{+}b$ fornece a solução da equação normal $A^{T}A\bar{x}=A^{T}b$ **que possui norma mínima**, seja qual for a matriz $A$. Isto é, se $\hat{x}=A^{+}b$, então:
147
148
@@ -151,7 +152,8 @@ $$
151
152
152
153
:::
153
154
154
-
:::{prf:proof}
155
+
:::{tip} Demonstração 14.2
156
+
:class: dropdown
155
157
156
158
Começamos verificando que $A^{+}b$ é solução de $A^{T}A\bar{x}=A^{T}b$. Seja $A=U\Sigma V^{T}$,
157
159
@@ -198,7 +200,7 @@ Donde concluímos que $\lVert \bar{x} \rVert\geq \lVert \hat{x} \rVert$ e teremo
198
200
199
201
Com isso, temos uma solução geral para o problema de Quadrados Mínimos, e ainda, única pelo critério de norma mínima (mesmo que a equação normal possua infinitas soluções).
200
202
201
-
### Exemplos numéricos
203
+
# Exemplos numéricos
202
204
203
205
Voltando ao sistema inicial {eq}`sistema-exemplo`, encontraremos sua solução aproximada via quadrados mínimos utilizando a inversa da matriz $A^{T}A$ (pois como já vimos, a matriz associada a esse sistema tem posto completo).
Copy file name to clipboardExpand all lines: aplicacoes/svd.md
+4-4Lines changed: 4 additions & 4 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,9 +1,9 @@
1
1
---
2
-
title: Compressão de imagens utilizando Decomposição em Valores Singulares
2
+
title: 13. Compressão de imagens utilizando Decomposição em Valores Singulares
3
3
subject: Aplicações
4
4
---
5
5
6
-
###Contextualização
6
+
# Contextualização
7
7
8
8
Um dos principais exemplos de como matrizes podem ser aplicadas no meio computacional é o processamento de imagens. Em geral, a maioria dos softwares lidam com imagens tratando-as como uma matriz de *pixels* (à nível de manipulação e processamento, já o armazenamento em disco é feito utilizando outros formatos mais eficientes, como os conhecidos formatos *.JPG*, *.PNG*, entre outros), com dimensões correspondentes as da resolução da imagem.
9
9
@@ -17,7 +17,7 @@ O conceito de *comprimir* uma imagem consiste em reduzir o seu tamanho (a quanti
17
17
18
18
Nesse tópico, mostraremos uma implementação (relativamente simples) desse método de compressão na linguagem *Python*, fazendo uso dos conceitos vistos no tópico de [Valores Singulares](../topicos/valores-singulares.md) e recursos oferecidos por bibliotecas da linguagem Python. Analisaremos os efeitos da compressão em uma imagem de teste, considerando valores diferentes para o posto $k$ de aproximação.
19
19
20
-
###O Algoritmo
20
+
# O Algoritmo
21
21
22
22
A ideia geral para o algoritmo provém do que discutimos até agora:
23
23
@@ -93,7 +93,7 @@ Logo, as matrizes RGB aproximadas, obtidas nos produtos entre suas respectivas m
93
93
94
94
O uso da função *np.clip*, nas linhas 38-40, é importante para garantir que as entradas das matrizes resultantes dos produtos estejam no intervalo permitido pelo padrão RGB, entre 0 e 255. A função substitui por 0 entradas com valor abaixo de 0, assim como por 255 entradas acima de 255, preservando as que estão dentro do intervalo. A presença de entradas fora desse intervalo resultaria em pixels "defeituosos" no resultado final, com cores destoantes da imagem original.
95
95
96
-
###Testes e resultados
96
+
# Testes e resultados
97
97
98
98
Agora, veremos os resultados obtidos aplicando o algoritmo em uma imagem de testes, para diferentes valores de $k$. Note que o valor $k$ escolhido no algoritmo é livre, não há um controle sobre o valor escolhido em relação ao posto das matrizes originais. Mas, se escolhermos $k$ maior que o posto, na prática não ocorrerá alteração alguma na imagem.
Copy file name to clipboardExpand all lines: topicos/teorema-espectral.md
+19-14Lines changed: 19 additions & 14 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,25 +1,26 @@
1
1
---
2
-
title: Teorema Espectral
2
+
title: 10. Teorema Espectral
3
3
subject: Tópicos Avançados
4
4
---
5
5
6
6
O Teorema Espectral é um importante resultado na Álgebra Linear, diz respeito à existência de uma base ortonormal formada por autovetores de um operador auto-adjunto para o espaço vetorial o qual ele atua. Dividiremos-o em dois casos que, na prática, são correspondentes: Operadores auto-adjuntos e matrizes simétricas. O segundo caso surge naturalmente como um corolário do primeiro, devido a relação entre operadores e matrizes.
7
7
8
-
###Teorema Espectral (Operadores auto-adjuntos)
8
+
# Teorema Espectral (Operadores auto-adjuntos)
9
9
10
-
:::{prf:theorem} Teorema Espectral para operadores auto-adjuntos
10
+
:::{important} Teorema 10.1 (Teorema Espectral para operadores auto-adjuntos)
11
11
:label: teorema-espectral
12
12
Seja $T$ um operador linear auto-adjunto sobre um espaço vetorial $V$, de dimensão finita e munido de produto interno, então existe uma **base ortonormal** de $V$ formada por **autovetores** de $T$.
13
13
:::
14
14
15
-
A sua prova requer dois resultados prévios. Em ambos, $T$ é um operador linear auto-adjunto sobre um espaço vetorial $V$ de dimensão finita e munido de produto interno.
15
+
A sua demonstração requer dois resultados prévios. Em ambos, $T$ é um operador linear auto-adjunto sobre um espaço vetorial $V$ de dimensão finita e munido de produto interno:
16
16
17
-
:::{prf:lemma}
17
+
:::{important} Lema 10.2
18
18
:label: lema1
19
19
Se $U$ é um subespaço $T$-invariante de $V$, então $U^{\perp}$ é $T$-invariante.
20
20
:::
21
21
22
-
:::{prf:proof}
22
+
:::{tip} Demonstração 10.2
23
+
:class: dropdown
23
24
24
25
Seja $u\in U$ e $w\in U^{\perp}$. Então, dado que $Tu \in U$ (pois $U$ é $T$-invariante), temos que
25
26
$$
@@ -29,12 +30,13 @@ Por outro lado, dado que $T$ é auto-adjunto, $\langle Tu , w \rangle=\langle u
29
30
30
31
:::
31
32
32
-
:::{prf:lemma}
33
+
:::{important} Lema 10.3
33
34
:label: lema2
34
35
Os autovalores de $T$ são reais.
35
36
:::
36
37
37
-
:::{prf:proof}
38
+
:::{tip} Demonstração 10.3
39
+
:class: dropdown
38
40
39
41
Considere $\beta$ uma base ortonormal de $V$ e $\dim V = n>0$. Como $T$ é auto-adjunto, então $[T]_{\beta}=A$ é uma matriz simétrica (pelo [](#teorema1-autoadjunto)).
40
42
@@ -86,26 +88,29 @@ Assim, dado que os somatórios nas igualdades {eq}`eq:igualdade` são reais, pod
86
88
87
89
Agora, podemos provar o Teorema Espectral.
88
90
89
-
:::{prf:proof} Teorema Espectral para operadores auto-adjuntos
91
+
:::{tip} Demonstração 10.1 (Teorema Espectral para operadores auto-adjuntos)
92
+
:class: dropdown
93
+
90
94
A prova se dá por indução sobre a dimensão de $V$. Consideremos $\dim V = n$.
91
95
92
96
Como caso base, se $n=1$, qualquer ${} v\in V-\{ 0 \} {}$ forma uma base do espaço. Naturalmente, $\left( \frac{v}{\lvert |v| \rvert} \right)$ é uma base ortonormal de $V$. Ademais, também é formada por um autovetor, uma vez que se $Tv\in V$, então $Tv=\lambda v$, para algum $\lambda \in \mathbb{R}$, dado que $( v )$ é uma base.
93
97
94
-
Como hipótese de indução, considere $n>1$ e suponha que o Teorema vale para todo espaço com dimensão menor que $n$. O [Lema 2](#lema2) garante que existe um autovetor de $T$ (em particular, unitário) $v_{1}\in V$, associado a um autovalor real $\lambda_{1}$. Seja $U=\text{span}(v_{1})$, temos então que $\dim U^{\perp}= \dim V - \dim U=n-1<n$. Além disso, seja $u \in U$, $u=\alpha v_{1}$ e $T(\alpha v_{1})=\alpha Tv_{1}=\alpha \lambda_{1}v_{1}\in U$. Logo, $U$ é $T$-invariante. Consequentemente, pelo [Lema 1](#lema1), $U^{\perp}$ também é $T$-invariante.
98
+
Como hipótese de indução, considere $n>1$ e suponha que o Teorema vale para todo espaço com dimensão menor que $n$. O [](#lema2) garante que existe um autovetor de $T$ (em particular, unitário) $v_{1}\in V$, associado a um autovalor real $\lambda_{1}$. Seja $U=\text{span}(v_{1})$, temos então que $\dim U^{\perp}= \dim V - \dim U=n-1<n$. Além disso, seja $u \in U$, $u=\alpha v_{1}$ e $T(\alpha v_{1})=\alpha Tv_{1}=\alpha \lambda_{1}v_{1}\in U$. Logo, $U$ é $T$-invariante. Consequentemente, pelo [](#lema1), $U^{\perp}$ também é $T$-invariante.
95
99
96
100
Dado que $\dim U^{\perp}<n$ e ${} U^{\perp} {}$ é $T$-invariante, vale a hipótese de indução. Logo, existe uma base ortonormal $( v_{2},\dots ,v_{n} )$ de $U^{\perp}$ formada por autovetores de $T$. Naturalmente, como $V=U \oplus U^{\perp}$, $( v_{1},v_{2},\dots,v_{n} )$ é uma base ortonormal de $V$ formada por autovetores de $T$.
97
101
:::
98
102
99
103
Verifica-se sem muita dificuldade que, em espaços vetoriais reais, a recíproca do Teorema Espectral é verdadeira: Se existe uma base ortonormal formada por autovetores de $T$, então $T$ é auto-adjunto.
100
104
101
-
###Teorema Espectral para matrizes simétricas
105
+
# Teorema Espectral para matrizes simétricas
102
106
103
-
:::{prf:corollary} Teorema Espectral para matrizes simétricas
107
+
:::{important} Corolário 10.4 (Teorema Espectral para matrizes simétricas)
104
108
:label: espectral-para-matrizes-simetricas
105
109
Seja $A\in M_{n}(\mathbb{R})$ uma matriz simétrica, então existe uma matriz $P\in M_{n}(\mathbb{R})$ ortogonal tal que $D=P^{T}AP$, onde $D$ é uma [matriz diagonal](#def-matriz-diagonal) cuja diagonal principal contém os autovalores de $A$.
106
110
:::
107
111
108
-
:::{prf:proof}
112
+
:::{tip} Demonstração 10.4
113
+
:class: dropdown
109
114
110
115
Seja $T\in \mathcal{L}(V)$ tal que $A=[T]_{c}$. Como $A$ é simétrica e a base canônica é ortonormal, então $T$ é auto-adjunta. Logo, do [Teorema Espectral](#teorema-espectral) sabemos que existe uma base $\beta=( v_{1},\dots,v_{n} )$ de $V$ formada por autovetores de $T$. Seja $Tv_{i}=\lambda_{i}v_{i}$ ($i=1,2,\dots,n$), então
111
116
$$
@@ -122,7 +127,7 @@ Além disso, $D=P^{-1}AP$, onde $P$ é a matriz mudança de base de $\beta$ para
122
127
123
128
O fato de podermos garantir que matrizes simétricas podem ser diagonalizadas e sabermos como encontrar a matriz diagonal tem grande aplicação prática e computacional, como veremos no exemplo a seguir.
124
129
125
-
:::{prf:example} Potenciação de uma matriz simétrica
130
+
:::{hint} Exemplo 10.5 (Potenciação de uma matriz simétrica)
126
131
127
132
Seja $A$ uma matriz simétrica, podemos determinar $A^{n}$ para um expoente natural qualquer. A chave está em encontrarmos a forma diagonal de $A$, garantida pelo [](#espectral-para-matrizes-simetricas) (neste caso, nos será útil escrever $A$ como $PDP^{T}$), e então verificar o que seria $A^{n}$ neste formato.
0 commit comments