Skip to content

Commit c4f81ba

Browse files
committed
Ajuste dos callouts dos tópicos restantes (10 ao 14)
1 parent 76aef91 commit c4f81ba

5 files changed

Lines changed: 58 additions & 47 deletions

File tree

aplicacoes/matrizes-simetricas.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,9 @@
11
---
2-
title: Máximos e mínimos utilizando matrizes simétricas
2+
title: 12. Máximos e mínimos utilizando matrizes simétricas
33
subject: Aplicações
44
---
55

6-
### Máximos e mínimos locais de funções de duas variáveis
6+
# Máximos e mínimos locais de funções de duas variáveis
77

88
A modelagem matemática de fenômenos físicos (em áreas como Mecânica Clássica, Termodinâmica, Óptica, etc.), de processos da Engenharia e Economia - entre outras atividades de grande relevância para o empreendimento humano - naturalmente recai sobre o estudo de funções de múltiplas variáveis, uma vez que estes lidam com intricados fatores que interagem entre si e dependem uns dos outros. Em particular, **funções de duas variáveis** aparecem com bastante frequência nos exemplos citados.
99

@@ -13,7 +13,7 @@ Munidos das ferramentas do Cálculo, as propriedades de [matrizes simétricas e
1313

1414
A ideia central é analisarmos as propriedades da ***matriz Hessiana***, uma das principais ferramentas do Cálculo Vetorial, que é constituída das derivadas parciais de segunda ordem da função, que naturalmente nos fornecem informações sobre os pontos de máximo e mínimo, chamados **pontos críticos**.
1515

16-
:::{prf:definition} Matriz Hessiana
16+
:::{note} Definição 12.1 Matriz Hessiana
1717

1818
Dada uma função $f(x,y)$, sua ***matriz Hessiana*** é dada por
1919

aplicacoes/quadradosminimos.md

Lines changed: 11 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -1,8 +1,8 @@
11
---
2-
title: Resolução de sistemas lineares por Quadrados Mínimos
2+
title: 14. Resolução de sistemas lineares por Quadrados Mínimos
33
---
44

5-
### O Problema de Quadrados Mínimos
5+
# O Problema de Quadrados Mínimos
66

77
Suponha que na modelagem de um determinado problema chegue-se ao seguinte sistema linear, o qual deseja-se determinar as incógnitas $x$ e $y$:
88

@@ -81,7 +81,7 @@ $$
8181
8282
O que por sua vez nos dá $A^{T}(b-A\bar{x})=0$. Essa equação, comumente escrita como $\boxed{A^{T}A\bar{x}=A^{T}b}$, é chamada de ***equação normal*** e é a base para a solução do problema $Ax=b$ através da abordagem desenvolvida até aqui, denominada de ***Método dos Quadrados Mínimos*** (o nome vem da análise do problema do ponto de vista do Cálculo, que procura **minimizar o erro quadrático** $\lVert b-A\bar{x} \rVert^{2}$, resultando na mesma equação normal).
8383
84-
### Soluções da Equação Normal
84+
# Soluções da Equação Normal
8585
8686
Consideremos primeiramente o caso mais simples, quando $A\in \mathbb{R}^{m\times n}$, com $m\geq n$, possui posto completo (ou seja, $n$). Pelo [](#pre-teorema-valores-singulares) e a equivalência entre transformações lineares e matrizes, sabemos que o posto de $A^{T}A$, que é $n \times n$, também será $n$. Logo, $A^{T}A$ é invertível e podemos resolver $A^{T}A\bar{x}=A^{T}b$ por:
8787
@@ -101,11 +101,11 @@ O mesmo acontece quando $Ax=b$ é **possível e indeterminado**. Nesse caso, $A^
101101
102102
Uma vez que $Ax=b$ é um **sistema impossível**, as soluções (ou a solução única, no caso $m \geq n$ e posto completo) de $A^{T}A\bar{x}=A^{T}b$ são **soluções aproximadas** de $Ax=b$, com base no critério de minimizar $\lVert b - A\bar{x} \rVert$.
103103
104-
### Caso geral e pseudoinversa
104+
# Caso geral e pseudoinversa
105105
106106
Utilizando a pseudoinversa de Moore-Penrose, dada por [](#def-pseudoinversa), podemos resolver $A^{T}Ax=A^{T}b$ no caso geral, que independe da quantidade de linhas e colunas, assim como do posto de $A$.
107107
108-
:::{prf:theorem}
108+
:::{important} Teorema 14.1
109109
:label: teo-pseudoinversa-postocompleto
110110
111111
Quando $A \in \mathbb{R}^{m\times n}$ possui $m\geq n$ e posto completo, a solução única da equação normal $A^{T}A\bar{x}=A^{T}b$ é dada por:
@@ -116,7 +116,8 @@ $$
116116
117117
:::
118118
119-
:::{prf:proof}
119+
:::{tip} Demonstração 14.1
120+
:class: dropdown
120121
121122
Uma vez que $A$ tem $m\geq n$ e posto completo, então seu posto é igual a $n$. Consequentemente, $A^{T}A$ é invertível e a solução da equação normal é dada unicamente por $\bar{x}=(A^{T}A)^{-1}A^{T}b$. Seja $A=U\Sigma V^{T}$, substituindo e utilizando o fato que $U$ e $V$ são matrizes ortogonais, obtemos o seguinte:
122123
@@ -141,7 +142,7 @@ Concluímos que, quando $m\geq n$ e $A$ tem posto completo, $(A^{T}A)^{-1}A^{T}=
141142
142143
Agora, estendemos esse resultado para o caso geral, onde $A^{+}b$ nos dará uma solução única para a equação normal em função de um critério específico.
143144
144-
:::{prf:theorem}
145+
:::{important} Teorema 14.2
145146
146147
$A^{+}b$ fornece a solução da equação normal $A^{T}A\bar{x}=A^{T}b$ **que possui norma mínima**, seja qual for a matriz $A$. Isto é, se $\hat{x}=A^{+}b$, então:
147148
@@ -151,7 +152,8 @@ $$
151152
152153
:::
153154
154-
:::{prf:proof}
155+
:::{tip} Demonstração 14.2
156+
:class: dropdown
155157
156158
Começamos verificando que $A^{+}b$ é solução de $A^{T}A\bar{x}=A^{T}b$. Seja $A=U\Sigma V^{T}$,
157159
@@ -198,7 +200,7 @@ Donde concluímos que $\lVert \bar{x} \rVert\geq \lVert \hat{x} \rVert$ e teremo
198200
199201
Com isso, temos uma solução geral para o problema de Quadrados Mínimos, e ainda, única pelo critério de norma mínima (mesmo que a equação normal possua infinitas soluções).
200202
201-
### Exemplos numéricos
203+
# Exemplos numéricos
202204
203205
Voltando ao sistema inicial {eq}`sistema-exemplo`, encontraremos sua solução aproximada via quadrados mínimos utilizando a inversa da matriz $A^{T}A$ (pois como já vimos, a matriz associada a esse sistema tem posto completo).
204206

aplicacoes/svd.md

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -1,9 +1,9 @@
11
---
2-
title: Compressão de imagens utilizando Decomposição em Valores Singulares
2+
title: 13. Compressão de imagens utilizando Decomposição em Valores Singulares
33
subject: Aplicações
44
---
55

6-
### Contextualização
6+
# Contextualização
77

88
Um dos principais exemplos de como matrizes podem ser aplicadas no meio computacional é o processamento de imagens. Em geral, a maioria dos softwares lidam com imagens tratando-as como uma matriz de *pixels* (à nível de manipulação e processamento, já o armazenamento em disco é feito utilizando outros formatos mais eficientes, como os conhecidos formatos *.JPG*, *.PNG*, entre outros), com dimensões correspondentes as da resolução da imagem.
99

@@ -17,7 +17,7 @@ O conceito de *comprimir* uma imagem consiste em reduzir o seu tamanho (a quanti
1717

1818
Nesse tópico, mostraremos uma implementação (relativamente simples) desse método de compressão na linguagem *Python*, fazendo uso dos conceitos vistos no tópico de [Valores Singulares](../topicos/valores-singulares.md) e recursos oferecidos por bibliotecas da linguagem Python. Analisaremos os efeitos da compressão em uma imagem de teste, considerando valores diferentes para o posto $k$ de aproximação.
1919

20-
### O Algoritmo
20+
# O Algoritmo
2121

2222
A ideia geral para o algoritmo provém do que discutimos até agora:
2323

@@ -93,7 +93,7 @@ Logo, as matrizes RGB aproximadas, obtidas nos produtos entre suas respectivas m
9393

9494
O uso da função *np.clip*, nas linhas 38-40, é importante para garantir que as entradas das matrizes resultantes dos produtos estejam no intervalo permitido pelo padrão RGB, entre 0 e 255. A função substitui por 0 entradas com valor abaixo de 0, assim como por 255 entradas acima de 255, preservando as que estão dentro do intervalo. A presença de entradas fora desse intervalo resultaria em pixels "defeituosos" no resultado final, com cores destoantes da imagem original.
9595

96-
### Testes e resultados
96+
# Testes e resultados
9797

9898
Agora, veremos os resultados obtidos aplicando o algoritmo em uma imagem de testes, para diferentes valores de $k$. Note que o valor $k$ escolhido no algoritmo é livre, não há um controle sobre o valor escolhido em relação ao posto das matrizes originais. Mas, se escolhermos $k$ maior que o posto, na prática não ocorrerá alteração alguma na imagem.
9999

topicos/teorema-espectral.md

Lines changed: 19 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -1,25 +1,26 @@
11
---
2-
title: Teorema Espectral
2+
title: 10. Teorema Espectral
33
subject: Tópicos Avançados
44
---
55

66
O Teorema Espectral é um importante resultado na Álgebra Linear, diz respeito à existência de uma base ortonormal formada por autovetores de um operador auto-adjunto para o espaço vetorial o qual ele atua. Dividiremos-o em dois casos que, na prática, são correspondentes: Operadores auto-adjuntos e matrizes simétricas. O segundo caso surge naturalmente como um corolário do primeiro, devido a relação entre operadores e matrizes.
77

8-
### Teorema Espectral (Operadores auto-adjuntos)
8+
# Teorema Espectral (Operadores auto-adjuntos)
99

10-
:::{prf:theorem} Teorema Espectral para operadores auto-adjuntos
10+
:::{important} Teorema 10.1 (Teorema Espectral para operadores auto-adjuntos)
1111
:label: teorema-espectral
1212
Seja $T$ um operador linear auto-adjunto sobre um espaço vetorial $V$, de dimensão finita e munido de produto interno, então existe uma **base ortonormal** de $V$ formada por **autovetores** de $T$.
1313
:::
1414

15-
A sua prova requer dois resultados prévios. Em ambos, $T$ é um operador linear auto-adjunto sobre um espaço vetorial $V$ de dimensão finita e munido de produto interno.
15+
A sua demonstração requer dois resultados prévios. Em ambos, $T$ é um operador linear auto-adjunto sobre um espaço vetorial $V$ de dimensão finita e munido de produto interno:
1616

17-
:::{prf:lemma}
17+
:::{important} Lema 10.2
1818
:label: lema1
1919
Se $U$ é um subespaço $T$-invariante de $V$, então $U^{\perp}$ é $T$-invariante.
2020
:::
2121

22-
:::{prf:proof}
22+
:::{tip} Demonstração 10.2
23+
:class: dropdown
2324

2425
Seja $u\in U$ e $w\in U^{\perp}$. Então, dado que $Tu \in U$ (pois $U$ é $T$-invariante), temos que
2526
$$
@@ -29,12 +30,13 @@ Por outro lado, dado que $T$ é auto-adjunto, $\langle Tu , w \rangle=\langle u
2930

3031
:::
3132

32-
:::{prf:lemma}
33+
:::{important} Lema 10.3
3334
:label: lema2
3435
Os autovalores de $T$ são reais.
3536
:::
3637

37-
:::{prf:proof}
38+
:::{tip} Demonstração 10.3
39+
:class: dropdown
3840

3941
Considere $\beta$ uma base ortonormal de $V$ e $\dim V = n>0$. Como $T$ é auto-adjunto, então $[T]_{\beta}=A$ é uma matriz simétrica (pelo [](#teorema1-autoadjunto)).
4042

@@ -86,26 +88,29 @@ Assim, dado que os somatórios nas igualdades {eq}`eq:igualdade` são reais, pod
8688

8789
Agora, podemos provar o Teorema Espectral.
8890

89-
:::{prf:proof} Teorema Espectral para operadores auto-adjuntos
91+
:::{tip} Demonstração 10.1 (Teorema Espectral para operadores auto-adjuntos)
92+
:class: dropdown
93+
9094
A prova se dá por indução sobre a dimensão de $V$. Consideremos $\dim V = n$.
9195

9296
Como caso base, se $n=1$, qualquer ${} v\in V-\{ 0 \} {}$ forma uma base do espaço. Naturalmente, $\left( \frac{v}{\lvert |v| \rvert} \right)$ é uma base ortonormal de $V$. Ademais, também é formada por um autovetor, uma vez que se $Tv\in V$, então $Tv=\lambda v$, para algum $\lambda \in \mathbb{R}$, dado que $( v )$ é uma base.
9397

94-
Como hipótese de indução, considere $n>1$ e suponha que o Teorema vale para todo espaço com dimensão menor que $n$. O [Lema 2](#lema2) garante que existe um autovetor de $T$ (em particular, unitário) $v_{1}\in V$, associado a um autovalor real $\lambda_{1}$. Seja $U=\text{span}(v_{1})$, temos então que $\dim U^{\perp}= \dim V - \dim U=n-1<n$. Além disso, seja $u \in U$, $u=\alpha v_{1}$ e $T(\alpha v_{1})=\alpha Tv_{1}=\alpha \lambda_{1}v_{1}\in U$. Logo, $U$ é $T$-invariante. Consequentemente, pelo [Lema 1](#lema1), $U^{\perp}$ também é $T$-invariante.
98+
Como hipótese de indução, considere $n>1$ e suponha que o Teorema vale para todo espaço com dimensão menor que $n$. O [](#lema2) garante que existe um autovetor de $T$ (em particular, unitário) $v_{1}\in V$, associado a um autovalor real $\lambda_{1}$. Seja $U=\text{span}(v_{1})$, temos então que $\dim U^{\perp}= \dim V - \dim U=n-1<n$. Além disso, seja $u \in U$, $u=\alpha v_{1}$ e $T(\alpha v_{1})=\alpha Tv_{1}=\alpha \lambda_{1}v_{1}\in U$. Logo, $U$ é $T$-invariante. Consequentemente, pelo [](#lema1), $U^{\perp}$ também é $T$-invariante.
9599

96100
Dado que $\dim U^{\perp}<n$ e ${} U^{\perp} {}$ é $T$-invariante, vale a hipótese de indução. Logo, existe uma base ortonormal $( v_{2},\dots ,v_{n} )$ de $U^{\perp}$ formada por autovetores de $T$. Naturalmente, como $V=U \oplus U^{\perp}$, $( v_{1},v_{2},\dots,v_{n} )$ é uma base ortonormal de $V$ formada por autovetores de $T$.
97101
:::
98102

99103
Verifica-se sem muita dificuldade que, em espaços vetoriais reais, a recíproca do Teorema Espectral é verdadeira: Se existe uma base ortonormal formada por autovetores de $T$, então $T$ é auto-adjunto.
100104

101-
### Teorema Espectral para matrizes simétricas
105+
# Teorema Espectral para matrizes simétricas
102106

103-
:::{prf:corollary} Teorema Espectral para matrizes simétricas
107+
:::{important} Corolário 10.4 (Teorema Espectral para matrizes simétricas)
104108
:label: espectral-para-matrizes-simetricas
105109
Seja $A\in M_{n}(\mathbb{R})$ uma matriz simétrica, então existe uma matriz $P\in M_{n}(\mathbb{R})$ ortogonal tal que $D=P^{T}AP$, onde $D$ é uma [matriz diagonal](#def-matriz-diagonal) cuja diagonal principal contém os autovalores de $A$.
106110
:::
107111

108-
:::{prf:proof}
112+
:::{tip} Demonstração 10.4
113+
:class: dropdown
109114

110115
Seja $T\in \mathcal{L}(V)$ tal que $A=[T]_{c}$. Como $A$ é simétrica e a base canônica é ortonormal, então $T$ é auto-adjunta. Logo, do [Teorema Espectral](#teorema-espectral) sabemos que existe uma base $\beta=( v_{1},\dots,v_{n} )$ de $V$ formada por autovetores de $T$. Seja $Tv_{i}=\lambda_{i}v_{i}$ ($i=1,2,\dots,n$), então
111116
$$
@@ -122,7 +127,7 @@ Além disso, $D=P^{-1}AP$, onde $P$ é a matriz mudança de base de $\beta$ para
122127

123128
O fato de podermos garantir que matrizes simétricas podem ser diagonalizadas e sabermos como encontrar a matriz diagonal tem grande aplicação prática e computacional, como veremos no exemplo a seguir.
124129

125-
:::{prf:example} Potenciação de uma matriz simétrica
130+
:::{hint} Exemplo 10.5 (Potenciação de uma matriz simétrica)
126131

127132
Seja $A$ uma matriz simétrica, podemos determinar $A^{n}$ para um expoente natural qualquer. A chave está em encontrarmos a forma diagonal de $A$, garantida pelo [](#espectral-para-matrizes-simetricas) (neste caso, nos será útil escrever $A$ como $PDP^{T}$), e então verificar o que seria $A^{n}$ neste formato.
128133

0 commit comments

Comments
 (0)