sábado, 14 de dezembro de 2013

Teorema da Aproximação de Weierstrass.

Neste post, apresentarei uma prova do Teorema da Aproximação de Weierstrass usando um argumento probabilístico. Mais precisamente, tal argumento será embasado no seguinte

Lema. (Desigualdade de Chebyshev) Sejam $X$ uma variável aleatória, $\mu = \mathbf{E}[X]$ o valor esperado de $X$ e $\sigma^2 = \mathbf{Var}[X]$ a variância de $X$. Então, para $\lambda > 0$,

$$ \mathbf{Pr}[| X - \mu | \geq \lambda] \leq \frac{\sigma^2}{\lambda^2}.$$

Observe que se  $X$ possui distribuição binomial $\mathbf{Bin}(n,p)$, então $\mu = np$ e $\sigma = np(1-p)$. Se tomarmos $\lambda = n^{2/3}$ na desigualdade de Chebyshev, obtemos 
$$ \mathbf{Pr}[| X - np | \geq n^{2/3}] \leq \frac{np(1-p)}{n^{4/3}} \leq n^{-1/3},$$
que tende para zero, quando $n \to \infty$. Esta observação será crucial para a prova do

Teorema da aproximação de Weierstrass. Seja $f:[a,b] \rightarrow \mathbb{R}$ uma função contínua. Para todo $\epsilon >0$, existe um polinômio $p(x)$ tal que $$|f(x) - p(x)|<\epsilon, \quad \forall x \in [a,b].$$ 
Outra maneira de enunciar o teorema acima é a seguinte: para qualquer função contínua  $f:[a,b] \rightarrow \mathbb{R}$, existe uma sequência de polinômios $(p_n)$ que convergem uniformemente para $f$.

O teorema é originalmente atribuído a Karl Weierstrass (imagem abaixo), quem deu uma primeira demonstração em 1885 usando o que hoje chamamos de transformações de Weierstrass. Mais tarde, Marshall Stone generalizou o teorema e apresentou uma versão simplificada da prova de Weierstrass. Assim, o teorema é também conhecido como Teorema de Stone-Weierstrass. Hoje, podemos encontrar diversas provas deste resultado. Eu, pelo menos, conheço cinco versões essencialmente distintas: uma versão utilizando as transformações de Weierstras [2]; outra usando o teorema de Fejér [3]; outra usando os núcleos de Landau [4]; uma totalmente elementar [5]; e uma usando argumentos probabilísticos (que pode ser encontrada em [1]) , que é a que será dada aqui (e a que dentre as cinco citadas, é a minha preferida).




Provaremos o teorema para $[a,b] = [0,1]$. O leitor não deverá ter dificuldade em verificar que isto é suficiente, i.e., uma vez provado para $[0,1]$, não há resistência alguma em garantir o resultado para qualquer intervalo fechado e limitado.

Demonstração do Teorema. Seja $\epsilon > 0$ dado. Como $f$ é contínua sobre um conjunto compacto, segue que $f$ é uniformemente contínua. Portanto, existe um $\delta >0$ (que depende de $\epsilon$) tal que se $|x-y| < \delta$, então $|f(x) - f(y)| < \frac{\epsilon}{2}$. E ainda devido ao fato de $f$ ser contínua sobre um compacto, segue que $f$ é limitada, i.e., existe $M>0$ tal que $|f(x)| < M$, para todo $x\in [0,1]$.

Agora escolhemos $n$ suficientemente grande tal que 
$$n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}}.$$
O que assegura que para todo $x\in[0,1]$ e para $X \sim \mathbf{Bin}(x,n)$, temos que 
$$ \mathbf{Pr}[| X - nx | \geq n^{2/3}] \leq n^{-1/3} < \displaystyle{\min \left\{ \delta, \frac{\epsilon}{4M}\right\}},$$
como foi comentado no parágrafo subsequente à desigualdade de Chebyshev.

Seja $p(x)$ o seguinte polinômio
$$p(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)} f\left(\frac{k}{n}\right).$$

Observe que 
$$\sum_{k=0}^{n} x^k (1-x)^{(n-k)} = 1.$$
De modo que 
$$f(x) = \sum_{k=0}^{n} x^k (1-x)^{(n-k)}f(x).$$

Agora, obtemos o seguinte
$$ \begin{array}{rcl}   |f(x)-p(x)|  & = &  \displaystyle{ \left| \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left( f(x) - f\left(\frac{k}{n}\right) \right) \right|} \\    & \leq &  \displaystyle{ \sum_{k=0}^{n} x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\    & = &  \displaystyle{ \sum_{|k -nx| < n^{2/3}} (\ldots)}   +   \displaystyle{ \sum_{|k -nx| \geq n^{2/3}} (\ldots)}  \\ & = & A + B. \end{array}$$

Analisemos os somatórios $A$ e $B$ separadamente. Para $A$, temos

$$ \begin{array}{rcl}   A & = & \displaystyle{ \sum_{|k -nx| < n^{2/3}}  x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\  & = & \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3} < \delta}  x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|}\\    & < &  \displaystyle{ \sum_{|\frac{k}{n} - x| < n^{-1/3}}  x^k (1-x)^{(n-k)}\frac{\epsilon}{2}}\\    & \leq &  \displaystyle{ \sum_{k=0}^{n}  x^k (1-x)^{(n-k)} \frac{\epsilon}{2}} =   \frac{\epsilon}{2},   \end{array}   $$
onde, na primeira desigualdade, usamos a continuidade uniforme de $f$.

Já para $B$. temos

$$ \begin{array}{rcl}   B & = & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} }  x^k (1-x)^{(n-k)}\left| f(x) - f\left(\frac{k}{n}\right) \right|} \\  & \leq & \displaystyle{ \sum_{|k - nx| \geq n^{2/3} }  x^k (1-x)^{(n-k)} 2M}\\   & = &  2M \displaystyle{ \mathbf{Pr}[| X - nx | \geq n^{2/3}]} \\   & < &  2M  \frac{\epsilon}{4M} =  \frac{\epsilon}{2}, \end{array}  $$
onde, na primeira desigualdade, usamos o fato de $f$ ser limitada por $M$. 

O que resulta
$$|f(x) - p(x)| < \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon, \quad \forall x \in [0,1],$$
como queríamos. $\square$

O polinômio $p(x)$ definido durante a prova acima, apesar de parecer muito artificial, é um polinômio conhecido. Trata-se do $n$-ésimo polinômio de Bernstein associado a $f$. Este polinômio possui algumas propriedades estocásticas interessantes; veja, por exemplo, [6], onde encontramos uma generalização do teorema da aproximação de Weierstrass para funções contínuas $f:[0,1]^d\rightarrow \mathbb{C}$.

Agora demonstraremos a desigualdade de Chebyshev.

Demonstração do lema. Primeiro provamos o seguinte fato conhecido como desigualdade de Markov. Sejam $Y$ uma variável aleatória positiva e $\mu_Y = \mathbf{E}[Y]$. Afirmo que
$$\mathbf{Pr}[Y\geq \lambda] \leq \frac{\mu_Y}{\lambda}.$$
Isto segue do seguinte fato:
$$\lambda \mathbf{1}_{\{Y\geq \lambda\}} \leq Y.$$
Tomando o valor esperado em ambos os lados, temos
$$\lambda \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}] \leq \mathbf{E}[Y] = \mu_Y.$$
Como $\mathbf{Pr}[Y\geq \lambda] =  \mathbf{E}[ \mathbf{1}_{\{Y\geq \lambda\}}]$, segue a veracidade da afirmação.

Agora, para provar a desigualdade de Chebyshev é suficiente tomar $Y = (X - \mu)^2$ na desigualdade de Markov. De fato, com $Y$ escolhido desta maneira, temos $\mathbf{E}[Y] = \mathbf{E}[(X - \mu)^2] = \mathbf{Var}[X] = \sigma^2$. Pela desigualdade de Markov, temos
$$ \mathbf{Pr}[|X-\mu| \geq \lambda] = \mathbf{Pr}[Y \geq \lambda ^2] \leq \frac{\sigma^2}{\lambda^2}.$$ $\square$

Até a próxima!



Referências.

[1] Noga Alon and Joel H. Spencer. The Probabilistic Method, Third edition. Wiley Series in Discrete Mathematics and Optimization, 2008. (Google Books)

[2] Anton R. Schep. Weierstrass' proof of the Weierstras approximation theorem.  (link: http://www.math.sc.edu/~schep/weierstrass.pdf )

[3] Richard Wheeden and Antoni Zygmund. Measure and Integral: an Itroduction to Real Analysis. Chapman & Hall, Pure and Applied Mathematics, 1977.

[4] Djairo Guedes. Análise de Fourier e equações diferenciais parciais. IMPA, 2000.

[5]  Proof of Weierstrass Approximation Theorem.
(link: http://planetmath.org/proofofweierstrassapproximationtheorem )

[6] Emmanuel Kowalski. Bernstein polynomials and Brownian motion. 



Nenhum comentário:

Postar um comentário

Use cifrões para inserir um comando TeX. Por exemplo: "Afirmo que $\$ $\sqrt {2} $\$ $ é irracional".