Page 1 of 1

[Resolução] 10.4.29

Posted: 29 Aug 2022 16:28
by pedro-rossi
Provando que uma sucessão não pode convergir para dois limites diferentes.

Provaremos por absurdo.

Suponha que a sucessão converge para \(L_1\) e \(L_2\), ou seja:
\(lim_{n\to\infty} a_n = L_1\) e \(lim_{n\to\infty} a_n = L_2\), com \(L_1 \neq L_2\)

Tomando \(\epsilon < \frac{|L_1 - L_2|}{2}\)

Dado que \(lim_{n\to\infty} a_n = L_1\), para um certo \(n_1\):
\(n > n_1 \implies |a_n - L_1| < \epsilon\)

Similarmente, dado que \(lim_{n\to\infty} a_n = L_2\), para um certo \(n_2\):
\(n > n_2 \implies |a_n - L_2| < \epsilon\)

Como \(n > n_1 > n_2\), segue que:
\(|L-L_1|=|(L-a_n)+(a_n-L_1)| \leq |L-a_n| + |L_1-a_n| \leq 2\epsilon < |L-L_1| \)

o que é absurdo.

Portanto, concluímos que \(L_1 = L_2\) e, portanto, uma sucessão não pode convergir para dois limites diferentes.

Re: [Resolução] 10.4.29

Posted: 06 Oct 2022 20:44
by ZenaoDeEleia
Você definiu \(L_1\) e \(L_2\), mas o que é \(L\)? Além disso, por quê \(n_1 > n_2\)?