Notação Diferencial, integral indefinida

Em geral quando temos várias composições de funções, em vez de usar muitos nomes, escrevemos as funções em termos de seus valores. Por exemplo a expressão

$ \frac{sen(x^3 + cos(x^2)) -x}{x^2+1}$

representa uma função cujo domínio é $ \mathbb{R} $. Se quisermos representar essa função sem usar variável $ x $ podemos escrever

$ \frac{sen \circ ( (1_{\mathbb{R}})^3 + cos \circ (1_{\mathbb{R}})^2 - 1_{\mathbb{R}}}{(1_{\mathbb{R}})^2 + 1} $

onde $ 1_{\mathbb{R}} $ representa a função identidade $ 1_{\mathbb{R}}(x)=x. $

Claro que esta última forma de escrever é muito mais complicado.

Para escrever integrais também em vez de $ \int_{a}^b{f} $ podemos escrever qualquer das seguintes formas:

$ \int_{a}^{b} f(x) dx $ ou $ \int_{a}^{b} f(t) dt $ ou  $ \int_{a}^{b} f(*) d* $ que $ *$ pode ser qualquer símbolo.

A notação $ \int_{a}^{b} f(x) dx  $ significa que estamos representando os pontos do intervalo $ [a, b]  $ com variável $ x.  $

Quando escrevemos $ \int_{0}^{\pi/2} cos(sen^2 x + x) dx $ queremos dizer integral de uma função que dado $ x \in [0, \pi/2]  $ seu valor é $ cos(sen^2 x + x).  $ Podemos escrever a mesma coisa de seguintes formas:

$ \int_{0}^{\pi/2} cos(sen^2 t + t) dt  $

ou mesmo:

$ \int_{0}^{\pi/2} cos \circ ( (sen \circ I_{\mathbb{R}} )^2 + 1_{\mathbb{R}}).  $

Porém se escrevermos $ \int_{0}^{\pi/2} cos(t) dx  $ sem explicitar a relação entre $ t, x  $ temos uma ambiguidade.

Se $ t  $ e $ x  $ forem variáveis independentes, então estamos calculando integral de uma função constante.

Se $ t  $ for uma função de $ x  $, por exemplo, $ t=sen^2(x) + x  $, ai temos outra integral a ser calculada.

Por isto no enunciado do Teorema Fundamental de Cálculo, usamos notação $ \int_{a}^{x} f(t)dt.  $

Geralmente denotamos a(s) primitiva(s) da função $ f  $ por $ \int f  $ ou $ \int f(x)dx  $ e chamamos de integral indefinida.

Entretanto essa notação tem pouco de ambiguidade: Pois se o domínio da função for um intervalo então acrescentando constante teremos outra primitiva. Porém, se o domínio for união de vários intervalos, então para cada intervalo podemos acrescentar um constante diferente!

Exemplo: Considere $ f: \mathbb{R} \setminus \{0\} \rightarrow \mathbb{R}  $ com regra $ f(x)=\frac{1}{x^2}.  $

A forma geral da primitiva dessa função é dada por:

$ \int \frac{1}{x^2} dx =  \begin{cases} -\frac{1}{x} + C_1              & x < 0
-\frac{1}{x} + C_2               & x > 0 \end{cases} $

onde $ C_1, C_2 $ são constantes arbitrários.

Quer saber se aprendeu TFC (teorema fundamental de cálculo) e RC (regra de cadeia)? veja abaixo:

Derivar de uma integral 

Seja $ f: [a,b] \rightarrow \mathbb{R} $ uma função contínua e $ F: [a, b] \rightarrow \mathbb{R} $ definida como:

$ F(x) = \int_{a}^{x} f  $

Então pelo Teorema Fundamental de Cálculo $ F $ é diferenciável e $ F^{'}(x)=f(x). $ Observe que se $ G(x)=\int_{x}^{a} f $ então $ G^{'}(x)=-f(x). $

Em algumas situações os limites de integração são funções de $ x $. Por exemplo suponhamos $ f: \mathbb{R} \rightarrow \mathbb{R} $ contínua e $ \alpha, \beta : I \rightarrow \mathbb{R} $ funções diferenciáveis. Definimos $ F(x) = \int_{\alpha(x)}^{\beta(x)} f $

Então afirmamos que :

$ F^{'}(x) = \beta^{'}(x) f(\beta(x)) - \alpha^{'}(x)f(\alpha(x)). $

Para provar essa afirmação fixamos um ponto $ c \in \mathbb{R} $ e escrevemos

$ F(x) = \int_{\alpha(x)}^{c} f + \int_{c}^{\beta(x)} f $

Vamos achar a derivada de cada um dos termos na soma acima. Por exemplo seja

$ G(x) = \int_{c}^{\beta(x)} f. $ Se definirmos $ \phi(x) = \int_{c}^{x} f $ então temos:

$ G(x) = (\phi \circ \beta) (x). $

Agora, já que ambas $ \beta, \phi $ são diferenciáveis, pela regra de cadeia

$ G^{'}(x) = \phi^{'}(\beta(x)) \beta^{'}(x) = f(\beta(x)) \beta^{'}(x) $

e portanto similarmente temos:

$ \frac{d}{dx} (\int_{\alpha(x)}^{c} f) = f(\alpha(x)) \alpha^{'}(x) $

e concluímos a demonstração.