Algo and Math

dimostrare che l'integrale definito [a, b] di f^-1 (x)

Detto
∫f⁻¹(x)dx=G(x)
si puo′ mostrare innanzitutto che
∫f⁻¹(x)dx=
=xf⁻¹(x)-G[(f⁻¹(x)]+c
infatti posto
x=f(t) ⇄ t=f⁻¹(x)
da cui
∫f⁻¹(x)dx=∫f⁻¹(f(t))df(t)=
=∫tdf(t)
integrando per parti
∫tdf(t)=
=tf(t)-∫f(t)dt=
=f⁻¹(x)·f(f⁻¹(x))-G(t)=
=xf⁻¹(x)-G(f⁻¹(x))
integrando tra a e b ove f sia invertibile e integrabile (è sufficiente che sia continua e bijettiva)
∫f⁻¹(x)dx|ₐᵇ=
=xf⁻¹(x)|ₐᵇ - ∫f(f⁻¹(x)df⁻¹(x)|ₐᵇ=
(detta f⁻¹(x)=y)
=bf⁻¹(b)-af⁻¹(a) - ∫f(y)dy|f⁻¹(a), f⁻¹(b)
Exit mobile version