Analiza Matematyczna 1

Opis


Zadaniem kursu „Analiza matematyczna 1” jest zapoznanie studentów z podstawowymi narzędziami rachunku różniczkowego i całkowego funkcji jednej zmiennej w zakresie niezbędnym do zrozumienia treści wykładów kursowych. Kontynuacją tego kursu jest „Analiza matematyczna 2”.

Sylabus

Autorzy

Wymagania wstępne

Zawartość

Literatura

  1. W. Rudin, Podstawy analizy matematycznej, Państwowe Wydawnictwo Naukowe, Warszawa 1982.
  2. W. Rudnicki, Wykłady z analizy matematycznej, Państwowe Wydawnictwo Naukowe, Warszawa 2001.
  3. G.M. Fichtenholz, Rachunek różniczkowy i całkowy, tom I, II i III. Państwowe Wydawnictwo Naukowe, Warszawa 1978.
  4. L. Drużkowski, Analiza matematyczna dla fizyków. I. Podstawy, Skrypt Uniwersytetu Jagiellońskiego, Kraków 1995.
  5. L. Drużkowski, Analiza matematyczna dla fizyków. II. Wybrane zagadnienia, Skrypt Uniwersytetu Jagiellońskiego, Kraków 1997.
  6. W. Krysicki, L. Włodarski, Analiza matematyczna w zadaniach, część I i II, Państwowe Wydawnictwo Naukowe, Warszawa 1986.
  7. J. Banaś, S. Wędrychowicz, Zbiór zadań z analizy matematycznej, Wydawnictwo Naukowo-Techniczne, Warszawa 2001.

Moduły

Zbiory liczbowe

Zbiory liczbowe


Rozpoczynamy od przeglądu najważniejszych pojęć i twierdzeń, które są omawiane w szkole średniej lub w ramach innych przedmiotów objętych programem studiów (logika i teoria mnogości, algebra liniowa z geometrią analityczną, matematyka dyskretna).

Oznaczenia zbiorów liczbowych

Oznaczenia zbiorów liczbowych


Przypomnijmy powszechnie stosowane oznaczenia zbiorów liczbowych.

Zbiór \( \displaystyle \mathbb{N}=\{1, 2, 3, \ldots \} \) nazywamy zbiorem liczb naturalnych lub zbiorem liczb całkowitych dodatnich.

Zbiór \( \displaystyle \mathbb{N}_0 =\{0, 1, 2, 3, \ldots \}=\mathbb{N}\cup \{0\} \) nazywamy zbiorem liczb całkowitych nieujemnych. Wielu nazywa ten zbiór także zbiorem liczb naturalnych. Na ogół nie prowadzi to do nieporozumień.

Z kolei zbiór \( \displaystyle \mathbb{Z}=\{\ldots , -3, -2, -1, 0, 1, 2, 3, \ldots\} \) nazywamy zbiorem liczb całkowitych.

Zbiór \( \displaystyle \mathbb{Q}=\bigg\{\frac{p}{q} : p\in \mathbb{Z}, q\in \mathbb{N}\bigg\}\), czyli zbiór ułamków o całkowitym liczniku i naturalnym mianowniku, nazywamy zbiorem liczb wymiernych.

Literą \( \displaystyle \mathbb{R} \) będziemy oznaczać zbiór liczb rzeczywistych, a literą \( \displaystyle \mathbb{C} \) - zbiór liczb zespolonych.

Przedziały. Kresy

Przedziały. Kresy



DEFINICJA 1.1.
Rozszerzonym zbiorem liczb rzeczywistych \( \displaystyle \overline{\mathbb{R}} \) nazywamy zbiór liczb rzeczywistych z dołączonymi elementami plus nieskończoność \( \displaystyle +\infty \) oraz minus nieskończoność \( \displaystyle -\infty \) tak, że w zbiorze liczb rzeczywistych zachowany jest naturalny porządek zadany przez relację nierówności, natomiast element plus nieskończoność następuje po każdej liczbie rzeczywistej, a element minus nieskończoność poprzedza dowolną liczbę rzeczywistą.

DEFINICJA 1.2.

Niech \( \displaystyle a \), \( \displaystyle b \) będą dowolnymi elementami zbioru \( \displaystyle \overline{\mathbb{R}} \). Jeśli \( \displaystyle a < b, \) to każdy ze zbiorów:

\( \begin{array}{rll} \displaystyle [a, b] & := & \{x\in \overline{\mathbb{R}}:a\leq x\leq b\} \\ (a, b) & := & \{x\in \overline{\mathbb{R}}:a < x < b \} \\ [a, b) & := & \{x\in \overline{\mathbb{R}}:a \leq x < b \} \\ (a, b] & := & \{x\in \overline{\mathbb{R}}:a < x\leq b \} \end{array} \)

nazywamy przedziałem o końcach \( \displaystyle a \), \( \displaystyle b \), przedziałem - odpowiednio - domkniętym, otwartym, lewostronnie domkniętym, prawostronnie domkniętym.

Niech \( \displaystyle A \) będzie dowolnym niepustym podzbiorem zbioru \( \displaystyle \overline{\mathbb{R}} \).

DEFINICJA 1.3.

Ograniczeniem górnym zbioru \( \displaystyle A \) nazywamy dowolny element zbioru \( \displaystyle \overline{\mathbb{R}} \) nie mniejszy od dowolnego elementu zbioru \( \displaystyle A \).

DEFINICJA 1.4.

Ograniczeniem dolnym zbioru \( \displaystyle A \) nazywamy dowolny element zbioru \( \displaystyle \overline{\mathbb{R}} \) nie większy od dowolnego elementu zbioru \( \displaystyle A \).

DEFINICJA 1.5.

Najmniejsze ograniczenie górne zbioru \( \displaystyle A\subset \overline{\mathbb{R}} \) nazywamy kresem górnym zbioru \( \displaystyle A \) (lub: supremum zbioru \( \displaystyle A \)) i oznaczamy symbolem \( \displaystyle \sup A \).

DEFINICJA 1.6.

Największe ograniczenie dolne zbioru \( \displaystyle A\subset \overline{\mathbb{R}} \) nazywamy kresem dolnym zbioru \( \displaystyle A \) (lub: infimum zbioru \( \displaystyle A \)) i oznaczamy symbolem \( \displaystyle \inf A \).

Ciąg arytmetyczny. Ciąg geometryczny

Ciąg arytmetyczny. Ciąg geometryczny


DEFINICJA 1.7.

Ciąg o wyrazach \( \displaystyle a_n=a_0 +n r, \) gdzie \( \displaystyle n=0, 1, 2, 3, \ldots \) nazywamy ciągiem arytmetycznym opoczątkowym wyrazie \( \displaystyle a_0 \) i różnicy \( \displaystyle r. \)

DEFINICJA 1.8.

Niech \( \displaystyle a_0\neq 0 \) i \( \displaystyle q\neq 0. \) Ciąg o wyrazach \( \displaystyle a_n=a_0q^n \), gdzie \( \displaystyle n=0, 1, 2, 3, ... \) nazwyamy ciągiem geometrycznym o początkowym wyrazie \( a_0 \) i ilorazie \( q \).

Przypomnijmy, że

Uwaga 1.9.

Jeśli \( \displaystyle a_n \) jest ciągiem arytmetycznym o początkowym wyrazie \( \displaystyle a_0 \) i różnicy \( \displaystyle r \), to

\( \displaystyle a_0 +a_1 +a_2 +\ldots+a_n=\frac{n+1}{2}(a_0+a_n ) \ =\ \frac{n+1}{2}(2a_0+nr). \)

Uwaga 1.10.

Dla dowolnej liczby rzeczywistej \( \displaystyle q\neq 1 \) i dowolnej liczby naturalnej \( \displaystyle n=1, 2, 3, \ldots \) zachodzi równość

\( \displaystyle 1+q+q^2+\ldots +q^n \ =\ \frac{1-q^{n+1}}{1-q}. \)

(Jeśli \( \displaystyle q=1 \), mamy oczywistą równość \( \displaystyle 1+q+q^2+\ldots +q^n=1+1+1+\ldots +1=n+1. \))

WNIOSEK 1.11.

Jeśli \( \displaystyle a_n \) jest ciągiem geometrycznym o początkowym wyrazie \( \displaystyle a_0 \) i ilorazie \( \displaystyle q\neq 1 \), to

\( \displaystyle a_0 +a_1 +a_2+\ldots +a_n \ =\ a_0 \frac{1-q^{n+1}}{1-q}. \)

PRZYKŁAD 1.12.

Rozważmy zbiór \( \displaystyle S:=\{1+q+q^2+\ldots +q^n, n=1, 2,3, \ldots \} \) skończonych sum kolejnych wyrazów ciągu geometrycznego o pierwszym wyrazie \( \displaystyle 1 \) i nieujemnym ilorazie \( \displaystyle q \). Zauważmy, że jeśli \( \displaystyle 0 \leq q < 1 \), to

\( \displaystyle 1+q+q^2+\ldots +q^n \ =\ \frac{1}{1-q}-\frac{q^{n+1}}{1-q} < \frac{1}{1-q}, \)

gdyż \( \displaystyle \frac{q^{n+1}}{1-q}>0 \). Stąd zarówno liczba \( \displaystyle \frac{1}{1-q} \) jak i każda liczba większa od niej są ograniczeniami górnymi zbioru \( \displaystyle S \). Najmniejszym z ograniczeń górnych zbioru \( \displaystyle S \) jest liczba \( \displaystyle \frac{1}{1-q} \), gdyż wartość ułamka \( \displaystyle \frac{q^{n+1}}{1-q} \) może być dowolnie mała i bliska zeru dla dużych liczb naturalnych \( \displaystyle n \). Jeśli natomiast iloraz \( \displaystyle q\geq 1 \), to jedynym ograniczeniem górnym każdej z sum \( \displaystyle 1+q+q^2+\ldots +q^n \geq 1+1+1+\ldots +1=n+1 \) jest plus nieskończoność. Wówczas też kresem górnym zbioru sum \( \displaystyle S \) jest plus nieskończoność.

Do rozważań dotyczących ciągów i nieskończonych sum składników (szeregów) powrócimy w kolejnych modułach.

Odnotujmy jednak jeszcze następującą uwagę.

Uwaga 1.13.

Jeśli \( \displaystyle |q| < 1 \), to suma nieskończenie wielu składników \( \displaystyle q^n \), \( \displaystyle n=0, 1, 2, 3,\ldots , \) jest równa \( \displaystyle \frac{1}{1-q} \), co zapisujemy: \( \displaystyle 1+q+q^2+\ldots +q^n+\ldots=\frac{1}{1-q}. \)

Liczby wymierne

Liczby wymierne


PRZYKŁAD 1.14.

Już w szkole podstawowej dowiedzieliśmy się, że

\( \displaystyle 0,(3) \ =\ 0,33333\ldots \ =\ \frac{1}{3}. \)

Zwróćmy uwagę, że okresowe rozwinięcie dziesiętne \( \displaystyle 0,33333\ldots \) wyraża nieskończoną sumę składników

\( \begin{array}{lll} \displaystyle 0+\frac{3}{10^1}+\frac{3}{10^2}+\frac{3}{10^3}+\frac{3}{10^4}+\ldots & = & \displaystyle \frac{3}{10}\bigg(1+\frac{1}{10}+\frac{1}{10^2}+\frac{1}{10^3}+\ldots\bigg) \\ & = & \displaystyle \frac{3}{10} \cdot \frac{1}{1-\frac{1}{10}} =\frac{1}{3}. \end{array} \)

PRZYKŁAD 1.15.

Przypomnijmy jeszcze szkolny sposób zamiany ułamka okresowego na iloraz dwóch liczb całkowitych. Rozważmy na przykład liczbę

\( \displaystyle a \ =\ 78,(1016)=78,10161016101610161016\ldots , \) która wyraża sumę nieskończonej liczby składników

\( \displaystyle a \ =\ 78+\frac{1016}{10^4}+\frac{1016}{10^8}+\frac{1016}{10^{12}}+\ldots. \) Zauważmy też, że różnica

\( \begin{array}{lll} \displaystyle 10000a -a & = & 781016,1016101610161016\ldots -78,1016101610161016\ldots \\ & = & 780938,0000000000000000\ldots \end{array} \)

jest liczbą całkowitą. Stąd \( \displaystyle a=\frac{780938}{9999} \) jest liczbą wymierną.

Rozumując, podobnie jak w powyższym przykładzie, można wykazać ogólnie, że

Uwaga 1.16.

Liczba rzeczywista jest liczbą wymierną wtedy i tylko wtedy, gdy ma okresowe rozwinięcie dziesiętne.

PRZYKŁAD 1.17.

Liczba

\( \displaystyle 0,12345678910111213141516171819202122\ldots , \)

w której rozwinięciu dziesiętnym znajdują się kolejno cyfry wyrażające następujące po sobie liczby naturalne, nie jest wymierna, gdyż nie ma okresowego rozwinięcia dziesiętnego.

Iloczyn kartezjański. Współrzędne biegunowe

Iloczyn kartezjański. Współrzędne biegunowe


Niech \( \displaystyle A \) i \( \displaystyle B \) będą dowolnymi niepustymi zbiorami.

DEFINICJA 1.18.

Iloczynem kartezjańskim \( \displaystyle A\times B \) zbiorów \( \displaystyle A \) i \( \displaystyle B \) nazywamy zbiór par uporządkowanych \( \displaystyle (a,b) \) takich, że \( \displaystyle a\in A \) i \( \displaystyle b\in B \), tj. \( \displaystyle A\times B:=\{(a,b): a\in A,b\in B\}. \)

Przypomnijmy, że dowolny punkt w prostokątnym kartezjańskim układzie współrzędnych można jednoznacznie przedstawić za pomocą pary liczb rzeczywistych \( \displaystyle (x,y) \).

Niech \( \displaystyle r=\sqrt{x^2 +y^2} \) będzie odległością punktu \( \displaystyle (x,y) \) od początku układu współrzędnych. Jeśli \( \displaystyle r>0 \), niech \( \displaystyle \varphi \) będzie kątem (skierowanym), jaki tworzą dodatnia półoś osi odciętych (tj.dodatnia półoś osi \( \displaystyle OX \)) z promieniem wodzącym punktu \( \displaystyle (x,y) \). Równość \( \displaystyle r=0 \) jednoznacznie przedstawia początek układu współrzędnych, można przyjąć w tym przypadku, że \( \displaystyle \varphi \) jest dowolną liczbą.

Zauważmy, że \( \displaystyle x=r\cos\varphi \) oraz \( \displaystyle y=r\sin\varphi \).

DEFINICJA 1.19.

Parę liczb \( \displaystyle (r, \varphi) \), gdzie \( \displaystyle r\geq 0 \) oraz \( \displaystyle 0\leq \varphi < 2\pi \), nazywamy współrzędnymi biegunowymi punktu \( \displaystyle (x,y)=(r\cos\varphi, r\sin\varphi) \).

Uwaga 1.20.

Niech dane będą liczby rzeczywiste \( \displaystyle x \) oraz \( \displaystyle y \). Układ równań

\( \left\{\begin{array}{l l} x=r\cos\varphi \\ y=r\sin\varphi\\ \end{array} \right. \)

z niewiadomymi \( \displaystyle r \), \( \displaystyle \varphi \) spełnia dokładnie jeden promień \( \displaystyle r=\sqrt{x^2 +y^2} \) oraz nieskończona liczba różnych kątów postaci \( \displaystyle \varphi+2k\pi, \) gdzie \( \displaystyle \varphi \) jest kątem między dodatnią półosią odciętych a promieniem wodzącym punktu \( \displaystyle (x,y) \), zaś \( \displaystyle k \) jest dowolną liczbą całkowitą.

Liczby zespolone

Liczby zespolone


DEFINICJA 1.21.

W iloczynie kartezjańskim \( \displaystyle \mathbb{R}^2:=\mathbb{R}\times \mathbb{R} \) definiujemy sumę oraz iloczyn par \( \displaystyle z_1=(x_1 , y_1) \) oraz \( \displaystyle z_2=(x_2 , y_2) \) następująco
\( \displaystyle \begin{align*} z_1 + z_2 & =(x_1 +x_2 ,\ y_1 + y_2) \\ z_1 z_2 & =(x_1 x_2 -y_1 y_2,\ x_1 y_2 + x_2 y_1). \end{align*} \)

DEFINICJA 1.22.

Zbiór par liczb rzeczywistych z dodawaniem i mnożeniem określonym w powyższej definicji, nazywamy zbiorem liczb zespolonych i oznaczamy literą \( \displaystyle \mathbb{C}. \)

Rysunek do definicji 1.24. i 1.25.

Uwaga 1.23.

a) Suma i iloczyn liczb zespolonych jest liczbą zespoloną.
b) Dodawanie i mnożenie liczb zespolonych są działaniami łącznymi i przemiennymi, tzn.

\( \displaystyle \begin{align*} z+w & = w+z \\ z w & = w z \\ z+(u+w) & = (z+u)+w \\ z(uw) & = (zu)w \end{align*} \)

dla dowolnych liczb zespolonych \( \displaystyle z, u, w. \)
c) Mnożenie liczb zespolonych jest rozdzielne względem dodawania, tzn.

\( \displaystyle z (u+w) \ =\ z u +z w \)

dla dowolnych liczb zespolonych \( \displaystyle z,u \) oraz \( \displaystyle w. \)

DEFINICJA 1.24.

Jeśli \( \displaystyle z=(x,y) \) jest liczbą zespoloną, to pierwszy element \( \displaystyle x \) pary \( \displaystyle (x,y) \) nazywamy częścią rzeczywistą liczby \( \displaystyle z \) i oznaczamy symbolem \( \displaystyle \Re z \) (lub \( \displaystyle \textrm{Re} z \)), a drugi element tej pary - częścią urojoną liczby \( \displaystyle z \) i oznaczamy \( \displaystyle \Im z \) (lub \( \displaystyle \textrm{Im} z \)).

Zauważmy, że każdej liczbie zespolonej \( \displaystyle z \) odpowiada dokładnie jeden punkt \( \displaystyle (\Re z, \Im z) \) w prostokątnym układzie współrzędnych. Tradycyjnie mówimy więc o płaszczyźnie zespolonej \( \displaystyle \mathbb{C}. \) Oś odciętych na płaszczyźnie \( \displaystyle \mathbb{C} \) nazywamy osią rzeczywistą, a oś rzędnych osią urojoną.

DEFINICJA 1.25.

Jednostką urojoną nazywamy liczbę zespoloną \( \displaystyle i=(0,1) \).

Uwaga 1.26.

a) Każdą liczbę zespoloną \( \displaystyle z \) można zapisać w postaci sumy \( \displaystyle z=\Re z + \Im z i. \)
b) Kwadrat jednostki urojonej wynosi \( \displaystyle -1 \), gdyż \( \displaystyle i^2=(0,1)(0,1)=(-1,0)=-1+0i=-1. \)
c) Jeśli \( \displaystyle z_1=x_1 + y_1 i \) oraz \( \displaystyle z_2=x_2+ y_2 i \), to sumę i iloczyn liczb \( \displaystyle z_1, z_2 \) możemy wyznaczyć tak, jak zwykliśmy przekształcać wyrażenia algebraiczne, traktując jednostkę urojoną \( \displaystyle i \) jak parametr i pamiętać, że \( \displaystyle i^2=-1 \). Mamy więc

\( \displaystyle \begin{align*} z_1+z_2 & =(x_1 + y_1 i)+( x_2+ y_2 i) \\ & =(x_1+x_2)+(y_1+y_2)i \\ & =(x_1+x_2,\ y_1+y_2) \end{align*} \)

oraz

\( \displaystyle \begin{align*} z_1 z_2 & =(x_1 + y_1 i)( x_2+ y_2 i) \\ & =x_1 x_2+(x_1 y_2 +x_2 y_1)i +y_1 y_2 i^2 \\ & =(x_1 x_2 - y_1 y_2)+ (x_1y_2 +x_2 y_1)i \\ & =( x_1 x_2 - y_1 y_2, \ x_1 y_2 +x_2y_1).\end{align*} \)

Uwaga 1.27.

Dowolną liczbę zespoloną \( \displaystyle z=x+i y \) możemy przedstawić w postaci trygonometrycznej \( \displaystyle z=r(\cos\varphi, \sin\varphi)=r(\cos \varphi +i\sin\varphi) \), gdzie \( \displaystyle r=\sqrt{x^2+y^2} \), a \( \displaystyle \varphi \) jest dowolnym kątem takim, że

\(\left\{\begin{array}{l l} x=r\cos\varphi \\ y=r\sin\varphi\\ \end{array} \right.\)

Wiemy, że kątów takich jest nieskończenie wiele.

Liczba zespolona z oraz jej sprzeżenie \overline{z} Rycina

Liczba zespolona \( z \) oraz jej sprzeżenie \( \overline{z} \)

DEFINICJA 1.28.

Jeśli \( \displaystyle z=x+i y=r(\cos\varphi+i \sin\varphi) \), to liczbę \( \displaystyle r:= \sqrt{x^2+y^2} \) nazywamy modułem liczby zespolonej \( \displaystyle z \) i oznaczamy \( \displaystyle |z| \), a każdy z kątów \( \displaystyle \varphi \) takich, że zachodzą równości \( \displaystyle x=r\cos\varphi=r\sin\varphi \), nazywamy argumentem liczby \( \displaystyle z \) i oznaczamy \( \displaystyle \textrm{arg} z \). Najmniejszy nieujemny argument liczby zespolonej \( \displaystyle z \) nazywamy argumentem głównym tej liczby i oznaczamy \( \displaystyle \textrm{Arg} z \).

Wyrażenie \( \displaystyle \cos\varphi+ i \sin\varphi \) będziemy

krótko notować w postaci wykładniczej \( \displaystyle e^{i\varphi} \) lub \( \displaystyle \exp (i\varphi), \) pomijając na razie zasadność użycia symbolu funkcji wykładniczej w tej notacji.

Odtąd liczbę zespoloną o module \( \displaystyle r \) i argumencie \( \displaystyle \varphi \) będziemy zapisywać w postaci trygonometrycznej \( \displaystyle z=r(\cos\varphi+i\sin\varphi) \) lub wykładniczej \( \displaystyle z=re^{i\varphi}. \)

DEFINICJA 1.29.

Sprzężeniem liczby zespolonej \( \displaystyle z=x+iy \) nazywamy liczbę \( \displaystyle \overline{z}=x-iy \).

Uwaga 1.30.

a) Liczba \( \displaystyle \bar z =x-iy \) jest obrazem liczby \( \displaystyle z =x+iy \) w symetrii względem osi rzeczywistej.
b) Dla dowolnej liczby \( \displaystyle z \) zachodzi równość: \( \displaystyle z\bar z=|z|^2. \)
c) Jeśli \( \displaystyle z=re^{i\varphi}, \) to \( \displaystyle \bar z=re^{i(-\varphi)}. \)
d) Jeśli \( \displaystyle z_1=r_1 e^{i\varphi_1} \) oraz \( \displaystyle z_2=r_2 e^{i\varphi_2}, \) to \( \displaystyle z_1 z_2 = r_1 r_2 e^{i(\varphi_1+\varphi_2)}, \) to znaczy moduł iloczynu liczb \( \displaystyle z_1, z_2 \) jest iloczynem modułów \( \displaystyle |z_1|=r_1 \) i \( \displaystyle |z_2|=r_2 \) tych liczb, a argument iloczynu liczb zespolonych jest sumą ich argumentów.

Dowód 1.30.

Uwagi a), b), c) wynikają bezpośrednio z definicji sprzężenia i interpretacji geometrycznej liczb zespolonych. Zauważmy, że

\( \displaystyle \begin{align*} r_1 e^{i\varphi_1} r_2 e^{i\varphi_2} & =r_1(\cos\varphi_1+i\sin\varphi_1) r_2(\cos\varphi_2+i\sin\varphi_2) \\ & =r_1 r_2[(\cos\varphi_1\cos\varphi_2-\sin\varphi_1\sin\varphi_2)+i(\sin\varphi_1\cos\varphi_2+\cos\varphi_1\sin\varphi_2)] \\ & = r_1 r_2 (\cos(\varphi_1+\varphi_2)+i\sin(\varphi_1+\varphi_2)) \\ & =r_1 r_2 e^{i(\varphi_1+\varphi_2)}.\end{align*} \)

Z punktu d) powyższej uwagi wynika następujące twierdzenie.

Twierdzenie 1.31. [wzór de Moivre'a]

Dla dowolnej liczby zespolonej \( \displaystyle z=r(\cos\varphi+i\sin\varphi) \) i dowolnej liczby naturalnej \( \displaystyle n=1, 2, 3, \ldots \) zachodzi równość:

\( \displaystyle z^n \ =\ r^n(\cos n\varphi+i\sin n\varphi), \)

którą można również wyrazić w postaci wykładniczej:

\( \displaystyle (re^{i\varphi})^n \ =\ r^n e^{i n \varphi}. \)

Zanotujmy jeszcze nastepujący

Wniosek 1.32.

Jeśli \( \displaystyle w=r(\cos\varphi+i\sin\varphi)\neq 0 \) jest dowolną liczbą zespoloną różną od zera, zaś \( \displaystyle n=1, 2, 3, \ldots \) -- dowolną liczbą naturalną, to równanie \( \displaystyle z^n=w \) spełnia dokładnie \( \displaystyle n \) liczb zespolonych \( \displaystyle z_0, z_1, z_2, \ldots , z_{n-1} \)

\( \displaystyle z_k \ =\ \root{k}\of{r}\bigg(\cos\frac{\varphi+2k\pi}{n}+i\sin\frac{\varphi+2k\pi}{n}\bigg), \)

gdzie \( \displaystyle k\in\{0, 1, 2, \ldots , n-1\} \).

Dowód 1.32.

[Szkic] Korzystając ze wzoru de Moivre'a, stwierdzamy, że \( \displaystyle z_k ^n =w, \) a więc każda z liczb \( \displaystyle z_k \) spełnia dane równanie. Zauważmy ponadto, że gdybyśmy nie ograniczyli zakresu parametru \( \displaystyle k \) do zbioru liczb całkowitych nieujemnych od \( \displaystyle 0 \) do \( \displaystyle n-1 \), to i tak nie otrzymalibyśmy więcej pierwiastków danego równania, gdyż \( \displaystyle z_k=z_{k+n} \) ze względu na okresowość funkcji sinus i cosinus.

grafika

Uwaga 1.33

Każdy z pierwiastków równania \( \displaystyle z^n=w \) leży na okręgu o środku w punkcie \( \displaystyle 0 \) i promieniu \( \displaystyle \root{n}\of{|w|}. \) Argument pierwiastka \( \displaystyle z_0 \) jest
\( \displaystyle n \)-tą częścią argumentu liczby \( \displaystyle w \), a każdy kolejny pierwiastek ma argument o \( \displaystyle \frac{2\pi}{n} \) większy od poprzedniego, tzn.

\( \displaystyle \begin{align*} \textrm{Arg} z_0 & =\frac{1}{n}\textrm{Arg} w \\ \textrm{Arg} z_{k+1} & =\textrm{Arg} z_{k}+\frac{2\pi}{n}, \textrm{ dla } k=0,1,2,\ldots , n-2.\end{align*} \)

DEFINICJA 1.34.

Każdy z pierwiastków równania \( \displaystyle z^n=w \) nazywamy pierwiastkiem algebraicznym stopnia \( \displaystyle n \) z liczby \( \displaystyle w. \)

PRZYKŁAD 1.35.

Każda z liczb

\( \displaystyle \begin{align*} z_0 & = e^{i\frac{\pi}{4}} & = & \cos\frac{\pi}{4}+i\sin\frac{\pi}{4} & = & +\frac{\sqrt{2}}{2}+i\frac{\sqrt{2}}{2} \\ z_1 & = e^{i(\frac{\pi}{4}+\frac{\pi}{2})} & = & \cos\frac{3\pi}{4}+i\sin\frac{3\pi}{4} & = & -\frac{\sqrt{2}}{2}+i\frac{\sqrt{2}}{2} \\ z_2 & = e^{i(\frac{\pi}{4}+2\frac{\pi}{2})} & = & \cos\frac{5\pi}{4}+i\sin\frac{5\pi}{4} & = & -\frac{\sqrt{2}}{2}-i\frac{\sqrt{2}}{2} \\ z_3 & = e^{i(\frac{\pi}{4}+3\frac{\pi}{2})} & = & \cos\frac{7\pi}{4}+i\sin\frac{7\pi}{4} & = & +\frac{\sqrt{2}}{2}-i\frac{\sqrt{2}}{2}\end{align*} \)

jest pierwiastkiem równania \( \displaystyle z^4+1=0. \)

PRZYKŁAD 1.36.

Zastosujmy twierdzenie de Moivre'a do wyznaczenia sum

\( \displaystyle \begin{align*} 1+\cos\varphi+\cos 2\varphi+\ldots +\cos n\varphi \\ 0+\sin\varphi+\sin 2\varphi+\ldots +\sin n\varphi.\end{align*} \)

Niech

\( \displaystyle z \ =\ e^{i\varphi}=\cos\varphi+i\sin\varphi. \)

Zauważmy, że - na mocy twierdzenia de Moivre'a - mamy

\( \displaystyle \Re z^k \ =\ \cos k \varphi \quad \ \) oraz \( \quad \Im z^k \ =\ \sin k \varphi \quad\ \) dla dowolnej liczby \( \ k=1, 2, 3,\ldots . \)

Stąd

\( \displaystyle \begin{align*} & 1+\cos\varphi+\cos 2\varphi+\ldots +\cos n\varphi & = & \Re(1+z+z^2+\ldots +z^n) \\ & 0+\sin\varphi+\sin 2\varphi+\ldots +\sin n\varphi & = & \Im(1+z+z^2+\ldots +z^n). \end{align*} \)

Dla \( \displaystyle z=e^{i\varphi}\neq 0 \) mamy

\( \displaystyle \begin{align*} 1+z+z^2+\ldots +z^n & =\frac{z^{n+1}-1}{z-1} =\frac{e^{i(n+1)\varphi}-1}{e^{i\varphi}-1}= \frac{e^{i(n+1)\varphi}-1}{e^{i\varphi}-1}\cdot\frac{e^{-i\varphi}-1}{e^{-i\varphi}-1} \\ & =\frac{e^{in\varphi}-e^{i(n+1)\varphi}-e^{-i\varphi}+1}{2-e^{i\varphi}-e^{-i\varphi}} \\ & =\frac{\cos n\varphi-\cos(n+1)\varphi-\cos\varphi+1}{2(1-\cos{\varphi})}+i\frac{\sin n\varphi-\sin(n+1)\varphi+\sin\varphi+0}{2(1-\cos{\varphi})}\end{align*} \)

Stąd - korzystając ze znanych wzorów na różnicę sinusów, odpowiednio: cosinusów - dostajemy

\( \displaystyle \begin{align*} 1+\cos\varphi+\cos 2\varphi+\ldots +\cos n\varphi & =\frac{\big(\cos n\varphi-\cos(n+1)\varphi\big)+(-\cos\varphi+1)}{2(1-\cos{\varphi})} \\ & =\frac{-2\sin\frac{2n\varphi+\varphi}{2}\sin\frac{n\varphi-n\varphi-\varphi}{2}+2\sin^2\frac{\varphi}{2}}{4\sin^2\frac{\varphi}{2}} \\ & =\frac{\sin(n+\frac{1}{2})\varphi+\sin\frac{\varphi}{2}}{2\sin\frac{\varphi}{2}}, \textrm{ o ile } \sin\frac{\varphi}{2}\neq 0,\end{align*} \)

oraz

\( \displaystyle \begin{align*} 0+\sin\varphi+\sin 2\varphi+\ldots +\sin n\varphi & =\frac{\big(\sin n\varphi-\sin(n+1)\varphi\big)+\sin\varphi}{2(1-\cos{\varphi})} \\ & =\frac{2\cos\frac{2n\varphi+\varphi}{2}\sin\frac{n\varphi-n\varphi-\varphi}{2}+2\sin\frac{\varphi}{2}\cos\frac{\varphi}{2}}{4\sin^2\frac{\varphi}{2}} \\ & =\frac{-\cos(n+\frac{1}{2})\varphi+\cos\frac{\varphi}{2}}{2\sin\frac{\varphi}{2}}, \textrm{ o ile } \sin\frac{\varphi}{2}\neq 0.\end{align*} \)

Ponieważ dla dowolnej liczby rzeczywistej \( \displaystyle t \) zachodzi nierówność: \( \displaystyle |\cos t|\leq 1 \), \( \displaystyle |\sin t|\leq 1 \), więc

\( \displaystyle \begin{align*} & \Bigg|\sin(n+\frac{1}{2})\varphi+\sin\frac{\varphi}{2}\Bigg|\leq 2 \\ & \Bigg|\cos(n+\frac{1}{2})\varphi-\sin\frac{\varphi}{2}\Bigg|\leq 2. \end{align*} \)

Wykazaliśmy w ten sposób

Wniosek 1.37.

Dla dowolnej liczby naturalnej \( \displaystyle n \) i dowolnych liczb rzeczywistych \( \displaystyle 0 < \varphi < 2\pi \) mamy następujące ograniczenie sum

\( \displaystyle \begin{align*} & |1+\cos\varphi+\cos 2\varphi+\ldots +\cos n\varphi| & \leq \frac{1}{|\sin\frac{\varphi}{2}|} \\ & | 0+\sin\varphi+\sin 2\varphi+\ldots +\sin n\varphi| & \leq \frac{1}{|\sin\frac{\varphi}{2}|}.\end{align*} \)

Zauważmy, że wartość ułamka \( \displaystyle \frac{1}{|\sin\frac{\varphi}{2}|} \) nie zależy od liczby \( \displaystyle n \) składników wchodzących w skład powyższych sum cosinusów i sinusów, co stanowi istotę tego oszacowania. Wykorzystamy tę informację, badając zbieżność szeregów w ramach kolejnych modułów.

Dwumian Newtona

Dwumian Newtona


DEFINICJA 1.38.

Niech \( \displaystyle n\geq k \) będą dowolnymi nieujemnymi liczbami całkowitymi. Symbolem Newtona \( \displaystyle n \) po \( \displaystyle k \) nazywamy wyrażenie

\( \displaystyle {n \choose k} \ =\ \frac{n!}{(n-k)!k!}, \)

gdzie symbolem \( \displaystyle n! \) oznaczamy silnię liczby \( \displaystyle n \) określoną rekurencyjnie: \( \displaystyle 0!=1 \) oraz \( \displaystyle n!=(n-1)! \, n \) dla \( \displaystyle n\geq 1 \).

Przypomnijmy, że

a) Dla \( \displaystyle n=0, 1, 2, \ldots \) zachodzą równości: \( \displaystyle {n \choose 0}=1 \) oraz \( \displaystyle {n \choose 1}=n \).
b) Dla \( \displaystyle n>k \) zachodzi równość \( \displaystyle {n \choose k}+ {n \choose k+1}= {n+1 \choose k+1} \).

Równość ta pozwala na wyznaczać wartość \( \displaystyle {n \choose k} \) zgodnie z regułą nazywaną trójkątem Pascala:

\( \displaystyle {0 \choose 0}\)
\( \displaystyle {1 \choose 0}\quad {1 \choose 1} \)
\( \displaystyle {2 \choose 0}\quad {2 \choose 1}\quad {2 \choose 2} \)
\( \displaystyle {3 \choose 0}\quad {3 \choose 1}\quad {3 \choose 2}\quad {3 \choose 3} \)
\( \displaystyle {4 \choose 0}\quad {4 \choose 1}\quad {4 \choose 2}\quad {4 \choose 3}\quad {4 \choose 4} \)
\( \displaystyle {5 \choose 0}\quad {5 \choose 1}\quad {5 \choose 2}\quad {5 \choose 3}\quad {5 \choose 4}\quad {5 \choose 5} \)
\( \displaystyle {6 \choose 0}\quad {6 \choose 1}\quad {6 \choose 2}\quad {6 \choose 3}\quad {6 \choose 4}\quad {6 \choose 5} \quad {6 \choose 6} \)
\( \displaystyle {7 \choose 0}\quad {7 \choose 1}\quad {7 \choose 2}\quad {7 \choose 3}\quad {7 \choose 4}\quad {7 \choose 5}\quad {7 \choose 6}\quad {7 \choose 7} \)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Mianowicie - zgodnie z równością \( \displaystyle {n \choose k}+{n \choose k+1}={n+1 \choose k+1} \) wartość symbolu Newtona \( \displaystyle {n+1 \choose k+1} \) jest sumą dwóch symboli \( \displaystyle {n \choose k} \) oraz \( \displaystyle {n \choose k+1} \), które znajdują się bezpośrednio nad symbolem \( \displaystyle {n+1 \choose k+1} \) w powyższym trójkącie. Reguła ta staje się bardziej czytelna, jeśli zastąpimy symbole \( \displaystyle {n \choose k} \) odpowiadającymi im liczbami naturalnymi. Tak jak to jest przedstawione na animacji obok.

Przypomnijmy, że symbole Newtona \( \displaystyle {n \choose k} \) stanowią współczynniki rozwinięcia wyrażenia \( \displaystyle (a+b)^n \) zgodnie ze wzorem dwumianowym Newtona.

Twierdzenie 1.40.

Dla dowolnej liczby naturalnej \( \displaystyle n=1,2,3,\ldots \) i dowolnych liczb \( \displaystyle a \) i \( \displaystyle b \) zachodzi równość

\( \displaystyle \begin{align*} (a+b)^n & =\sum_{k=0}^n \binom{n}{k}a^{n-k} b^{k} \\ & =\binom{n}{0}a^{n}b^{0}+\binom{n}{1}a^{n-1}b^{1}+\binom{n}{2}a^{n-2}b^{2}+\ldots +\binom{n}{n-1}a^{1}b^{n-1}\binom{n}{n}a^{0}b^{n}.\end{align*} \)

Zauważmy, że dla \( \displaystyle n=2,\ 3 \) wzór Newtona ma postać

\( \displaystyle \begin{align*} (a+b)^2 & =a^2+2ab+b^2 \\ (a-b)^2 & =a^2-2ab+b^2 \\ (a+b)^3 & =a^3+3a^b+3ab^2+b^3 \\ (a-b)^3 & =a^3-3a^2b+3ab^2-b^3.\end{align*} \)

Wzory te pamiętamy ze szkoły pod nazwą wzorów skróconego mnożenia.

PRZYKŁAD 1.41.

Trójkąt Pascala możemy na przykład wykorzystać do efektywnego wyznaczenia rozwinięcia sumy

\( \displaystyle \begin{align*}(a+b)^7= & \sum_{k=0}^{7}\binom{7}{k}a^{7-k}b^k \\ = & \binom{7}{0}a^{7}b^0+\binom{7}{1}a^{7-1}b^1+\binom{7}{2}a^{7-2}b^2+\ldots +\binom{7}{6}a^{7-6}b^6+\binom{7}{7}a^{7-7}b^7 \\ = & a^7 +7a^6 b+21 a^5 b^2 +35 a^4 b^3 +35 a^3 b^4 +21a^2 b^5 +7 ab^6+b^7.\end{align*} \)

Funkcje różnowartościowe. Równoliczność

Funkcje różnowartościowe. Równoliczność


Niech \( \displaystyle f: X\mapsto Y \) będzie dowolną funkcją określoną na zbiorze \( \displaystyle X \) o wartościach w zbiorze \( \displaystyle Y. \) Przypomnijmy kilka pojęć z teorii mnogości.

DEFINICJA 1.42.

Funkcję \( \displaystyle f: X\mapsto Y \) nazywamy iniekcją zbioru \( \displaystyle X \) w zbiór \( \displaystyle Y \), jeśli jest różnowartościowa, to znaczy, że dla dowolnych elementów \( \displaystyle x,y\in X \) z równości \( \displaystyle f(x)=f(y) \) wynika, że \( \displaystyle x=y. \)

DEFINICJA 1.43.

Funkcję \( \displaystyle f: X\mapsto Y \) nazywamy suriekcją zbioru \( \displaystyle X \) na zbiór \( \displaystyle Y \), jeśli każdy element zbioru \( \displaystyle Y \) jest wartością funkcji \( \displaystyle f, \) to znaczy, że dla dowolnego elementu \( \displaystyle y\in Y \) istnieje element \( \displaystyle x\in X \) taki, że \( \displaystyle y=f(x). \)

DEFINICJA 1.44.

Funkcję \( \displaystyle f: X\mapsto Y \) nazywamy bijekcją zbioru \( \displaystyle X \) na zbiór \( \displaystyle Y \), jeśli jest iniekcją i suriekcją.

DEFINICJA 1.45.

Mówimy, że zbiory \( \displaystyle X, Y \) są równoliczne, jeśli istnieje bijekcja zbioru \( \displaystyle X \) na zbiór \( \displaystyle Y \). Mówimy też wtedy, że zbiory \( \displaystyle X \), \( \displaystyle Y \) są tej samej mocy, co zapisujemy krótko \( \displaystyle \text{card}X=\text{card}Y \) lub \( \displaystyle \#X=\#Y \). Jeśli zbiór zawiera skończoną liczbę elementów równą \( \displaystyle n \) (innymi słowy: jeśli jest równoliczny ze zbiorem \( \displaystyle \{1, 2, 3, \ldots , n\} \)), to mówimy, że jest zbiorem mocy \( \displaystyle n \), co zapisujemy \( \displaystyle \text{card}A =n \) lub \( \displaystyle \# A =n \).

PRZYKŁAD 1.46.

a) Można wykazać, że zbiór liczb naturalnych jest równoliczny ze zbiorem liczb całkowitych i ze zbiorem liczb wymiernych.
b) Również każdy nieskończony podzbiór zbioru liczb naturalnych (na przykład zbiór liczb parzystych, zbiór liczb nieparzystych, zbiór liczb pierwszych) jest równoliczny z całym zbiorem liczb naturalnych.

DEFINICJA 1.47.

Zbiór \( \displaystyle A \) równoliczny ze zbiorem liczb naturalnych nazywamy zbiorem przeliczalnym. Mówimy też, że moc zbioru przeliczalnego \( \displaystyle A \) jest równa alef zero, co zapisujemy \( \displaystyle card\, A =\aleph_0 \) lub \( \displaystyle \# A =\aleph_0 \).

DEFINICJA 1.48.

Zbiór nieskończony, który nie jest równoliczny ze zbiorem liczb naturalnych, nazywamy zbiorem nieprzeliczalnym.

Twierdzenie 1.49. Zbiór liczb rzeczywistych nie jest równoliczny ze zbiorem liczb naturalnych.

PRZYKŁAD 1.50.

a) Jeśli \( \displaystyle a < b \) są dowolnymi elementami zbioru \( \displaystyle \overline{\mathbb{R}} \), to każdy z przedziałów \( \displaystyle [a,b],(a,b],[a,b),(a,b), \) jest równoliczny ze zbiorem liczb rzeczywistych.
b) Co więcej, można również wykazać, że zbiór punktów płaszczyzny \( \displaystyle \mathbb{R}^2=\mathbb{R}\times \mathbb{R} \) jest równoliczny ze zbiorem liczb rzeczywistych.

DEFINICJA 1.51.

Zbiór \( \displaystyle A \) równoliczny ze zbiorem liczb rzeczywistych nazywamy zbiorem mocy continuum, co zapisujemy \( \displaystyle card\, A =c \) lub \( \displaystyle \# A =c. \)

PRZYKŁAD 1.52.

Niech

\( \displaystyle a \ =\ (0,a_1\ a_2\ a_3 \ \ldots)_3 \ =\ 0+\frac{a_1}{3}+\frac{a_2}{9}+\frac{a_3}{27}+\ldots, \)

gdzie \( \displaystyle a_i \in \{0, \ 1, \ 2 \} \), będzie ciągiem cyfr rozwinięcia w systemie trójkowym (tj. pozycyjnym systemie o podstawie 3) liczby z przedziału \( \displaystyle [0,1] \). Rozważmy kolejno zbiory

\( \begin{array}{rll} \displaystyle C_0 & = & [0,1] \\ C_1 & = & \{a\in C_0 : a_1 \neq 1\} \\ C_2 & = & \{a\in C_1 : a_2 \neq 1\} \\ C_3 & = & \{a\in C_2 : a_3 \neq 1\} \\ \vdots & = & \vdots \\ C_{n+1} & = & \{a\in C_n : a_{n+1} \neq 1\} \end{array} \)

i tak dalej. Zauważmy, że

\( \displaystyle C_1 \ =\ \bigg[\frac{0}{3},\frac{1}{3}\bigg]\cup\bigg[\frac{2}{3},\frac{3}{3}\bigg]\subset C_0 \)

to zbiór liczb z przedziału \( \displaystyle [0,1] \), które w rozwinięciu trójkowym nie mają cyfry 1 na pierwszym miejscu po przecinku, zaś

\( \displaystyle C_2 \ =\ \bigg[\frac{0}{9},\frac{1}{9}\bigg]\cup\bigg[\frac{2}{9},\frac{3}{9}\bigg] \cup \bigg[\frac{6}{9},\frac{7}{9}\bigg]\cup\bigg[\frac{8}{9},\frac{9}{9}\bigg]\subset C_1 \)

to zbiór liczb z przedziału \( \displaystyle [0,1] \), które w rozwinięciu trójkowym nie mają cyfry 1 ani na pierwszym, ani na drugim miejscu po przecinku, a ogólnie

\( \displaystyle C_{n} \ =\ \{a\in C_{n-1} : a_{n} \neq 1\} \ \subset\ C_{n-1},\quad n>1, \)

to zbiór liczb z przedziału \( \displaystyle [0,1] \), które w rozwinięciu trójkowym nie mają cyfry 1 po przecinku na żadnym z miejsc od pierwszego aż do \( \displaystyle n \)-tego włącznie.

Zauważmy, że liczbę \( \displaystyle \frac{1}{3} \) można zapisać w systemie trójkowym jako \( \displaystyle (0,10000\ldots )_{3} \) bądź też bez użycia cyfry \( \displaystyle 1 \) za pomocą trójkowego ułamka okresowego: \( \displaystyle (0,02222\ldots)_{3} \). Podobnie \( \displaystyle \frac{1}{9}=0,010000\ldots =(0,0022222\ldots)_{3} \). Stąd liczby \( \displaystyle \frac{1}{3} \), \( \displaystyle \frac{1}{9} \),... ., należą do zbiorów \( \displaystyle C_1, C_2,\ldots \), pomimo że ich ich zapis trójkowy zawiera cyfrę 1. Można je bowiem zapisać również nie używając jedynki.

Z definicji zbiorów \( \displaystyle C_i \) wynika, że

\( \displaystyle \ldots \subset C_{n+1}\subset C_{n}\subset \ldots \subset C_{2} \subset C_{1} \subset C_{0}. \)

Dowodzi się (zob. twierdzenie Cantora o zstępującym ciągu zbiorów domkniętych w przestrzeni zupełnej), że część wspólna \( \displaystyle C_0 \cap C_1 \cap C_2 \cap C_3 \cap \ldots \) nieskończenie wielu zbiorów \( \displaystyle C_n \) jest zbiorem niepustym. Zbiór ten zawiera tylko te liczby z przedziału \( \displaystyle [0,1] \), które można zapisać w systemie trójkowym bez użycia cyfry 1.

DEFINICJA 1.53.

Zbiór

\( \displaystyle C \ =\ \{a=(0, a_1\ a_2\ a_3 \ \ldots)_{3}=\frac{a_1}{3}+\frac{a_2}{9}+\frac{a_3}{27}+\ldots , a_i\in \{0,2\} \} \)

tych liczb z przedziału \( \displaystyle [0,1] \), które w systemie trójkowym da się zapisać bez użycia cyfry 1, nazywamy trójkowym zbiorem Cantora.

Uwaga 1.54.

Zbiór Cantora jest równoliczny ze zbiorem wszystkich nieskończonych ciągów o wyrazach w zbiorze dwuwartościowym: \( \displaystyle \{ 0, 2\} \). Jest więc nieprzeliczalny.

Zadania

Ćwiczenia

Funkcje Elementarne

Funkcje elementarne



Przypominamy własności funkcji znanych ze szkoły (funkcja liniowa, homograficzna, wielomianowa, wykładnicza, funkcje trygonometryczne). Definiujemy funkcje hiperboliczne. Rozważamy podstawowe własności funkcji odwrotnych.

Funkcje różnowartościowe. Funkcje monotoniczne

Funkcje różnowartościowe. Funkcje monotoniczne



Z wykładu z teorii mnogości wiemy, że funkcja różnowartościowa jest bijekcją na swój zbiór wartości. Wiemy także, że relacja odwrotna do bijekcji \( \displaystyle f: X \mapsto f(X) \) jest funkcją i to funkcją różnowartościową określoną na \( \displaystyle f(X) \) o wartościach w zbiorze \( \displaystyle X \).

Definicja 2.1.

Niech \( \displaystyle A\subset X \) i niech \( \displaystyle f:X\mapsto Y \). Zacieśnieniem (inaczej: zawężeniem lub restrykcją) funkcji \( \displaystyle f \) do zbioru \( \displaystyle A \) nazywamy funkcję \( \displaystyle f_{|A} : A\mapsto Y \) równą funkcji \( \displaystyle f \) na zbiorze \( \displaystyle A \), tzn. \( \displaystyle \forall x\in A : f_{|A} (x)=f(x) \).

Definicja 2.2.

Niech \( \displaystyle f:X\mapsto Y \) będzie funkcją. Mówimy, że funkcja \( \displaystyle g:Y\mapsto X \) jest funkcją odwrotną do funkcji \( \displaystyle f \), jeśli dla dowolnego elementu \( \displaystyle x\in X \) zachodzi równość \( \displaystyle g(f(x))=x \) i dla dowolnego elementu \( \displaystyle y\in Y \) zachodzi równość \( \displaystyle f(g(y))=y \).
Funkcję odwrotną do funkcji \( \displaystyle f:X\mapsto Y \) będziemy oznaczać często symbolem \( \displaystyle f^{-1}: Y\mapsto X \), o ile nie prowadzi to do nieporozumienia. Należy odróżniać pojęcie funkcji odwrotnej od odwrotności funkcji, gdzie przez odwrotność funkcji \( \displaystyle f:X\mapsto \mathbb{R} \) rozumiemy funkcję \( \displaystyle \frac{1}{f}: X\ni x\mapsto \frac{1}{f(x)}\in \mathbb{R} \).

Uwaga 2.3.

Niech \( \displaystyle f, g:\mathbb{R}\mapsto\mathbb{R} \) będą funkcjami jednej zmiennej. Jeśli \( \displaystyle g \) jest funkcją odwrotną do \( \displaystyle f \), to w prostokątnym układzie współrzędnych \( \displaystyle XOY \) wykres funkcji \( \displaystyle g \) jest obrazem wykresu funkcji \( \displaystyle f \) w symetrii osiowej względem prostej \( \displaystyle y=x \).

Definicja 2.4.

Mówimy, że funkcja \( \displaystyle f:\mathbb{R}\mapsto\mathbb{R} \) jest rosnąca (odpowiednio: ściśle rosnąca) w przedziale \( \displaystyle (a,b) \), jeśli

\( \displaystyle \forall x, y\in (a,b) \ : \ x < y \Longrightarrow f(x)\leq f(y) \)

(odpowiednio: \( \displaystyle \forall x, y\in (a,b) \ : \ x < y \Longrightarrow f(x) < f(y) \).

Definicja 2.5.

Mówimy, że funkcja \( \displaystyle f:\mathbb{R}\mapsto\mathbb{R} \) jest malejąca (odpowiednio: ściśle malejąca) w przedziale \( \displaystyle (a,b) \), jeśli
\( \displaystyle \forall x, y\in (a,b) \ : \ x < y \Longrightarrow f(x)\geq f(y) \)
(odpowiednio: \( \displaystyle \forall x, y\in (a,b) \ : \ x < y \Longrightarrow f(x)>f(y) \)).

Definicja 2.6.

Mówimy, że funkcja jest monotoniczna w przedziale, jeśli w tym przedziale jest rosnąca albo malejąca.

Przykład 2.7.

Funkcja \( \displaystyle x\mapsto \mathrm{tg}\, x \) rośnie w każdym z przedziałów postaci \( \displaystyle \bigg(-\frac{\pi}{2}+k\pi, \frac{\pi}{2}+k\pi\bigg) \) nie jest jednak rosnąca w sumie przedziałów \( \displaystyle \bigg(-\frac{\pi}{2}, \frac{\pi}{2}\bigg)\cup\bigg(\frac{\pi}{2},\frac{3\pi}{2}\bigg) \). Weźmy bowiem np. argumenty \( \displaystyle x=\frac{\pi}{4} \), \( \displaystyle y=\frac{3\pi}{4} \). Wówczas \( \displaystyle x < y \), ale \( \displaystyle \mathrm{tg}\, x=1>-1=\mathrm{tg}\, y \).

Uwaga 2.8.

Jeśli \( \displaystyle g: (c,d)\mapsto (a,b) \) jest funkcją odwrotną do funkcji \( \displaystyle f: (a,b)\mapsto (c,d) \), to

  • jeśli \( \displaystyle f \) jest rosnąca, to \( \displaystyle g \) jest także rosnąca;
  • jeśli \( \displaystyle f \) jest malejąca, to \( \displaystyle g \) jest również malejąca.

Krótko: funkcja odwrotna do funkcji rosnącej jest rosnąca, a odwrotna do malejącej - malejąca.

Przegląd funkcji jednej zmiennej rzeczywistej

Definicja 2.9.
Niech \( \displaystyle a,b \) będą dowolnymi liczbami rzeczywistymi. Funkcję \( \displaystyle x\mapsto ax+b \) nazywamy funkcją afiniczną.

Uwaga 2.10.

  • Wykresem funkcji afinicznej jest prosta.
  • Funkcja \( \displaystyle f(x)=ax+b \) jest ściśle rosnąca, gdy \( \displaystyle a>0 \) i ściśle malejąca, gdy \( \displaystyle a < 0 \). Jest bijekcją zbioru \( \displaystyle \mathbb{R} \) na zbiór \( \displaystyle \mathbb{R} \), gdy \( \displaystyle a\neq0 \).
  • Funkcja odwrotna do funkcji afinicznej jest funkcją afiniczną.
  • Złożenie funkcji afinicznych jest funkcją afiniczną.

Definicja 2.11.

Niech \( \displaystyle a,b,c,d \) będą dowolnymi liczbami rzeczywistymi takimi,że \( \displaystyle ad-bc\neq 0 \). Funkcję \( \displaystyle x\mapsto \frac{ax+b}{cx+d} \) nazywamy funkcją homograficzną lub - krótko - homografią.

Uwaga 2.12.

  • Funkcja afiniczna jest szczególnym przypadkiem funkcji homograficznej.
  • Wykresem funkcji homograficznej \( \displaystyle f \) jest prosta (jeśli \( \displaystyle f \) jest afiniczna) lub hiperbola (jeśli \( \displaystyle f \) nie jest afiniczna).
  • Funkcja odwrotna do homografii jest homografią.
  • Złożenie homografii jest homografią.

Definicja 2.13.

Niech \( \displaystyle a \) będzie stałą, niech \( \displaystyle n=0,1,2,3,... \) będzie liczbą całkowitą nieujemną, a \( \displaystyle x \) - zmienną. Wyrażenie algebraiczne \( \displaystyle a x^n \) nazywamy jednomianem zmiennej \( \displaystyle x \). Jeśli \( \displaystyle a\neq 0 \),to liczbę \( \displaystyle n \) nazywamy stopniem jednomianu \( \displaystyle a x^n \). Sumę \( \displaystyle w(x)=a_0 +a_1 x+a_2 x^2 +...+a_n x_n \) skończonej liczby jednomianów zmiennej \( \displaystyle x \) nazywamy wielomianem zmiennej \( \displaystyle x \). Największy ze stopni tych jednomianów, nazywamy stopniem wielomianu.

Definicja 2.14.

Funkcję \( \displaystyle x\mapsto w(x)=a_0 +a_1 x+a_2 x^2+...+a_n x_n \) nazywamy funkcją wielomianową lub - krótko - wielomianem.

Uwaga 2.15.

  • Suma oraz iloczyn wielomianów jest wielomianem.
  • Złożenie funkcji wielomianowych jest funkcją wielomianową.

Wykażmy użyteczne oszacowanie z dołu wielomianu \( \displaystyle x\mapsto (1+x)^n \) za pomocą funkcji afinicznej \( \displaystyle x\mapsto 1+nx \).

Uwaga 2.16. [nierówność Bernoullego]

Dla dowolnej liczby całkowitej nieujemnej \( \displaystyle n=0,1,2,3, ... \) i dowolnej liczby rzeczywistej \( \displaystyle x\geq -1 \) zachodzi nierówność

\( \displaystyle (1+x)^n\geq \ +nx, \)

przy czym dla \( \displaystyle n> 1 \) równość w powyższej nierówności zachodzi wyłącznie dla \( \displaystyle x=0 \).

Dowód 2.16.

Zauważmy, że nierówność zachodzi dla \( \displaystyle n=0 \) i \( \displaystyle n=1 \). Wykażemy, że dla dowolnej liczby naturalnej \( \displaystyle k\geq 1 \)prawdziwa jest implikacja

\( \displaystyle \bigg[\forall x>-1 : (1+x)^k\geq 1+kx\bigg] \Longrightarrow \bigg[\forall x>-1 : (1+x)^{k+1}\geq 1+(k+1)x\bigg]. \)

Mamy bowiem:

\( \displaystyle \begin{align*} (1+x)^{k+1} & =(1+x)(1+x)^k \\ & \geq (1+x)(1+kx)=1+(1+k)x+kx^2 \\ & \geq 1+(1+k)x.\end{align*} \)

Na mocy zasady indukcji matematycznej nierówność zachodzi więc dla każdej liczby całkowitej nieujemnej \( \displaystyle n=0, \ 1,\ 2,\ 3,\ ... \). Zauważmy, że składnik \( \displaystyle x\mapsto kx^2 \) dla \( \displaystyle k\geq 1 \) zeruje się wyłącznie w punkcie \( \displaystyle x=0 \), stąd nierówność Bernoullego jest ostra poza tym punktem, a jedynie dla \( \displaystyle x=0 \) zachodzi równość w tej nierówności.

Definicja 2.17.

Niech \( \displaystyle n\in\{2,3,4,...\} \) będzie liczbą naturalną większą od jedności. Liczbę nieujemną \( \displaystyle y \) nazywamy pierwiastkiem arytmetycznym stopnia \( \displaystyle n \) z liczby nieujemnej \( \displaystyle x \), jeśli \( \displaystyle x^n=y. \) Pierwiastek stopnia \( \displaystyle n \) z liczby \( \displaystyle x\geq 0 \) oznaczamy symbolem \( \displaystyle \root{n}\of{x} \).

Uwaga 2.18.

  • Funkcja \( \displaystyle x\mapsto x^n \) jest różnowartościowa wtedy i tylko wtedy, gdy \( \displaystyle n \) jest liczbą nieparzystą.
  • Jeśli \( \displaystyle n>0 \) jest parzystą liczbą naturalną, to zacieśnienie funkcji \( \displaystyle f(x)=x^n \) do przedziału \( \displaystyle [0, \infty) \) jest funkcją różnowartościową. Funkcją odwrotną do niej jest funkcja pierwiastek stopnia \( \displaystyle n g(x)=\root{n}\of{x} \) określona na przedziale \( \displaystyle [0,\infty) \) o wartościach w \( \displaystyle [0,\infty) \).
  • Jeśli \( \displaystyle n>0 \) jest nieparzystą liczbą naturalną, to funkcja \( \displaystyle f(x)=x^n \) jest różnowartościowa na przedziale \( \displaystyle (-\infty,+\infty) \). Funkcją odwrotną do niej jest funkcja

\( \displaystyle g(x) \ =\left \{ \begin{array}{I} \root{n}\of{x}, \text{ dla } x\geq 0 \\ -\root{n}\of{-x}, \text{ dla } x < 0 \end{array} . \right. \)

Uwaga 2.19.

Jeśli \( \displaystyle n \) jest liczbą naturalną nieparzystą,często używa się symbolu pierwiastka arytmetycznego do oznaczenia funkcji odwrotnej do funkcji \( \displaystyle f(x)=x^n \) i oznacza się ją krótko \( \displaystyle g(x)=\root{n}\of{x} \), przy czym sens tego symbolu dla liczb rzeczywistych ujemnych określa się jak powyżej.

Funkcja wykładnicza i logarytmiczna

Funkcja wykładnicza i logarytmiczna


Definicja 2.20

Niech \( \displaystyle a>0 \) będzie dowolną dodatnią liczbą rzeczywistą. Funkcję \( \displaystyle x\mapsto a^x \) określoną na zbiorze liczb rzeczywistych nazywamy funkcją wykładniczą o podstawie \( \displaystyle a \).

Uwaga 2.21.

  • Jeśli \( \displaystyle a>0,\ a\neq 1 \), funkcja wykładnicza \( \displaystyle x\mapsto a^x \) jest bijekcją zbioru \( \displaystyle \mathbb{R} \) na przedział \( \displaystyle (0, \infty) \). Nie zeruje się w żadnym punkcie swojej dziedziny.
  • Jeśli \( \displaystyle a>1 \), funkcja \( \displaystyle x\mapsto a^x \) jest ściśle rosnąca, jeśli zaś \( \displaystyle 0 < a < 1 \), jest ściśle malejąca.
  • Jeśli \( \displaystyle a=1 \), funkcja \( \displaystyle x\mapsto a^x \) jest stała.

wykresy

Definicja 2.22.

Niech \( \displaystyle a\in (0,1)\cup (1, \infty) \) będzie dowolną liczbą rzeczywistą dodatnią, różną od jedności. Funkcję odwrotną do funkcji \( \displaystyle x\mapsto a^x \) nazywamy funkcją logarytmiczną o podstawie \( \displaystyle a \) i oznaczamy \( \displaystyle x\mapsto \log_{a} x \).

Na ogół pomija się indeks \( \displaystyle a \) w oznaczeniu logarytmu liczby \( \displaystyle x \) i pisze się krótko \( \displaystyle \log x \). Zwróćmy jednak uwagę na fakt, że w zależności od dziedziny nauki czy techniki, symbol ten może oznaczać logarytmy o różnych podstawach. I tak informatycy na ogół posługują się tym symbolem, mając na myśli logarytm o podstawie 2, tzn. \( \displaystyle \log x=\log_2 x \). Z kolei w naukach technicznych symbol \( \displaystyle \log x=\log_{10}x \) oznacza przeważnie logarytm dziesiętny. Natomiast matematycy posługują się najczęściej logarytmem o podstawie \( \displaystyle e=2,71828182846... \) (do definicji i własności tej ważnej stałej powrócimy w następnych modułach). Stąd często w pracach matematycznych symbol \( \displaystyle \log x=\log_{e}x \) oznacza właśnie logarytm o podstawie \( \displaystyle e \). My jednak, aby uniknąć nieporozumień, logarytm o podstawie \( \displaystyle e \) będziemy oznaczać osobnym symbolem \( \displaystyle \ln x \).

Definicja 2.23.

Symbolem \( \displaystyle \exp x \) będziemy oznaczać potęgę \( \displaystyle e^x \).

wykres

Definicja 2.24.

Logarytmem naturalnym z liczby dodatniej \( \displaystyle x \) nazywamy liczbę \( \displaystyle \ln x=\log_{e}x \).

Uwaga 2.25.

  • Jeśli \( \displaystyle a>0, \ a\neq 1 \), funkcja logarytmiczna \( \displaystyle x\mapsto \log_{a}x \) jest bijekcją przedziału \( \displaystyle (0, \infty) \) na zbiór \( \displaystyle \mathbb{R} \).
  • Jeśli \( \displaystyle a>1 \), funkcja \( \displaystyle x\mapsto \log_{a}x \) jest ściśle rosnąca, jeśli zaś \( \displaystyle 0 < a < 1 \), jest ściśle malejąca.
  • Jedynym miejscem zerowym funkcji logarytmicznej \( \displaystyle x\mapsto\log_{a}x \) jest punkt \( \displaystyle x=1 \).
  • Jeśli \( \displaystyle a>1 \), to logarytm \( \displaystyle \log_a x \) jest dodatni w przedziale \( \displaystyle (1, \infty) \) i jest ujemny w przedziale \( \displaystyle (0,1) \). Jeśli zaś \( \displaystyle 0 < a < 1 \), to logarytm \( \displaystyle \log_a x \) jest ujemny w przedziale \( \displaystyle (1, \infty) \) i jest dodatni w przedziale \( \displaystyle (0,1) \).

Przypomnijmy jeszcze parę tożsamości, z których często będziemy korzystać.

Uwaga 2.26.

  • Dla \( \displaystyle a>0 \), \( \displaystyle x, y\in\mathbb{R} \) zachodzą równości

\( \displaystyle (a^x)^y=a^{xy} \) oraz \( a^x a^y=a^{x+y}. \)

  • Dla dodatnich liczb \( \displaystyle a,b,c \), \( \displaystyle a\neq 1 \), \( \displaystyle c\neq 1 \) prawdziwy jest wzór na zmianę podstawy logarytmu

\( \displaystyle \log_a b=\frac{\log_c b}{\log_c a}, \)

w szczególności, gdy \( \displaystyle c=e \), mamy równość

\( \displaystyle \log_a b=\frac{\ln b}{\ln a}. \)

  • Dla dowolnej liczby \( \displaystyle b\in \mathbb{R} \) i dodatnich \( \displaystyle a>0 \), \( \displaystyle c>0 \) zachodzi równość

\( \displaystyle a^b=c^{b\log_{c} a}, \)

która w szczególnym przypadku, gdy \( \displaystyle c=e \), ma postać

\( \displaystyle a^b=\exp(b \ln a). \)

Funkcje trygonometryczne i funkcje cyklometryczne

Funkcje trygonometryczne i funkcje cyklometryczne

Przypomnijmy kilka własności funkcji trygonometrycznych sinus, cosinus, tangens i cotangens. Żadna z nich nie jest różnowartościowa w swojej dziedzinie.

wykresy

Uwaga 2.27.

  • Funkcja \( \displaystyle f(x)=\sin x \) zacieśniona do przedziału \( \displaystyle \bigg[-\frac{\pi}{2}, \frac{\pi}{2}\bigg] \) jest różnowartościowa, ściśle rosnąca.
  • Funkcja \( \displaystyle f(x)=\cos x \) zacieśniona do przedziału \( \displaystyle [0, \pi] \) jest różnowartościowa, ściśle malejąca.
  • Funkcja \( \displaystyle f(x)=\mathrm{tg}\, x \) zacieśniona do przedziału \( \displaystyle \bigg(-\frac{\pi}{2}, \frac{\pi}{2}\bigg) \) jest różnowartościowa, ściśle rosnąca.
  • Funkcja \( \displaystyle f(x)=\mathrm{ctg}\, x \) zacieśniona do przedziału \( \displaystyle (0, \pi) \) jest różnowartościowa, ściśle malejąca.

wykres x2

Pamiętamy również, że zachodzi

Twierdzenie 2.28. [jedynka trygonometryczna]

Dla dowolnej liczby rzeczywistej \( \displaystyle x \) suma kwadratów cosinusa i sinusa jest równa jedności, tzn. \( \displaystyle \forall x\in \mathbb{R}: \cos^2 x+\sin^2 x=1 \).

Definicja 2.29.

Funkcję określoną na przedziale \( \displaystyle [-1,1] \) o wartościach w przedziale \( \displaystyle \bigg[-\frac{\pi}{2}, \frac{\pi}{2}\bigg] \), odwrotną do zacieśnienia funkcji sinus do przedziału \( \displaystyle \bigg[-\frac{\pi}{2}, \frac{\pi}{2}\bigg] \),nazywamy arcusem sinusem i oznaczamy symbolem \( \displaystyle x\mapsto \arcsin x \).

wykresy

Definicja 2.30

Funkcję określoną na przedziale \( \displaystyle [-1,1] \) o wartościach w przedziale \( \displaystyle [0, \pi] \), odwrotną do zacieśnienia funkcji cosinus do przedziału \( \displaystyle [0, \pi] \), nazywamy arcusem cosinusem i oznaczamy symbolem \( \displaystyle x\mapsto \arccos x \).

Definicja 2.31.

Funkcję określoną na przedziale \( \displaystyle (-\infty,\infty) \) o wartościach w przedziale \( \displaystyle \bigg(-\frac{\pi}{2},\frac{\pi}{2}\bigg) \), odwrotną do zacieśnienia funkcji tangens do przedziału \( \displaystyle \bigg(-\frac{\pi}{2}, \frac{\pi}{2}\bigg) \), nazywamy arcusem tangensem i oznaczamy symbolem \( \displaystyle x\mapsto \mathrm{arctg}\, x \).

Definicja 2.32.

Funkcję określoną na przedziale \( \displaystyle (-\infty, \infty) \) o wartościach w przedziale \( \displaystyle (0, \pi) \), odwrotną do zacieśnienia funkcji cotangens do przedziału \( \displaystyle (0, \pi) \), nazywamy arcusem cotangensem i oznaczamy symbolem \( \displaystyle x\mapsto \mathrm{arc\,ctg}\, x \).

wykres

Funkcje: arcus sinus, arcus cosinus, arcus tangens i arcus cotangens nazywamy funkcjami cyklometrycznymi.

Uwaga 2.33.

Funkcje arcus sinus i arcus tangens są ściśle rosnące. Funkcje arcus cosinus i arcus cotangens -- ściśle malejące.

Ze wzorów redukcyjnych: \( \displaystyle \sin\bigg(\frac{\pi}{2}-x\bigg)=\cos x \) oraz \( \displaystyle \mathrm{tg}\,\bigg(\frac{\pi}{2}-x\bigg)=\mathrm{ctg}\, x \) wynika, że

Uwaga 2.34.

  • Dla dowolnej liczby \( \displaystyle -1\leq x\leq 1 \) zachodzi równość \( \displaystyle \arccos x=\frac{\pi}{2}+\arcsin(-x). \)
  • Dla dowolnej liczby \( \displaystyle -\infty < x < \infty \) zachodzi równość \( \displaystyle \mathrm{arc\,ctg}\, x=\frac{\pi}{2}+\mathrm{arctg}\,(-x). \)

Funkcje hiperboliczne i funkcje area

Funkcje hiperboliczne i funkcje area


Określimy teraz cztery funkcje, których nazwy są nieprzypadkowo zbieżne z nazwami funkcji trygonometrycznych.

wykres

Definicja 2.35.

Niech \( \displaystyle x\in(-\infty, +\infty) \).

  • Sinusem hiperbolicznym nazywamy funkcję \( \displaystyle \sinh :x\mapsto\frac{1}{2}(e^{x}-e^{-x}) \).
  • Cosinusem hiperbolicznym nazywamy funkcję \( \displaystyle \cosh :x\mapsto\frac{1}{2}(e^{x}+e^{-x}) \).
  • Tangensem hiperbolicznym nazywamy funkcję \( \displaystyle \mathrm{tgh} :x\mapsto\frac{\sinh x}{\cosh x} \).
  • Cotangensem hiperbolicznym nazywamy funkcję \( \displaystyle \mathrm{ctgh} :x\mapsto\frac{1}{\mathrm{tgh} x} \).

wykres x2

Wykażmy wpierw tożsamość, którą przez analogię do znanej tożsamości trygonometrycznej wiążącej wartości funkcji sinus i cosinus, nazwiemy jedynką hiperboliczną.

Twierdzenie 2.36. [jedynka hiperboliczna]

Dla dowolnej liczby rzeczywistej różnica kwadratów funkcji hiperbolicznych cosinus i sinus jest równa jedności, tzn. zachodzi równość

\( \displaystyle \forall x\in\mathbb{R} : \cosh^2 x- \sinh^2 x=1. \)

Dowód 2.36.

Z definicji funkcji \( \displaystyle \sinh \) i \( \displaystyle \cosh \) mamy:

\( \displaystyle \begin{align*} 4(\cosh^2 x-\sinh^2 x) \ & =\ (e^x+e^{-x})^2-(e^x-e^{-x})^2 \ \\ & =\ (e^{2x}+2+e^{-2x})-(e^{2x}-2+e^{-2x}) \ =\ 4, \end{align*} \)

stąd

\( \displaystyle \forall x : \cosh^2 x-\sinh^2 x=1. \)

W podobny sposób - wprost z definicji - można wykazać, że zachodzą następujące tożsamości analogiczne do znanych tożsamości trygonometrycznych:

\( \displaystyle \sin(x+y) \ =\ \sin x\cos y+\cos x\sin y \)

\( \displaystyle \cos(x+y) \ =\ \cos x \cos y-\sin x\sin y. \)

Twierdzenie 2.37.

Niech \( \displaystyle x,y \) będą dowolnymi liczbami rzeczywistymi. Wówczas:

\( \displaystyle \sinh(x+y)=\sinh x\cosh y +\cosh x\sinh y, \)

\( \displaystyle \cosh(x+y)=\cosh x\cosh y+\sinh x\sinh y. \)

Tożsamości te wykażemy w ramach ćwiczeń do tego modułu.

Uwaga 2.38.

Dla dowolnej liczby rzeczywistej mamy:

\( \begin{array}{lll} \displaystyle \cosh 2x & = & \displaystyle \cosh^2 x+\sinh^2 x=2\cosh^2 x-1=1+2\sinh^2 x, \\ \sinh 2x & = & \displaystyle 2\sinh x\cosh x. \end{array} \)

Warto porównać otrzymane wzory z poznanymi w szkole analogicznymi wzorami dla funkcji trygonometrycznych:

\( \begin{array}{lll} \displaystyle \cos 2x & = & \displaystyle\cosh^2 x- \sin^2 x=2\cos^2 x-1=1-2\sin^2 x, \\ \sin 2x & = & \displaystyle 2\sin x\cos x. \end{array} \)

Podkreślmy kilka własności funkcji hiperbolicznych.

Uwaga 2.39

  • Funkcja sinus hiperboliczny jest bijekcją \( \displaystyle \mathbb{R} \) na \( \displaystyle \mathbb{R} \). Jest nieparzysta, ściśle rosnąca.
  • Funkcja cosinus hiperboliczny jest określona na \( \displaystyle \mathbb{R} \) i przyjmuje wartości w przedziale \( \displaystyle [1, \infty) \). Jest funkcją parzystą. Nie jest różnowartościowa. Jej zacieśnienie do przedziału \( \displaystyle [0, \infty) \) jest funkcją ściśle rosnącą.
  • Funkcja tangens hiperboliczny jest bijekcją \( \displaystyle \mathbb{R} \) na przedział \( \displaystyle (-1,1) \). Jest nieparzysta, ściśle rosnąca.
  • Funkcja cotangens hiperboliczny jest bijekcją zbioru \( \displaystyle (-\infty,0)\cup (0,+\infty) \) na zbiór \( \displaystyle (-\infty,-1)\cup(1,+\infty) \). Jest nieparzysta, ściśle malejąca w przedziale \( \displaystyle (-\infty, 0) \) i w przedziale \( \displaystyle (0, \infty) \) .

Określmy funkcje odwrotne do funkcji hiperbolicznych. Nazywamy je funkcjami area.

Definicja 2.40.

  • Funkcję odwrotną do funkcji sinus hiperboliczny nazywamy area sinusem hiperbolicznym i oznaczamy \( \displaystyle x\mapsto {\rm arsinh\, } x \).
  • Funkcję odwrotną do zacieśnienia funkcji cosinus hiperboliczny do przedziału \( \displaystyle [0, \infty) \) nazywamy area cosinusem hiperbolicznym
    i oznaczamy \( \displaystyle x\mapsto {\rm arcosh\, } x \).
  • Funkcję odwrotną do funkcji tangens hiperboliczny nazywamy area tangensem hiperbolicznym i oznaczamy \( \displaystyle x\mapsto {\rm artgh\, } x \).
  • Funkcję odwrotną do funkcji cotangens hiperboliczny nazywamy area cotangensem hiperbolicznym i oznaczamy \( \displaystyle x\mapsto{\rm arctgh\, } x \).

wykres

Zwróćmy uwagę na tożsamości (kilka podobnych wykażemy w ramach ćwiczeń):

Uwaga 2.41.

Prawdziwe są następujące równości:
a) \( \displaystyle \cos(\arcsin x)=\sqrt{1-x^2} \) dla \( \displaystyle |x|\leq 1, \)
b) \( \displaystyle \cosh({\rm arsinh\, } x)=\sqrt{1+x^2} \) dla \( \displaystyle -\infty < x < \infty. \)

Dowód 2.41.

a) Niech \( \displaystyle y=\arcsin x \). Wówczas dla \( \displaystyle -1\leq x\leq 1 \) mamy \( \displaystyle -\frac{\pi}{2}\leq y\leq \frac{\pi}{2} \), czyli \( \displaystyle 0\leq \cos y \leq 1 \). Z jedynki trygonometrycznej wynika,że

\( \displaystyle \cos y \ =\ \sqrt{1-\sin^2 y} \ =\ \sqrt{1-x^2}. \)

b) Należy powtórzyć powyższe rozumowanie stosując jedynkę hiperboliczną zamiast jedynki trygonometrycznej.

Funkcje area można wyrazić także za pomocą logarytmu naturalnego.

Twierdzenie 2.42

Zachodzą następujące tożsamości:
a) \( \displaystyle {\rm arsinh\, } x=\ln(x+\sqrt{x^2+1}) \) dla \( \displaystyle -\infty < x < \infty, \)
b) \( \displaystyle {\rm arcosh\, } x=\ln(x+\sqrt{x^2-1}) \) dla \( \displaystyle 1\leq x < \infty, \)
c) \( \displaystyle {\rm artgh\, } x=\ln \sqrt{\frac{1+x}{1-x}} \) dla \( \displaystyle -1 < x < 1, \)
d) \( \displaystyle {\rm arctgh\, } x=\ln \sqrt{\frac{x+1}{x-1}} \) dla \( \displaystyle |x|>1. \)

Dowód 2.42.

a) Wyznaczamy zmienną \( \displaystyle y \) z równania: \( \displaystyle x=\sinh y \).Mamy

\( \displaystyle x \ =\ \frac{e^{y}-e^{-y}}{2} \ =\ \frac{e^{2y}-1}{e^{y}}. \)

Stąd \( \displaystyle e^y=x+\sqrt{x^2+1} \), czyli \( \displaystyle {\rm arsinh\, } x=\ln(x+\sqrt{x^2+1}) \) dla wszystkich \( \displaystyle -\infty < x < \infty. \)

b) Podobnie jak w punkcie a) wyznaczamy zmienną \( \displaystyle y \) z równania \( \displaystyle x=\cosh y \) i otrzymujemy \( \displaystyle e^y=x+\sqrt{x^2-1} \), czyli \( \displaystyle {\rm arcosh\, } x=\ln(x+\sqrt{x^2-1}) \), dla \( \displaystyle x\geq 1 \).

c) Z równania \( \displaystyle x={\rm artgh\, } x \) dostajemy \( \displaystyle e^{2y}=\frac{1+x}{1-x} \), czyli

\( \displaystyle {\rm artgh\, } x \ =\ \frac{1}{2}\ln\frac{1+x}{1-x} \ =\ \ln\sqrt{\frac{1+x}{1-x}}, \) dla \( \displaystyle |x| < 1 \).

d) Pamiętając, że \( \displaystyle x=\frac{1}{x} \), podstawiamy w poprzedniej tożsamości \( \displaystyle\frac{1}{x} \) w miejsce zmiennej \( \displaystyle x \) i otrzymujemy:

\( \displaystyle {\rm arctgh\, } x \ =\ \ln\sqrt{\frac{1+\frac{1}{x}}{1-\frac{1}{x}}}=\ln\sqrt{\frac{x+1}{x-1}}, \)

dla \( \displaystyle |x|>1. \)

W ramach ćwiczeń wykażemy zaskakującą - na pierwszy rzut oka - uwagę.

wykres

Uwaga 2.43.

  • Dla dowolnej liczby \( \displaystyle n=0,1,2,... \) funkcja
    \( \displaystyle T_n (x) \ =\ \cos (n\arccos x), \ \ -1\leq x\leq 1, \) jest wielomianem zmiennej \( \displaystyle x \).
  • Dla dowolnej liczby \( \displaystyle n=0,1,2,... \) funkcja \( \displaystyle U_n (x) \ =\ \cosh (n{\rm arcosh\, } x), \quad x\geq 1, \) jest wielomianem zmiennej \( \displaystyle x \).
  • Dla dowolnej liczby \( \displaystyle n=0,1,2,... \) funkcje \( \displaystyle T_n \) oraz \( \displaystyle U_n \) są zacieśnieniami -- odpowiednio do przedziałów \( \displaystyle [-1,1] \) oraz \( \displaystyle [1,+\infty) \) tego samego wielomianu \( \displaystyle W_n \) zmiennej \( \displaystyle x \), to znaczy dla dowolnej liczby \( \displaystyle n=0,1,2,... \) istnieje funkcja wielomianowa

\( \displaystyle W_n : x\mapsto W_n(x) \) taka, że zachodzą równości
\( \displaystyle \begin{align*} W_n(x) & =T_n(x) & & \text{ dla } -1\leq x\leq 1, \\ W_n(x) & =U_n(x) & & \text{ dla } +1\leq x \leq \infty.\end{align*} \)

Definicja 2.44.

Wielomian \( \displaystyle W_n \), o którym mowa w powyższej uwadze, którego zacieśnieniem do przedziału \( \displaystyle [-1,1] \) jest funkcja \( \displaystyle T_n : x\mapsto \cos (n\arccos x) \), nazywamy wielomianem Czebyszewa stopnia \( \displaystyle n \), \( \displaystyle n=0,1,2,... \).

Odległość i ciągi

Odległość i ciągi



Na tym wykładzie dowiadujemy sie w jaki sposób można mierzyć odległość w \( \mathbb{R}^N \). Wprowadzamy pojęcie odległości (metryki) w \( \mathbb{R}^N \) oraz zdefiniujemy kule dla różnych metryk.
Definiujemy ciągi o wyrazach wektorowych, pojecie granicy ciągu. Podajemy własności granic oraz wprowadzamy pojęcie ciągu Cauchy'ego.

Odległość

Odległość


W szkole spotkaliśmy się już z pojęciem odległości na przykład liczb na osi rzeczywistej lub punktów na płaszczyźnie \( \displaystyle\mathbb{R}^2 \) (odległość euklidesowa).

Okazuje się, że odległość można mierzyć na wiele różnych sposobów. Umówiono się, że funkcja przyporządkowująca parze punktów zbioru liczbę, którą nazwiemy ich odległością, musi spełniać kilka warunków. Tę funkcję będziemy nazywać metryką, a warunki precyzuje poniższa definicja.

Definicja 3.1. [metryka]

grafka

Metryką w \( \mathbb{R}^N \) nazywamy dowolną funkcję \( d\colon \mathbb{R}^N\times \mathbb{R}^N\longrightarrow\mathbb{R}_+=[0,+\infty) \) spełniającą następujące warunki:
(1) \( \displaystyle\forall x\in \mathbb{R}^N:\ d(x,y)=0\ \Longleftrightarrow\ x=y \);
(2) \( \displaystyle\forall x,y\in \mathbb{R}^N:\ d(x,y)=d(y,x) \) (warunek symetrii);
(3) \( \displaystyle\forall x,y,z\in \mathbb{R}^N:\ d(x,y)+d(y,z)\ge d(x,z) \) (warunek trójkąta).

Dla dowolnych \( x,y\in \mathbb{R}^N, \) liczbę \( d(x,y) \) nazywamy odległością punktów \( x \) i \( y \) oraz mówimy, że punkty \( x \) i \( y \) są oddalone od siebie o \( d(x,y). \)

wykres

Zwróćmy uwagę, że warunki w powyższej definicji są dość naturalnymi warunkami jakie powinna spełniać odległość. Mówią one, że odległość dwóch punktów wynosi zero tylko wtedy, gdy punkty się pokrywają. Odległość od punktu \( A \) do punktu \( B \) jest równa odległości od punktu \( B \) do punktu \( A \). Trzeci warunek mówi, że odległość od \( A \) do \( B \) nie może być większa, od sumy odległości od \( A \) do \( C \) i od \( C \) do \( B \), co także jest naturalnym żądaniem.

Jeśli potrafimy już mierzyć odległość, to możemy zdefiniować kulę o promieniu \( r \), czyli zbiór punktów, których odległość od wybranego punktu (zwanego środkiem kuli) jest mniejsza niż \( r \).

Definicja 3.2. [kula, kula domknięta]

Niech \( x_0\in \mathbb{R}^N \) oraz \( r\ge 0. \)
Kulą o środku w punkcie \( x_0 \) i promieniu \( r \) nazywamy zbiór:

\( K(x_0,r) \ \stackrel{df}{=}\ \big\{x\in \mathbb{R}^N:\ d(x_0,x) < r\big\}. \)

Kulą domkniętą o środku w punkcie \( x_0 \) i promieniu \( r \) nazywamy zbiór:

\( \overline{K}(x_0,r) \ \stackrel{df}{=}\ \big\{x\in \mathbb{R}^N:\ d(x_0,x)\le r\big\}. \)

Z powyższej definicji wynika, iż kulą o środku \( x_0 \) i promieniu \( r\ge 0 \) nazywamy zbiór punktów przestrzeni \( \mathbb{R}^N, \) których odległość od środka \( x_0 \) jest mniejsza od \( r. \) Analogicznie kulą domkniętą o środku \( x_0 \) i promieniu \( r\ge 0 \) nazywamy zbiór punktów przestrzeni \( \mathbb{R}^N, \) których odległość od środka \( x_0 \) nie jest większa od \( r. \)

Zanim przejdziemy do przykładów przestrzeni metrycznych oraz kul, podamy pewne własności kul.

Uwaga 3.3. [własności kul]

Niech \( x_0\in \mathbb{R}^N. \)
(1) Jeśli \( r>0, \) to \( x_0\in K(x_0,r). \)
(2) Jeśli \( r=0, \) to \( K(x_0,r)=\emptyset. \)
(3) Jeśli \( r_1 < r_2, \) to \( K(x_0,r_1)\subseteq K(x_0,r_2). \)

Powyższa uwaga (wynikająca w oczywisty sposób z definicji kuli) mówi, że:
(1) środek zawsze należy do kuli (o ile promień jest dodatni);
(2) kula jest zbiorem niepustym wtedy i tylko wtedy, gdy promień jest dodatni;
(3) jeśli dwie kule mają ten sam środek, to kula o mniejszym promieniu zawiera się w kuli o większym promieniu.

Podamy teraz przykłady metryk w \( \displaystyle\mathbb{R}^N \) oraz powiemy jak wyglądają kule w tych metrykach.

Pierwszy przykład wprowadza naturalną metrykę w \( \displaystyle\mathbb{R}. \) Z tym sposobem mierzenia odległości między punktami prostej spotkaliśmy się już w szkole.

Przykład 3.4. [metryka euklidesowa na prostej]

Niech \( N=1 \). Definiujemy

\( d_2(x,y) \ \stackrel{df}{=}\ |x-y| \quad\textrm{dla}\ x,y\in\mathbb{R}. \)

Funkcję \( d_2 \) nazywamy metryką euklidesową w \( \displaystyle\mathbb{R}. \)

Kule są przedziałami otwartymi i ograniczonymi w \( \displaystyle\mathbb{R}, \) a kule domknięte są przedziałami domkniętymi i ograniczonymi w \( \displaystyle\mathbb{R}. \)

Zauważmy, że już w powyższym przykładzie kula nie przypomina tego co potocznie uważa się za kulę. Za chwilę zobaczymy, że (w zależności od sposobu mierzenia odległości) kula na płaszczyźnie może wyglądać inaczej niż by to wynikało z naszych przyzwyczajeń.

Trzy kolejne przykłady podają naturalne metryki jakie można wprowadzić w \( \displaystyle\mathbb{R}^N. \)

wykres

Przykład 3.5. [metryka maksimowa]

Niech

\( d_{\infty}(x,y) \ \stackrel{df}{=}\ \max_{i=1,\ldots, N}|x_i-y_i| \quad\textrm{dla}\ x,y\in\mathbb{R}^N, \)

gdzie \( x=(x_1,\ldots,x_N) \) oraz \( y=(y_1,\ldots,y_N). \)

Tak zdefiniowana funkcja \( d_{\infty} \) jest metryką (dowód tego faktu pozostawiony jest na ćwiczenia; patrz ćwiczenie 3.1.). Nazywamy ją metryką maksimową w \( \displaystyle\mathbb{R}^N. \)

Poniższe rysunki przedstawiają kule w metryce maksimowej.

wykres

Przykład 3.6. [metryka taksówkowa]

Definiujemy

\( \displaystyle d_1(x,y) \ \stackrel{df}{=}\ \sum_{i=1}^{N}|x_i-y_i| \quad\textrm{dla}\ x,y\in\mathbb{R}^N. \)

Tak zdefiniowana funkcja \( (\mathbb{R}^N,d_1) \) jest metryką (dowód tego faktu pozostawiony jest na ćwiczenia; patrz ćwiczenie 3.1.). Nazywamy ją

metryką taksówkową w \( \mathbb{R}^N \).

wykres

Metryka taksówkowa jest naturalnym sposobem mierzenia odległości w niektórych miastach (patrz mapa Turynu). Jeśli mieszkamy w Turynie przy Corso Vittorio Emanuele II, a nasz przyjaciel przy Corso Galileo Ferraris, to odległość jaką musimy przejechać taksówką by go odwiedzić, to będzie długość drogi od naszego domu do skrzyżowania obu ulic (czyli wartość bezwzględna różnicy współrzędnych na jednej osi) oraz długość drogi od skrzyżowania do domu przyjaciela (czyli wartość bezwzględna różnicy współrzędnych na drugiej osi).

Przykład 3.7. [metryka euklidesowa]

Zdefiniujmy

\( \displaystyle d_2(x,y) \ \stackrel{df}{=}\ \sqrt{\sum_{i=1}^N(x_i-y_i)^2} \quad\textrm{dla}\ x,y\in\mathbb{R}^N. \)

Tak zdefiniowana funkcja \( d_2 \) jest metryką. Nazywamy ją metryką euklidesową w \( \mathbb{R}^N \). Ten sposób mierzenia odległości między punktami

\( \mathbb{R}^2 \) lub \( \mathbb{R}^3 \) jest nam znany ze szkoły.

wykresy 2

Wykażemy teraz, że \( d_2 \) spełnia warunki definicji metryki. Dowód dwóch pierwszych warunków zostawiamy jako proste ćwiczenie. W dowodzie nierówności trójkąta dla metryki \( d_2 \) wykorzystamy następującą nierówność Cauchy'ego.

Lemat 3.8. [nierówność Cauchy'ego]

\( \forall a,b\in\mathbb{R}^N:\ \bigg(\displaystyle \sum_{i=1}^N a_ib_i\bigg)^2 \ \le\ \bigg(\displaystyle \sum_{i=1}^N a_i^2\bigg) \bigg(\displaystyle \sum_{i=1}^N b_i^2\bigg) \)

Dowód 3.8.

Ustalmy dowolne \( a,b\in\mathbb{R}^N \). Rozważmy następujący trójmian kwadratowy zmiennej \( \displaystyle\lambda \):

\( w(\lambda) \ =\ \bigg(\displaystyle \sum_{i=1}^N a_i^2\bigg)\lambda^2 +2 \bigg(\displaystyle \sum_{i=1}^N a_i b_i\bigg)\lambda +\bigg(\displaystyle \sum_{i=1}^N b_i^2\bigg). \)

Grupując składniki w powyższym wielomianie dostajemy

\( w(\lambda) \ =\ \displaystyle \sum_{i=1}^N \bigg[a_i^2\lambda^2+2 a_i b_i\lambda+b_i^2\bigg] \ =\ \displaystyle \sum_{i=1}^N(a_i\lambda+b_i)^2, \)

a zatem \( w(\lambda)\ge 0 \) dla dowolnego \( \displaystyle\lambda\in\mathbb{R}. \) Skoro trójmian kwadratowy jest stale nieujemny, to jego wyróżnik \( \displaystyle\Delta \) jest niedodatni, czyli

\( 0 \ \ge\ \Delta \ =\ 4\bigg(\displaystyle \sum_{i=1}^N a_ib_i\bigg)^2 -4\bigg(\displaystyle \sum_{i=1}^N a_i^2\bigg)\bigg(\displaystyle \sum_{i=1}^N b_i^2\bigg), \)

skąd dostajemy

\( \bigg( \displaystyle \sum_{i=1}^N a_ib_i \bigg)^2 \le\bigg(\displaystyle \sum_{i=1}^N a_i^2\bigg) \bigg(\displaystyle \sum_{i=1}^N b_i^2\bigg), \)

co należało dowieść.

Możemy teraz przystąpić do dowodu nierówności trójkąta dla \( d_2. \)

Lemat 3.9. [nierówność trójkąta dla metryki euklidesowej]

\( \forall x,y,z\in\mathbb{R}^N:\ d_2(x,z) \ \le\ d_2(x,y)+d_2(y,z). \)

Dowód 3.9.

Ustalmy dowolne \( x,y,z\in\mathbb{R}^N. \) Liczymy

\( \displaystyle (d_2(x,z))^2 \ =\ \displaystyle \sum_{i=1}^N (x_i-z_i)^2 \ =\ \displaystyle \sum_{i=1}^N (x_i-y_i+y_i-z_i)^2 \ =\ \)

\( \displaystyle \sum_{i=1}^N (x_i-y_i)^2 +2\displaystyle \sum_{i=1}^N (x_i-y_i)(y_i-z_i) +\displaystyle \sum_{i=1}^N (y_i-z_i)^2. \)

Korzystając z nierówności Cauchy'ego (patrz lemat 3.8.), mamy

\( \displaystyle \begin{align*} \big(d_2(x,z)\big)^2 & \le & \displaystyle \sum_{i=1}^N (x_i-y_i)^2 +2\sqrt{\displaystyle \sum_{i=1}^N (x_i-y_i)^2\displaystyle \sum_{i=1}^N (y_i-z_i)^2} +\displaystyle \sum_{i=1}^N (y_i-z_i)^2 \\ & = & \bigg[ \sqrt{\displaystyle \sum_{i=1}^N(x_i-y_i)^2} +\sqrt{\displaystyle \sum_{i=1}^N(y_i-z_i)^2} \bigg]^2 \ =\ \big(d_2(x,y)+d_2(y,z)\big)^2. \end{align*} \)

Zatem pokazaliśmy, że \( d_2(x,z)\le d_2(x,y)+d_2(y,z). \)

Uwaga 3.10.

Zauważmy, że w przypadku \( N=1 \) metryki euklidesowa, taksówkowa i maksimowa pokrywają się, to znaczy \( d_2=d_1=d_{\infty}. \) Kulami w tych metrykach są przedziały otwarte.

Zdefiniujemy teraz pewne pojęcia związane z metrykami.

grafika

Definicja 3.11.

Niech \( x_0\in \mathbb{R}^N \), \( A\subseteq \mathbb{R}^N \) oraz ustalmy pewną metrykę \( d \) w \( \mathbb{R}^N \).
(1) Zbiór \( U\subseteq\mathbb{R}^N \) nazywamy otwartym (w metryce \( d \)), jeśli każdy punkt tego zbioru zawiera się w tym zbiorze wraz z pewną kulą o środku w tym punkcie (i dodatnim promieniu), czyli

\( \forall x\in U\ \exists r>0:\ K(x,r)\subseteq U. \)

(2) Mówimy, że punkt \( x_0 \) jest punktem skupienia zbioru \( A\subseteq \mathbb{R}^N, \) jeśli każda kula o środku w punkcie \( x_0 \) (i dodatnim promieniu) zawiera przynajmniej jeden punkt zbioru \( A \) różny od \( x_0. \)
(3) Mówimy, że punkt \( x_0 \) jest punktem izolowanym zbioru \( A\subseteq \mathbb{R}^N \), jeśli \( x_0\in A \) oraz \( x_0 \) nie jest punktem skupienia zbioru \( A \).
(4) Zbiór \( A\subseteq \mathbb{R}^N \) nazywamy domkniętym, jeśli każdy punkt skupienia zbioru \( A \) należy do \( A. \)
(5) Zbiór nazywamy ograniczonym, jeśli jest zawarty w pewnej kuli, to znaczy

\( \exists x \in \mathbb{R}^N \, \exists r>0: \, A \subseteq K(x,r) \)

Zauważmy, że pojęcia występujące w powyższej definicji

grafika

(zbiór otwarty, domknięty, punkt skupienia, punkt izolowany, zbiór ograniczony) są związane nie tylko ze zbiorem \( \mathbb{R}^N \), ale także z wybraną w nim metryką \( d \). W definicji wszystkich tych pojęć używamy bowiem pojęcia kuli.

Przykład 3.12.

Rozważmy \( \mathbb{R} \) z metryką euklidesową oraz zbiór \( A=[0,1)\cup\{2\}\subseteq\mathbb{R} \). Punktami skupienia zbioru \( A \) są punkty przedziału \( \displaystyle [0,1]. \)

Jedynym punktem izolowanym zbioru \( A \) jest \( 2. \)

A nie jest zbiorem domkniętym, bo punkt \( 1 \) jest jego punktem skupienia, który do niego nie należy.

Zbiór \( A \) jest ograniczony, gdyż na przykład

\( A\subseteq K(0,3)=(-3,3). \)

wykresy

Przykład 3.13.

(1) Przedziały otwarte w przestrzeni euklidesowej \( \mathbb{R} \) są zbiorami otwartymi. Dla dowodu weźmy przedział \( \displaystyle (a,b) \) (\( a < b \)) oraz dowolny \( x\in (a,b) \). Niech \( r=\min\{x-a,b-x\}. \) Wówczas \( K(x,r)=(x-r,x+r)\subseteq (a,b). \)

(2) Kule są zawsze zbiorami otwartymi, a kule domknięte są zbiorami domkniętymi (fakt ten udowodnimy na wykładzie z Analiza matematyczna 2).

W kolejnym twierdzeniu zebrano szereg własności zbiorów w \( \mathbb{R}^N \) z ustaloną metryką \( d \) (twierdzenie pozostawiamy bez dowodu). Poniżej podamy jedynie pewne komentarze i wnioski wynikające z tego twierdzenia.

Twierdzenie 3.14. [zbiory związane z metryką]

Jeśli \( d \) jest metryką w \( \mathbb{R}^N \), to
(1) Zbiór \( U\subseteq\mathbb{R}^N \) jest otwarty, wtedy i tylko wtedy, gdy \( U^c \) (dopełnienie zbioru \( U \)) jest zbiorem domkniętym.
(2) Kule są zbiorami otwartymi, a kule domknięte są zbiorami domkniętymi.
(3) Suma dowolnej ilości zbiorów otwartych jest zbiorem otwartym.
(4) Przecięcie (część wspólna) skończonej ilości zbiorów otwartych jest zbiorem otwartym.
(5) Przecięcie (część wspólna) dowolnej ilości zbiorów domkniętych jest zbiorem domkniętym.
(6) Suma skończonej ilości zbiorów domkniętych jest zbiorem domkniętym.

wykres

Przykład 3.15.

Rozważmy \( \mathbb{R} \) z metryką euklidesową \( d_2 \). Podamy przykłady ilustrujące powyższe twierdzenie.
(1) Zbiór \( \displaystyle (-\infty,-1]\cup [1,+\infty) \) jest zbiorem domkniętym (jako uzupełnienie kuli \( K(0,1)=(-1,1) \), która jest zbiorem otwartym).
(2) Przedział \( \displaystyle [-1,1] \) jest zbiorem domkniętym, gdyż jest to kula domknięta \( \displaystyle\overline{K}(0,1) \). Zatem jej uzupełnienie \( \displaystyle (-\infty,-1)\cup (1,+\infty) \) jest zbiorem otwartym.
(3) Zbiory jednopunktowe są domknięte, gdyż są to kule domknięte o promieniu \( r=0 \).
(4) Ponieważ przedziały \( \displaystyle (n,n+1) \) dla \( n\in\mathbb{Z} \) są otwarte, więc ich suma (przeliczalna) jest także zbiorem otwartym. Zauważmy, że uzupełnieniem tej sumy jest zbiór liczb całkowitych \( \displaystyle\mathbb{Z} \). Zatem pokazaliśmy, że \( \displaystyle\mathbb{Z} \) jest zbiorem domkniętym.
(5) Powyższe twierdzenie mówi, że przecięcie skończonej ilości zbiorów otwartych jest zbiorem otwartym. Okazuje się, że dla nieskończonej ilości zbiorów otwartych nie musi być to prawdą. Podobnie suma nieskończenie wielu zbiorów domkniętych nie musi być zbiorem domkniętym (patrz ćwiczenie 3.5.)
(6) Zbiory skończone są domknięte (jako sumy skończonej ilości zbiorów jednoelementowych, które są zbiorami domkniętymi).

Ciągi

Ciągi


W szkole średniej poznaliśmy ciągi o wyrazach rzeczywistych (to znaczy funkcje \( a\colon \mathbb{N}\longrightarrow\mathbb{R} \)).

W praktyce często spotykamy sie z ciągami o wyrazach innych niż liczby rzeczywiste. Na przykład, gdy mierzymy co sekundę prędkość i położenie w przestrzeni (\( \displaystyle\mathbb{R}^3 \)) jakiegoś obiektu, dostajemy ciąg, który każdemu \( t\in\mathbb{N} \) przypisuje cztery wartości, czyli element z \( \displaystyle\mathbb{R}^4. \) Nasz ciąg możemy zatem zapisać \( a\colon \mathbb{N}\ni t\longmapsto (a_1(t),a_2(t),a_3(t),a_4(t))\in\mathbb{R}^4, \) gdzie \( a_1(t)\in\mathbb{R} \) jest prędkością w chwili \( t, \) natomiast \( \displaystyle (a_2(t),a_3(t),a_4(t))\in\mathbb{R}^3 \) określają położenie punktu w przestrzeni.

Naszym celem teraz jest wprowadzenie pojęcia ciągu i pojęcia granicy tego ciągu. W matematyce te pojęcia można zdefiniować dla dowolnie wybranej metryki (aby zdefiniować granicę musimy móc mierzyć odległość). My jednak ograniczymy nasze rozumowania do przestrzeni \( \mathbb{R}^N \) z metryką \( d \), gdzie \( d \) jest jedną z wyżej wprowadzonych metryk: \( d_1 \), \( d_2 \), lub \( d_\infty \).

Definicja 3.16. [ciąg]

Ciągiem w \( \mathbb{R}^N \) nazywamy dowolną funkcję \( \displaystyle f\colon\mathbb{N}\longrightarrow\mathbb{R}^N \).
Ciąg ten oznaczamy

\( \{x_n\}_{n\in \mathbb{N}}\subseteq \mathbb{R}^N,\quad \{x_n\}_{n=1}^{\infty}\subseteq \mathbb{R}^N,\quad \{x_n\}\subseteq \mathbb{R}^N,\quad \textrm{lub}\quad x_1,x_2,\ldots, \)

gdzie

\( f(n) \ =\ x_n \quad\textrm{dla}\ n\in\mathbb{N}. \)

wykres

Powiemy teraz co to znaczy, że punkt \( g\in\mathbb{R}^N \) jest granicą ciągu \( \displaystyle\{x_n\} \). Intuicyjnie oznacza to, że wyrazy \( x_n \) są "coraz bliżej" granicy \( g \) w miarę wzrostu \( n \). Formalnie podaje to poniższa definicja.

Definicja 3.17. [granica ciągu]

Niech \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) będzie ciągiem oraz niech \( g\in \mathbb{R}^N. \)
Mówimy, że \( g \) jest granicą ciągu \( \displaystyle\{x_n\}, \) jeśli

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ d(x_n,g) < \varepsilon \)

i piszemy

\( \lim \limits_{n \to +\infty} x_n=g,\quad x_n\longrightarrow [n \to +\infty]{}g,\quad x_n\longrightarrow g,\quad x_n\stackrel{\mathbb{R}^N}{\longrightarrow} g \quad\textrm{lub}\quad x_n\stackrel{d}{\longrightarrow} g. \)

Mówimy, że ciąg \( \displaystyle\{x_n\} \) jest zbieżny, jeśli ma granicę, czyli

\( \exists g\in \mathbb{R}^N:\ \lim\limits_{n \to +\infty} x_n=g. \)

wykresy

Uwaga 3.18.

Warunek

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ d(x_n,g) < \varepsilon \)

w powyższej definicji mówi, że dla dowolnego (dowolnie małego) \( \displaystyle\varepsilon>0 \) wyrazy ciągu \( \displaystyle\{x_n\} \) są od pewnego miejsca (od \( N \)) oddalone od \( g \) o mniej niż \( \displaystyle\varepsilon. \) Warunek ten jest równoważny warunkowi

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ x_n\in K(g,\varepsilon), \)

który mówi, że dla dowolnego (dowolnie małego) \( \displaystyle\varepsilon>0 \) wyrazy ciągu \( \displaystyle\{x_n\} \) od pewnego miejsca (od \( N \)) leżą w kuli \( K(g,\varepsilon). \) Wynika to wprost z definicji kuli, gdyż \( x_n \) należy do kuli \( K(g,\varepsilon) \) dokładnie wtedy, gdy odległość \( x_n \) od \( g \) jest mniejsza niż \( \displaystyle\varepsilon, \) to znaczy

\( d(x_n,g) < \varepsilon \ \Longleftrightarrow\ x_n\in K(g,\varepsilon). \)

Definicja 3.19. [ciąg ograniczony]

Ciąg \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) nazywamy ograniczonym, jeśli zbiór jego wartości \( \displaystyle\big\{x_n:\ n\in\mathbb{N}\big\} \) jest ograniczony w \( \displaystyle\mathbb{R}^N, \) to znaczy zawarty w pewnej kuli. Innymi słowy ciąg \( \displaystyle\{x_n\} \) jest ograniczony, gdy

\( \exists x\in\mathbb{R}^N\ \exists r>0\ \forall n\in\mathbb{N}:\ d(x,x_n) < r. \)

Przykład 3.20.

Jeśli ciąg \( \displaystyle\{x_n\}\subseteq\mathbb{R}^N \) jest stały od pewnego miejsca, czyli istnieje \( k_0\in\mathbb{N} \) takie, że

\( x_n \ =\ x \qquad\forall\ n\ge k_0, \)

to wówczas

\( \lim\limits_{n \to +\infty} x_n \ =\ x. \)

Oznacza to, że ciąg stały od pewnego miejsca jest zbieżny.

wykres

Przykład 3.21.

Niech \( \displaystyle\{x_n\}\subseteq \mathbb{R} \) będzie ciągiem danym przez \( \displaystyle x_n=\frac{1}{n} \) dla \( n\ge 1. \) Wówczas

\( \lim\limits_{n \to +\infty} x_n \ =\ 0. \)

Aby to pokazać ustalmy dowolne \( \displaystyle\varepsilon>0. \) Wówczas istnieje liczba naturalna \( N \), która jest większa od \( \displaystyle\frac{1}{\varepsilon} \) (gdyż dla każdej liczby rzeczywistej istnieje liczba naturalna od niej większa), czyli

\( \exists N\in\mathbb{N}:\ N>\frac{1}{\varepsilon}. \)

Zatem dla dowolnego \( n\ge N, \) mamy \( d(x_n,0) \ =\ |x_n-0| \ =\ |x_n| \ =\ \bigg|\frac{1}{n}\bigg| \ \le\ \frac{1}{N} \ < \ \varepsilon, \)

zatem pokazaliśmy, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=0. \)

Przykład 3.22. [ciąg geometryczny]

Niech \( q\in(-1,1) \) oraz \( x_n=q^n \) dla \( n\ge 1. \) Wówczas

\( \lim\limits_{n \to +\infty} x_n \ =\ 0. \)

Dowód podobny do dowodu w przykładzie 3.21., pozostawiamy jako ćwiczenie.
Ciąg \( \displaystyle\{q^n\} \) jest ciągiem geometrycznym o ilorazie \( q \) (patrz definicja 1.8.).

Kolejne twierdzenie podaje związek między zbieżnością ciągu punktów, a zbieżnością ciągu liczbowego odległości jego wyrazów od granicy. Mówi ono, że ciąg \( \displaystyle\{x_n\} \) jest zbieżny do granicy \( g \) w \( \displaystyle\mathbb{R}^N \) dokładnie wtedy, gdy ciąg \( \{d(x_n,g)\} \) odległości \( x_n \) od \( g \) jest zbieżny do \( 0 \) w \( \displaystyle\mathbb{R}. \) Dowód wynika wprost z definicji.

Twierdzenie 3.23.

Niech \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) będzie ciągiem oraz \( g\in \mathbb{R}^N. \) Wówczas

\( \big[ x_n\stackrel{\mathbb{R}^N}{\longrightarrow} g \big] \quad\Longleftrightarrow\quad \big[ d(x_n,g)\stackrel{\mathbb{R}}{\longrightarrow} 0 \big], \)

Powiemy teraz co to jest podciąg danego ciągu \( \{x_n\}. \) Nieformalnie mówiąc, podciąg powstaje z ciągu przez skreślenie z niego pewnej liczby wyrazów (tak aby nadal pozostała nieskończona ich ilość):

\( \{a_n\} = a_1,\quad a_2,\quad a_3,\quad a_4,\quad a_5,\quad,a_6,\quad a_7, \ldots \)

\( \{a_{n_k}\} = \not{a}_1,\quad\underline{a_2},\quad\not{a}_3,\quad\not{a}_4,\quad\underline{a_5},\quad\underline{a_6},\quad\not{a}_7,\ldots \)

Formalna definicja podana jest poniżej.

wykres

Definicja 3.24. [podciąg]

Niech \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) będzie ciągiem. Niech \( h\colon\mathbb{N}\longrightarrow\mathbb{N} \) będzie funkcją silnie rosnącą.
Ciąg \( \displaystyle f\colon\mathbb{N}\ni n\longmapsto x_{h(n)}\in\mathbb{R}^N \) nazywamy podciągiem ciągu \( \displaystyle\{x_n\} \) i oznaczamy

\( \displaystyle\{x_{n_k}\} \quad \textrm{lub} \displaystyle\{x_{n_k}\}_{k \in \mathbb{N}} \quad \textrm{lub} \quad \displaystyle\{x_{n_k}\}_{k=1}^{\infty} \)

gdzie \( \displaystyle n_k=h(k) \) dla \( k\in \mathbb{N}. \)

W kolejnym twierdzeniu zebrane są własności granic. Niektóre z nich udowodnimy na ćwiczeniach (patrz ćwiczenie 3.3. i ćwiczenie 3.4.).

Twierdzenie 3.25. [własności granic]

Jeśli \( \displaystyle\{x_n\}\subseteq\mathbb{R}^N \) jest ciągiem, \( g\in\mathbb{R}^N, \) to
(1) Istnieje co najwyżej jedna granica ciągu \( \displaystyle\{x_n\}, \) to znaczy

\( \bigg[\lim\limits_{n \to +\infty} x_n = g_1\in \mathbb{R}^N \quad\textrm{i}\quad \lim\limits_{n \to +\infty} x_n = g_2\in \mathbb{R}^N \bigg] \Longrightarrow\ _1=g_2. \)

(2) Jeśli ciąg \( \displaystyle\{x_n\} \) jest zbieżny, to jest ograniczony.
(3) Jeśli \( \lim\limits_{n \to +\infty} x_n=g \) oraz \( \displaystyle\big\{x_{n_k}\big\} \) jest dowolnym podciągiem ciągu \( \displaystyle\{x_n\}, \) to

\( \lim\limits_{k \to +\infty} x_{n_k} \ =\ g. \)

(4) Jeśli \( \displaystyle\{x_n\} \) jest ciągiem zbieżnym oraz \( \displaystyle\big\{x_{n_k}\big\} \) jest jego dowolnym podciągiem takim, że \( \displaystyle\lim\limits_{k \to +\infty} x_{n_k}=g, \) to także

\( \displaystyle\lim\limits_{n \to +\infty} x_n=g. \)

(5) Jeśli dla dowolnego podciągu \( \displaystyle\big\{x_{n_k}\big\} \) ciągu \( \displaystyle\{x_n\} \) istnieje jego "dalszy" podciąg \( \displaystyle\big\{x_{n_{k_l}}\big\} \) taki, że \( \displaystyle\lim\limits_{l \to +\infty} x_{n_{k_l}}=g, \) to

\( \displaystyle\lim\limits_{n \to +\infty} x_n=g. \)

Jeśli \( \displaystyle\{a_n\}\subseteq \mathbb{R}^N \) jest ciągiem w \( \displaystyle\mathbb{R}^N, \) to jego wyrazy mają współrzędne: \( a_n=(a_n^1,\ldots,a_n^N) \) dla \( n\in\mathbb{N}. \) Kolejne twierdzenie podaje związek między zbieżnością ciągu \( \displaystyle\{a_n\} \) w \( \displaystyle\mathbb{R}^N, \) a zbieżnością ciągów na poszczególnych współrzędnych \( \displaystyle\{a_n^1\},\ldots, \{a_n^N\}. \) Dzięki temu twierdzeniu liczenie granic ciągów w \( \mathbb{R}^N \) sprowadza się do liczenia granic ciągów w \( \mathbb{R} \) (dowód pomijamy).

Twierdzenie 3.26. [granica ciągu w iloczynie kartezjańskim]

Jeśli \( \displaystyle\{a_n\}\subseteq \mathbb{R}^N \) jest ciągiem, czyli \( a_n=(a_n^1,\ldots,a_n^N) \) dla \( n\in\mathbb{N}, \) oraz \( a=(a^1,\ldots,a^N)\in \mathbb{R}^N, \) to
\( \lim\limits_{n \to +\infty} a_n=a \) wtedy i tylko wtedy, gdy \( \displaystyle\lim\limits_{n \to +\infty} a_n^i= a^i \) dla \( i=1,\ldots,N. \)

Ciągi Cauchy'ego

Ciągi Cauchy'ego


Obok ciągów zbieżnych, ważną rolę odgrywają także tak zwane ciągi Cauchy'ego. Ciągi Cauchy'ego to takie ciągi, dla których odległości między wyrazami zmierzają do zera. Okazuje się, że w \( \displaystyle\mathbb{R}^N \) z metryką euklidesową, ciągi Cauchy'ego są dokładnie ciągami zbieżnymi. Jednak nie dla każdej przestrzeni z metryką tak jest (patrz uwaga 3.31).

Definicja 3.27. [warunek Cauchy'ego]

Niech \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) będzie ciągiem. Mówimy, że ciąg \( \displaystyle\{x_n\} \) spełnia warunek Cauchy'ego lub jest ciągiem Cauchy'ego, jeśli

\( \forall \varepsilon>0\ \exists N\in\mathbb{N} \ \forall n,m\ge N:\ d(x_n,x_m) < \varepsilon. \)

Warunek Cauchy'ego dla ciągu \( \displaystyle\{x_n\} \) oznacza, że dla dowolnie wybranej liczby \( \displaystyle\varepsilon>0, \) począwszy od pewnego miejsca, każde dwa wyrazy ciągu są oddalone od siebie o mniej niż \( \displaystyle\varepsilon. \)

Zacznijmy od prostych faktów.

Stwierdzenie 3.28.

Jeśli \( \{x_n\} \) jest ciągiem Cauchy'ego, to jest ograniczony.

Dowód 3.28.

Weźmy \( \varepsilon=1 \). Wtedy istnieje \( N\in \mathbb{N} \), takie, że dla wszystkich \( n,m\geq N \) mamy \( d(x_n,x_m) < 1 \), w szczególności dla każdego \( n\geq N \), \( d(x_n,x_{N}) < 1 \). Weźmy

\( R:=\max\{d(x_1,x_{N}),d(x_2,x_{N}),...d(x_{N-1},x_{N})\}+1. \)

Wtedy wszystkie wyrazy ciągu zawierają się w kuli \( K(x_{N},R) \), a więc ciąg jest ograniczony.

Stwierdzenie 3.29.

Jeśli podciąg \( \{x_{n_k}\} \) ciągu Cauchy'ego \( \{x_n\} \) ma granicę \( g \), to ciąg \( \{x_n\} \) ma granicę \( g \).

Dowód 3.29.

Ustalmy \( \varepsilon>0 \). Skoro \( \lim\limits_{k \to +\infty} x_{n_k}=g \), to istnieje \( K\in\mathbb{N} \), takie, że dla każdego \( k\geq K \) mamy \( d(x_{n_k},g) < \frac{\varepsilon}{2} \). Skoro zaś \( \{x_n\} \) jest ciągiem Cauchy'ego, to istnieje \( N\in \mathbb{N} \) takie, że dla wszystkich \( m,n \geq N \) mamy \( d(x_n,x_m) < \frac{\varepsilon}{2} \). Biorąc \( M=\max\{N,K\} \), mamy dla wszystkich \( m\geq M \)

\( d(x_m,g)\leq d(x_m,x_{n_M})+d(x_{n_M},g) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2} \ =\ \varepsilon, \)

a zatem \( g \) jest granicą ciągu \( \{x_n\} \).

Kolejne twierdzenie mówi, że w \( \mathbb{R}^N \) ciągi są zbieżne dokładnie wtedy, gdy spełniają warunek Cauchy'ego.

Twierdzenie 3.30. [zbieżność ciągu a warunek Cauchy'ego]

Ciąg \( \displaystyle\{x_n\}\subseteq \mathbb{R}^N \) jest zbieżny wtedy i tylko wtedy, gdy spełnia warunek Cauchy'ego.

Dowód 3.30.

"\( \Longrightarrow \)"
Wykażemy, że jeśli ciąg \( \{x_n\} \) jest zbieżny, to spełnia warunek Cauchy'ego. Ustalmy \( \varepsilon>0 \). Skoro ciąg jest zbieżny do granicy \( g \), to jego wyrazy są od pewnego miejsca odległe od \( g \) o mniej niż \( \frac{\varepsilon}{2} \), czyli

\( \exists N\in \mathbb{N}\ \forall n\ge N: \ d(x_n,g) < \frac{\varepsilon}{2}. \)

Weźmy teraz dowolne \( m,n>N \). Wtedy \( d(x_n,x_m) \ \le\ d(x_n,g)+d(x_m,g) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2}=\varepsilon, \)

a zatem ciąg \( \{x_n\} \) spełnia warunek Cauchy'ego.

"\( \Longleftarrow \)"
Ta część dowodu będzie przeprowadzona później, po wprowadzeniu pojęcia zwartości.

Uwaga 3.31.

Dla dowolnie wybranego zbioru z metryką zachodzi tylko jedna implikacja w powyższym twierdzeniu, a mianowicie każdy ciąg zbieżny jest ciągiem Cauchy'ego. Aby pokazać, że przeciwna implikacja nie jest prawdziwa, rozważmy przedział otwarty \( \displaystyle (0,1) \) z metryką euklidesową \( d_2 \) (czyli dla \( x,y\in (0,1) \) ich odległość wynosi \( |x-y| \)). Ciąg \( \displaystyle\{x_n\} \) zadany wzorem \( \displaystyle x_n=\frac{1}{n} \) dla \( n\in\mathbb{N} \) nie jest zbieżny w \( \displaystyle (0,1) \) (dlaczego?), ale spełnia warunek Cauchy'ego. Aby to pokazać, ustalmy dowolne \( \displaystyle\varepsilon>0. \) Wówczas

\( \exists N\in \mathbb{N}:\ \frac{1}{N} < \frac{\varepsilon}{2}. \)

Wówczas dla dowolnych \( n,m\ge N \) mamy

\( d_2(x_n,x_m) \ =\ |x_n-x_m| \ =\ \bigg|\frac{1}{n}-\frac{1}{m}\bigg| \ \le\ \frac{1}{n}+\frac{1}{m} \ \le\ \frac{1}{N}+\frac{1}{N} \ =\ \frac{2}{N} \ < \ \varepsilon. \)

Pokazaliśmy zatem, że ciąg \( \displaystyle\{x_n\} \) spełnia warunek Cauchy'ego.

Ciągi liczbowe

Ciągi liczbowe


W tym wykładzie zajmujemy się ciągami w zbiorze liczb rzeczywistych. Definiujemy ciąg monotoniczny, ciąg ograniczony, granice niewłaściwe. Poznajemy twierdzenia o granicach ciągów, twierdzenie o związkach granicy z działaniami i porządkiem w \( \mathbb{R}, \) twierdzenie o trzech ciągach, twierdzenie o ciągu monotonicznym i ograniczonym, twierdzenie Bolzano-Weierstrassa.

Definicja 4.1. [ciąg liczbowy]

Przez ciągi liczbowe będziemy rozumieli ciągi o wartościach w \( \mathbb{R} \) (to znaczy w zbiorze liczbowym \( \displaystyle\mathbb{R} \) traktowanym jako przestrzeń metryczna z metryką euklidesową). Piszemy krótko \( \displaystyle\{x_n\}\subseteq \mathbb{R}. \)

Ponieważ w zbiorze liczbowym \( \displaystyle\mathbb{R} \) mamy liniowy porządek, więc można porównywać ze sobą elementy ciągu. Pozwala to na wprowadzenie pojęcia monotoniczności ciągu.

Definicja 4.2.

(1) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest malejący, jeśli \( \displaystyle\forall n\in\mathbb{N}:\ a_n\ge a_{n+1}. \)

(2) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest silnie malejący, jeśli \( \displaystyle\forall n\in\mathbb{N}:\ a_n> a_{n+1}. \)

(3) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest rosnący, jeśli \( \displaystyle\forall n\in\mathbb{N}:\ a_n\le a_{n+1}. \)

(4) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest silnie rosnący, jeśli \( \displaystyle\forall n\in\mathbb{N}:\ a_n < a_{n+1}. \)

(5) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) jest monotoniczny, jeśli jest on malejący lub rosnący.

(6) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) jest silnie monotoniczny, jeśli jest on silnie malejący lub silnie rosnący.

wykres

W przypadku ciągów liczbowych można mówić nie tylko o ograniczoności ciągu (jak to ma miejsce w dowolnej przestrzeni metrycznej), ale także o ograniczeniu ciągu od dołu i od góry (ponownie jest to konsekwencja faktu, że zbiór liczbowy \( \displaystyle\mathbb{R} \) jest liniowo uporządkowany). Mamy zatem następujące definicje.

Definicja 4.3.

(1) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) jest ograniczony, jeśli \( \displaystyle\exists M\in\mathbb{R}\ \forall n\in\mathbb{N}:\ |a_n|\le M. \)

(2) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) jest ograniczony z dołu, jeśli \( \displaystyle\exists M\in\mathbb{R}\ \forall n\in\mathbb{N}:\ a_n\ge M. \)

(3) Mówimy, że ciąg \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) jest ograniczony z góry, jeśli \( \displaystyle\exists M\in\mathbb{R}\ \forall n\in\mathbb{N}:\ a_n\le M. \)

Natychmiastową konsekwencją powyższych definicji jest następujący związek między ograniczonością a ograniczonością z góry i z dołu.

Stwierdzenie 4.4. [O ciągu ograniczonym w \( \displaystyle\mathbb{R} \)]

Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem to \( \displaystyle\{a_n\} \) jest ograniczony wtedy i tylko wtedy, gdy \( \displaystyle\{a_n\} \) jest ograniczony z dołu i z góry.

Pojęcie granicy ciągu pozostaje takie samo jak dla ciągów w dowolnych przestrzeniach metrycznych. Powtórzmy je tutaj dla wygody, przyjmując, że w \( \displaystyle\mathbb{R} \) mamy metrykę euklidesową.

Definicja 4.5.

(1) Mówimy, że liczba \( g \) jest granicą ciągu \( \displaystyle\{x_n\}\subseteq\mathbb{R}, \) jeśli

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ |x_n-g| < \varepsilon \)

i piszemy

\( \begin{array}{lll} \lim\limits_{n \to +\infty} x_n=g \quad & \textrm{lub} & x_n\stackrel{\mathbb{R}}{\longrightarrow} g \quad\textrm{lub} \\ \\ x_n\ x \rightarrow [n \to +\infty]{} g \quad & \textrm{lub} & x_n\longrightarrow g \end{array} \)

(2) Mówimy, że ciąg \( \displaystyle\{x_n\} \) jest zbieżny, jeśli

\( \exists g\in \mathbb{R}:\ \lim\limits_{n \to +\infty} x_n=g. \)

W przypadku ciągów liczbowych wprowadza się także pojęcie granicy niewłaściwej (o której nie ma sensu mówić w dowolnej przestrzeni metrycznej).

Definicja 4.6. [Uzupelnij]

(1) Mówimy, że ciąg liczbowy \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) ma granicę niewłaściwą \( +\infty, \) jeśli

\( \forall M\in\mathbb{R}\ \exists N\in\mathbb{N}\ \forall n\ge N:\ \ a_n\ge M. \)

Mówimy wówczas, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest rozbieżny do \( +\infty \) i piszemy \( \displaystyle \lim\limits_{n \to +\infty} a_n=+\infty. \)
(2) Mówimy, że ciąg liczbowy \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) ma granicę niewłaściwą \( -\infty, \) jeśli

\( \forall M\in\mathbb{R}\ \exists N\in\mathbb{N}\ \forall n\ge N:\ \ a_n\le M. \)
Mówimy wówczas, że ciąg \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest rozbieżny do \( -\infty \) i piszemy \( \displaystyle \lim\limits_{n \to +\infty} a_n=-\infty. \)

wykres

Zwróćmy uwagę na to, że granica niewłaściwa nie jest granicą (w sensie definicji 4.5.), gdyż nie jest to element \( \displaystyle\mathbb{R} \) (nie jest to liczba rzeczywista). Należy tu również zwrócić uwagę na pewną niekonsekwencję w terminologii.

Mówiąc o granicy, czasem będziemy dodawać "granica właściwa" lub "granica skończona", aby wyraźnie zaznaczyć, że nie mówimy o granicy niewłaściwej. O ciągu, który ma granicę (właściwą) mówimy, że jest zbieżny. O ciągu, który ma granicę niewłaściwą mówimy, że jest rozbieżny do \( +\infty \) lub \( -\infty. \) O ciągu który nie ma granicy właściwej mówimy, że jest rozbieżny.

Twierdzenie 4.7. [O granicy iloczynu ciągów ograniczonego i zbieżnego do zera]

Jeśli \( \displaystyle\{a_n\},\{b_n\}\subseteq\mathbb{R} \) są ciągami takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=0 \) oraz \( \displaystyle\{b_n\} \) jest ograniczony, to \( \displaystyle\lim\limits_{n \to +\infty} a_nb_n=0. \)

Dowód 4.7.

Niech \( M>0 \) będzie stałą ograniczającą ciąg \( \displaystyle\{b_n\} \) (która istnieje z założenia), to znaczy

\( \forall n\in \mathbb{N}:\ |b_n|\le M. \) Ustalmy \( \displaystyle\varepsilon>0. \) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} a_n=0, \) więc

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ |a_n|\le\frac{\varepsilon}{M}. \)

Zatem dla \( n\ge N \) mamy

\( |a_nb_n| \le\ \frac{\varepsilon}{M}\cdot M \ =\ \varepsilon. \)

Ponieważ \( \displaystyle\varepsilon>0 \) było dowolne, więc pokazaliśmy, że

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}:\ |a_nb_n|\le\varepsilon, \)

czyli udowodniliśmy, że \( \displaystyle\lim\limits_{n \to +\infty} a_nb_n=0. \)

Przykład 4.8.

Obliczyć granicę \( \displaystyle \lim\limits_{ n \to +\infty}\frac{\sin n}{n} \).

Dla ciągów liczbowych możliwe jest wykonywanie działań na elementach tych ciągów oraz na ich granicach. Poniższe twierdzenie podaje związki, jakie zachodzą między tymi działaniami.

Twierdzenie 4.9. [O "arytmetyce" granic ciągów]

Jeśli \( \displaystyle\{a_n\},\{b_n\}\subseteq\mathbb{R} \) są ciągami liczbowymi zbieżnymi oraz \( c\in\mathbb{R}, \) to
(1) \( \displaystyle \lim\limits_{n \to +\infty} (a_n\pm b_n) =\lim\limits_{n \to +\infty} a_n \pm \lim\limits_{n \to +\infty} b_n \);
(2) \( \displaystyle \lim\limits_{n \to +\infty} (c\cdot a_n) =c\cdot\lim\limits_{n \to +\infty} a_n \);
(3) \( \displaystyle \lim\limits_{n\to +\infty} (a_nb_n) =\bigg(\lim\limits_{n \to +\infty} a_n\bigg)\bigg(\lim\limits_{n \to +\infty} b_n\bigg) \);
(4) \( \displaystyle \lim\limits_{n \to +\infty} \frac{a_n}{b_n} =\frac{\lim\limits_{n \to +\infty} a_n}{\lim\limits_{n \to +\infty} b_n} \) (o ile \( b_n\ne 0 \) dla \( n\in\mathbb{N} \) oraz \( \displaystyle\lim\limits_{n \to +\infty} b_n\ne 0 \));
(5) \( \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n} =\bigg(\lim\limits_{n \to +\infty} a_n\bigg)^{\lim\limits_{n \to +\infty} b_n} \) (o ile działania po obu stronach są wykonalne);
(6) \( \displaystyle\lim\limits_{n \to +\infty} a_n =a\quad \Longrightarrow\quad \lim\limits_{n \to +\infty} |a_n|=|a| \);
(7) \( \displaystyle\lim\limits_{n \to +\infty} a_n =0\quad \Longleftrightarrow\quad \lim\limits_{n \to +\infty} |a_n|=0. \)

Dowód 4.9.

(Ad 1) Niech \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) oraz \( \displaystyle\lim\limits_{n \to +\infty} b_n=b. \) Pokażemy, że \( \displaystyle\lim\limits_{n \to +\infty} (a_n+b_n)=a+b. \)
W tym celu ustalmy \( \displaystyle\varepsilon>0. \) Z definicji granicy ciągu zastosowanej do ciągów \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) wiemy, że

\( \exists N_1\in\mathbb{N}\ \forall n\ge N_1:\ |a_n-a| < \frac{\varepsilon}{2} \)

oraz

\( \exists N_2\in\mathbb{N}\ \forall n\ge N_2:\ |b_n-b| < \frac{\varepsilon}{2}. \) Niech \( N=\max\{N_1,N_2\}. \) Wówczas dla dowolnego \( n\ge N \) mamy:

\( \big|(a_n+b_n)-(a+b)\big| \le |a_n-a|+|b_n-b| \ < \ \frac{\varepsilon}{2}+\frac{\varepsilon}{2} \ =\ \varepsilon. \)

Ponieważ \( \displaystyle\varepsilon>0 \) było dowolnie wybrane, więc pokazaliśmy, że

\( \forall \varepsilon>0\ \exists N\in \mathbb{N}:\ \big|(a_n+b_n)-(a+b)\big| \ < \ \varepsilon, \)

czyli \( \displaystyle\lim\limits_{n \to +\infty}(a_n+b_n)=a+b. \)
Analogicznie pokazuje się, że \( \displaystyle\lim\limits_{n \to +\infty} (a_n-b_n)=a-b. \)
(Ad (3)-(4), (6)-(7)) Dowody tych części są pozostawione na ćwiczenia (patrz ćwiczenie 4.5. i ćwiczenie 4.6.).
(Ad (2)) Wynika to od razu z punktu (3) (dlaczego?).
(Ad (5)) Pozostawiamy to bez dowodu.

Przykład 4.10.

Obliczyć granice ciągów:
(1) \( \displaystyle\lim\limits_{ n \to +\infty} (-1)^n\frac{2n+1}{3n^2} \);
(2) \( \displaystyle\lim\limits_{n \to +\infty} \bigg(2+\frac{1}{n}\bigg)^{\frac{1}{2^n}}. \)

wykres

Poniższe twierdzenie mówi, że jeśli wyrazy pewnego ciągu \( \displaystyle\{b_n\} \) leżą pomiędzy wyrazami dwóch innych ciągów \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) (przynajmniej od pewnego miejsca) mających tę samą granicę \( g \) (właściwą lub niewłaściwą), to ciąg \( \displaystyle\{b_n\} \) ma tę samą granicę \( g. \)

Twierdzenie 4.11. [O trzech ciągach]

Jeśli \( \displaystyle\{a_n\},\{b_n\},\{c_n\}\subseteq\mathbb{R} \) są ciągami takimi, że

\( \lim\limits_{n \to +\infty} a_n=\lim\limits_{n \to +\infty} c_n=g\in\overline{\mathbb{R}} \quad\textrm{oraz}\quad \)

\( \exists N\in \mathbb{N}\ \forall n\ge N:\ a_n\le b_n\le c_n, \)

to

\( \displaystyle\lim\limits_{n \to +\infty} b_n=g. \)

Dowód 4.11.

Dowód podamy jedynie w przypadku, gdy \( g\in\mathbb{R} \). Załóżmy, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=\lim\limits_{n \to +\infty} c_n=g \) oraz \( \exists N\in\mathbb{N}\ \forall n\ge N:\ a_n\le b_n\le c_n. \)

Należy pokazać, że \( \displaystyle\lim\limits_{n \to +\infty} b_n=g. \) W tym celu ustalmy dowolne \( \displaystyle\varepsilon>0. \) Z definicji granicy ciągu mamy

\( \begin{align*} & & \exists N_1\in\mathbb{N}\ \forall n\ge N:\ |a_n-g| < \varepsilon, \quad \textrm{czyli} \quad g-\varepsilon < a_n < g+\varepsilon,\\ & & \exists N_2\in\mathbb{N}\ \forall n\ge N:\ |c_n-g| < \varepsilon, \quad \textrm{czyli} \quad g-\varepsilon < c_n < g+\varepsilon.\ \end{align*} \)

Niech \( N_3=\max\{N,N_1,N_2\}. \) Z powyższych nierówności wynika w szczególności, że

\( \forall n\ge N_3:\ g-\varepsilon\ < \ a_n \ \le\ b_n\ \le\ c_n\ < \ g+\varepsilon, \)

zatem

\( \forall n\ge N_3:\ |b_n-g| < \varepsilon, \)

co dowodzi, że \( \displaystyle\lim\limits_{n \to +\infty} b_n=g. \)

Przykład 4.12.

Obliczyć granicę ciągu \( \displaystyle\lim\limits_{n \to +\infty} [2+(-1)^n]\frac{3n^2+2n}{4n^4+3n+1}. \)

Niech \( \displaystyle x_n=[2+(-1)^n]\frac{3n^2+2n}{4n^4+3n+1}. \)

Zauważmy, że \( x_n=y_n b_n, \) gdzie \( y_n =2+(-1)^n \) oraz \( \displaystyle b_n=\frac{3n^2+2n}{4n^4+3n+1}. \) W celu obliczenia \( \displaystyle\lim\limits_{n \to +\infty} b_n \) zauważmy, że

\( \displaystyle\frac{3n^2}{4n^4+3n^4+n^4} \le \displaystyle\frac{3n^2+2n}{4n^4+3n+1} \le \displaystyle\frac{3n^2+2n^2}{4n^4} \)

\( \displaystyle\frac{3n^2}{8n^4} \le \displaystyle\frac{3n^2+2n}{4n^4+3n+1} \le \displaystyle\frac{5n^2}{4n^4} \)

\( \displaystyle\frac{3}{8}\frac{1}{n^2} \le \displaystyle\frac{3n^2+2n}{4n^4+3n+1} \le \displaystyle\frac{5}{4}\frac{1}{n^2} \)

granica ciągu \( \displaystyle\frac{3}{8}\frac{1}{n^2} \) oraz \( \displaystyle\frac{5}{4}\frac{1}{n^2} \) wynosi zero. Zbieżności te wynikają z twierdzenia o granicy iloczynu ciągu (patrz twierdzenie 4.9. (3)), to znaczy

\( \lim\limits_{n \to +\infty}\frac{3}{8}\cdot\frac{1}{n^2} \ =\ \lim\limits_{n \to +\infty}\frac{3}{8}\cdot\lim\limits_{n \to +\infty}\frac{1}{n}\cdot\lim\limits_{n \to +\infty}\frac{1}{n} \ =\ \frac{3}{8}\cdot 0\cdot 0 \ =\ 0 \)

i podobnie \( \displaystyle\lim\limits_{n \to +\infty} \frac{5}{4}\frac{1}{n^2}=0. \)

Teraz, korzystając z twierdzenia o trzech ciągach (patrz twierdzenie 4.11) dostajemy, że \( \displaystyle\lim\limits_{n \to +\infty} b_n=0. \)

Odnośnie ciągu \( \displaystyle\{y_n\} \) zauważmy, że

\( \forall n\in\mathbb{N}:\ 1 \ \le\ y_n \ \le\ 3, \)
a zatem ciąg \( \displaystyle\{y_n\} \) jest ograniczony.

W końcu, korzystając z twierdzenia o iloczynie ciągu zbieżnego do zera i ograniczonego (patrz twierdzenie 4.7.) dostajemy, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=0. \)

Kolejne twierdzenie mówi, w jaki sposób nierówności między wyrazami dwóch ciągów przenoszą się na nierówności między granicami tych ciągów i na odwrót. Mianowicie, jeśli \( \{a_n\} \) i \( \{b_n\} \) są dwoma ciągami mającymi granice (właściwe lub niewłaściwe) oraz wyrazy ciągu \( \{b_n\} \) są większe lub równe od wyrazów ciągu \( \{a_n\} \), to nierówność ta zachodzi także dla granic ciągów. Na odwrót, jeśli granica ciągu \( \{b_n\} \) jest silnie większa od granicy ciągu \( \{a_n\} \), to nierówność ta zachodzi także dla wyrazów ciągów \( \{a_n\} \) i \( \{b_n\} \), przynajmniej od pewnego miejsca.

Twierdzenie 4.13. [O dwóch ciągach]

Jeśli \( \displaystyle\{a_n\},\{b_n\}\subseteq\mathbb{R} \) są ciągami takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a\in\overline{\mathbb{R}} \) oraz \( \displaystyle\lim\limits_{n \to +\infty} b_n=b\in\overline{\mathbb{R}}, \) to prawdziwe są implikacje:

(1) \( \displaystyle\bigg[a=+\infty\ \wedge\ \forall n\in\mathbb{N}:\ a_n\le b_n\bigg]\ \Longrightarrow\ \bigg[b=+\infty\bigg] \);

(2) \( \displaystyle\bigg[b=-\infty\ \wedge\ \forall n\in\mathbb{N}:\ a_n\le b_n\bigg]\ \Longrightarrow\ \bigg[a=-\infty\bigg] \);

(3) \( \displaystyle\bigg[\forall n\in\mathbb{N}:\ a_n\le b_n\bigg]\ \Longrightarrow\ \bigg[a\le b\bigg] \);

(4) \( \displaystyle\bigg[a < b\bigg]\ \Longrightarrow\ \bigg[\exists N\in\mathbb{N}\ \forall n\ge N:\ a_n < b_n\bigg]. \)

Dowód 4.13. [nadobowiązkowy]

(Ad (1)) Zakładamy, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty \) oraz \( \displaystyle\forall n\in\mathbb{N}:\ a_n\le b_n. \)
Ustalmy dowolne \( M>0. \) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty, \) więc

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ a_n\ge M. \)

Zatem dla dowolnego \( n\ge N \) mamy

\( b_n \ \ge\ a_n \ \ge\ M. \) Ponieważ \( M>0 \) było dowolne, więc pokazaliśmy, że

\( \forall M>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ b_n\ge M, \)

a to oznacza, że \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty. \)
(Ad (2)) Dowód analogiczny do dowodu (1).
(Ad (3)) Niech \( \displaystyle\lim\limits_{n \to +\infty} a_n=a\in\overline{\mathbb{R}},\displaystyle\lim\limits_{n \to +\infty} b_n=b\in\overline{\mathbb{R}} \) oraz \( \displaystyle\forall n\in\mathbb{N}:\ a_n\le b_n. \)
"Przypadek \( 1^o. \)" Niech \( a,b\in\mathbb{R}. \)

Dla dowodu niewprost przypuśćmy, że \( a>b. \) Ustalmy \( \displaystyle\varepsilon=\frac{a-b}{2}>0. \) Z definicji granicy ciągu mamy

\( \begin{align*} & & \displaystyle \exists N_1\in\mathbb{N}\ \forall n\ge N_1:\ |a_n-a| < \frac{a-b}{2}, \\ & & \displaystyle \exists N_2\in\mathbb{N}\ \forall n\ge N_2:\ |b_n-b| < \frac{a-b}{2}, \end{align*} \) i w szczególności

\( \begin{align*} & & \displaystyle \exists N_1\in\mathbb{N}\ \forall n\ge N_1:\ a_n>\frac{a+b}{2}, \\ & & \displaystyle \exists N_2\in\mathbb{N}\ \forall n\ge N_2:\ b_n < \frac{a+b}{2}, \end{align*} \)

Niech \( k=\max \{N_1,N_2\}. \) Wówczas dla wyrazów \( a_k \) i \( b_k \) mamy

\( a_k \ >\ \frac{a+b}{2} \ >\ b_k, \)

co jest sprzeczne z założeniem. Zatem pokazaliśmy, że \( a\le b. \)

"Przypadek \( 2^o. \)" \( a=+\infty \) lub \( b=-\infty. \) Wówczas teza wynika z (1) lub (2).

"Przypadek \( 3^o. \)" \( a=-\infty \) lub \( b=+\infty. \) Wówczas zawsze zachodzi nierówność \( a\le b. \)

(Ad (4)) "Przypadek \( 1^o. \)" Niech \( a,b\in\mathbb{R}. \) Ustalmy \( \displaystyle \varepsilon=\frac{b-a}{2}. \) Ponieważ \( b>a \), więc \( \varepsilon>0 \). Z definicji granicy ciągu mamy

\( \begin{align*} & & \displaystyle \exists N_1\in\mathbb{N}\ \forall n\ge N_1:\ |a_n-a| < \frac{b-a}{2}, \\ & & \displaystyle \exists N_2\in\mathbb{N}\ \forall n\ge N_2:\ |b_n-b| < \frac{b-a}{2}. \end{align*} \) Niech \( N=\max\{N_1,N_2\}. \) W szczególności mamy

\( \forall n\ge N:\ a_n \ < \ \frac{a+b}{2} \ < \ b_n, \)

co należało pokazać.

"Przypadek \( 2^o. \)" \( a=-\infty. \) Niech \( \displaystyle\varepsilon=1 \) i \( M=b-1. \) Z definicji granicy ciągu i granicy niewłaściwej mamy

\( \begin{align*} & & \displaystyle \exists N_1\in\mathbb{N}\ \forall n\ge N_1: a_n < b-1, \\ & & \displaystyle \exists N_2\in\mathbb{N}\ \forall n\ge N_2: |b_n-b| < 1. \end{align*} \)

Niech \( N=\max\{N_1,N_2\}. \) W szczególności mamy

\( \forall n\ge N:\ a_n \ < \ b-1 \ < \ b_n, \)

co należało pokazać.

"Przypadek \( 3^o. \)" \( b=+\infty. \) Dowód jest analogiczny jak w przypadku \( 2^o. \)

Kolejne twierdzenie mówi, iż dla ciągów monotonicznych pojęcie granicy pokrywa się z pojęciem kresu górnego (ewentualnie kresu dolnego) zbioru wartości ciągu (patrz rysunek w twierdzeniu 4.15).

Twierdzenie 4.14.

Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem, to
(1) jeśli \( \displaystyle\{a_n\} \) jest rosnący, to \( \displaystyle\{a_n\} \) ma granicę (właściwą lub niewłaściwą) oraz

\( \lim\limits_{n \to +\infty} a_n \ =\ \sup\big\{a_n:\ n\in\mathbb{N}\big\}; \)

(2) jeśli \( \displaystyle\{a_n\} \) jest malejący, to \( \displaystyle\{a_n\} \) ma granicę (właściwą lub niewłaściwą) oraz

\( \lim\limits_{n \to +\infty} a_n \ =\ \inf\big\{a_n:\ n\in\mathbb{N}\big\}. \)

Dowód 4.14. [nadobowiązkowy]

(Ad (1)) Załóżmy, że \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem rosnącym oraz niech

\( g\ \stackrel{df}{=}\ \sup\big\{a_n:\ n\in\mathbb{N}\big\} \)

(supremum zbioru liczbowego zawsze istnieje i jest elementem \( \displaystyle\mathbb{R} \) lub wynosi \( +\infty, \) gdyż zbiór jest niepusty). Pokażemy, że \( g \) jest granicą ciągu \( \displaystyle\{a_n\}. \)
Rozważmy dwa przypadki:
Przypadek \( 1^o. \) Niech \( g\in\mathbb{R}. \) Ustalmy dowolne \( \displaystyle\varepsilon>0. \) Z własności supremum mamy, że

\( \exists N\in\mathbb{N}:\ g-\varepsilon < a_N \)

(de facto z własności supremum wynika, że takich indeksów \( N \) istnieje nieskończenie wiele, ale nam wystarczy wybór jednego z nich). Ponieważ ciąg \( \displaystyle\{a_n\} \) jest rosnący oraz \( \displaystyle\forall n\in N:\ a_n\le g \) (z definicji supremum), więc

\( \forall n\ge N:\ g-\varepsilon < a_N\le a_n\le g. \)

Ponieważ \( \displaystyle\varepsilon>0 \) był dowolnie wybrany, więc pokazaliśmy, że

\( \forall \varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ |a_n-g|\ < \ \varepsilon. \) zatem pokazaliśmy, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=g. \)
Przypadek \( 2^o. \) Niech \( g=+\infty. \) Ustalmy \( M\in\mathbb{R}. \) Z definicji supremum mamy, że

\( \exists N\in\mathbb{N}: M < a_N \)

(bo w przeciwnym razie byłoby \( g\le M \), sprzeczność).

Ponieważ ciąg \( \displaystyle\{a_n\} \) jest rosnący, więc

\( \forall n\ge N:\ M < a_N\le a_n. \)

Ponieważ \( M\in\mathbb{R} \) było dowolnie wybrane, więc pokazaliśmy, że

\( \forall M\in\mathbb{R}\ \exists N\in\mathbb{N}\ \forall n\ge N:\ M\ < \ a_n. \)

Zatem w obu przypadkach pokazaliśmy, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=g. \)
(Ad (2)) Dowód jest analogiczny jak dla (1).

wykres

Twierdzenie 4.15. [O ciągu monotonicznym i ograniczonym]

(1) Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem rosnącym i ograniczonym z góry, to jest on zbieżny.

(2) Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem malejącym i ograniczonym z dołu, to jest on zbieżny.
(3) Ciąg monotoniczny jest zbieżny wtedy i tylko wtedy, gdy jest ograniczony.

Dowód 4.15.

(Ad (1)) Jeśli ciąg \( \displaystyle\{a_n\} \) jest rosnący, to z twierdzenia 4.14 (1) wynika, że ma granicę (właściwą lub niewłaściwą) oraz

\( \lim\limits_{n \to +\infty} a_n \ =\ \sup\big\{a_n:\ n\in\mathbb{N}\big\}. \)

Ponieważ jest on dodatkowo ograniczony, więc

\( \sup\big\{a_n:\ n\in\mathbb{N}\big\} \ < \ +\infty, \)

zatem granica jest właściwa, czyli ciąg jest zbieżny.
(Ad (2)) Dowód analogiczny jak w (1).
(Ad (3)) Jeśli ciąg jest monotoniczny i ograniczony, to zachodzi założenie jednego z punktów (1) lub (2) (to znaczy jest on malejący i ograniczony lub rosnący i ograniczony). W obu przypadkach wiemy, że ciąg jest zbieżny.
Implikacja w drugą stronę jest zawsze prawdziwa (to znaczy ciąg zbieżny jest ograniczony, nawet bez założenia monotoniczności). Wynika to z twierdzenia 3.25.

grafika

Twierdzenie 4.16. [Bolzano-Weierstrassa]

Każdy ciąg ograniczony \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) zawiera podciąg zbieżny.

W dowodzie powyższego twierdzenia wykorzystamy następujący lemat:

Lemat 4.17.

Każdy ciąg liczbowy \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) zawiera podciąg monotoniczny.

Dowód 4.17.

[Szkic] Dla ciągu \( \displaystyle\{a_n\} \) zdefiniujmy następujący zbiór:

\( Z \ \stackrel{df}{=}\ \bigg\{ n\in\mathbb{N}:\ \forall m\in\mathbb{N} \ \big[m>n\Longrightarrow a_m>a_n\big] \bigg\}. \)

Możliwe są dwa przypadki.
Jeśli \( \displaystyle\# Z=\infty \) (to znaczy zbiór \( Z \) jest nieskończony), to możemy z ciągu \( \displaystyle\{a_n\} \) wybrać podciąg rosnący (wystarczy, aby podciąg zawierał tylko te elementy ciągu \( \displaystyle\{a_n\}, \) których indeksy należą do zbioru \( Z \)).
Jeśli \( \displaystyle\# Z < \infty \) (to znaczy zbiór \( Z \) jest skończony), to możemy skonstruować podciąg malejący w następujący sposób. Niech \( n_1\in\mathbb{N} \) będzie liczbą większą od wszystkich liczb ze zbioru \( Z. \) Ponieważ \( n_1\not\in Z, \) więc

\( \exists n_2>n_1:\ a_{n_2}\le a_{n_1}. \)

Dalej konstrukcja ciągu indeksów przebiega indukcyjnie w ten sam sposób. Jeśli wybraliśmy już indeksy \( n_1 < \ldots < n_k, \) to z definicji zbioru \( Z \) i faktu, że \( n_k\not\in Z \) wynika, że

\( \exists n_{k+1}>n_k:\ a_{n_{k+1}}\le a_{n_k}. \)

Skonstruowany w ten sposób podciąg \( \displaystyle\{a_{n_k}\}_{k\in\mathbb{N}} \) jest malejący.

wykres

Możemy teraz powrócić do dowodu twierdzenia Bolzano-Weierstrassa:

Dowód 4.16.

Niech \( \displaystyle\{a_n\}\in\mathbb{R} \) będzie ciągiem ograniczonym. Z lematu 4.17. wynika, że możemy z niego wybrać podciąg monotoniczny \( \displaystyle\{a_{n_k}\}_{k\in\mathbb{N}}. \) Oczywiście podciąg \( \displaystyle\{a_{n_k}\}_{k\in\mathbb{N}} \) jest także ograniczony, zatem z twierdzenia 4.15. (3) wynika, że podciąg \( \displaystyle\{a_{n_k}\}_{k\in\mathbb{N}} \) jest zbieżny.

Wniosek 4.18.

Z każdego ciągu liczbowego \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) można wybrać podciąg posiadający granicę (właściwą lub niewłaściwą).

Dowód 4.18.

Z lematu 4.17. wiemy, że z ciągu \( \displaystyle\{a_n\} \) można wybrać podciąg monotoniczny. Jeśli jest on ograniczony, to z >twierdzenia 4.15. wynika, że jest on zbieżny (ma granicę właściwą). Jeśli zaś jest nieograniczony, to skoro jest monotoniczny, to granicą jest \( +\infty \) lub \( -\infty \).

Obliczanie granic

Obliczanie granic



Wykład ten jest kontynuacją poprzedniego wykładu dotyczącego ciągów o wyrazach rzeczywistych. Wykład rozpoczynamy od definicji liczby e jako granicy pewnego ciągu. Podajemy twierdzenia o arytmetyce granic niewłaściwych i liczymy pewne granice specjalne. Wprowadzamy pojęcia granicy dolnej i granicy górnej ciągu.

Liczba e

Liczba e


Zajmiemy się teraz pewnym przykładem ciągu zbieżnego, którego granica odgrywa ważną rolę w matematyce.

Twierdzenie 5.1. [Liczba \( e \), symbol \( 1^{\infty} \)]

(1) Ciąg \( \displaystyle\{e_n\}\subseteq\mathbb{R} \) o wyrazach \( \displaystyle e_n=\bigg(1+\frac{1}{n}\bigg)^n \) jest zbieżny.
Jego granicę oznaczamy przez \( e, \) przy czym

\( e \ \approx\ 2,718281828458563411277850606202642376785584483618617451918618203\ldots. \)

(2) Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem o wyrazach dodatnich takim, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty, \) to

\( \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{a_n}\bigg)^{a_n} \ =\ e. \)

W dowodzie powyższego twierdzenia wykorzystamy następujący lemat, którego dowód indukcyjny zostawiamy jako proste ćwiczenie.

Lemat 5.2.

Dla każdego \( n\ge 3 \) mamy \( \displaystyle n!>2^{n-1}. \)

Dowód 5.2.

(Ad (1))
Krok 1. Pokażemy, że ciąg \( \displaystyle\{e_n\} \) jest rosnący. W tym celu dla dowolnego \( n\in\mathbb{N} \) obliczymy iloraz:

\( \frac{e_{n+1}}{e_n} \ =\ \frac{\displaystyle\bigg(1+\frac{1}{n+1}\bigg)^{n+1}}{\displaystyle\bigg(1+\frac{1}{n}\bigg)^n} \ =\ \bigg(1+\frac{1}{n}\bigg) \frac{\displaystyle\bigg(1+\frac{1}{n+1}\bigg)^{n+1}}{\displaystyle\bigg(1+\frac{1}{n}\bigg)^{n+1}} \)
\( \ =\ \frac{n+1}{n}\bigg[\frac{n(n+2)}{(n+1)^2}\bigg]^{n+1} \ =\ \frac{n+1}{n}\bigg[1-\frac{1}{(n+1)^2}\bigg]^{n+1}. \)

Stosując nierówność Bernoullego

(patrz uwaga 2.16.) z \( r=n+1\ge 2 \) oraz \( \displaystyle x=-\frac{1}{(n+1)^2}>-1, \) dostajemy

\( \frac{e_{n+1}}{e_n} \ >\ \frac{n+1}{n} \bigg(1-\frac{n+1}{(n+1)^2}\bigg) \ =\ \frac{n+1}{n} \bigg(1-\frac{1}{n+1}\bigg) \ =\ \frac{n+1}{n}\cdot\frac{n}{n+1} \ =\ 1. \)

Pokazaliśmy zatem, że

\( \frac{e_{n+1}}{e_n} \ >\ 1 \qquad\forall\ n\ge 1, \)

czyli ciąg \( \displaystyle\{e_n\} \) jest rosnący.

Krok 2. Pokażemy, że ciąg \( \displaystyle\{e_n\} \) jest ograniczony. Ponieważ jest to ciąg liczb dodatnich, więc wystarczy pokazać, że jest on ograniczony z góry. Korzystając ze wzoru dwumianowego Newtona (patrz twierdzenie 1.40.), mamy

\( \begin{array} {lll} \displaystyle e_n & = & \bigg(1+\frac{1}{n}\bigg)^n \ =\ {n \choose 0} + {n \choose 1}\frac{1}{n} + {n \choose 2}\frac{1}{n^2} + {n \choose 3}\frac{1}{n^3} +\ldots + {n \choose n-1}\frac{1}{n^{n-1}} + {n \choose n} \frac{1}{n^n} \\ & = & 1 +1 +\frac{1}{2!}\frac{n(n-1)}{n^2} +\frac{1}{3!}\frac{n(n-1)(n-2)}{n^3} +\ldots +\frac{1}{(n-1)!}\frac{n(n-1)(n-2)\cdot\ldots\cdot 2}{n^{n-1}} \\ & & +\ \frac{1}{n!}\frac{n(n-1)(n-2)\cdot\ldots\cdot 1}{n^n} \\ & = & 1 +1 +\frac{1}{2!}\bigg(1-\frac{1}{n}\bigg) +\frac{1}{3!}\bigg(1-\frac{1}{n}\bigg)\bigg(1-\frac{2}{n}\bigg) +\ldots +\frac{1}{(n-1)!}\bigg(1-\frac{1}{n}\bigg)\cdot\ldots\cdot\bigg(1-\frac{n-2}{n}\bigg) \\ & & +\ \frac{1}{n!}\bigg(1-\frac{1}{n}\bigg)\cdot\ldots\cdot\bigg(1-\frac{n-1}{n}\bigg) \\ & < & 1+1+\frac{1}{2!}+\frac{1}{3!}+\ldots+\frac{1}{(n-1)!}+\frac{1}{n!}. \end{array} \)

Korzystając z Lematu lematu 5.2., mamy

\( e_n \ < \ 1+1+\frac{1}{2^1}+\frac{1}{2^2}+\ldots+\frac{1}{2^{n-1}}. \)

Korzystając ze wzoru na sumę skończonego ciągu geometrycznego (patrz przyklad 1.12.), dostajemy

\( e_n \ < \ 1+\frac{1-\frac{1}{2^n}}{1-\frac{1}{2}} \ < \ 1+\frac{1}{1-\frac{1}{2}} \ =\ 3. \)

Pokazaliśmy zatem, że \( \forall n\in\mathbb{N}:\ |e_n| < 3, \)

czyli że ciąg \( \displaystyle\{e_n\} \) jest ograniczony.
Krok 3. Ponieważ ciąg \( \displaystyle\{e_n\} \) jest rosnący i ograniczony, więc korzystając z twiedzenia 4.15., wnioskujemy, że jest on zbieżny.

(Ad (2)) [Dowód nadobowiązkowy]

Niech \( \displaystyle x_n=\bigg(1+\frac{1}{n}\bigg)^{n+1} \) oraz \( \displaystyle y_n=\bigg(1+\frac{1}{n+1}\bigg)^n. \) Zauważmy, że

\( \begin{array}{lll} \lim\limits_{n \to +\infty} x_n & = & \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{n}\bigg)^{n+1} \ =\ \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{n}\bigg)^n\cdot\bigg(1+\frac{1}{n}\bigg) \ =\ e\cdot 1 \ =\ e, \\ \lim\limits_{n \to +\infty} y_n & = & \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{n+1}\bigg)^n \ =\ \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{n+1}\bigg)^{n+1}\cdot\bigg(1+\frac{1}{n+1}\bigg)^{-1} \ =\ e\cdot 1 \ =\ e. \end{array} \)

Niech \( \displaystyle\{a_n\} \) będzie dowolnym ciągiem o wyrazach dodatnich takim, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty. \) W celu udowodnienia naszego twierdzenia skorzystamy z twierdzenia 3.25.(5). W tym celu weźmy dowolny podciąg \( \displaystyle\{a_{n_k}\} \) ciągu \( \displaystyle\{a_n\}. \)

Wybierzmy z kolei podciąg \( \displaystyle\big\{a_{n_{k_l}}\big\} \) ciągu \( \displaystyle\{a_{n_k}\}, \) który jest monotonicznie rosnący do \( +\infty \) oraz taki, że

\( \forall l\in\mathbb{N}:\ l \ < \ a_{n_{k_l}} \quad\ \) oraz \( \quad a_{n_{k_l}}+1 \ \le\ a_{n_{k_{l+1}}} \) Dla każdego \( l\in\mathbb{N} \) wyraz \( a_{n_{k_l}} \) jest zawarty w pewnym przedziale \( \displaystyle [N_l,N_l+1) \) o końcach naturalnych (przy czym ciąg \( \displaystyle\{N_l\}_l \) jest silnie rosnący). Korzystając z monotoniczności funkcji potęgowej oraz funkcji wykładniczej (o podstawie większej od \( 1 \)), mamy

\( \begin{array} {ccccccccc} \displaystyle\bigg(1+\frac{1}{N_l+1}\bigg)^{N_l} & \le & \displaystyle\bigg(1+\frac{1}{a_{n_{k_l}}}\bigg)^{N_l} & \le & \displaystyle\bigg(1+\frac{1}{a_{n_{k_l}}}\bigg)^{a_{n_{k_l}}} & \le & \displaystyle\bigg(1+\frac{1}{a_{n_{k_l}}}\bigg)^{N_l+1} & \le & \displaystyle\bigg(1+\frac{1}{N_l}\bigg)^{N_l+1} \\ \downarrow & & & & & & & & \downarrow \\ e & & & & & & & & e \end{array} \)

gdzie zbieżności ciągów \( \displaystyle\bigg\{\bigg(1+\frac{1}{N_l+1}\bigg)^{N_l}\bigg\}_{l\in\mathbb{N}} \) i \( \displaystyle\bigg\{\bigg(1+\frac{1}{N_l}\bigg)^{N_l+1}\bigg\}_{l\in\mathbb{N}} \) do liczby \( e \) wynikają z faktów, iż są to podciągi ciągów \( \displaystyle\{x_n\} \)
i \( \displaystyle\{y_n\} \) mających granicę \( e. \) Zatem korzystając z twierdzenia o trzech ciągach (twierdzenia 4.11.), wnioskujemy, że \( \displaystyle\lim_{larrow+\infty}\bigg(1+\frac{1}{a_{n_{k_l}}}\bigg)^{a_{n_{k_l}}}=e. \)

Ponieważ wystartowaliśmy od dowolnego podciągu \( \displaystyle\{a_{n_k}\} \) ciągu \( \displaystyle\{a_n\}, \) zatem korzystając z twierdzenia 3.25.(5), dostajemy, że \( \displaystyle\lim\limits_{n \to +\infty}\bigg(1+\frac{1}{a_n}\bigg)^{a_n}=e. \)

Kolejne twierdzenie będzie przydatne przy wyznaczaniu pewnych granic ciągów. Jego dowód jak i zastosowania pozostawione są na ćwiczenia (patrz zadanie 5.6.).

Twierdzenie 5.3.

Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem liczbowym o wyrazach dodatnich (to znaczy \( \displaystyle\forall n\in\mathbb{N}:\ a_n>0 \)), to
(1) jeśli \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}=a < 1, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n=0 \);
(2) jeśli \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}=a>1, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty. \)

Arytmetyka granic niewłaściwych

Arytmetyka granic niewłaściwych


Analogicznie do twierdzeń o "arytmetyce" granic (twierdzenie 4.9.), można sformułować cały szereg twierdzeń dotyczący "arytmetyki" granic niewłaściwych. Poniższe twierdzenie zbiera informacje dotyczące granicy sumy, różnicy, iloczynu i ilorazu ciągów, gdy przynajmniej jeden z ciągów ma granicę niewłaściwą. Podamy dowód jednego z poniższych punktów. Pozostałe dowody można zrobić analogicznie.

Twierdzenie 5.4. [O "arytmetyce" granic niewłaściwych]

(1) \( a+\infty=+\infty, \) dla \( -\infty < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty, \) gdzie \( -\infty < a\le+\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty}(a_n+b_n)=+\infty. \)

(2) \( a-\infty=-\infty \) dla \( -\infty\le a < +\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty, \) gdzie \( -\infty\le a < +\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty}(a_n-b_n)=-\infty. \)

(3) \( a\cdot(\pm\infty)=\pm\infty \) dla \( 0 < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=\pm\infty, \) gdzie \( 0 < a\le+\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty}(a_n\cdot b_n)=\pm\infty. \)

(4) \( a\cdot(\pm\infty)=\mp\infty \) dla \( -\infty\le a < 0, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=\pm\infty, \) gdzie \( -\infty\le a < 0, \) to \( \displaystyle\lim\limits_{n \to +\infty}(a_n\cdot b_n)=\mp\infty. \)

(5) \( \displaystyle\frac{a}{\pm\infty}=0 \) dla \( a\in\mathbb{R}, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a\in\mathbb{R} \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=\pm\infty \) oraz \( b_n\ne 0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_n}{b_n}=0. \)

(6a) \( \displaystyle\frac{a}{0^+}=+\infty \) dla \( 0 < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=0, \) gdzie \( 0 < a\le+\infty \) oraz \( b_n>0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_n}{b_n}=+\infty. \)

(6b) \( \displaystyle\frac{a}{0^-}=-\infty \) dla \( 0 < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=0, \) gdzie \( 0 < a\le+\infty \) oraz \( b_n < 0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_n}{b_n}=-\infty. \)

(7a) \( \displaystyle\frac{a}{0^+}=-\infty \) dla \( -\infty\le a < 0, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=0, \) gdzie \( -\infty\le a < 0 \) oraz \( b_n>0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_n}{b_n}=-\infty. \)

(7b) \( \displaystyle\frac{a}{0^-}=+\infty \) dla \( -\infty\le a < 0, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=0, \) gdzie \( -\infty\le a < 0 \) oraz \( b_n < 0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_n}{b_n}=+\infty. \)

(8a) \( a^{+\infty}=0 \) dla \( 0^+\le a < 1, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty, \) gdzie \( 0\le a < 1 \) oraz \( a_n>0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=0. \)

(8b) \( a^{-\infty}=+\infty \) dla \( 0^+\le a < 1, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=-\infty, \) gdzie \( 0\le a < 1 \) oraz \( a_n>0 \) dla \( n\in\mathbb{N}, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=+\infty. \)

(9a) \( a^{-\infty}=0 \) dla \( 1 < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=-\infty, \) gdzie \( 1 < a\le+\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=0. \)

(9b) \( a^{+\infty}=+\infty \) dla \( 1 < a\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty, \) gdzie \( 1 < a\le+\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=+\infty. \)

(10) \( \displaystyle\infty^b=0 \) dla \( -\infty\le b < 0, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=b, \) gdzie \( -\infty\le b < 0, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=0. \)

(11) \( \displaystyle\infty^b=+\infty \) dla \( 0 < b\le+\infty, \) to znaczy
jeśli \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) są ciągami liczbowymi takimi, że \( \displaystyle\lim\limits_{n \to +\infty} a_n=+\infty \) i \( \displaystyle\lim\limits_{n \to +\infty} b_n=b, \) gdzie \( 0 < b\le+\infty, \) to \( \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=+\infty. \)

Dowód 5.4.(Ad (1)) Załóżmy, że

\( \lim\limits_{n \to +\infty} a_n \ =\ a,\quad \lim\limits_{n \to +\infty} b_n \ =\ b,\quad -\infty < a\le +\infty. \)

Ustalmy dowolne \( M\in\mathbb{R}. \) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} a_n=a \) (gdzie \( -\infty < a\le +\infty \)), więc ciąg \( \displaystyle\{a_n\} \) jest ograniczony od dołu, to znaczy

\( \exists \overline{M}\in\mathbb{R}\ \forall n\in\mathbb{N}:\ a_n\ge \overline{M}. \)

Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} b_n=+\infty, \) więc

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ b_n\ge M-\overline{M}. \)

Zatem dla dowolnego \( n\ge N \) mamy

\( a_n+b_n \ \ge\ \overline{M}+(M-\overline{M}) \ =\ M. \) Ponieważ \( M\in\mathbb{R} \) było wybrane dowolnie, więc pokazaliśmy, że

\( \forall M\in\mathbb{R}\ \exists N\in\mathbb{N}\ \forall n\ge N:\ a_n+b_n\ge M, \)

zatem udowodniliśmy, że \( \displaystyle\lim\limits_{n \to +\infty} (a_n+b_n)=+\infty. \)

Uwaga 5.5. [Symbole nieoznaczone]

Dla pewnych działań na ciągach nie można z góry przewidzieć, jaka jest granica "wynikowa" mimo, że znane są granice poszczególnych ciągów. Dla przykładu rozważmy dwa ciągi \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\} \) rozbieżne do \( +\infty \) i zbadajmy ich różnicę \( \displaystyle\{a_n-b_n\}. \) Okazuje się, że w zależności od konkretnych ciągów \( \displaystyle\{a_n\} \) i \( \displaystyle\{b_n\}, \) ich różnica może mieć granicę właściwą lub niewłaściwą lub nie mieć granicy. Mówimy wówczas, że \( \displaystyle\infty-\infty \) jest symbolem nieoznaczonym. Oznacza to w szczególności, że dla takiego symbolu nie możemy sformułować twierdzenia analogicznego do twierdzenia 5.4.
Mamy siedem takich symboli nieoznaczonych:

\( \infty-\infty,\quad 0\cdot\infty,\quad \frac{0}{0},\quad \frac{\infty}{\infty},\quad 1^{\infty},\quad \infty^0,\quad 0^0. \)

Przykład 5.6.

Dla każdego z powyższych symboli nieoznaczonych podamy przykłady ciągów mających granicę, dających w wyniku wykonania wskazanych działań ciągi o różnych granicach \( g\in\overline{\mathbb{R}} \) lub bez granicy.

\( \begin{array}{lll}\displaystyle \lim\limits_{n \to +\infty} a_n=+\infty \quad & \displaystyle \lim\limits_{n \to +\infty}b_n=+\infty \quad & \displaystyle\infty-\infty \\ \displaystyle a_n=n^2 \quad & \displaystyle b_n=n^2 \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n-b_n)=0 \\ \displaystyle a_n=n^2 \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n-b_n)=+\infty \\ \displaystyle a_n=n \quad & \displaystyle b_n=n^2 \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n-b_n)=-\infty \\ \displaystyle a_n=n \quad & \displaystyle b_n=(n-a)\quad & \displaystyle \lim\limits_{n \to +\infty}(a_n-b_n)=a \quad (\textrm{gdzie } a\in\mathbb{R}) \\ \displaystyle a_n=n+(-1)^n \quad & \displaystyle b_n=n \quad & \displaystyle \{a_n-b_n\} \quad \textrm{nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=0 & \displaystyle \lim\limits_{n \to +\infty} b_n=+\infty\ & \displaystyle 0\cdot\infty \\ \displaystyle a_n=\frac{-1}{n} \quad & \displaystyle b_n=n^2 \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n\cdot b_n)=-\infty \\ \displaystyle a_n=\frac{1}{n} \quad & \displaystyle b_n=n^2 \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n\cdot b_n)=+\infty \\ \displaystyle a_n=\frac{a}{n} \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty}(a_n\cdot b_n)=a \quad(\textrm{gdzie } a\in\mathbb{R}) \\ \displaystyle a_n=\frac{(-1)^n}{n} \quad & \displaystyle b_n=n \quad & \displaystyle \{a_n\cdot b_n\} \quad \textrm{nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=0 \quad & \displaystyle \lim\limits_{n \to +\infty} b_n=0 \quad & \displaystyle \frac{0}{0} \\ \displaystyle a_n=\frac{-1}{n}\quad & \displaystyle b_n=\frac{1}{n^2}\quad & \displaystyle \lim\limits_{n \to +\infty}\frac{a_n}{b_n}=-\infty \\ \displaystyle a_n=\frac{1}{n}\quad & \displaystyle b_n=\frac{1}{n^2}\quad & \displaystyle \lim\limits_{n \to +\infty}\frac{a_n}{b_n}=+\infty \\ \displaystyle a_n=\frac{a}{n}\quad & \displaystyle b_n=\frac{1}{n}\displaystyle \quad & \lim\limits_{n \to +\infty}\frac{a_n}{b_n}=a \quad (\textrm{gdzie } a\in\mathbb{R}) \\ \displaystyle a_n=\frac{(-1)^n}{n}\quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \bigg\{\frac{a_n}{b_n}\bigg\} \quad \textrm{nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=+\infty \quad & \displaystyle \lim\limits_{n \to +\infty} b_n=+\infty \quad & \displaystyle \frac{\infty}{\infty} \\ \displaystyle a_n=n^2 \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty}\frac{a_n}{b_n}=+\infty \\ \displaystyle a_n=an \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty}\frac{a_n}{b_n}=a \quad (\textrm{gdzie} a\in\mathbb{R}) \\ \displaystyle a_n=n+\frac{(-1)^nn}{2} \quad & \displaystyle b_n=n \quad & \displaystyle \bigg\{\frac{a_n}{b_n}\bigg\}\quad \textrm{nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=1 \quad & \displaystyle \lim\limits_{n \to +\infty} b_n=+\infty \quad & \displaystyle 1^{\infty} \\ \displaystyle a_n=1+\frac{1}{n} \quad & \displaystyle b_n=n^2 \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=+\infty \\ \displaystyle a_n=1 \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=1 \\ \displaystyle a_n=1+\frac{1}{n} \quad & \displaystyle b_n=n \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=e \\ \displaystyle a_n=1+\frac{1}{n} \quad & \displaystyle b_n=n\ln a \quad & \displaystyle\lim\limits_{n \to +\infty} a_n^{b_n}=a \quad (\textrm{gdzie } a>1) \\ \displaystyle a_n=1+\frac{(-1)^n}{n} \quad & \displaystyle b_n=n \quad & \displaystyle \{a_n^{b_n}\} \quad \textrm{ nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=\infty \quad & \displaystyle \lim\limits_{n \to +\infty} b_n=0 \quad & \displaystyle \infty^0 \\ \displaystyle a_n=2^{n^2} \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=+\infty \\ \displaystyle a_n=n \quad & \displaystyle b_n=0 \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=1 \\ \displaystyle a_n=\frac{1}{a^n} \quad & \displaystyle b_n=\frac{-1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=a \quad (\textrm{gdzie } a\in(0,1)) \\ \displaystyle a_n=a^n \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}= a \quad (\textrm{gdzie } a>1) \\ \displaystyle a_n=(3+(-1)^n)^n \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \{a_n^{b_n}\} \quad \textrm{nie ma granicy} \end{array} \)

\( \begin{array}{lll} \displaystyle \lim\limits_{n \to +\infty} a_n=0 \quad & \displaystyle \lim\limits_{n \to +\infty} b_n=0 \quad & \displaystyle 0^0 \\ \displaystyle a_n=\frac{1}{n} \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=1 \\ \displaystyle a_n=0 \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}=0 \\ \displaystyle a_n=a^n \quad & \displaystyle b_n=\frac{1}{n} \quad & \displaystyle \lim\limits_{n \to +\infty} a_n^{b_n}= a \quad (\textrm{gdzie } a\in (0,1)) \end{array} \)

Granice specjalne

Granice specjalne


W następnym lemacie podamy pewne nierówności liczbowe przydatne w następnym twierdzeniu.

Lemat 5.7.

Zachodzą następujące nierówności liczbowe:
(1) \( \displaystyle\forall x\ge 0:\ \sin x\le x, \)
(2) \( \displaystyle \forall 0 < |x| < \frac{\pi}{2}:\ \bigg|\frac{\sin x}{x}-1\bigg| < x^2. \)

wykres

Dowód 5.7. [nadobowiązkowy]

(Ad (1)) Wobec rysunku znajdującego się obok mamy następujące nierówności między polami:

\( P_{\triangle OAB} \ < \ P_{⊲ OAB} \ < \ P_{\triangle OAC}, \)
gdzie:
\( P_{\triangle OAB} \) oznacza pole trójkąta \( OAB, \)
\( P_{⊲ OAB} \) oznacza pole wycinka koła \( OAB, \)
\( P_{\triangle OAC} \) oznacza pole trójkąta \( OAC. \)

Podstawiając wzory na poszczególne pola, dostajemy:

\( \frac{1\cdot \sin x}{2} \ < \ \frac{x}{2\pi}\cdot\pi \ < \ \frac{1\cdot\mathrm{tg}\, x}{2}. \)

Zatem

\( \sin x \ < \ x \ < \ \mathrm{tg}\, x \quad\textrm{dla}\ 0 < x < \frac{\pi}{2}. \)

Zatem dla \( \displaystyle x\in \bigg(0,\frac{\pi}{2}\bigg) \) nierówność (1) jest udowodniona. Zauważmy, że dla \( x=0 \) zachodzi równość, natomiast dla \( x>1 \) nierówność jest oczywista, gdyż \( \displaystyle\sin x\le 1 < x. \) Zatem pokazaliśmy nierówność (1) dla dowolnego \( x\ge 0. \)
(Ad (2)) Powróćmy raz jeszcze do wyprowadzonych w pierwszej części nierówności

\( \sin x \ < \ x \ < \ \mathrm{tg}\, x \quad\textrm{dla}\ 0 < x < \frac{\pi}{2}. \)

Pierwsza z powyższych nierówności implikuje, że

\( 0 \ \le\ 1-\frac{\sin x}{x}. \)

Druga z powyższych nierówności implikuje, że

\( x\cos x \ \le\ \frac{\sin x}{\cos x}\cos x \)

\( x\cos x\le \sin x \)

\( 1-\frac{\sin x}{x} \ \le\ 1-\cos x. \)

Zatem łącząc dwie otrzymane nierówności, dostajemy

\( 0 \ \le\ 1-\frac{\sin x}{x} \ \le\ 1-\cos x, \)

przy czym

\( 1-\cos x \ =\ 2\sin^2\frac{x}{2} \ < \ 2\bigg(\frac{x}{2}\bigg)^2 \ < \ x^2 \)

(gdzie wykorzystaliśmy udowodnioną już nierówność \( \displaystyle\sin x < x \)). Zatem ostatecznie

\( 0 \ \le\ 1-\frac{\sin x}{x} \ < \ x^2, \) skąd dostajemy dowodzoną nierówność

Podamy teraz granice pewnych funkcji specjalnych. Znajomość tych granic będzie przydatna do rozwiązywania zadań.

Twierdzenie 5.8. [Granice specjalne]

(1) \( \displaystyle\displaystyle \lim\limits_{n \to +\infty} n^p= \{ \begin{array} {ll} +\infty & \quad p>0, \\ 1 & \quad p=0, \\ 0 & \quad p < 0; \end{array} . \)

(2) jeśli \( a>1 \) oraz \( \displaystyle\alpha\ge 0, \) to \( \displaystyle \lim\limits_{n \to +\infty}\frac{n^{\alpha}}{a^n}=0 \);

Wykres ciągu \( \bigg\{\frac{1}{\sqrt{n}}\bigg\} \)

Wykres ciągu \( \bigg\{\frac{\sqrt{n}}{2^n}\bigg\} \)

(3) jeśli \( a\in\mathbb{R} \) to \( \displaystyle \lim\limits_{n \to +\infty}\frac{a^n}{n!}=0 \);

(4) jeśli \( a>0, \) to \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{a}=1 \);

Wykres ciągu \( \bigg\{\frac{2^n}{n!}\bigg\} \)

Wykres ciągu \( \{\sqrt[n]{2}\} \)

(5) \( \displaystyle \lim\limits_{n \to +\infty}\sqrt[n]{n}=1 \);

(6) jeśli \( a>0, \) to \( \displaystyle\displaystyle \lim\limits_{n \to +\infty} a^n=\left \{ \begin{array} {ll} \textrm{nie\ istnieje} & \quad a\le -1, \\ 0 & \quad |a| < 1, \\ 1 & \quad a=1, \\ +\infty & \quad a>1. \end{array} . \right . \)

Wykres ciągu \( \{\sqrt[n]{n}\} \)

Wykres ciągu \( \bigg\{\frac{1}{2^n}\bigg\} \)

(7) \( \displaystyle \lim\limits_{n \to +\infty}\frac{\sin\frac{1}{n}}{\frac{1}{n}}=1 \).

(8)

\( \displaystyle \lim\limits_{n \to +\infty}\frac{\sin x_n}{x_n}=1, \) gdzie \( \displaystyle\{x_n\}\subseteq \mathbb{R}\setminus\{0\} \) jest dowolnym ciągiem takim, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=0. \)

Wykres ciągu \( \{2^n\} \)

Wykres ciągu \( \bigg\{\frac{\sin\frac{1}{n}}{\frac{1}{n}}\bigg\} \)

Dowód 5.8. [nadobowiązkowy]

(Ad (1)) Gdy \( p>0, \) to mamy do czynienia z symbolem \( \displaystyle\infty^p \) (z \( p>0 \)). Z twierdzenia 5.4. (11) wynika, że \( \displaystyle\lim\limits_{n \to +\infty} n^p=+\infty. \)

Gdy \( p=0, \) to ciąg jest stały oraz \( \displaystyle\lim\limits_{n \to +\infty} n^0=\lim\limits_{n \to +\infty} 1=1. \)

Gdy \( p < 0, \) to mamy do czynienia z symbolem \( \displaystyle\infty^p \) (z \( p < 0 \)). Z twierdzenia 5.4. (10) wynika, że \( \displaystyle\lim\limits_{n \to +\infty} n^p=0. \)
(Ad (2)) Niech \( \displaystyle c_n=\frac{n^{\alpha}}{a^n} \) dla \( n\in\mathbb{N}. \) Liczymy

\( \lim\limits_{n \to +\infty} \frac{c_{n+1}}{c_n} \ =\ \lim\limits_{n \to +\infty} \frac{(n+1)^{\alpha}a^n}{a^{n+1}n^{\alpha}} \ =\ \lim\limits_{n \to +\infty} \bigg(1+\frac{1}{n}\bigg)^{\alpha}\cdot\frac{1}{a} \ =\ \frac{1}{a}. \)

Ponieważ \( a>1, \) więc \( \displaystyle \frac{1}{a} < 1. \) Korzystając z twierdzenia 5.3., wnioskujemy, że \( \displaystyle\lim\limits_{n \to +\infty} c_n=0. \)
(Ad (3)) Na początku policzmy granicę ciągu \( \displaystyle\{c_n\}, \) gdzie \( \displaystyle c_n=\bigg|\frac{a^n}{n!}\bigg| \) (gdzie \( a\in\mathbb{R} \)). Policzmy

\( \frac{c_{n+1}}{c_n} \ =\ \frac{|a|}{n+1} \ =\ |a|\cdot\frac{1}{n+1}. \)

Z (1) wiemy, że ostatni ciąg dąży do \( 0, \) zatem \( \displaystyle\lim\limits_{n \to +\infty}\frac{c_{n+1}}{c_n}=0. \) Korzystając z Twierdzenia twierdzenia 5.3., wnioskujemy, że \( \displaystyle\lim\limits_{n \to +\infty} c_n=0. \) Z kolei korzystając z twierdzenia 4.9. (7), wnioskujemy, że \( \displaystyle\lim\limits_{n \to +\infty}\frac{a^n}{n!}=0. \)
(Ad (4)) Przypadek \( 1^o. \) Gdy \( 0 < a\le 1. \)

Wówczas \( \displaystyle\{\sqrt[n]{a}\} \) jest ciągiem niemalejącym i ograniczonym, zatem zbieżnym (z twierdzenia 4.15.) oraz

\( g \ =\ \lim\limits_{n \to +\infty} \sqrt[n]{a} \ =\ \sup_{n\in\mathbb{N}}\sqrt[n]{a} \ \le\ 1 \)

(patrz twierdzenie 4.14.). Zatem \( \displaystyle\sqrt[n]{a}\le g, \) a więc

\( \forall n\in\mathbb{N}:\ a\le g^n. \)

Pokażemy, że \( g=1. \) Dla dowodu niewprost przypuśćmy, że \( g < 1. \) Wówczas przechodząc do granicy w powyższej nierówności dostajemy

\( a \ \le\ \lim\limits_{n \to +\infty} g^n \ =\ 0, \)

sprzeczność z założeniem, że \( a>0. \) Zatem \( g=1 \) i \( \displaystyle\lim\limits_{n \to +\infty} \sqrt[n]{a}=1. \)
Przypadek \( 1^o. \) Gdy \( a>1. \)

Wówczas \( \displaystyle 0 < \frac{1}{a} < 1, \) więc z udowodnionej już części dostajemy, że

\( \lim\limits_{n \to +\infty} \frac{1}{\sqrt[n]{a}} \ =\ \lim\limits_{n \to +\infty}\sqrt[n]{\frac{1}{a}} \ =\ 1, \) skąd wynika, że \( \displaystyle\lim\limits_{n \to +\infty} \sqrt[n]{a}=1. \)

(Ad (5)) Ustalmy dowolny \( \displaystyle\varepsilon>0. \) Oznaczmy \( \displaystyle\eta\ \stackrel{df}{=}\ \sqrt{1+\varepsilon}>1. \) Ponieważ

\( \lim\limits_{n \to +\infty}\frac{n+1}{n} \ =\ \lim\limits_{n \to +\infty} \bigg(1+\frac{1}{n}\bigg) \ =\ 1, \)

zatem

\( \exists N_1\in\mathbb{N}\ \forall n\ge N_1:\ \frac{n+1}{n} < \eta. \)

Korzystając z (4), wiemy, że \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{N_1}=1, \) zatem

\( \exists N_2\in\mathbb{N}\ \forall N\ge N_2:\ \sqrt[n]{N_1} < \eta. \)

Niech \( N\ \stackrel{df}{=}\ \max\{N_1,N_2\}. \) Wówczas dla dowolnego \( n\ge N \) mamy

\( 1 \ \le\ \sqrt[n]{n} \ =\ \sqrt[n]{N_1}\sqrt[n]{\frac{N_1+1}{N_1}\cdot\frac{N_1+2}{N_1+1}\cdot\ldots\cdot\frac{n}{n-1}} \ < \ \eta\cdot\sqrt[n]{\eta^{n-N_1}} \ < \ \eta^2 \ =\ 1+\varepsilon, \)

czyli

\( \forall n\ge N:\ |\sqrt[n]{n}-1| \ < \ \varepsilon. \)

Ponieważ \( \displaystyle\varepsilon>0 \) było dowolne, więc pokazaliśmy, że

\( \forall\varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ |\sqrt[n]{n}-1| \ < \ \varepsilon, \)

zatem \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{n}=1. \)

(Ad (6)) Gdy \( |a| < 1, \) to mamy znany nam ciąg geometryczny zbieżny do zera (patrz przykład 3.22.).

Gdy \( a=1, \) to ciąg \( \displaystyle\{1^n\} \) jest ciągiem stałym, którego wszystkie wartości wynoszą \( 1, \) zatem \( \displaystyle\lim\limits_{n \to + \infty} a^n=1. \)

Gdy \( a>1, \) to dla dowolnej liczby \( M>0, \) ustalając \( N>log_aM \) dla każdego \( n\ge N, \) mamy

\( a^n \ \ge\ a^N \ \ge\ a^{\log_aM} \ =\ M, \) zatem pokazaliśmy, że

\( \forall M>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ a^n\ge M, \)

co oznacza, że \( \displaystyle\lim\limits_{n \to +\infty} a^n=+\infty. \)

Gdy \( a\le -1, \) to zauważmy, że \( a^{2k}\ge 1 \) oraz \( a^{2k-1}\le -1 \) (dla dowolnego \( k\in\mathbb{N} \)). Zatem ciąg \( \displaystyle\{a^n\} \) nie ma granicy (ani właściwej ani niewłaściwej).

(Ad (7)) Wykorzystamy tu temat 5.7. Podstawiając \( x=\frac{1}{n} \) w nierówności z lematu, mamy

\( \forall n\in\mathbb{N}:\ \bigg|\frac{\sin \frac{1}{n}}{\frac{1}{n}}-1\bigg| \ < \ \frac{1}{n^2}. \) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} \frac{1}{n^2}=0, \) więc korzystając z twierdzenia o dwóch ciągach, mamy

\( \lim\limits_{n \to +\infty} \bigg(\frac{\sin \frac{1}{n}}{\frac{1}{n}}-1\bigg) \ =\ 0, \) a zatem

\( \lim\limits_{n \to +\infty} \frac{\sin \frac{1}{n}}{\frac{1}{n}} \ =\ 1, \) co należało dowieść.

(Ad (8)) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} x_n=0, \) więc od pewnego miejsca wyrazy ciągu \( \displaystyle\{x_n\} \) są w przedziale \( \displaystyle \bigg(\frac{\pi}{2},\frac{\pi}{2}\bigg), \) to znaczy

\( \exists N\in\mathbb{N}:\ x_n\in \bigg(\frac{\pi}{2},\frac{\pi}{2}\bigg)\setminus\{0\}. \)

Z tematu 5.7 wnioskujemy zatem, że

\( \forall n\ge N:\ \bigg|\frac{\sin x_n}{x_n}-1\bigg| \ < \ x_n^2. \)

Ponieważ mamy \( \displaystyle\lim\limits_{n \to +\infty} x_n^2=0, \) więc korzystając z twierdzenia o dwóch ciągach, mamy

\( \lim\limits_{n \to +\infty} \bigg(\frac{\sin x_n}{x_n}-1\bigg) \ =\ 0, \)

a zatem

\( \lim\limits_{n \to +\infty} \frac{\sin x_n}{x_n} \ =\ 1, \)

co należało dowieść.

Granica górna i granica dolna

Granica górna i granica dolna


wykres

Jak już wiemy nie wszystkie ciągi mają granicę. Na przykład ciągi \( a_n=(-1)^n \) i \( b_n=(-1)^nn \) nie mają granic nawet niewłaściwych. Zauważmy jednak, że z tych ciągów można wybrać podciągi, które mają granice (właściwe lub niewłaściwe) (na przykład \( \{a_{2n}\} \) i \( \{b_{2n}\} \)).

Co więcej, z poprzedniego wykładu (patrz wniosek 4.18.) wiemy, że z każdego ciągu liczbowego można wybrać podciąg posiadający granicę (właściwą lub niewłaściwą). Takie \( a\in\overline{\mathbb{R}} \), które są granicami jakichś podciągów danego ciągu będziemy nazywać punktami skupienia wyjściowego ciągu.

Postawmy następującą definicję. Definicja 5.9.

Niech \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) będzie ciągiem.
(1) Mówimy, że \( a\in\overline{\mathbb{R}} \) jest punktem skupienia ciągu \( \displaystyle\{a_n\}, \) jeśli istnieje podciąg \( \displaystyle\{a_{n_k}\} \) taki, że \( \displaystyle\lim\limits_{k \to +\infty} a_{n_k}=a. \)
(2) Granicą dolną ciągu \( \displaystyle\{a_n\} \) nazywamy

\( \liminf\limits_{n \to +\infty} a_n \ =\ \mathop{\underline{\lim}}\limits_{n \to +\infty} a_n \ \stackrel{df}{=}\ \inf S, \)

gdzie \( S\subseteq\overline{\mathbb{R}} \) jest zbiorem punktów skupienia ciągu \( \displaystyle\{a_n\}. \)
(3) Granicą górną ciągu \( \displaystyle\{a_n\} \) nazywamy

\( \limsup\limits_{n \to +\infty} a_n \ =\ \mathop{\overline{\lim}}\limits_{n \to +\infty} a_n \ \stackrel{df}{=}\ \sup S, \)

gdzie \( S\subseteq\overline{\mathbb{R}} \) jest zbiorem punktów skupienia ciągu \( \displaystyle\{a_n\}. \)

wykres

{{przyklad|5.10.||

Obliczyć granicę dolną i górną dla ciągu \( \displaystyle\{a_n\}, \) gdzie \( \displaystyle a_n=(2+(-1)^n)n\sin\frac{1}{n}. \)

Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} n\sin\frac{1}{n}=\frac{\sin\frac{1}{n}}{\frac{1}{n}}=1 \) (patrz twierdzenie 5.8. (7)), \( \displaystyle\lim\limits_{n \to +\infty} a_{2n}=3 \) oraz \( \displaystyle\lim\limits_{n \to +\infty} a_{2n+1}=1, \) zatem jedynymi punktami skupienia ciągu \( \displaystyle\{a_n\} \) są liczby \( 1 \) i \( 3. \) Zatem

\( \mathop{\underline{\lim}}\limits_{n \to +\infty} a_n \ =\ 1, \qquad \mathop{\overline{\lim}}\limits_{n \to +\infty} a_n \ =\ 3. \)

Dla ciągów zbieżnych zarówno granica górna jak i granica dolna są równe granicy. Okazuje się, że jest również na odwrót, to znaczy, jeśli policzymy granicę dolną i granicę górną i okaże się, że są sobie równe, to ten ciąg jest zbieżny. Dokładniej, zachodzi następujące twierdzenie.

Twierdzenie 5.11.

Jeśli \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) jest ciągiem liczbowym, to \( \displaystyle\{a_n\} \) ma granicę \( g\in\overline{\mathbb{R}} \) wtedy i tylko wtedy, gdy \( \displaystyle\liminf\limits_{n \to +\infty} a_n=\limsup\limits_{n \to +\infty} a_n=g. \)

Dowód 5.11. [nadobowiązkowy]

Niech \( \displaystyle\{a_n\}\subseteq\mathbb{R} \) będzie ciągiem liczbowym.
"\( \displaystyle\Longrightarrow \)":
Jeśli \( \displaystyle\lim\limits_{n \to +\infty} a_n=g\in\overline{\mathbb{R}}, \) to dla dowolnego podciągu \( \displaystyle\big\{a_{n_k}\big\} \) ciągu \( \displaystyle\{a_n\} \) także \( \displaystyle\lim\limits_{k \to +\infty} a_{n_k}=g \) (patrz twierdzenie 3.25.). Zatem jedynym punktem skupienia ciągu \( \displaystyle\{a_n\} \) jest \( g \) oraz

\( \mathop{\underline{\lim}}\limits_{n \to +\infty} a_n \ =\ \mathop{\overline{\lim}}\limits_{n \to +\infty} a_n \ =\ g, \) co należało pokazać.
"\( \displaystyle\Longleftarrow \)":
Załóżmy teraz, że \( \displaystyle\mathop{\underline{\lim}}\limits_{n \to +\infty} a_n=\mathop{\overline{\lim}}\limits_{n \to +\infty} a_n=g\in\overline{\mathbb{R}}. \) Oznacza to w szczególności, że \( g \) jest jedynym punktem skupienia ciągu \( \displaystyle\{a_n\}. \)
Przypadek \( 1^o. \) Załóżmy, że \( g\in\mathbb{R}. \)
Należy pokazać, że

\( \forall\varepsilon>0\ \exists N\in\mathbb{N}\ \forall n\ge N:\ a_n\in (g-\varepsilon,g+\varepsilon). \)

Dla dowodu niewprost przypuśćmy, że

\( \exists \varepsilon>0\ \forall N\in\mathbb{N}\ \exists n\ge N:\ a_n\not\in (g-\varepsilon,g+\varepsilon). \)

Możemy wówczas skonstruować podciąg \( \displaystyle\big\{a_{n_k}\big\} \) ciągu \( \displaystyle\{a_n\}, \) którego elementy nie leżą w przedziale \( \displaystyle (g-\varepsilon,g+\varepsilon), \) w następujący sposób:

\( \begin{align*} \exists n_1\ge 1 & & a_{n_1}\not\in (g-\varepsilon,g+\varepsilon), \\ \exists n_2> n_1 & & a_{n_2}\not\in (g-\varepsilon,g+\varepsilon), \\ \exists n_3> n_2 & & a_{n_3}\not\in (g-\varepsilon,g+\varepsilon), \\ \ldots & & \end{align*} \)

Z Wniosku 4.18. wiemy, że z tego ciągu można wybrać podciąg mający granicę \( \displaystyle\overline{g} \) (właściwą lub niewłaściwą). Oczywiście \( \displaystyle\overline{g}\not\in (g-\varepsilon,g+\varepsilon) \), czyli \( \displaystyle\overline{g}\ne g. \) Zatem otrzymaliśmy sprzeczność z faktem, że \( g \) jest jedynym punktem skupienia ciągu \( \displaystyle\{a_n\}. \)

Przypadek \( 2^o \) i \( 3^o. \) Załóżmy, że \( g=+\infty \) lub \( g=-\infty. \)
Dowód w tych dwóch przypadkach jest podobny do dowodu przypadku \( 1^o \) i pozostawiamy go jako ćwiczenie.

Szeregi liczbowe

Szeregi liczbowe


Wykład ten poświęcony jest szeregom liczbowym. Definiujemy pojęcia szeregu, szeregu zbieżnego. Podajemy warunek konieczny i warunek Cauchy'ego zbieżności szeregów. Dowodzimy kryterium porównawczego zbieżności szeregów oraz twierdzenie o grupowaniu wyrazów szeregu. Dowodzimy rozbieżności szeregu harmonicznego.

Definicja 6.1.

Niech \( \displaystyle\{a_n\}\subseteq \mathbb{R} \) będzie ciągiem liczbowym.

(1) Szeregiem o wyrazach \( a_n \) (\( n\in\mathbb{N} \)) nazywamy ciąg \( \displaystyle\{S_k\}_{k\in\mathbb{N}}, \) zwany ciągiem sum częściowych, gdzie \( S_k=\sum_{n=1}^k a_n \) dla \( k\in\mathbb{N}. \)
Szereg oznaczamy przez

\( \displaystyle \sum_{n=1}^{\infty} a_n, \quad \sum a_n\quad\textrm{lub}\quad a_1+a_2+\ldots. \)

(2) Szereg nazywamy zbieżnym, jeśli ciąg sum częściowych jest zbieżny.
Sumą szeregu nazywamy granicę ciągu sum częściowych i oznaczamy tym samym symbolem co szereg, to znaczy \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n=\lim\limits_{k \to +\infty} S_k. \)

(3) Jeśli ciąg sum częściowych jest rozbieżny do \( \displaystyle\pm\infty, \) to mówimy, że szereg jest rozbieżny do \( \displaystyle\pm\infty \) (lub, że ma sumę niewłaściwą \( \displaystyle\pm\infty \)) i piszemy \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n=\pm\infty. \)

(4) Mówimy, że szereg jest bezwzględnie zbieżny, jeśli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}|a_n| \) jest zbieżny.

(5) Mówimy, że szereg jest warunkowo zbieżny, jeśli jest on zbieżny, ale nie bezwzględnie zbieżny.

(6) Mówimy, że szereg jest rozbieżny, jeśli nie jest zbieżny.

Przykład 6.2.

Szeregiem o wyrazach \( a_n=n \) jest \( \displaystyle\displaystyle \sum_{n=1}^{\infty} n. \) Ciąg sum częściowych tego szeregu, to

\( S_k \ =\ 1+2+\ldots+k=\frac{k(k+1)}{2}. \)

Szereg ten jest rozbieżny.

Zachodzi następujący warunek konieczny zbieżności szeregów. Pozwala on w stosunkowo prosty sposób stwierdzić brak zbieżności dla pewnych szeregów (nie spełniających tego warunku).

Twierdzenie 6.3. [Warunek konieczny zbieżności szeregów]

Jeśli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny, to \( \displaystyle\lim\limits_{n \to +\infty} a_n=0. \)

Dowód 6.3.

Niech \( S_n=\displaystyle \sum_{i=0}^n a_i \) będzie ciągiem sum częściowych szeregu. Z założenia wiemy, że

\( \exists S\in\mathbb{R}:\ \lim\limits_{n \to +\infty} S_n=S. \)

Zauważmy, że

\( \forall n\in\mathbb{N}: a_n=S_n-S_{n-1}, \) zatem

\( \lim\limits_{n \to +\infty} a_n \ =\ \lim\limits_{n \to +\infty} (S_n-S_{n+1}) \ =\ \lim\limits_{n \to +\infty} S_n- \lim\limits_{n \to +\infty} S_{n-1} \ =\ S-S \ =\ 0. \)

Przykład 6.4.

Zbadać zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} \frac{n}{2}\sin\frac{1}{n}. \)
Licząc granicę wyrazów tego szeregu dostajemy

\( \lim\limits_{n \to +\infty} a_n \ =\ \lim\limits_{n \to +\infty} \frac{n}{2}\sin\frac{1}{n} \ =\ \frac{1}{2}\lim\limits_{n \to +\infty} \frac{\sin\frac{1}{n}}{\frac{1}{n}} \ =\ \frac{1}{2} \ \ne\ 0, \)

zatem nie jest spełniony warunek konieczny zbieżności szeregów (porównaj twierdzenie 6.3.). Szereg jest rozbieżny.

Przykład 6.5.

Z szeregiem geometrycznym \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a q^n \) spotkaliśmy się już na wykładzie 1 (patrz Przykład przykład 1.12.). Przypomnijmy, że jeśli \( a\ne 0, \) to jest on zbieżny wtedy i tylko wtedy, gdy \( |q| < 1 \) i wówczas

\( \displaystyle \sum_{n=1}^{\infty} a q^n \ =\ \frac{a}{1-q}. \)

Najprostszymi działaniami jakie możemy wykonać na szeregach są dodawanie/odejmowanie szeregów i mnożenie szeregu przez liczbę. Kolejne twierdzenie mówi, iż operacje te "zachowują" zbieżność. Dowód (oparty na twierdzeniu o arytmetyce granic ciągów) pozostawiamy jako proste ćwiczenie.

Twierdzenie 6.6. [Działania na szeregach]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) i \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) są dwoma szeregami zbieżnymi oraz \( \displaystyle\lambda\in\mathbb{R}, \) to

(1) szeregi \( \displaystyle\displaystyle \sum_{n=1}^{\infty} (a_n\pm b_n) \) są zbieżne oraz

\( \displaystyle \sum_{n=1}^{\infty} (a_n\pm b_n) \ =\ \displaystyle \sum_{n=1}^{\infty} a_n \ +\ \displaystyle \sum_{n=1}^{\infty} b_n; \)

(2) szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} \lambda a_n \) jest zbieżny oraz

\( \displaystyle \sum_{n=1}^{\infty} \lambda a_n \ =\ \lambda\cdot\displaystyle \sum_{n=1}^{\infty} a_n. \)

Ponieważ szereg jest ciągiem (zwanym ciągiem sum częściowych) więc wszystkie twierdzenia dotyczące ciągów można przenieść na pojęcie szeregu. W szczególności dla ciągu sum częściowych \( \{S_n\} \) szeregu \( \displaystyle \sum_{n=1}^{\infty} a_n \) prawdziwe jest twierdzenie, że ciąg ten jest zbieżny wtedy i tylko wtedy, gdy spełnia warunek Cauchy'ego. Mówi o tym poniższe twierdzenie.

Twierdzenie 6.7. [Warunek Cauchy'ego zbieżności szeregów]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem, to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny wtedy i tylko wtedy, gdy

\( \forall \varepsilon>0\ \ \exists N\in\mathbb{N}\ \ \forall m>n\ge N:\ \ \ \big|a_{n+1}+\ldots a_m\big| < \varepsilon. \)

Powyższy warunek nazywamy warunkiem Cauchy'ego dla szeregów.

Zauważmy, że

\( \big|a_{n+1}+\ldots a_m\big| \ =\ |S_m-S_n|, \)

czyli warunek w powyższej definicji jest dokładnie warunkiem Cauchy'ego dla ciągów.

Kolejne twierdzenie będziemy często wykorzystywać przy sprawdzaniu czy dany szereg jest zbieżny.

Twierdzenie 6.8. [Zbieżność a bezwzględna zbieżność]

Jeśli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest bezwzględnie zbieżny, to jest on zbieżny.

Dowód 6.8.

Mamy pokazać zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n. \) Ustalmy dowolne \( \displaystyle\varepsilon>0. \) Ponieważ szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} |a_n| \) jest zbieżny, więc spełnia warunek Cauchy'ego dla szeregów (patrz twierdzenie 6.7.), zatem

\( \exists N\in \mathbb{N}\ \forall m>n\ge N:\ |a_{n+1}|+\ldots+|a_m| < \varepsilon. \) Zatem dla dowolnych \( m>n\ge N, \) mamy

\( |a_{n+1}+\ldots+a_m| \ \le\ |a_{n+1}|+\ldots+|a_m| < \varepsilon, \)

czyli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) spełnia warunek Cauchy'ego dla szeregów. Korzystając ponownie z twierdzenie 6.7. otrzymujemy, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.

Oprócz warunku koniecznego zbieżności szeregów (pomocnego przy rozstrzyganiu zbieżności szeregów) można podać wiele warunków wystarczających zbieżności szeregów. Warunki te nazywamy kryteriami. Podstawowym kryterium w teorii szeregów jest poniższe kryterium porównawcze. Mówi ono, że jeśli wyrazy szeregu szacują się przez wyrazy innego szeregu zbieżnego (przynajmniej "od pewnego miejsca"), to wyjściowy szereg też jest zbieżny.

Twierdzenie 6.9. [Kryterium porównawcze zbieżności szeregów]

Jeśli \( \displaystyle \sum_{n=1}^{\infty} a_n,\displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) są szeregami takimi, że \( \displaystyle _n\ge 0,b_n\ge 0 \) dla \( n\in \mathbb{N} \) oraz

\( \displaystyle\exists N\in\mathbb{N}\ \ \forall n\ge N:\ \ a_n\le b_n, \)

to
(1) jeśli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) jest zbieżny, to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny;

(2) jeśli szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest rozbieżny, to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) jest rozbieżny.

Dowód 6.9.

(Ad (1)) Oznaczmy sumy częściowe obu szeregów odpowiednio przez:

\( \displaystyle A_n=\sum_{k=1}^n a_n,\quad B_n=\sum_{k=1}^n b_n. \)

Ciągi \( \displaystyle\{A_n\} \) i \( \displaystyle\{B_n\} \) są rosnące (gdyż szeregi mają wyrazy nieujemne). Ciąg \( \displaystyle\{B_n\} \) jako zbieżny jest ograniczony, to znaczy

\( \displaystyle\exists B\in\mathbb{R}\ \forall n\in\mathbb{N}: |B_n|\le B. \)

Dla \( n\ge N, \) mamy zatem

\( \displaystyle\begin{align*} A_n & = & a_1+\ldots+a_N+a_{N+1}+\ldots+a_n \ \le\ a_1+\ldots a_N+b_{N+1}+\ldots+b_n \\ & = & a_1+\ldots a_N+B_n-(b_1+\ldots+b_N) \ \le\ a_1+\ldots a_N-(b_1+\ldots+b_N) +B, \end{align*} \)

zatem ciąg \( \displaystyle\{A_n\} \) jest ograniczony. Z twierdzenia 4.15. (1) wnioskujemy, że jest on zbieżny. Zatem szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.
(Ad (2)) Jest to równoważne (1).

Kolejne twierdzenie mówi o szeregu, w którym pogrupowano pewne wyrazy, to znaczy policzono sumy kolejnych wyrazów pogrupowanych w skończone grupy, to znaczy

\( (a_1+\ldots+a_{l_2-1}) +(a_{l_2}+\ldots+a_{l_3-1}) +(a_{l_3}+\ldots+a_{l_4-1}) +\ldots. \)

Twierdzenie 6.10. [O grupowaniu wyrazów szeregu]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem zbieżnym, \( \displaystyle\{l_n\}\subseteq \mathbb{N} \) jest ciągiem silnie rosnącym takim, że \( l_1=1 \), to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\big(a_{l_n}+a_{l_n+1}+\ldots+a_{l_{n+1}-1}\big) \) jest zbieżny oraz

\( \displaystyle \sum_{n=1}^{\infty}\big(a_{l_n}+a_{l_n+1}+\ldots+a_{l_{n+1}-1}\big) \ =\ \displaystyle \sum_{n=1}^{\infty} a_n. \)

Dowód 6.10.

Zauważmy, że ciąg sum częściowych szeregu pogrupowanego jest podciągiem ciągu sum częściowych wyjściowego szeregu. Wystarczy zatem zastosować twierdzenie 3.25. Szczegóły pozostawiamy jako proste ćwiczenie.

Wniosek 6.11.

Jako konsekwencję powyższego twierdzenia dostajemy stwierdzenie, że "jeśli po pogrupowaniu wyrazów szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) otrzymamy szereg rozbieżny, to wyjściowy szereg też był rozbieżny".

Uwaga 6.12.

Twierdzenie odwrotne do twierdzenia 6.10. nie jest prawdziwe.

Aby to sprawdzić rozważmy następujący szereg naprzemienny

\( \displaystyle \sum_{n=1}^{\infty} (-1)^n. \)

Oczywiście jest to szereg rozbieżny, gdyż nie spełnia warunku koniecznego zbieżności szeregów. Pogrupujmy wyrazy tego szeregu "po dwa", to znaczy

\( \underbrace{(1-1)}_{=0} +\underbrace{(1-1)}_{=0} +\underbrace{(1-1)}_{=0} +\ldots \)

W ten sposób szereg pogrupowany jest szeregiem zerowym \( \displaystyle\displaystyle \sum_{n=1}^{\infty} 0. \) Jest on oczywiście zbieżny (do zera). Zatem ze zbieżności szeregu pogrupowanego nie można nic wnioskować o zbieżności wyjściowego szeregu.

Uwaga 6.13.

W pewnych jednak sytuacjach ze zbieżności szeregu pogrupowanego można wnioskować o zbieżności szeregu wyjściowego. Jest tak na przykład w przypadku szeregów o wyrazach nieujemnych. Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem o wyrazach nieujemnych, to zbieżność tego szeregu jest równoważna zbieżności szeregu pogrupowanego. Załóżmy bowiem, że szereg pogrupowany jest zbieżny. Wówczas jego ciąg sum częściowych jest ograniczony, powiedzmy przez \( M>0. \) Ale wtedy ciąg sum częściowych całego szeregu jest też ograniczony przez \( M \) (dlaczego?). Ponieważ ponadto ciąg sum częściowych szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest rosnący (bo wyrazy \( a_n \) są nieujemne), zatem jest on zbieżny. Szczegółowe rozpisanie tego rozumowania pozostawiamy jako ćwiczenie.

Na zakończenie podamy ważny przykład szeregu liczbowego, zwanego szeregiem harmonicznym oraz pewne jego uogólnienie. Szereg ten będzie miał istotne zastosowanie w badaniu zbieżności innych szeregów dzięki kryterium porównawczemu.

Przykład 6.14.

Szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\frac{1}{n} \) jest rozbieżny. Nazywamy go szeregiem harmonicznym.

Dowód przykładu 6.14.

Aby stwierdzić rozbieżność szeregu harmonicznego, pogrupujmy jego wyrazy w następujący sposób:

\( \underbrace{1}_{=p_0\ge 1} +\underbrace{\frac{1}{2}}_{=p_1\ge \frac{1}{2}} +\underbrace{\bigg(\frac{1}{3}+\frac{1}{4}\bigg)}_{=p_2\ge 2\cdot\frac{1}{4}} +\underbrace{\bigg(\frac{1}{5}+\frac{1}{6}+\frac{1}{7}+\frac{1}{8}\bigg)}_{=p_3\ge 4\cdot\frac{1}{8}} +\underbrace{\bigg(\frac{1}{9}+\ldots+\frac{1}{16}\bigg)}_{=p_4\ge 8\cdot\frac{1}{16}} +\ldots \)

Każda kolejna grup począwszy od drugiej ma dwa razy więcej składników od poprzedniej oraz wyrazy w każdej grupie szacują się od dołu przez ostatni składnik postaci \( \displaystyle\frac{1}{2^k}, \) gdzie \( k \) jest numerem "grupy". Jeśli szereg który otrzymamy po pogrupowaniu wyrazów oznaczymy \( \displaystyle\displaystyle \sum_{k=1}^{\infty} p_k, \) to zachodzi następujące oszacowanie na jego wyrazy:

\( \forall k\in\mathbb{N}:\ p_k\ge \frac{1}{2} \)

(patrz powyższy opis). Zatem szereg \( \displaystyle\displaystyle \sum_{k=1}^{\infty} p_k \) nie spełnia warunku koniecznego zbieżności szeregów, a więc jest rozbieżny. Z kryterium porównawczego zbieżności szeregów (patrz twierdzenie 6.9.) wynika, że szereg pogrupowany jest także rozbieżny. Z wniosku 6.11. wynika, że wyjściowy szereg harmoniczny jest rozbieżny.

Przykład 6.15.

Szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\frac{1}{n^{\alpha}} \) jest zbieżny wtedy i tylko wtedy, gdy \( \displaystyle\alpha>1. \) Nazywamy go uogólnionym szeregiem harmonicznym z wykładnikiem \( \displaystyle\alpha. \)

Jeśli \( \displaystyle\alpha\le 1 \) to zauważmy, że

\( \forall n\in\mathbb{N}: \frac{1}{n^{\alpha}}\ge\frac{1}{n}, \)

zatem korzystając z kryterium porównawczego (patrz twierdzenie 6.9.) oraz udowodnionej już rozbieżności szeregu harmonicznego dostajemy, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\frac{1}{n^{\alpha}} \) jest rozbieżny.
Załóżmy teraz, że \( \displaystyle\alpha>1. \) Zapiszmy \( \displaystyle\alpha=1+\beta \) z pewnym \( \displaystyle\beta>0. \) Zauważmy, że

\( \forall n\in\mathbb{N}: \frac{1}{n^{\alpha}} +\frac{1}{(n+1)^{\alpha}} +\ldots+ \frac{1}{(2n-1)^{\alpha}} \ \le\ \frac{n}{n^{\alpha}} \ =\ \frac{1}{n^{\beta}}. \)

Pogrupujmy wyrazy szeregu podobnie jak w części pierwszej dowodu oraz skorzystajmy z oszacowania powyżej:

\( \underbrace{1^{\alpha}}_{=p_0\le 1} +\underbrace{\frac{1}{2^{\alpha}}}_{=p_1\le \frac{1}{2^{\beta}}} +\underbrace{\bigg(\frac{1}{3^{\alpha}}+\frac{1}{4^{\alpha}}\bigg)}_{=p_2\le\frac{1}{4^{\beta}}} +\underbrace{\bigg(\frac{1}{5^{\alpha}}+\frac{1}{6^{\alpha}} +\frac{1}{7^{\alpha}}+\frac{1}{8^{\alpha}}\bigg)}_{=p_3\le\frac{1}{8^{\beta}}} +\underbrace{\bigg(\frac{1}{9^{\alpha}}+\ldots+\frac{1}{16^{\alpha}}\bigg)}_{=p_4\le\frac{1}{16^{\beta}}} +\ldots \)

Jeśli szereg, który otrzymamy po pogrupowaniu wyrazów oznaczymy \( \displaystyle\displaystyle \sum_{k=1}^{\infty} p_k, \) to zachodzi następujące oszacowanie na jego wyrazy:

\( \forall k\in\mathbb{N}:\ p_k\le \frac{1}{(2^{\beta})^k} \)

Ale szereg o wyrazach \( \displaystyle\displaystyle \sum_{k=1}^{\infty}\frac{1}{(2^{\beta})^k} \) jest szeregiem geometrycznym zbieżnym (jego suma wynosi \( \displaystyle\frac{1}{1-\frac{1}{2^{\beta}}} \)). Zatem z kryterium porównawczego (patrz twierdzenie 6.9.) wynika, że także szereg pogrupowany \( \displaystyle\displaystyle \sum_{k=1}^{\infty} p_k \) jest zbieżny. Ponieważ w naszej sytuacji mamy do czynienia z szeregiem o wyrazach dodatnich, więc ze zbieżności szeregu pogrupowanego możemy wnioskować o zbieżności szeregu wyjściowego (patrz uwaga 6.13.).

Szeregi liczbowe. Kryteria zbieżności

Szeregi liczbowe. Kryteria zbieżności


Niniejszy wykład jest kontynuacją poprzedniego wykładu dotyczącego szeregów liczbowych. Poznajemy tu dalsze kryteria zbieżności szeregów: d'Alemberta, Cauchy'ego, Leibniza, Dirichleta oraz asymptotyczne. Na zakończenie pokazujemy, że liczna \( e \) jest sumą pewnego szeregu.
Na poprzednim wykładzie zostało wprowadzone pojęcie szeregu (patrz definicja 6.1.). Podany został warunek konieczny zbieżności szeregów (patrz twierdzenie 6.3.) oraz kryterium porównawcze zbieżności szeregów (patrz twierdzenie 6.9.). Poniżej podane zostaną inne ważne kryteria (czyli warunki wystarczające) zbieżności szeregów.
Kryteria zbieżności szeregów pozwalają, badając zachowanie się wyrazów \( a_n \) szeregu \( \displaystyle \sum_{n=1}^{\infty} a_n \), wnioskować o zbieżności (lub rozbieżności) ciągu sum częściowych \( \{S_n\} \) (czyli zbieżności szeregu).

Szeregi o wyrazach nieujemnych

Szeregi o wyrazach nieujemnych


Twierdzenie 7.1. [Kryterium d'Alemberta zbieżności szeregów]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem o wyrazach dodatnich (to znaczy \( a_n>0 \) dla \( n\in\mathbb{N} \)), to

(1) \( \displaystyle\displaystyle \bigg[\exists p < 1\ \exists N\in\mathbb{N}\ \ \forall n\ge N:\ \ \frac{a_{n+1}}{a_n}\le p\bigg] \ \ \Longrightarrow\ \ \bigg[ \)szereg \( \displaystyle \sum_{n=1}^{\infty} a_n\ \)  jest zbieżny \( \bigg]; \)

(2) \( \displaystyle\displaystyle \bigg[\exists N\in\mathbb{N}\ \ \forall n\ge N:\ \ \frac{a_{n+1}}{a_n}\ge 1\bigg] \ \ \Longrightarrow\ \ \bigg[ \)szereg \( \displaystyle \sum_{n=1}^{\infty} a_n\ \)  jest rozbieżny \( \bigg]. \)

Dowód 7.1.

(Ad (1)) Warunek \( \displaystyle\frac{a_{n+1}}{a_n}\le p < 1 \) dla \( n\ge N \) oznacza, że

\( \forall n\ge N:\ a_{n+1}\le p\cdot a_n. \)

Zatem dla \( n\ge N, \) mamy

\( a_n \ \le\ pa_{n-1} \ \le\ p^2 a_{n-2} \ \le\ \ \ldots\ \le\ p^{n-N}a_N \ =\ p^n\frac{a_N}{p^N}. \)

Oznaczając \( \displaystyle M=\frac{a_N}{p^N}, \) mamy

\( \forall n\ge N:\ a_n\le Mp^n, \)

zatem wyrazy szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) są oszacowane (od pewnego miejsca) przez wyrazy szeregu geometrycznego \( \displaystyle\displaystyle \sum_{n=1}^{\infty} Mp^n, \) który jest zbieżny

(gdyż \( p\in(0,1) \)). Korzystając z kryterium porównawczego (patrz twierdzenie 6.9.) wnioskujemy, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.

(Ad (2)) Z założenia wiemy, że istnieje \( N\in\mathbb{N} \) takie, że

\( \forall n\ge N:\ \frac{a_{n+1}}{a_n} \ \ge\ 1. \)

Wówczas dla dowolnego \( n\ge N \) mamy

\( a_{n+1} \ \ge\ a_n \ \ge\ a_{n-1} \ \ge\ \ldots \ \ge\ a_N, \)

czyli

\( \forall n\ge N:\ a_n \ \ge\ a_N \ >\ 0. \)

Zatem oczywiście \( a_n\not\longrightarrow 0 \) i stąd szereg \( \displaystyle \displaystyle \sum_{n=1}^{\infty} a_n \) nie spełnia warunku koniecznego zbieżności szeregów (patrz twierdzenie 6.3.), czyli jest rozbieżny.

Z powyższego kryterium można wywnioskować jego wersję słabszą, ale częściej używaną w zastosowaniach. Mówi ona, że dla szeregów o wyrazach dodatnich, jeśli granica ciągu ilorazów kolejnych wyrazów szeregu istnieje i jest różna od jeden, to potrafimy rozstrzygnąć, czy szereg jest zbieżny. Dowód tego wniosku oparty na twierdzeniu 7.1. pozostawiamy jako proste (choć nadobowiązkowe) ćwiczenie.

Wniosek 7.2. [Kryterium d'Alemberta zbieżności szeregów]

Przy powyższych założeniach:

(1) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}\ =\ r\ < \ 1, \) to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.

(2) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}\ =\ s\ >\ 1, \) to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest rozbieżny.

(3) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}\ =\ 1, \) to kryterium d'Alemberta nie rozstrzyga, czy szereg jest zbieżny.

Przykład 7.3.

Zbadać zbieżność szeregów:

(1) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \frac{n^2+2n}{3^n} \)

(2) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \frac{n!}{2^n} \)

(3) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \frac{n^3}{n+1} \)

(4) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \frac{n+1}{n^3} \)

Kolejne kryterium zbieżności szeregów bada zachowanie się ciągu \( n \)-tych pierwiastków z kolejnych wyrazów \( a_n. \)

Twierdzenie 7.4. [Kryterium Cauchy'ego zbieżności szeregów]

Jeśli

\( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem o wyrazach nieujemnych (to znaczy \( a_n\ge 0 \) dla \( n\in\mathbb{N} \)), to

(1) \( \displaystyle\displaystyle \bigg[\exists p < 1\ \exists N\in\mathbb{N}\ \ \forall n\ge N:\ \ \sqrt[n]{a_n}\le p\bigg] \ \ \Longrightarrow\ \ \bigg[ \)szereg \( \displaystyle \sum_{n=1}^{\infty} a_n\ \)  jest zbieżny \( \bigg]; \)

(2) \( \displaystyle \displaystyle \bigg[\sqrt[n]{a_n}\ge 1\ \)  dla nieskończenie wielu  \( n\in\mathbb{N}\bigg] \ \ \Longrightarrow\ \ \bigg[ \)szereg \( \displaystyle \sum_{n=1}^{\infty} a_n\ \)  jest rozbieżny \( \bigg]. \)

Dowód 7.4.

(Ad (1)) Załóżmy, że \( \displaystyle \sqrt[n]{a_n}\le p < 1 \) dla \( n\ge N, \) czyli

( \forall n\ge N:\ a_n\le p^n. \)

Zatem wyrazy szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) są oszacowane (od pewnego miejsca) przez wyrazy szeregu geometrycznego \( \displaystyle\displaystyle \sum_{n=1}^{\infty} p^n, \) który jest zbieżny (bo \( p\in(0,1) \)). Zatem z kryterium porównawczego (patrz twierdzenie 6.9.), wynika, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.

(Ad (2)) Jeśli \( \displaystyle \sqrt[n]{a_n}\ge 1 \) dla nieskończenie wielu \( n\in\mathbb{N}, \) to także

\( a_n\ge 1 \quad \) dla nieskończenie wielu \( n\in\mathbb{N}, \)

zatem \( a_n\not\longrightarrow 0, \) czyli nie jest spełniony warunek konieczny zbieżności szeregów.

Podobnie jak w przypadku kryterium d'Alemberta, tak i w przypadku kryterium Cauchy'ego podamy słabszą, ale bardziej praktyczną wersję tego kryterium. Mówi ona, że istnienie granicy pierwiastków \( n \)-tego stopnia z kolejnych wyrazów szeregu różnej od \( 1, \) rozstrzyga o zbieżności tego szeregu.

Wniosek 7.5. [Kryterium Cauchy'ego zbieżności szeregów]

Przy powyższych założeniach:

(1) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{a_n}\ =\ r\ < \ 1, \) to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny.

(2) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{a_n}\ =\ s\ >\ 1, \) to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest rozbieżny.

(3) Jeśli \( \displaystyle\lim\limits_{n \to +\infty}\sqrt[n]{a_n}\ =\ 1, \) to kryterium Cauchy'ego nie rozstrzyga, czy szereg jest zbieżny.

Przykład 7.6.

Zbadać zbieżność szeregów:
(1) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \bigg(\frac{n-1}{n}\bigg)^{n^2}, \)

(2) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \bigg(\frac{n+1}{n}\bigg)^{n^2}, \)

(3) \( \displaystyle \displaystyle \sum_{n=1}^{\infty} \frac{1}{\sqrt{n}}, \)

Rozwiązanie

Zatem kryterium Cauchy'ego nie rozstrzyga o zbieżności tego szeregu. Widzimy jednak, że szereg ten jest uogólnionym szeregiem harmonicznym z wykładnikiem \( \displaystyle \alpha=\frac{1}{2} < 1 \) (patrz przykład 6.15.), zatem jest szeregiem rozbieżnym.

Zachodzi pewien związek między kryteriami Cauchy'ego i d'Alemberta. Będzie on wynikał z następującego lematu (który pozostawiamy tu bez dowodu).

Lemat 7.7.

Jeśli \( \displaystyle \{a_n\}\subseteq \mathbb{R} \) jest ciągiem o wyrazach dodatnich, to

\( \liminf\limits_{n \to +\infty}\frac{a_{n+1}}{a_n} \ \le\ \liminf\limits_{n \to +\infty} \sqrt[n]{a_n} \ \le\ \limsup\limits_{n \to +\infty} \sqrt[n]{a_n} \ \le\ \limsup\limits_{n \to +\infty}\frac{a_{n+1}}{a_n}. \)

wykres

Wykres ciągu \( 1, \frac{3}{2}, \frac{1}{4}, \frac{3}{4}, \frac{1}{8}, \frac{3}{8}, \frac{1}{16}, \frac{3}{16}, \ldots \)

Wniosek 7.8.

(1) Kryterium Cauchy'ego jest silniejsze od kryterium d'Alemberta, to znaczy, jeśli kryterium d'Alemberta rozstrzyga o zbieżności szeregu, to kryterium Cauchy'ego także rozstrzyga. Jeszcze inaczej można powiedzieć, że klasa szeregów do której stosuje się kryterium Cauchy'ego, zawiera w sobie klasę szeregów, do których stosuje się kryterium d'Alemberta. Prosty dowód oparty na powyższym lemacie pozostawiamy jako ćwiczenie.

(2) Klasa szeregów, dla których stosuje się kryterium Cauchy'ego, jest istotnie większa od klasy szeregów, dla których stosuje się kryterium d'Alemberta. Aby to zobaczyć, rozważmy szereg

\( 1 +\frac{3}{2} +\frac{1}{2^2} +\frac{3}{2^2} +\ldots+ \frac{1}{2^{2n}} +\frac{3}{2^{2n+1}} +\ldots \)

Ponieważ

\( \frac{a_{n+1}}{a_n} \ =\left \{ \begin{array} {lll} \displaystyle \frac{3}{2}>1 & \textrm{gdy} & n=2k-1, \\ \\ \displaystyle \frac{2}{3} < 1 & \textrm{gdy} & n=2k, \end{array} \right .\)

zatem kryterium d'Alemberta nie rozstrzyga, czy ten szereg jest zbieżny.

Z kolei

\( \lim\limits_{n \to +\infty} \sqrt[n]{a_n} \ =\ \frac{1}{2} \ < \ 1, \)

zatem z kryterium Cauchy'ego wnioskujemy, że szereg jest zbieżny.

Lemat 7.7. można wykorzystać do obliczania granic pewnych ciągów.

Przykład 7.9.

Obliczyć granicę ciągu \( \displaystyle\lim\limits_{n \to +\infty}\frac{\sqrt[n]{(2n)!!}}{n}, \) gdzie \( \displaystyle (2n)!!\stackrel{df}{=} 2\cdot 4\cdot\ldots\cdot (2n-2)\cdot(2n). \)

Kolejne kryterium, zwane kryterium asymptotycznym (ilorazowym lub limesowym), jest odmianą kryterium porównawczego i mówi, że jeśli granica ciągu ilorazów wyrazów dwóch szeregów istnieje i jest liczbą dodatnią, to oba szeregi są jednocześnie zbieżne lub jednocześnie rozbieżne.

Twierdzenie 7.10. [Kryterium asymptotyczne (ilorazowe, limesowe) zbieżności szeregów]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) i \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) są szeregami; \( \displaystyle \forall n\in\mathbb{N}:\ \ a_n\ge 0,\ b_n>0 \) oraz \( \displaystyle\lim\limits_{n \to +\infty} \frac{a_n}{b_n}=g\in (0,+\infty), \) to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest zbieżny wtedy i tylko wtedy, gdy szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) jest zbieżny.

Dowód 7.10.

Ustalmy dowolne \( \displaystyle\varepsilon>0. \) Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} \frac{a_n}{b_n}=g\in (0,+\infty), \) więc z definicji granicy

\( \exists N\in\mathbb{N}\ \forall n\ge N: \bigg|\frac{a_n}{b_n}-g\bigg| < \frac{g}{2}, \)

czyli

\( \forall n\ge N:\ \frac{1}{2}gb_n \ \le\ a_n \ \le\ \frac{3}{2}gb_n \)

Stosując kryterium porównawcze (patrz twierdzenie 6.9.), z pierwszej nierówności powyżej, wnioskujemy, że zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) implikuje zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n, \) a z drugiej nierówności powyżej wnioskujemy, że zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} b_n \) implikuje zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n. \)

Przykład 7.11.

Zbadać zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\sin\frac{1}{n}. \)

Szeregi o wyrazach znakozmiennych

Szeregi o wyrazach znakozmiennych


W tym rozdziale podamy dwa kryteria dotyczące szeregów, których wyrazy zmieniają znak.

Twierdzenie 7.12. [Kryterium Dirichleta zbieżności szeregów]

Jeśli \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n \) jest szeregiem, którego ciąg sum częściowych jest ograniczony, \( \displaystyle \{\lambda_n\}\subseteq \mathbb{R} \) jest ciągiem malejącym (słabo) oraz zbieżnym do zera (to znaczy \( \displaystyle\lambda_n\searrow 0 \)), to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\lambda_n a_n \) jest zbieżny.

Dowód 7.12.

Oznaczmy przez \( \displaystyle\{S_n\} \) ciąg sum częściowych szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty} a_n, \) to znaczy

\( S_n \ =\ \sum_{i=1}^{\infty} a_i. \)

Z założenia wiemy, że ciąg \( \displaystyle\{S_n\} \) jest ograniczony, to znaczy

\( \exists M>0\ \forall n\in\mathbb{N}:\ |S_n|\le M. \)

Ustalmy dowolne \( \displaystyle\varepsilon>0. \) Ponieważ \( \displaystyle\lambda_n\searrow 0, \) więc

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ \lambda_{n+1} < \frac{\varepsilon}{2M} \)

Dla \( m>n\ge N, \) mamy

\( \begin{array}{ll} & \lambda_{n+1}a_{n+1} +\ldots+ \lambda_{m}a_{m} \\ = & \lambda_{n+1}(S_{n+1}-S_n) +\lambda_{n+2}(S_{n+2}-S_{n+1}) +\ldots +\lambda_{m-1}(S_{m-1}-S_{m-2}) +\lambda_m(S_m-S_{m-1}) \\ = & -\lambda_{n+1}S_n +(\lambda_{n+1}-\lambda_{n+2})S_{n+1} +\ldots +(\lambda_{m-1}-\lambda_m)S_{m-1} +\lambda_mS_m. \end{array} \)

Zatem

\( \begin{array}{ll} & \big|\lambda_{n+1}a_{n+1} +\ldots+ \lambda_{m}a_{m}\big| \\ \le & \lambda_{n+1}|S_n| +(\lambda_{n+1}-\lambda_{n+2})|S_{n+1}| +\ldots +(\lambda_{m-1}-\lambda_m)|S_{m-1}| +\lambda_m|S_m| \\ \le & M \big[ \lambda_{n+1} +(\lambda_{n+1}-\lambda_{n+2}) +(\lambda_{n+2}-\lambda_{n+3}) +\ldots +(\lambda_{m-1}-\lambda_m) +\lambda_m \big] \\ = & 2\lambda_{n+1}M \ < \ 2M\frac{\varepsilon}{2M} \ =\ \varepsilon. \end{array} \)

Zatem pokazaliśmy, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\lambda_na_n \) spełnia warunek Cauchy'ego, a zatem jest zbieżny (patrz twierdzenie 6.7.).

Szczególną wersją powyższego kryterium jest następujące kryterium Leibniza dotyczące szeregów naprzemiennych.

rycina

Wniosek 7.13. [Kryterium Leibniza zbieżności szeregów]

Jeśli \( \displaystyle \{\lambda_n\}\subseteq \mathbb{R} \) jest ciągiem malejącym (słabo) oraz zbieżnym do zera (to znaczy \( \displaystyle\lambda_n\searrow 0 \)), to szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty} (-1)^n\lambda_n \) jest zbieżny.

Dowód 7.13.

Wystarczy przyjąć \( \displaystyle a_n=(-1)^n. \) Ponieważ ciąg sum częściowych szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty}(-1)^n \) jest postaci

\( -1,\ 0,\ -1,\ 0,\ \ldots, \)

a więc jest ograniczony, zatem możemy zastosować kryterium Dirichleta i wywnioskować, że szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}(-1)^na_n \) jest zbieżny.

Przykład 7.14.

Następujący szereg zwany szeregiem anharmonicznym:

\( \displaystyle \sum_{n=1}^{\infty} \frac{(-1)^n}{n} \ =\ 1-\frac{1}{2}+\frac{1}{3}-\frac{1}{4}+\ldots \)

jest zbieżny. Jest to natychmiastowa konsekwencja kryterium Leibniza.

Założenie, że zbieżność ciągu \( \displaystyle\{\lambda_n\} \) do zera jest monotoniczna (w kryteriach Dirichleta i Leibniza) jest istotne. Pokazuje to poniższy przykład.

Przykład 7.15.

Zbadać zbieżność szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty}(-1)^n\frac{2-(-1)^n}{n}. \)

Rozwiązanie

Pokażemy, że szereg jest rozbieżny. Dla dowodu niewprost przypuśćmy, że szereg jest zbieżny. Weźmy szereg \( \displaystyle\displaystyle \sum_{n=1}^{\infty}(-1)^{n+1}\frac{2}{n}. \) Jest on zbieżny (z kryterium Leibniza; patrz wniosek 7.13.). Zatem suma obu szeregów jest szeregiem zbieżnym. Ale suma ta wynosi

\( \displaystyle \sum_{n=1}^{\infty} (-1)^n\frac{2-(-1)^n}{n} +\displaystyle \sum_{n=1}^{\infty} (-1)^{n+1}\frac{2}{n} \ =\ -\displaystyle \sum_{n=1}^{\infty} (-1)^n\frac{(-1)^n}{n} \ =\ -\displaystyle \sum_{n=1}^{\infty} \frac{1}{n} \)

i jest szeregiem rozbieżnym

(gdyż jest to szereg harmoniczny), sprzeczność.

Zauważmy, że chociaż \( \displaystyle\lambda_n=\frac{2-(-1)^n}{n}\longrightarrow 0, \) to jednak zbieżność ta nie jest monotoniczna. Zatem nie mogliśmy tu stosować kryterium Leibniza.

Liczba e

Liczba e


Przypomnijmy, że liczba \( e \) była zdefiniowana jako granica pewnego ciągu (patrz twierdzenie 5.1.). Okazuje się, że liczbę tę można także otrzymać jako sumę pewnego szeregu liczbowego. Dzięki tej własności będziemy także mogli wykazać niewymierność liczby \( e. \)

Twierdzenie 7.16. [O liczbie \( e \)]

(1) Szereg \( \displaystyle\displaystyle \sum_{k=0}^{\infty}\frac{1}{k!} \) jest zbieżny oraz \( \displaystyle\displaystyle \sum_{k=0}^{\infty}\frac{1}{k!}=e \);

(2) \( \displaystyle e\in\mathbb{R}\setminus\mathbb{Q}. \)

Dowód 7.16.

(Ad (1)) Przypomnijmy, że

\( e \ =\ \lim\limits_{n \to +\infty}\bigg(1+\frac{1}{n}\bigg)^n. \)

Niech

\( s_n \ \stackrel{df}{=}\ \displaystyle \sum_{k=0}^n\frac{1}{k!},\quad t_n\ \stackrel{df}{=}\ \bigg(1+\frac{1}{n}\bigg)^n, \)

to znaczy \( \displaystyle\{s_n\} \) jest ciągiem sum częściowych szeregu \( \displaystyle\displaystyle \sum_{n=1}^{\infty}\frac{1}{n!}. \) Ze wzoru dwumianowego Newtona (patrz twierdzenie 1.40.), dla dowolnego \( n\in\mathbb{N} \) dostajemy

\( \begin{array}{lll} t_n & = & \bigg(1+\frac{1}{n}\bigg)^n = \displaystyle \sum_{k=0}^n {n \choose k}\bigg(\frac{1}{n}\bigg)^k = \displaystyle \sum_{k=0}^n\frac{1}{k!} \frac{n(n-1)\cdot\ldots\cdot(n-k+1)}{n^k} \\ & = & \displaystyle \sum_{k=0}^n\frac{1}{k!} \bigg(1-\frac{1}{n}\bigg) \bigg(1-\frac{2}{n}\bigg) \cdot\ldots\cdot \bigg(1-\frac{k-1}{n}\bigg) \le \displaystyle \sum_{k=0}^n\frac{1}{k!}=s_n \end{array} \)

Zatem

\( e \ =\ \lim\limits_{n \to +\infty} t_n \ \le\ \liminf_{n \to +\infty}s_n. \)

Ustalmy dowolne \( p\in\mathbb{N}. \) Wówczas dla dowolnego \( n>p \) mamy

\( \begin{array}{lll} \displaystyle t_n & = & \displaystyle\sum_{k=0}^p\frac{1}{k!} \bigg(1-\frac{1}{n}\bigg) \bigg(1-\frac{2}{n}\bigg) \cdot\ldots\cdot \bigg(1-\frac{k-1}{n}\bigg) \\ & + & \displaystyle\sum_{k=p+1}^{n}\frac{1}{k!} \bigg(1-\frac{1}{n}\bigg) \bigg(1-\frac{2}{n}\bigg) \cdot\ldots\cdot \bigg(1-\frac{k-1}{n}\bigg) \\ & > & \displaystyle\sum_{k=0}^p\frac{1}{k!} \bigg(1-\frac{1}{n}\bigg) \bigg(1-\frac{2}{n}\bigg) \cdot\ldots\cdot \bigg(1-\frac{k-1}{n}\bigg). \end{array} \)

Przechodząc do granicy z \( n \to +\infty \) po obu stronach powyższej nierówności, otrzymujemy:

\( \begin{array}{lll} e & = & \lim\limits_{n \to +\infty} t_n \ge \lim\limits_{n \to +\infty} \displaystyle\sum_{k=0}^p\frac{1}{k!} \bigg(1-\frac{1}{n}\bigg) \bigg(1-\frac{2}{n}\bigg) \cdot\ldots\cdot \bigg(1-\frac{k-1}{n}\bigg) \\ & = & \displaystyle \sum_{k=0}^p\frac{1}{k!} = s_p. \end{array} \)

Powyższa nierówność jest prawdziwa dla dowolnego \( p\in\mathbb{N}, \) zatem możemy przejść do granicy z \( p\longrightarrow+\infty \) i dostajemy

\( e \ =\ \lim\limits_{n \to +\infty} t_n \ \ge\ \limsup_{p \to +\infty} s_p. \) Zatem ostatecznie dostajemy

\( e \ =\ \lim\limits_{n \to +\infty} t_n \ =\ \lim\limits_{n \to +\infty} s_n \ =\ \displaystyle \sum_{k=0}^{\infty}\frac{1}{k!}, \)

co należało dowieść.

(Ad (2)) Oczywiście \( \displaystyle\{s_n\} \) jest ciągiem rosnącym zbieżnym do \( e, \) zatem

\( \forall n\in\mathbb{N}:\ e-s_n>0. \)

Z pierwszej części dowodu wynika, że

\( \begin{array}{lll} e-s_n & = & \displaystyle \sum_{k=n+1}^{\infty}\frac{1}{k!} \ =\ \frac{1}{(n+1)!} \bigg( 1+\frac{1}{n+2} +\frac{1}{(n+2)(n+3)} +\ldots \bigg) \\ & < & \frac{1}{(n+1)!} \underbrace{\sum_{j=0}^{\infty}\frac{1}{(n+1)^j}}_{\begin{array} {l} \textrm{szereg geometryczny} \\ \textrm{o sumie}\ \frac{n+1}{n} \end{array} } \ =\ \frac{1}{(n+1)!}\frac{n+1}{n} \ =\ \frac{1}{n!\cdot n}. \end{array} \)

Dla dowodu niewprost przypuśćmy, że \( e\in\mathbb{Q}, \) tzn. \( \displaystyle e=\frac{p}{q}, \) gdzie \( p\in\mathbb{Z} \) oraz \( q\in\mathbb{N},q>1. \) Z powyższego oszacowania wynika w szczególności, że

\( 0 \ < \ \frac{p}{q}-s_q \ < \ \frac{1}{q!q}. \)

Niech \( \displaystyle a\ \stackrel{df}{=}\ q!\bigg(\frac{p}{q}-s_q\bigg). \) Wówczas

\( 0 \ < \ a \ < \ \frac{1}{q} \ < \ 1. \)

Ale z definicji \( s_q \) mamy \( q!s_q\in\mathbb{N}, \) czyli \( a\in\mathbb{Z}, \) sprzeczność.

Granica i ciągłość funkcji

Granica i ciągłość funkcji



W tym wykładzie omawiamy pojęcie granicy i ciągłości funkcji prowadzącej z \( \mathbb{R} \) w \( \mathbb{R} \). Definiujemy granice właściwe, niewłaściwe i jednostronne oraz pojęcie ciągłości funkcji w punkcie. Podajemy twierdzenia dotyczące granic funkcji. Następnie charakteryzujemy zbiory zwarte w \( \mathbb{R} \) i dowodzimy, że funkcja ciągła na zbiorze zwartym osiąga swoje kresy. Na zakończenie wykładu omawiamy tak zwaną własność Darboux.

Granica funkcji

Granica funkcji


W tym wykładzie będziemy rozważać funkcje prowadzące z \( \mathbb{R} \) w \( \mathbb{R} \). Zdefiniujemy pojęcie granicy funkcji w punkcie. Ponieważ o granicy funkcji w punkcie można mówić tylko w punktach skupienia dziedziny (punkt ten nie musi należeć do dziedziny), wykażemy teraz twierdzenie, które podaje warunek równoważny definicji 3.11. Przypomnijmy, że w \( \mathbb{R} \) z metryką euklidesową, kula \( K(x_0,r) \) jest przedziałem \( \displaystyle (x_0-r,x_0+r). \)

Twierdzenie 8.1.

Niech \( A\subseteq \mathbb{R},x_0\in \mathbb{R}. \)
Punkt \( x_0 \) jest punktem skupienia zbioru \( A \) wtedy i tylko wtedy, gdy istnieje ciąg \( \displaystyle\{x_n\}\subseteq A\setminus\{x_0\} \) taki, że

\( \lim\limits_{n \to +\infty} x_n \ =\ x_0. \)

Dowód 8.1. [nadobowiązkowy]

"\( \displaystyle\Longrightarrow \)"

Niech \( x_0 \) będzie punktem skupienia zbioru \( A \). Dla dowolnego \( n\in\mathbb{N} \) rozważmy kulę \( \displaystyle \bigg(x_0-\frac{1}{n},x_0+\frac{1}{n}\bigg). \) Z definicji punktu skupienia wiemy, że istnieje punkt \( \displaystyle x_n\in A\cap \bigg(x_0-\frac{1}{n},x_0+\frac{1}{n}\bigg)\setminus\{x_0\} \) dla \( n\in\mathbb{N}. \) W ten sposób zdefiniowaliśmy ciąg \( \displaystyle\{x_n\}\subseteq A. \) Zauważmy, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=x_0. \)

"\( \displaystyle\Longleftarrow \)"

Przypuśćmy, że \( \displaystyle\{x_n\}\subseteq A\setminus\{x_0\} \) jest ciągiem takim, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=x_0. \) Należy pokazać, że \( x_0 \) jest punktem skupienia zbioru \( A. \) W tym celu weźmy dowolną kulę \( \displaystyle (x_0-r,x_0+r)\subseteq A. \) Z definicji granicy ciągu wiemy, że w tej kuli leżą wszystkie wyrazy ciągu począwszy od pewnego miejsca, czyli

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ x_n\in (x_0-r,x_0+r). \)

To oznacza, że w dowolnej kuli o środku w \( x_0 \) są wyrazy ciągu \( \displaystyle\{x_n\} \) (czyli elementy zbioru \( A\setminus\{x_0\} \)), czyli \( x_0 \) jest punktem skupienia zbioru \( A. \)

Wprowadzimy teraz pojęcie granicy funkcji \( f\colon\mathbb{R}\longrightarrow\mathbb{R} \) w punkcie \( x_0\in \mathbb{R}. \) Można to zrobić na dwa równoważne sposoby.

rycina

Augustin Louis Cauchy (1789-1857)

Definicja 8.2. [Cauchy'ego granicy funkcji w punkcie]

Niech \( A \) będzie podzbiorem \( \displaystyle\mathbb{R}. \) Niech \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) będzie funkcją oraz niech \( x_0\in \mathbb{R} \) będzie punktem skupienia zbioru \( A. \)
Mówimy, że funkcja \( f \) ma granicę (właściwą) \( g\in \mathbb{R} \) w punkcie \( x_0, \) jeśli

\( \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A\setminus\{x_0\}:\ \)

\( \bigg[ |x_0-x| < \delta \ \Longrightarrow\ |f(x)-g| < \varepsilon\bigg]. \)

Piszemy wówczas

\( \lim_{x \to x_0}f(x) \ =\ g \quad\textrm{lub}\quad f(x) \longrightarrow [x \to x_0]{} g. \)

Definicja 8.3. [Heinego granicy funkcji w punkcie]

Niech \( A \) będzie podzbiorem \( \displaystyle\mathbb{R}. \) Niech \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) będzie funkcją oraz niech \( x_0\in \mathbb{R} \) będzie punktem skupienia zbioru \( A. \)
Mówimy, że funkcja \( f \) ma granicę (właściwą) \( g\in \mathbb{R} \) w punkcie \( x_0\in \mathbb{R}, \) jeśli

\( \forall \{x_n\}\subseteq A\setminus\{x_0\}:\ \ \bigg[\lim\limits_{n \to +\infty} x_n=x_0 \ \Longrightarrow\ \lim\limits_{n \to +\infty} f(x_n)=g\bigg]. \)

Piszemy wówczas

\( \lim_{x \to x_0}f(x) \ =\ g \quad\textrm{lub}\quad f(x)\x rightarrow [x \to x_0]{} g. \)

wykresy

Wykażemy teraz, że dwie powyższe definicje są równoważne.

Definicje Cauchy'ego i Heinego granicy funkcji w punkcie są równoważne.

Dowód 8.4. [nadobowiązkowy]

Niech \( A \) będzie podzbiorem \( \displaystyle\mathbb{R}. \) Niech \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) będzie funkcją oraz niech \( x_0\in \mathbb{R} \) będzie punktem skupienia zbioru \( A. \)

(1) Załóżmy, że funkcja \( f \) ma granicę \( g\in \mathbb{R} \) w punkcie \( x_0 \) w sensie definicji Cauchy'ego. Pokażemy, że \( g \) jest także granicą funkcji \( f \) w punkcie \( x_0 \) w sensie definicji Heinego. W tym celu niech \( \displaystyle\{x_n\}\subseteq A\setminus\{x_0\} \) będzie ciągiem takim, że \( \displaystyle\lim\limits_{n \to +\infty} x_n=x_0. \) Należy pokazać, że \( \displaystyle\lim\limits_{n \to +\infty} f(x_n)=g. \)
Ustalmy dowolne \( \displaystyle\varepsilon>0. \) Z definicji Cauchy'ego granicy funkcji w punkcie wiemy, że

\( \exists \delta>0\ \forall x\in A\cap \big((x_0-\delta,x_0+\delta)\setminus\{x_0\}\big):\ f(x)\in (g-\varepsilon,g+\varepsilon). \)

Ponieważ \( \displaystyle\lim\limits_{n \to +\infty} x_n=x_0, \) więc z definicji granicy, od pewnego miejsca wszystkie wyrazy ciągu \( \displaystyle\{x_n\} \) są w kuli \( \displaystyle (x_0-\delta,x_0+\delta), \) czyli

\( \exists N\in\mathbb{N}\ \forall n\ge N:\ |x_n-x_0| < \delta. \) Zatem z definicji Cauchy'ego wynika, że

\( \forall n\ge N:\ |f(x_n)-g| < \varepsilon. \) To oznacza, że \( \displaystyle\lim\limits_{n \to +\infty} f(x_n)=g, \) czyli funkcja \( f \) ma granicę \( g \) w punkcie \( x_0 \) w sensie definicji Heinego.

(2) Załóżmy, że funkcja \( f \) ma granicę \( g\in \mathbb{R} \) w punkcie \( x_0 \) w sensie definicji Heinego. Pokażemy, że \( g \) jest także granicą funkcji \( f \) w punkcie \( x_0 \) w sensie definicji Cauchy'ego. Dla dowodu niewprost przypuśćmy, że granica w sensie Cauchy'ego nie istnieje, to znaczy

\( \exists \varepsilon>0\ \forall \delta>0\ \exists x\in A:\ 0 < |x_0-x| < \delta\ \)    oraz    \( |f(x)-g|\ge\varepsilon, \) w szczególności biorąc \( \displaystyle\delta=\frac{1}{n}, \) dla powyższego \( \displaystyle\varepsilon>0, \) mamy

\( \forall n\in\mathbb{N}\ \exists x_n\in A:\ 0 < |x_0-x_n| < \frac{1}{n}\ \)    oraz    \( | |f(x_n)-g|\ge\varepsilon, \) Łatwo zauważyć, że dla skonstruowanego ciągu \( \displaystyle\{x_n\} \) mamy \( \displaystyle\lim\limits_{n \to +\infty} x_n=x_0 \) oraz nie jest prawdą, że \( \displaystyle\lim\limits_{n \to +\infty} f(x_n)=g, \) co jest sprzeczne z faktem, że \( g \) jest granicą funkcji \( f \) w punkcie \( x_0 \) w sensie definicji Heinego.

Ciągłość funkcji

Ciągłość funkcji


Kolejne definicje które będziemy wprowadzać, będą miały swoje wersje: Cauchy'ego i Heinego. W każdym przypadku będą one równoważne. Nie będziemy już jednak dowodzić tych równoważności (dowody są podobne do dowodu przedstawionego powyżej).

Zdefiniujemy teraz pojęcie ciągłości funkcji w punkcie.

Definicja 8.5. [Ciągłość funkcji w punkcie]

Niech \( A\subseteq \mathbb{R}, \) niech \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) będzie funkcją oraz niech \( x_0\in A \) (\( x_0 \) nie musi być punktem skupienia zbioru \( A \)). Mówimy, że funkcja \( f \) jest ciągła w punkcie \( x_0\in \mathbb{R}, \) jeśli

\( \begin{align*} \textrm(Cauchy) & & \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A:\ \ \bigg[|x-x_0| < \delta \ \Longrightarrow\ |f(x)-f(x_0)| < \varepsilon\bigg]. \\ \textrm(Heine) & & \forall \{x_n\}\subseteq A:\ \ \bigg[\lim\limits_{n \to +\infty} x_n=x_0 \ \Longrightarrow\ \lim\limits_{n \to +\infty} f(x_n)=f(x_0)\bigg]. \end{align*} \)

Mówimy, że funkcja \( f \) jest ciągła, jeśli jest ciągła w każdym punkcie swojej dziedziny.

wykresy

Zauważmy, że można mówić o ciągłości funkcji tylko w punktach jej dziedziny. Z powyższej definicji wynika, że funkcja jest ciągła w punkcie, jeśli ma w tym punkcie granicę równą wartości.

wykres

Uwaga 8.6.

Funkcja jest zawsze ciągła w punkcie izolowanym dziedziny.

Kolejne twierdzenie mówi, że ciągłość zachowuje się przy składaniu funkcji. Twierdzenie to jest natychmiastową konsekwencją definicji Heinego ciągłości funkcji w punkcie.

Twierdzenie 8.7. [Ciągłość złożenia]

Jeśli \( A,B\subseteq\mathbb{R} \) oraz \( \displaystyle f\colon A\longrightarrow B \) i \( \displaystyle g\colon B\longrightarrow\mathbb{R} \) są funkcjami, to

(1) jeśli \( f \) jest ciągła w \( x_0\in A \) oraz \( g \) jest ciągła w \( y_0=f(x_0)\in B, \) to \( g\circ f \) jest ciągła w \( x_0 \);

(2) jeśli \( f \) i \( g \) są funkcjami ciągłymi, to \( g\circ f \) jest także funkcją ciągła.

Dla funkcji o wartościach rzeczywistych możemy wykonywać działania na funkcjach (dodawanie, odejmowanie, mnożenie, dzielenie, potęgowanie). Naturalnym jest zatem pytanie o zachowanie się granic funkcji w punkcie po wykonaniu tych działań na funkcjach. Dowód poniższego twierdzenia jest prostą konsekwencją definicji Heinego granicy funkcji w punkcie oraz twierdzenia o arytmetyce granic (patrz twierdzenie 4.9.). Dowód pomijamy.

Twierdzenie 8.8. [O "arytmetyce" granic funkcji]

Jeśli \( A\subseteq \mathbb{R},x_0\in \mathbb{R} \) jest punktem skupienia zbioru \( A, \)
\( f_1,f_2\colon A\longrightarrow\mathbb{R} \) są funkcjami, \( \displaystyle \lim_{x \to x_0}f_1(x)=g_1 \) oraz \( \displaystyle \lim_{x \to x_0}f_2(x)=g_2, \) to

(1) \( \displaystyle \lim_{x \to x_0}|f_1|(x)=|g_1| \);

(2) \( \displaystyle \lim_{x \to x_0}(f_1\pm f_2)(x)=g_1\pm g_2 \);

(3) \( \displaystyle \lim_{x \to x_0}(f_1f_2)(x)=g_1g_2 \);

(4) \( \displaystyle \lim_{x \to x_0}(\frac{f_1}{f_2})(x)=\frac{g_1}{g_2}, \) o ile \( g_2\ne 0 \) oraz dla \( x\in A \) mamy \( f_2(x)\ne 0 \);

(5) \( \displaystyle \lim_{x \to x_0}\big[f_1(x)\big]^{f_2(x)}=g_1^{g_2}, \) o ile wyrażenia po obu stronach mają sens.

Natychmiastową konsekwencją powyższego twierdzenia jest kolejne twierdzenie mówiące, że ciągłość funkcji zachowuje się przy operacjach: wartości bezwzględnej, sumy, różnicy, iloczynu i ilorazu. Dowód pomijamy.

Twierdzenie 8.9.

Jeśli \( A\subseteq \mathbb{R},x_0\in A \) oraz \( f_1,f_2\colon A\longrightarrow\mathbb{R} \) są funkcjami ciągłymi w punkcie \( x_0, \) to

(1) \( |f_1| \) jest funkcją ciągłą w \( x_0 \);

(2) \( f_1\pm f_2 \) jest funkcją ciągłą w \( x_0 \);

(3) \( f_1\cdot f_2 \) jest funkcją ciągłą w \( x_0 \);

(4) \( \displaystyle\frac{f_1}{f_2} \) jest funkcją ciągłą w \( x_0 \) (o ile \( f_2(x_0)\ne 0 \));

Granice niewłaściwe

Granice niewłaściwe


Podobnie jak dla ciągów tak i dla funkcji możemy mówić o granicy niewłaściwej. Będziemy rozważać funkcje, których wartości zmierzają do \( +\infty \) (lub \( -\infty \)), gdy argumenty zmierzają do pewnego punktu skupienia dziedziny. Wprowadzimy następujące definicje.

Definicja 8.10. [Granica niewłaściwa funkcji]

Niech \( A\subseteq\mathbb{R} \) oraz \( x_0\in\mathbb{R} \) punktem skupienia zbioru \( A. \)

Mówimy, że \( f \) ma granicę niewłaściwą (w sensie Cauchy'ego) \( +\infty \) w punkcie \( x_0, \) jeśli

\( \forall M\in\mathbb{R}\ \ \exists\delta>0\ \ \forall x\in A\setminus\{x_0\}:\ \ \bigg[|x-x_0| < \delta \ \ \Longrightarrow\ \ f(x)>M. \bigg] \)

Mówimy, że \( f \) ma granicę niewłaściwą (w sensie Cauchy'ego) \( -\infty \) w punkcie \( x_0, \) jeśli

\( \forall M\in\mathbb{R}\ \ \exists\delta>0\ \ \forall x\in A\setminus\{x_0\}:\ \ \bigg[|x-x_0| < \delta \ \ \Longrightarrow\ \ f(x) < M. \bigg] \)

wykres

Mówimy, że \( f \) ma granicę niewłaściwą w (sensie Heinego) \( +\infty \) w punkcie \( x_0, \) jeśli

\( \forall \{x_n\}\subseteq A\setminus\{x_0\}:\ \ \bigg[ \lim\limits_{n \to +\infty} x_n = x_0 \ \ \Longrightarrow\ \ \lim\limits_{n \to +\infty} f(x_n)= +\infty \bigg]. \)

Mówimy, że \( f \) ma granicę niewłaściwą (w sensie Heinego) \( -\infty \) punkcie \( x_0, \) jeśli

\( \forall \{x_n\}\subseteq A\setminus\{x_0\}:\ \ \bigg[ \lim\limits_{n \to +\infty} x_n = x_0 \ \ \Longrightarrow\ \ \lim\limits_{n \to +\infty} f(x_n)= -\infty \bigg]. \)

wykresy

W przypadku funkcji prowadzącej z podzbioru \( \displaystyle\mathbb{R} \) w \( \displaystyle\mathbb{R} \) oprócz wcześniej zdefiniowanych granic funkcji w punkcie oraz granic niewłaściwych można także rozważać tak zwane granice w "punktach niewłaściwych", to znaczy granice w \( +\infty \) lub \( -\infty \) (o ile \( +\infty \) lub \( -\infty \) są punktami skupienia dziedziny).

Podobnie jak na początku wykładu tak i tutaj wszystkie rodzaje definicji granic mają swoje odpowiedniki Cauchy'ego i Heinego. Podobnie jak miało to miejsce poprzednio obie wersje definicji są sobie równoważne.

Definicja 8.11. [Granica funkcji w punkcie niewłaściwym]

Niech \( g\in\mathbb{R} \) oraz niech \( \displaystyle f\colon \mathbb{R}\longrightarrow\mathbb{R} \) będzie funkcją.

\( \begin{array} {rlclcl} \displaystyle\lim_{x \to +\infty} & f(x) & = & g & \stackrel{Cauchy}{\Longleftrightarrow} & \forall \varepsilon>0\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\ge M\ \Longrightarrow\ \ \big|f(x)-g\big| < \varepsilon\bigg], \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow+\infty\ \Longrightarrow\ f(x_n)\longrightarrow g\bigg], \\ \displaystyle\lim_{x \to -\infty} & f(x) & = & g & \stackrel{Cauchy}{\Longleftrightarrow} & \forall \varepsilon>0\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\le M\ \Longrightarrow\ \ \big|f(x)-g\big| < \varepsilon\bigg], \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow-\infty\ \Longrightarrow\ f(x_n)\longrightarrow g\bigg], \end{array} \)

wykresy 4

W końcu możemy także mówić o granicach niewłaściwych w punktach niewłaściwych. Odpowiednie definicje Cauchy'ego i Heinego (równoważne sobie) podane są poniżej.

Definicja 8.12. [Granica niewłaściwa funkcji w punkcie niewłaściwym]

Niech \( \displaystyle f\colon \mathbb{R}\longrightarrow\mathbb{R} \) będzie funkcją.

\( \begin{array} {rlclcl} \displaystyle\lim_{x \to +\infty} & f(x) & = & +\infty & \stackrel{Cauchy}{\Longleftrightarrow} & \forall N\in\mathbb{R}\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\ge M\ \Longrightarrow\ \ f(x)\ge N\bigg] \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow+\infty\ \Longrightarrow\ f(x_n)\longrightarrow +\infty\bigg], \\ \displaystyle\lim_{x \to +\infty} & f(x) & = & -\infty & \stackrel{Cauchy}{\Longleftrightarrow} & \forall N\in\mathbb{R}\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\ge M\ \Longrightarrow\ \ f(x)\le N\bigg] \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow+\infty\ \Longrightarrow\ f(x_n)\longrightarrow -\infty\bigg], \\ \displaystyle\lim_{x \to -\infty} & f(x) & = & +\infty & \stackrel{Cauchy}{\Longleftrightarrow} & \forall N\in\mathbb{R}\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\le M\ \Longrightarrow\ \ f(x)\ge N\bigg] \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow-\infty\ \Longrightarrow\ f(x_n)\longrightarrow +\infty\bigg], \\ \displaystyle\lim_{x \to -\infty} & f(x) & = & -\infty & \stackrel{Cauchy}{\Longleftrightarrow} & \forall N\in\mathbb{R}\ \ \exists M\in\mathbb{R}\ \ \forall x\in \mathbb{R}:\ \ \bigg[x\le M\ \Longrightarrow\ \ f(x)\le N\bigg] \\ & & & & \stackrel{Heine}{\Longleftrightarrow} & \forall \{x_n\}\subseteq \mathbb{R}:\ \ \bigg[x_n\longrightarrow-\infty\ \Longrightarrow\ f(x_n)\longrightarrow -\infty\bigg] \end{array} \)

wykresy

Granice jednostronne funkcji

Granice jednostronne funkcji


Dzięki liniowemu porządkowi jaki mamy w \( \displaystyle\mathbb{R}, \) dla funkcji prowadzących z podzbiorów \( \displaystyle\mathbb{R} \) możemy mówić o tak zwanych granicach jednostronnych w punkcie \( x_0. \) Mamy z nimi do czynienia w przypadku, gdy w definicji granicy ograniczymy się do ciągów leżących po jednej stronie punktu \( x_0 \) (w przypadku definicji Heinego) lub do części przedziału leżącej po jednej stronie punktu \( x_0 \) (w przypadku definicji Cauchy'ego).

Definicja 8.13. [Granice jednostronne funkcji]

Niech \( A\subseteq \mathbb{R}, \) niech \( x_0 \) będzie punktem skupienia zbioru \( A\cap (x_0,+\infty) \) oraz niech \( \displaystyle f\colon A\longrightarrow\mathbb{R} \) będzie funkcją. Granicę prawostronną funkcji \( f \) w punkcie \( x_0 \) oznaczamy \( \displaystyle \lim_{x \to x_0^+}f(x) \) lub \( f(x_0^+) \) i definiujemy jako

\( \begin{array} {rclcl} \displaystyle\lim_{x \to x_0^+}f(x) & = & g & \ \ \stackrel{Cauchy}{\Longleftrightarrow}\ \ & \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A\cap(x_0,+\infty):\ \ \bigg[\big|x-x_0\big|\le \delta\ \Longrightarrow\ \ \big|f(x)-g\big| < \varepsilon\bigg] \\ & & & \ \ \stackrel{Heine}{\Longleftrightarrow}\ \ & \forall \{x_n\}\subseteq A\cap(x_0,+\infty):\ \ \bigg[x_n\longrightarrow x_0\ \Longrightarrow\ f(x_n)\longrightarrow g\bigg]. \end{array} \)

Niech \( A\subseteq \mathbb{R}, \) niech \( x_0 \) będzie punktem skupienia zbioru \( A\cap (-\infty,x_0) \) oraz niech \( \displaystyle f\colon A\longrightarrow\mathbb{R} \) będzie funkcją. Granicę lewostronną funkcji \( f \) w punkcie \( x_0 \) oznaczamy \( \displaystyle \lim_{x \to x_0^-}f(x) \) lub \( f(x_0^-) \) i definiujemy jako

\( \begin{array} {rclcl} \displaystyle\lim_{x \to x_0^-}f(x) & = & g & \ \ \stackrel{Cauchy}{\Longleftrightarrow}\ \ & \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A\cap(-\infty,x_0):\ \ \bigg[\big|x-x_0\big|\le \delta\ \Longrightarrow\ \ \big|f(x)-g\big| < \varepsilon\bigg] \\ & & & \ \ \stackrel{Heine}{\Longleftrightarrow}\ \ & \forall \{x_n\}\subseteq A\cap(-\infty,x_0):\ \ \bigg[x_n\longrightarrow x_0\ \Longrightarrow\ f(x_n)\longrightarrow g\bigg]. \end{array} \)

Jako ćwiczenie pozostawiamy samodzielnie zdefiniowanie granic jednostronnych niewłaściwych funkcji w punkcie.

Łatwo zaobserwować, że granica funkcji \( f \) w punkcie \( x_0 \) istnieje wtedy i tylko wtedy, gdy istnieją granice jednostronne w tym punkcie i są sobie równe.

Dla funkcji określonej na podzbiorze liczb rzeczywistych możemy też mówić o ciągłości jednostronnej.

Definicja 8.15.

Niech \( A\subseteq \mathbb{R} \) oraz niech \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) będzie funkcją oraz niech \( x_0\in A. \)
Mówimy, że funkcja \( f \) jest prawostronnie ciągła w punkcie \( x_0\in\mathbb{R} \)

\( \begin{align*} \stackrel{\textrm{Cauchy}}{\Longleftrightarrow} & & \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A:\ \ \bigg[x\in[x_0,x_0+\delta) \ \Longrightarrow\ \big|f(x)-f(x_0)\big| < \varepsilon\bigg]; \\ \stackrel{\textrm{Heine}}{\Longleftrightarrow} & & \forall \{x_n\}\subseteq A\cap [x_0,+\infty):\ \ \bigg[\lim\limits_{n \to +\infty} x_n=x_0 \ \Longrightarrow\ \lim\limits_{n \to +\infty} f(x_n)=f(x_0)\bigg]. \end{align*} \)

Mówimy, że funkcja \( f \) jest lewostronnie ciągła w punkcie \( x_0\in\mathbb{R} \)

\( \begin{align*} \stackrel{\textrm{Cauchy}}{\Longleftrightarrow} & & \forall \varepsilon>0\ \ \exists \delta>0\ \ \forall x\in A:\ \ \bigg[x\in(x_0-\delta,x_0] \ \Longrightarrow\ \big|f(x)-f(x_0)\big| < \varepsilon\bigg]; \\ \stackrel{\textrm{Heine}}{\Longleftrightarrow} & & \forall \{x_n\}\subseteq A\cap (-\infty,x_0]:\ \ \bigg[\lim\limits_{n \to +\infty} x_n=x_0 \ \Longrightarrow\ \lim\limits_{n \to +\infty} f(x_n)=f(x_0)\bigg]. \end{align*} \)

wykresy

Przykład 8.16.

Rozważmy funkcję \( f\colon\mathbb{R}\longrightarrow\mathbb{R} \) daną wzorem

\( f(x) \ =\left \{ \begin{array} {lll} \displaystyle -x+1 & \textrm{dla} & \displaystyle x\le 0, \\ \displaystyle \mathrm{tg}\, x & \textrm{dla} & \displaystyle 0 < x < \frac{\pi}{2}, \\ \displaystyle x-\frac{\pi}{2} & \textrm{dla} & \displaystyle \frac{\pi}{2}\le x. \\ \end{array} \right . \)

Funkcja ta jest lewostronnie ciągła w punkcie \( x=0 \) oraz prawostronnie ciągła w punkcie \( \displaystyle x=\frac{\pi}{2}, \) ale nie jest prawostronnie ciągła w punkcie \( x=0 \) oraz nie jest lewostronnie ciągła w punkcie \( \displaystyle x=\frac{\pi}{2}. \) W pozostałych punktach \( x\in\mathbb{R} \) funkcja jest ciągła, a więc w szczególności lewostronnie ciągła i prawostronnie ciągła.

Kolejne twierdzenie podaje związek między ciągłością, a ciągłością lewostronną i prawostronną. Jest ono natychmiastową konsekwencją definicji.

Twierdzenie 8.17.

Funkcja \( f\colon\mathbb{R}\supseteq A\longrightarrow\mathbb{R} \) jest ciągła w punkcie \( x_0\in A \) wtedy i tylko wtedy, gdy jest w tym punkcie lewostronnie ciągła i prawostronnie ciągła.

Granice specjalne

Granice specjalne


Uwaga 8.18.

Podobnie jak w przypadku granic ciągów, tak i teraz w przypadku granic funkcji w punkcie można mówić o symbolach nieoznaczonych. Z symbolem nieoznaczonym mamy do czynienia, gdy z istnienia granic dwóch funkcji w danym punkcie nie można określić jednoznacznie granicy funkcji, która powstanie z tych funkcji w wyniku wykonania danego działania (dodawania, odejmowania, mnożenia, dzielenia, potęgowania).

Kolejne twierdzenie podaje granice pewnych funkcji. Zazwyczaj mamy tu do czynienia z symbolami nieoznaczonymi, dlatego nad znakiem "=" podajemy jaki symbol nieoznaczony tu występuje.

Elementarne dowody tego twierdzenia można znaleźć w podręcznikach z analizy matematycznej. Pominiemy je w tym miejscu, gdyż będą one znacznie łatwiejsze, gdy zapoznamy się z rachunkiem różniczkowym i regułą de l'Hospitala.

Twierdzenie 8.19. [Granice specjalne]

(1) \( \displaystyle\displaystyle\lim_{x \to +\infty}x^{\alpha} \ =\left \{ \begin{array} {ll} +\infty & \quad\textrm{dla}\ \alpha>0, \\ 1 & \quad\textrm{dla}\ \alpha=0, \\ 0 & \quad\textrm{dla}\ \alpha < 0. \end{array} . \right. \)

(2) \( \displaystyle\displaystyle \lim_{x \to +\infty}a^xx^{\alpha} \ \stackrel{0\cdot\infty}{=}\ 0. \) dla \( a\in(0,1),\displaystyle\alpha\ge 0. \)

(3) \( \displaystyle\displaystyle \lim_{x \to 0}\frac{\sin x}{x} \ \stackrel{\frac{0}{0}}{=}\ 1 \) oraz \( \displaystyle\displaystyle \lim_{x \to 0}\frac{\arcsin x}{x} \ \stackrel{\frac{0}{0}}{=}\ 1. \)

(4) \( \displaystyle\displaystyle \lim_{x \to 0} (1+x)^{\frac{1}{x}} \ \stackrel{1^{\infty}}{=}\ e,\displaystyle\displaystyle \lim_{x \to +\infty} (1+x)^{\frac{1}{x}} \ \stackrel{\infty^0}{=}\ 1. \)

(5) \( \displaystyle\displaystyle \lim_{x \to 0} \frac{a^x-1}{x} \ \stackrel{\frac{0}{0}}{=}\ \ln a, \) dla \( a>0, \) (w szczególności \( \displaystyle\displaystyle \lim_{x \to 0} \frac{e^x-1}{x} \ \stackrel{\frac{0}{0}}{=}\ 1 \))

(6) \( \displaystyle\displaystyle \lim_{x \to 0} \frac{\log_a(1+x)}{x} \ \stackrel{\frac{0}{0}}{=}\ \frac{1}{\ln a}, \) dla \( a>0,a\ne 1, \) (w szczególności \( \displaystyle\displaystyle \lim_{x \to 0} \frac{\ln(1+x)}{x} \ \stackrel{\frac{0}{0}}{=}\ 1 \)).

(7) \( \displaystyle\displaystyle \lim_{x \to \pm\infty} (1+\frac{a}{x})^x \ \stackrel{1^{\infty}}{=}\ e^a, \) dla \( a\in\mathbb{R}. \)

(8) \( \displaystyle\displaystyle \lim_{x \to 0} \frac{(1+x)^a-1}{x} \ \stackrel{\frac{0}{0}}{=}\ a, \) dla \( a\in\mathbb{R}. \)

Twierdzenie 8.20.

(1) Każdy wielomian \( w\colon\mathbb{R}\longrightarrow\mathbb{R} \) jest funkcją ciągłą.

(2) Funkcja potęgowa \( \displaystyle (0,+\infty)\ni x\longmapsto x^{\alpha}\in\mathbb{R} \) (\( \displaystyle\alpha\in\mathbb{R} \)) jest ciągła.

(3) Funkcja wykładnicza \( \displaystyle (0,+\infty)\ni x\longmapsto a^x\in\mathbb{R} \) (\( a>0 \)) jest ciągła.

(4) Funkcje trygonometryczne \( \displaystyle\sin,\displaystyle\cos,\displaystyle\mathrm{tg}\,,\displaystyle\mathrm{ctg}\, \) są ciągłe.

Dowód 8.20.

[Szkic] (Ad (1)) Łatwo pokazać (na przykład z definicji Heinego), iż funkcja stała \( f(x)=c \) (gdzie \( c\in\mathbb{R} \)) oraz funkcja identycznościowa \( g(x)=x \) są ciągłe w \( \displaystyle\mathbb{R}. \) Ponieważ każdy wielomian powstaje jako sumy i iloczyny tych dwóch funkcji, zatem korzystając z twierdzenia o "arytmetyce" granic funkcji (twierdzenie 8.8.) wnioskujemy, że dowolny wielomian jest ciągły.

(Ad (2)-(4)) Dowody tych punktów wykraczają poza materiał tego wykładu.

Zwartość

Zwartość


Jako wstęp do tej części wykładu proponujemy proste ćwiczenia z zakresu szkoły średniej.

(1) Narysować wykres funkcji ciągłej na przedziale \( \displaystyle\bigg(0,\frac{\pi}{2}\bigg) \), która przyjmuje dowolnie duże wartości.

(2) Narysować wykres funkcji ciągłej na \( \displaystyle\mathbb{R} \), która przyjmuje dowolnie duże wartości.

(3) Narysować wykres funkcji ciągłej na przedziale \( \displaystyle\bigg[0,\frac{\pi}{2}\bigg] \), która przyjmuje dowolnie duże wartości.
Odpowiedzi:

(Ad (1)) Przykładem takiej funkcji jest \( f(x)=\mathrm{tg}\, x. \)

(Ad (2)) Przykładem takiej funkcji jest \( f(x)=x^2. \)

(Ad (3)) Nie jest to możliwe!

Co zatem różni zbiory \( \displaystyle\bigg(0,\frac{\pi}{2}\bigg),\displaystyle\mathbb{R} \) od \( \displaystyle\bigg[0,\frac{\pi}{2}\bigg] \)? Otóż przedział \( \displaystyle\bigg[0,\frac{\pi}{2}\bigg] \) jest zbiorem domkniętym i ograniczonym w \( \displaystyle\mathbb{R}, \) a zatem tak zwanym zbiorem zwartym, a to że nie mogliśmy narysować funkcji ciągłej na tym przedziale, która "ucieka do nieskończoności", to skutek faktu, że funkcja ciągła na zbiorze zwartym osiąga swoje kresy (patrz poniższe twierdzenie Weierstrassa).

Zdefiniujemy teraz formalnie zbiory zwarte w \( \displaystyle\mathbb{R}. \)

Definicja 8.21.

Mówimy, że \( A\subseteq\mathbb{R}^N \) jest zbiorem zwartym, jeśli z każdego ciągu \( \displaystyle\{x_n\}\subseteq A \) można wybrać podciąg \( \displaystyle\{x_{n_k}\} \) zbieżny do granicy \( g\in A. \)

Zazwyczaj w matematyce wprowadza się bardziej ogólną definicję zwartości. Wówczas powyżej zdefiniowaną własność nazywa się ciągową zwartością. Jednak w \( \displaystyle\mathbb{R} \) obie definicje są równoważne, zatem zbiory ciągowo zwarte będziemy krótko nazywać zwartymi.

Przykład 8.22.

Zbiór \( A=(0,1)\subseteq\mathbb{R} \) nie jest zwarty. Faktycznie dla ciągu \( \displaystyle\bigg\{\frac{1}{n}\bigg\} \) nie istnieje podciąg zbieżny do granicy w zbiorze \( A. \)

Poniższe twierdzenie mówi jakie zbiory w \( \displaystyle\mathbb{R}^N \) są zwarte (pozostawiamy je tutaj bez dowodu; będzie ono udowodnione na wykładzie z Analizy Matematycznej 2).

Twierdzenie 8.23.

Zbiór \( A\subseteq \mathbb{R}^N \) jest zwarty wtedy i tylko wtedy, gdy jest domknięty i ograniczony.

Uwaga 8.24.

W tym miejscu dokończymy dowód twierdzenia o zbieżności ciągów Cauchy'ego w \( \mathbb{R}^N \) (patrz twierdzenie 3.30.).

Przypuśćmy, że ciąg \( \{x_n\}\subseteq\mathbb{R}^N \) spełnia warunek Cauchy'ego. Wtedy \( \{x_n\} \) jest ciągiem ograniczonym (patrz stwierdzenie 3.28.), a zatem zawiera się w pewnej kuli domkniętej \( \overline{K}(x,R) \). Ta kula jest zbiorem domkniętym i ograniczonym, zatem zwartym. W takim razie z ciągu \( \{x_n\} \) możemy wybrać podciąg zbieżny. Wobec stwierdzenie 3.29., ciąg \( \{x_n\} \) jest zbieżny.

Twierdzenie Weierstrassa

Twierdzenie Weierstrassa


rycina

Okazuje się, że jeśli weźmiemy obraz przez funkcję ciągłą zbioru zwartego, to otrzymamy także zbiór zwarty.

Twierdzenie 8.25.

Jeśli \( A \) jest zbiorem zwartym w \( \displaystyle\mathbb{R} \) oraz \( \displaystyle f\colon A\longrightarrow \mathbb{R} \) jest funkcją ciągłą, to \( f(A) \) jest zbiorem zwartym w \( \displaystyle\mathbb{R}. \)

Dowód 8.25.

Aby pokazać zwartość zbioru \( f(A), \) weźmy dowolny ciąg \( \displaystyle\{y_n\}\subseteq f(A). \) Ponieważ każde \( y_n \) jest w obrazie zbioru \( A, \) więc dla każdego \( y_n \) istnieje \( x_n\in A \) takie, że \( f(x_n)=y_n. \) Ponieważ zbiór \( A \) jest zwarty (z założenia), zatem dla ciągu \( \displaystyle\{x_n\}\subseteq A \) istnieje podciąg \( \displaystyle\big\{x_{n_k}\big\} \) zbieżny w \( A, \) to znaczy

\( \exists a\in A:\ \lim\limits_{k \to +\infty} x_{n_k} \ =\ a. \)

Z ciągłości funkcji \( f \) wynika, że

\( \lim\limits_{k \to +\infty} y_{n_k} \ =\ \lim\limits_{k \to +\infty} f(x_{n_k}) \ =\ f(a), \)

zatem pokazaliśmy, że ciąg \( \displaystyle\{y_{n}\} \) posiada podciąg zbieżny w \( f(A), \) co kończy dowód zwartości \( f(A). \)

wykres

Twierdzenie 8.26. [Weierstrassa]

Jeśli \( A\subseteq\mathbb{R} \) jest zbiorem zwartym oraz \( \displaystyle f\colon A\longrightarrow\mathbb{R} \) jest funkcją ciągłą, to funkcja \( f \) osiąga swoje kresy, to znaczy \( \exists x_1,x_2\in A\ \forall x\in A:\ f(x_1)\le f(x)\le f(x_2). \)

Dowód 8.26.

Ponieważ funkcja \( \displaystyle f\colon A\longrightarrow\mathbb{R} \) jest ciągła, a zbiór \( A \) jest zwarty, więc z twierdzenie 8.25. wynika, że zbiór \( f(A) \) jest zwarty, a zatem także ograniczony (patrz twierdzenie 8.23.), to znaczy

\( \forall x\in A:\ -\infty < \inf f(A) \ \le\ f(x) \ \le\ \sup f(A) \ < \ +\infty. \)

Należy pokazać, że

\( \exists x_1,x_2\in A:\ f(x_1)=\inf f(A),\ f(x_2)=\sup f(A). \)

Pokażemy istnienie \( x_1 \) o powyższej własności (dowód istnienia \( x_2 \) jest analogiczny).

Niech \( m\ \stackrel{df}{=}\ \inf f(A) \) oraz dla dowodu niewprost, przypuśćmy, że \( \displaystyle\inf f(A) \) nie jest realizowane, to znaczy

\( \forall x\in A:\ f(x)>m. \)

Zdefiniujmy nową funkcję \( \displaystyle g\colon A\longrightarrow\mathbb{R} \) w następujący sposób:

\( g(x) \ =\ \frac{1}{f(x)-m} \quad\textrm{dla}\ x\in A. \)

Definicja \( g \) jest poprawna (gdyż mianownik jest niezerowy) oraz funkcja \( g \) jest ciągła (porównaj twierdzenie 8.8.). Korzystając ponownie z twierdzenie 8.25. wiemy, że zbiór \( g(A) \) jest zwarty, a zatem także ograniczony, zatem jego supremum \( M\ \stackrel{df}{=}\ \sup g(A) \) jest skończone, czyli

\( 0 \ < \ M \ < \ +\infty. \) Oczywiście \( \forall x\in A: g(x)\le M. \)

Dla dowolnego \( x\in A, \) mamy

\( f(x) \ =\ \frac{1}{g(x)}+m \ \ge\ \frac{1}{M}+m, \)

w szczególności \( m < \inf f(A), \) sprzeczność.
Wykazaliśmy zatem, że funkcja \( f \) osiąga swój kres dolny, czyli

\( \exists x_1\in A:\ f(x_1)=\inf f(A). \)

Uwaga 8.27.

Założenie zwartości w twierdzeniu Weierstrassa jest niezbędne. Rozważmy funkcję \( f\colon\mathbb{R}\longrightarrow\mathbb{R} \) daną wzorem \( f(x)=\mathrm{arctg}\, x. \) Jest ona ciągła,

\( \sup_{x\in\mathbb{R}}f(x)=\frac{\pi}{2},\quad \inf_{x\in\mathbb{R}}f(x)=-\frac{\pi}{2}, \)

ale dla żadnego punktu \( x\in\mathbb{R} \) funkcja \( f \) nie przyjmuje wartości \( \displaystyle\frac{\pi}{2} \) i \( \displaystyle -\frac{\pi}{2}. \)

Założenia twierdzenia Weierstrassa nie są tutaj spełnione gdyż zbiór \( \displaystyle\mathbb{R} \) nie jest zwarty.

Twierdzenie Darboux

Twierdzenie Darboux


Wykażemy teraz użyteczny lemat mówiący, że jeśli funkcja ciągła jest dodatnia w pewnym punkcie, to jest także dodatnia w pewnym otoczeniu tego punktu.

Lemat 8.28.

Jeśli \( A\subseteq \mathbb{R},x_0\in A \) oraz funkcja \( f\colon A\longrightarrow \mathbb{R} \) jest ciągła w punkcie \( x_0, \) to:
(1) jeśli \( f(x_0)>0, \) to

\( \exists \delta>0\ \forall x\in (x_0-\delta,x_0+\delta):\ f(x)>0 \) (2) jeśli \( f(x_0) < 0, \) to

\( \exists \delta>0\ \forall x\in (x_0-\delta,x_0+\delta):\ f(x) < 0. \)

Dowód 8.28.

(1) Załóżmy, że funkcja \( f \) jest ciągła w punkcie \( x_0\in A \) oraz \( f(x_0)>0. \) Niech \( \displaystyle\varepsilon:=\frac{f(x_0)}{2}. \) Korzystając z definicji Cauchy'ego granicy funkcji w punkcie mamy, że

\( \exists \delta>0:\ \forall x\in (x_0-\delta,x_0+\delta): \)

\( f(x)\in \bigg(f(x_0)-\frac{f(x_0)}{2},f(x_0)+\frac{f(x_0)}{2}\bigg) \ =\ \bigg(\frac{f(x_0)}{2},\frac{3f(x_0)}{2}\bigg). \)

Zatem \( f(x)>0 \) dla \( x\in (x_0-\delta,x_0+\delta). \)

(2) Dowód jest analogiczny.

Kolejne twierdzenie to tak zwana własność Darboux dla funkcji ciągłych. Mówi ono, że funkcja ciągła na przedziale \( \displaystyle [a,b] \) i taka, że \( f(a) < 0 \) i \( f(b)>0 \) posiada pierwiastek w przedziale \( \displaystyle (a,b). \) Na tej własności opiera się, stosowana w metodach numerycznych, metoda bisekcji poszukiwania miejsc zerowych funkcji.

wykresy

Twierdzenie 8.29. [Darboux]

Jeśli \( a < b,\displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją ciągłą, \( f(a)\cdot f(b) < 0, \) to

\( \exists c\in(a,b):\ \ f(c)=0. \)

Dowód 8.29.

[Szkic] Z warunku \( f(a)\cdot f(b) < 0 \) wynika, że funkcja \( f \) przyjmuje na końcach wartości różnych znaków, tzn \( f(a) < 0 < f(b) \) lub \( f(b) < 0 < f(a). \) Niech na przykład \( f(a) < 0 < f(b). \) Niech \( c:=\sup\{x\in[a,b] | f(x) < 0\}. \) Zauważmy, że gdyby \( f(c) < 0 \) to istniałoby pewne \( \displaystyle\delta >0, \) takie, że dla wszystkich \( x\in (c-\delta, c+\delta) \) mielibyśmy \( f(x) < 0 \) (co wynika z lematu 8.28.). A zatem \( c \) nie byłoby supremum \( \displaystyle\{x\in[a,b] | f(x) < 0\}, \) bo do tego zbioru należałby punkt \( c+\frac{\delta}{2}>c. \) Analogicznie, gdyby \( f(c)>0 \) to także dla \( x \) w pewnym przedziale \( \displaystyle (c-\delta', c+\delta') \) mielibyśmy \( f(x)>0, \) a zatem \( c \) nie byłoby supremum \( \displaystyle\{x\in[a,b] | f(x) < 0\}, \) bo na przykład punkt \( c-\frac{\delta'}{2} < c \) byłby mniejszym od \( c \) ograniczeniem górnym tego zbioru. A zatem jedyna możliwość to \( f(c)=0. \)

Wniosek 8.30

Jeśli \( a < b,\displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją ciągłą, \( f(a) < f(b) \) (odpowiednio \( f(a)>f(b) \)), to

\( \forall w\in\big(f(a),f(b)\big)\ \ \exists c\in(a,b):\ \ f(c)=w \)

odpowiednio \( \forall w\in\big(f(b),f(a)\big)\ \ \exists c\in(a,b):\ \ f(c)=w). \)

Powyższe wyrażenia nazywamy własnością Darboux funkcji \( f. \)

Pochodna funkcji jednej zmiennej

Pochodna funkcji jednej zmiennej



Definiujemy pochodną funkcji i podajemy jej interpretację fizyczną i geometryczną. Wyznaczamy pochodne funkcji elementarnych. Wykazujemy podstawowe własności funkcji różniczkowalnych, w tym twierdzenie Rolle'a, Cauchy'ego i twierdzenie Lagrange'a o wartości średniej. Związek znaku pochodnej z monotonicznością funkcji pozwala na sformułowanie warunku koniecznego i wystarczającego istnienia ekstremum.

Pochodna funkcji jednej zmiennej

Pochodna: interpretacja fizyczna i geometryczna


Z pojęciem pochodnej zetknęliśmy się po raz pierwszy w szkole na lekcjach fizyki. Wyznaczając prędkość średnią pewnego obiektu poruszającego się po prostej, dzielimy drogę, jaką przebył w określonym czasie, przez długość tego odcinka czasu:

\( \displaystyle v_{\text{średnia}}=\frac{\Delta x}{\Delta t}, \)

gdzie \( \displaystyle \Delta x=x(t_2)-x(t_1) \) oznacza drogę, jaką obserwowany obiekt przebył w czasie \( \displaystyle \Delta t:=t_2 - t_1 \). Następnie spostrzegliśmy, że pomiar prędkości jest tym lepszy i bardziej adekwatny do stanu obiektu w określonej chwili, im odcinek czasu \( \displaystyle \Delta t \) pomiędzy kolejnymi chwilami \( \displaystyle t_1 \) a \( \displaystyle t_2 \) jest krótszy. Granicę ilorazu

\( \displaystyle \lim_{\Delta t\to 0} \frac{x(t_1+\Delta t)-x(t_1 )}{\Delta t} \text{ przy }\Delta t \to 0 \)

nazywamy prędkością chwilową lub - krótko - prędkością obiektu w chwili \( \displaystyle t_1 \) i tradycyjnie oznaczamy symbolem \( \displaystyle v(t_1) \) lub

\( \displaystyle \frac{dx}{dt}(t_1 ), \ \ \frac{d}{dt}x(t_1 ), \ \ x'(t_1), \ \ \dot{x}(t_1). \) to ostatnie oznaczenie pochodnej jest często stosowane w równaniach różniczkowych. Niech \( \displaystyle f:(a,b)\mapsto \mathbb{R} \) będzie dowolną funkcją o wartościach rzeczywistych określoną w przedziale otwartym \( \displaystyle (a, b) \).

wykres

Definicja 9.1.

Mówimy, że funkcja \( \displaystyle f \) jest różniczkowalna w punkcie \( \displaystyle x_0 \in (a,b) \), jeśli istnieje granica ilorazu różnicowego

\( \displaystyle \lim_{h\to 0}\frac{f(x_0+h)-f(x_0)}{h}. \)

Granicę tę - jeśli istnieje - nazywamy pochodną funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \) i oznaczamy symbolem: \( \displaystyle f'(x_0 ) \) lub \( \displaystyle \frac{df}{dx}(x_0) \). Funkcję \( \displaystyle x\mapsto f'(x) \), która argumentowi \( \displaystyle x \) przyporządkowuje wartość pochodnej \( \displaystyle f'(x) \) funkcji \( \displaystyle f \) w punkcie \( \displaystyle x \) nazywamy funkcją pochodną funkcji \( \displaystyle f \) lub - krótko - pochodną funkcji \( \displaystyle f \). Zwróćmy uwagę, że dziedzina pochodnej \( \displaystyle x\mapsto f'(x) \) jest zawsze podzbiorem dziedziny funkcji \( \displaystyle x\mapsto f(x) \).

Uwaga 9.2.

Jeśli funkcja \( \displaystyle f \) jest różniczkowalna w punkcie \( \displaystyle x_0\in (a,b) \), to jest w tym punkcie ciągła. Skoro iloraz różnicowy \( \displaystyle \frac{f(x_0+h)-f(x_0)}{h} \) ma granicę przy \( \displaystyle h\to 0 \), to licznik \( \displaystyle f(x_0+h)-f(x_0) \) musi zmierzać do zera, stąd \( \displaystyle f \) jest ciągła w punkcie \( \displaystyle x_0 \).

Implikacja odwrotna nie jest prawdziwa.

Przykład 9.3.

Rozważmy funkcję \( \displaystyle f(x)=|x| \) określoną na \( \displaystyle \mathbb{R} \). Funkcja ta jest ciągła w każdym punkcie \( \displaystyle x\in\mathbb{R} \). Natomiast nie jest różniczkowalna w jednym punkcie - w punkcie \( \displaystyle x=0 \), gdyż

\( \displaystyle \lim_{h\to 0}\frac{|x+h|-|x|}{h}=\left\{\begin{align*} 1, \text{ dla }x>0 \\ -1, \text{ dla }x < 0\end{align*} .\right. \)

Funkcja \( \displaystyle f(x)=|x| \) jest więc różniczkowalna w każdym punkcie zbioru liczb rzeczywistych z wyjątkiem punktu \( \displaystyle x=0 \), gdyż nie istnieje granica ilorazu \( \displaystyle \frac{|0+h|-|0|}{h} \) przy \( \displaystyle h\to 0 \). W pozostałych punktach \( \displaystyle x\neq 0 \) mamy \( \displaystyle f'(x)=\mathrm{sgn}\, x \), gdzie

\( \displaystyle \mathrm{sgn}\, x=\frac{x}{|x|}=\left \{\begin{align*} 1, \text{ dla }x>0 \\ -1, \text{ dla }x < 0\end{align*} .\right. \)

oznacza funkcję signum (znak liczby). Dziedzina pochodnej \( \displaystyle f' \) jest podzbiorem właściwym dziedziny funkcji \( \displaystyle f(x)=|x| \),tj. \( \displaystyle \mathrm{dom}\, f' ⊊ \mathrm{dom}\, f \) (to znaczy: \( \displaystyle \mathrm{dom}\, f'\subset \mathrm{dom}\, f \) i \( \displaystyle \mathrm{dom}\, f'\neq \mathrm{dom}\, f \)).

wykres

Zwróćmy uwagę, że iloraz różnicowy

\( \displaystyle \frac{f( x_0 +h )-f(x_0 )}{h} \)

jest równy współczynnikowi kierunkowemu siecznej wykresu funkcji \( \displaystyle f \) przechodzącej przez punkty \( \displaystyle (x_0, f(x_0)) \) oraz \( \displaystyle (x_0+h, f(x_0+h)) \), jest równy tangensowi kąta, jaki sieczna ta tworzy z osią rzędnych. Gdy \( \displaystyle h \) zmierza do zera, punkt \( \displaystyle (x_0+h, f(x_0+h)) \) zbliża się do punktu \( \displaystyle (x_0, f(x_0)) \). Jeśli istnieje pochodna \( \displaystyle f'(x_0) \), to prostą o równaniu

\( \displaystyle y-f(x_0)=f'(x_0)(x-x_0), \)

będącą granicznym położeniem siecznych przechodzących przez punkty \( \displaystyle (x_0, f(x_0)) \) oraz \( \displaystyle (x_0+h, f(x_0+h)) \), nazywamy styczną do wykresu funkcji \( \displaystyle f \) w punkcie \( \displaystyle (x_0, f(x_0)) \). Pochodna \( \displaystyle f'(x_0) \) jest więc współczynnikiem kierunkowym stycznej do wykresu funkcji \( \displaystyle f \) w punkcie \( \displaystyle (x_0, f(x_0)) \).

Nietrudno podać przykład funkcji ciągłej, która nie jest różniczkowalna w skończonej liczbie punktów, np. w punktach \( \displaystyle x_1, x_2,\dots, x_n \). Wystarczy bowiem rozważyć np. sumę

\( \displaystyle f(x)= c_1 |x-x_1|+c_2 |x-x_2|+\dots+c_n |x-x_n|, \)

gdzie \( \displaystyle c_1, c_2, \dots, c_n \) są stałymi różnymi od zera. Pochodna

\( \displaystyle f'(x)=c_1 \mathrm{sgn}\,(x-x_1 )+c_2 \mathrm{sgn}\,(x-x_2 )+\dots+c_n\mathrm{sgn}\,(x-x_n ) \)

istnieje w każdym punkcie zbioru \( \displaystyle \mathbb{R}\setminus \{x_1, x_2,\dots, x_n\} \), czyli wszędzie poza zbiorem \( \displaystyle \{x_1, x_2,\dots, x_n\} \).

Skonstruujmy funkcję, która jest ciągła i nie jest różniczkowalna w żadnym punkcie zbioru liczb rzeczywistych.

Przykład 9.4.

Rozważmy wpierw funkcję \( \displaystyle x\mapsto f(x)=\arcsin(\cos x) \). Pamiętamy (zob. ćwiczenia do modułu drugiego), że funkcja ta jest określona na \( \displaystyle \mathbb{R} \), parzysta, okresowa o okresie \( \displaystyle 2\pi \), przy czym dla \( \displaystyle -\pi\leq x\leq \pi \) zachodzi równość \( \displaystyle \arcsin(\cos x)=\frac{\pi}{2}-|x| \). Można wykazać, że funkcja określona za pomocą nieskończonego szeregu

\( \displaystyle \begin{align*} g(x) & =\sum_{k=0}^{\infty} \frac{f(4^k x)}{3^k } \\ & =f(x)+\frac{f(4 x)}{3}+\frac{f(16 x)}{9}+\frac{f(64 x)}{27}+\frac{f(256 x)}{81}+\dots\end{align*} \)

jest określona na \( \displaystyle \mathbb{R} \), parzysta i okresowa o okresie \( \displaystyle 2\pi \), ciągła w każdym punkcie swojej dziedziny i nie jest różniczkowalna w żadnym punkcie zbioru \( \displaystyle \mathbb{R} \).

Twierdzenia o pochodnych. Pochodne funkcji elementarnych

Twierdzenia o pochodnych. Pochodne funkcji elementarnych


W praktyce większość funkcji elementarnych, którymi posługujemy się, jest różniczkowalna. Wyznaczmy pochodne kilku z nich, posługując się definicją i znanymi wzorami.

Przykład 9.5.

a) Funkcja stała \( \displaystyle x\mapsto c \) określona w przedziale \( \displaystyle (a,b) \) jest różniczkowalna w każdym punkcie tego przedziału i ma pochodną równą zeru, gdyż iloraz różnicowy \( \displaystyle \frac{c-c}{h}, \) będąc stale równy zeru, zmierza do zera.

b) Jeśli \( \displaystyle c \) jest stałą i istnieje \( \displaystyle f'(x) \), to istnieje pochodna iloczynu \( \displaystyle (c\cdot f)'(x)=c\cdot f'(x) \) (innymi słowy: stałą można wyłączyć przed znak pochodnej). Mamy bowiem

\( \displaystyle \frac{cf(x+h)-cf(x)}{h}=c\frac{f(x+h)-f(x)}{h}\to c \cdot f'(x), \) przy \( \displaystyle h\to 0 \).

c) Jednomian \( \displaystyle f(x)= x^n \) jest różniczkowalny w każdym punkcie \( \displaystyle x\in \mathbb{R} \) i \( \displaystyle f'(x)=n x^{n-1} \). Na mocy wzoru dwumianowego Newtona mamy bowiem

\( \displaystyle \begin{align*}\frac{(x+h)^n-x^n}{h} & =\binom{n}{1}x^{n-1}+\binom{n}{2}x^{n-2}h+ \binom{n}{3}x^{3}h^2+\dots+\binom{n}{n-1}x h^{n-2}+\binom{n}{n}h^{n-1} \\ & \to nx^{n-1}+0+0+\dots+0+0, \text{ gdy }h\to 0.\end{align*} \)

d) Funkcja \( \displaystyle x\mapsto \sin x \) jest różniczkowalna w każdym punkcie \( \displaystyle x\in \mathbb{R} \), ponieważ iloraz różnicowy

\( \displaystyle \begin{align*} \frac{\sin(x+h)-\sin x}{h} & =\frac{2\sin\frac{x+h-x}{2}\cos\frac{x+h+x}{2}}{h} \\ & =\cos(x+\frac{h}{2})\cdot \frac{\sin{\frac{h}{2}}}{{\frac{h}{2}}}\end{align*} \)

zmierza do \( \displaystyle \cos x \), gdyż \( \displaystyle \frac{\sin{\frac{h}{2}}}{{\frac{h}{2}}}\to 1 \) oraz \( \displaystyle \cos (x+\frac{h}{2})\to \cos x \) przy \( \displaystyle h\to 0 \).

e) Funkcja \( \displaystyle x\mapsto \cos x \) jest różniczkowalna w każdym punkcie\( \displaystyle x\in \mathbb{R} \), ponieważ iloraz różnicowy

\( \displaystyle \begin{align*} \frac{\cos(x+h)-\cos x}{h} & =\frac{-2\sin\frac{x+h-x}{2}\sin\frac{x+h+x}{2}}{h} \\ & =-\sin(x+\frac{h}{2})\cdot \frac{\sin{\frac{h}{2}}}{{\frac{h}{2}}}\end{align*} \)

zmierza do \( \displaystyle -\sin x \), gdyż \( \displaystyle \frac{\sin{\frac{h}{2}}}{{\frac{h}{2}}}\to 1 \) oraz \( \displaystyle \sin (x+\frac{h}{2})\to \sin x \) przy \( \displaystyle h\to 0 \).

Zwróćmy uwagę, że dotychczas nie podaliśmy precyzyjnych definicji funkcji sinus oraz cosinus, bazując na własnościach tych funkcji, poznanych w szkole w oparciu o własności liczb \( \displaystyle \sin \varphi \), \( \displaystyle \cos\varphi \), gdy \( \displaystyle \varphi \) jest kątem trójkąta. W szczególności skorzystaliśmy ze znanego faktu, że istnieje granica \( \displaystyle \lim_{\varphi\to 0}\frac{\sin \varphi}{\varphi}=1 \). Formalnie istnienie tej granicy należy wykazać po podaniu definicji funkcji sinus.

Wykażemy teraz szereg prostych uwag, pozwalających efektywnie wyznaczać pochodną.

Twierdzenie 9.6.

Niech \( \displaystyle f, g \) będą funkcjami określonymi na przedziale otwartym \( \displaystyle (a,b) \). Niech \( \displaystyle x \in (a,b) \). Jeśli istnieją pochodne \( \displaystyle f'(x) \) oraz \( \displaystyle g'(x) \), to

\( \displaystyle \begin{align*} & a) & \exists & (f+g)'(x) & = & f'(x )+g'(x), & \\ & b) & \exists & (f\cdot g)'(x) & = & f'(x)g(x)+f(x )g'(x ), & \\ & c) & \exists & \bigg( \frac{1}{g} \bigg)'(x) & = & \frac{-g'(x)}{g^2 (x )}, & \text{ o ile } g(x)\neq 0, \\ & d) & \exists & \bigg( \frac{f}{g} \bigg)'(x) & = & \frac{f'(x )g(x)-f(x )g'(x)}{g^2 (x)}, & \text{ o ile } g(x)\neq 0.\end{align*} \)

Dowód 9.6.

a) Wobec założenia o istnieniu \( \displaystyle f'(x) \) oraz \( \displaystyle g'(x) \) iloraz różnicowy

\( \displaystyle \frac{(f+g)(x+h)-(f+g)(x)}{h}=\frac{(f)(x+h)-(f)(x)}{h}+\frac{(g)(x+h)-(g)(x)}{h} \)

- na mocy twierdzenia o granicy sumy - ma granicę i jest ona równa \( \displaystyle f'(x)+g'(x ). \)

b) Funkcja \( \displaystyle g \) jest ciągła w punkcie \( \displaystyle x \), gdyż jest w tym punkcie różniczkowalna, więc \( \displaystyle \displaystyle \exists \lim_{h\to 0}g(x+h)=g(x) \). Wobec istnienia pochodnych \( \displaystyle f'(x_0) \) oraz \( \displaystyle g'(x_0) \) iloraz różnicowy

\( \displaystyle \frac{(f\cdot g)(x+h)-(f\cdot g)(x)}{h}=\frac{f(x+h)-f(x)}{h}g(x+h)+f(x)\frac{g(x+h)-g(x)}{h} \)

zmierza przy \( \displaystyle t\to 0 \) do granicy \( \displaystyle f'(x)g(x)+f(x )g'(x ) \).

c) Jeśli tylko \( \displaystyle g(x)\neq 0 \), to - wobec ciągłości funkcji \( \displaystyle g \) w punkcie \( \displaystyle x \) i istnienia \( \displaystyle g'(x) \) - iloraz różnicowy

\( \displaystyle \frac{\frac{1}{g(x+h)}-\frac{1}{g(x)}}{h}=-\frac{g(x+h)-g(x)}{h}\cdot \frac{1}{g(x+h)g(x)} \)

zmierza do granicy \( \displaystyle \displaystyle\frac{-g'(x)}{g^2 (x)} \) przy \( \displaystyle h\to 0 \).

d) Zauważmy, że \( \displaystyle \displaystyle \frac{f}{g}=f\cdot \frac{1}{g} \). Na podstawie wykazanego już twierdzenia o pochodnej iloczynu i pochodnej odwrotności istnieje pochodna

\( \displaystyle \bigg(f\cdot \frac{1}{g}\bigg)'(x)=f'(x)\frac{1}{g(x)}+f(x) \bigg(\frac{1}{g}\bigg)'(x)= \frac{f'(x)}{g(x)}-f(x) \frac{g'(x)}{g^2 (x)}=\frac{f'(x )g(x)-f(x )g'(x)}{g^2 (x)}. \)

Zastosujmy powyższe twierdzenie do wyznaczenia pochodnych kolejnych funkcji elementarnych.

Przykład 9.7.

a) Pamiętając, że tangens jest ilorazem sinusa i cosinusa, możemy łatwo wyznaczyć pochodną funkcji tangens:

\( \displaystyle \begin{align*} (\mathrm{tg}\, x)' & =\bigg(\frac{\sin x}{\cos x}\bigg)'=\frac{\cos x\cos x-\sin x(-\sin x)}{\cos^2 x} \\ & =\frac{1}{\cos^2 x}=1+\mathrm{tg}\,^2 x .\end{align*} \)

b) W podobny sposób wyznaczamy pochodną funkcji cotangens:

\( \displaystyle \begin{align*} (\mathrm{ctg}\, x)' & =\bigg(\frac{\cos x}{\sin x}\bigg)'=\frac{-\sin x\sin x-\cos x \cos x}{\sin^2 x} \\ & =\frac{-1}{\sin^2 x}=-1-\mathrm{ctg}\,^2 x .\end{align*} \)

c) Niech \( \displaystyle w(x)=a_0+a_1 x+ a_2 x^2 +\dots +a_n x^n \) będzie funkcją wielomianową. Na mocy uwagi o pochodnej jednomianu i twierdzenia o pochodnej sumy w każdym punkcie zbioru \( \displaystyle \mathbb{R} \) istnieje pochodna

\( \displaystyle w'(x)=a_1 + 2 a_2 x +3 a_3 x^2 +\dots+na_nx^{n-1}. \)

Niech \( \displaystyle f:(a,b)\mapsto \mathbb{R} \) i \( \displaystyle g: Y\mapsto\mathbb{R} \) będą funkcjami takimi, że zbiór \( \displaystyle Y \) zawiera obraz przedziału \( \displaystyle (a,b) \) przez funkcję \( \displaystyle f \).

Twierdzenie 9.8.

Jeśli istnieje pochodna \( \displaystyle f'(x_0) \) i istnieje pochodna \( \displaystyle g'(y_0) \), gdzie \( \displaystyle y_0=f(x_0 ) \), to istnieje pochodna złożenia \( \displaystyle (g\circ f)'(x_0) \) i jest równa iloczynowi pochodnych, tzn. \( \displaystyle (g\circ f)'(x_0)=g'(y_0)\cdot f'(x_0). \)

Dowód 9.8.

Niech \( \displaystyle y_1=f(x_1) \), gdzie \( \displaystyle x_1\in (a,b) \). Wobec ciągłości funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \) mamy zbieżność \( \displaystyle y_1\to y_0 \), gdy \( \displaystyle x_1\to x_0 \). Iloraz różnicowy

\( \displaystyle \frac{g(f(x_1))-g(f(x_0))}{x_1 - x_0}=\frac{g(y_1)-g(y_0)}{y_1 - y_0}\cdot \frac{f(x_1)-f(x_0)}{x_1 - x_0} \)

zmierza więc do

\( \displaystyle g'(y_0)\cdot f'(x_0 ) \) przy \( \displaystyle x_1\to x_0 \), gdyż \( \displaystyle \frac{f(x_1)-f(x_0)}{x_1 - x_0}\to f'(x_0) \), gdy \( \displaystyle x_1\to x_0 \), zaś \( \displaystyle \frac{g(y_1)-g(y_0)}{y_1 - y_0}\to g'(y_0) \), gdy \( \displaystyle y_1\to y_0 \).

Twierdzenie 9.9.

Niech \( \displaystyle g \) będzie funkcją odwrotną do funkcji \( \displaystyle f:(a,b)\mapsto \mathbb{R} \). Niech \( \displaystyle x_0 \in (a,b) \). Jeśli istnieje pochodna \( \displaystyle f'(x_0)\neq 0 \), to funkcja \( \displaystyle g \) jest różniczkowalna w punkcie \( \displaystyle y_0 =f(x_0) \) i zachodzi równość:

\( \displaystyle g'(y_0)=\frac{1}{f'(x_0)}. \)

Dowód 9.9.

Niech \( \displaystyle x_0, x \in (a,b) \) i niech \( \displaystyle y_0=f(x_0) \), \( \displaystyle y=f(x) \). Funkcja \( \displaystyle f \) jest ciągła w punkcie \( \displaystyle x_0 \), gdyż jest w tym punkcie różniczkowalna, więc \( \displaystyle y\to y_0 \), gdy \( \displaystyle x\to x_0 \). Stąd istnieje granica ilorazu różnicowego

\( \displaystyle \frac{g(y_0)-g(y)}{y_0 -y}=\frac{x_0-x}{f(x_0)-f(x)} =\frac{1}{\frac{f(x_0)-f(x)}{x_0-x}} \to\frac{1}{f'(x_0)}, \text{ gdy }x\to x_0. \)

Przykład 9.10.

Funkcja \( \displaystyle x\mapsto \mathrm{arctg}\, x \) jest odwrotna do funkcji \( \displaystyle x\mapsto \mathrm{tg}\, x \), stąd - na mocy twierdzenia o pochodnej funkcji odwrotnej - mamy

\( \displaystyle \frac{d}{dx}\mathrm{arctg}\, x=\frac{1}{\frac{d}{dy}\mathrm{tg}\, y}=\frac{1}{1+\mathrm{tg}\,^2 y}=\frac{1}{1+\mathrm{tg}\,^2(\mathrm{arctg}\, x)}=\frac{1}{1+x^2}. \)

Pochodne funkcji określonych za pomocą szeregów potęgowych

Pochodne funkcji określonych za pomocą szeregów potęgowych


rycina

Naturalnym uogólnieniem wielomianu (sumy skończonej ilości jednomianów) jest szereg potęgowy

\( \begin{array}{lll} \displaystyle \sum_{n=0}^{\infty}a_n (x-x_0)^n & = & a_0 +a_1 (x-x_0)+a_2 (x-x_0)^2 \\ & + & a_3 (x-x_0)^3+\dots +a_n(x-x_n)^n + \dots \end{array} \)

o środku w punkcie \( \displaystyle x_0 \) i współczynnikach \( \displaystyle a_n \). Własności szeregów potęgowych omówimy szerzej w ramach analizy matematycznej 2, pomijamy więc w tej chwili szczegółowe dowody. Aby uprościć wypowiedzi potrzebnych twierdzeń, zakładamy, że istnieje granica \( \displaystyle \lim_{n\to \infty}\root{n}\of{|a_n|}\in[0,\infty ] \) (tj. skończona lub równa \( \displaystyle \infty \)).

Korzystając z kryterium Cauchy'ego zbieżności szeregów, można wykazać

Twierdzenie 9.11. [twierdzenie Cauchy'ego-Hadamarda]

Szereg potęgowy \( \displaystyle \displaystyle \sum_{n=0}^{\infty}a_n (x-x_0)^n \) jest zbieżny w przedziale otwartym \( \displaystyle (x_0 -R, x_0 +R) \), gdzie \( \displaystyle \frac{1}{R}=\lim_{n\to \infty}\root{n}\of{|a_n|}. \)

Jeśli \( \displaystyle \lim_{n\to \infty}\root{n}\of{|a_n|}=0 \), przyjmujemy \( \displaystyle R=\infty \);

jeśli zaś \( \displaystyle \lim_{n\to \infty}\root{n}\of{|a_n|}=\infty \), przyjmujemy \( \displaystyle R=0 \).

Liczbę \( \displaystyle R \) nazywamy promieniem zbieżności szeregu potęgowego.

Można wykazać następujące

Twierdzenie 9.12.

Funkcja \( \displaystyle \displaystyle f(x)=\sum_{n=0}^{\infty}a_n (x-x_0)^n \) jest różniczkowalna w każdym punkcie przedziału otwartego \( \displaystyle (x_0-R, x_0+R) \), gdzie \( \displaystyle R \) jest promieniem zbieżności szeregu potęgowego. Pochodną tej funkcji wyraża szereg potęgowy

\( \displaystyle \displaystyle f'(x)=\sum_{n=1}^{\infty}na_n (x-x_0)^{n-1}, \ \ |x-x_0 | < R. \)

Innymi słowy: szereg potęgowy można różniczkować wewnątrz przedziału, w którym jest zbieżny, a jego pochodną jest szereg pochodnych jego składników.

Zastosujmy twierdzenie o różniczkowaniu szeregu potęgowego do wyznaczenia pochodnej funkcji wykładniczej \( \displaystyle \exp x \) oraz funkcji sinus i cosinus, które definiuje się za pomocą szeregów potęgowych.

Wniosek 9.13.

Funkcje

\( \begin{array}{lllll} \begin{displaystyle} \displaystyle \displaystyle x\mapsto \exp x & = & \displaystyle \sum_{n=0}^{\infty}\frac{x^n}{n!} & = & 1+x+\frac{x^2}{2!}+\frac{x^3}{3!}+\frac{x^4}{4!}\displaystyle +\frac{x^5}{5!}+\dots \\ \displaystyle x\mapsto \sin x & = & \displaystyle \sum_{k=0}^{\infty}\frac{(-1)^kx^{2k+1}}{(2k+1)!} & = & 0+x+0-\frac{x^3}{3!}+0+\frac{x^5}{5!}+\dots \\ \displaystyle x\mapsto \cos x & = & \displaystyle \sum_{k=0}^{\infty}\frac{(-1)^kx^{2k}}{(2k)!} & = & 1+0-\frac{x^2}{2!}+0+\frac{x^4}{4!}+0-\dots \end{displaystyle}\end{array} \)

są różniczkowalne w każdym punkcie \( \displaystyle x\in \mathbb{R} \), przy czym

\( \begin{array}{lll}\displaystyle (\exp x)' & = & \exp x, \\ (\sin x)' & = & \cos x, \\ (\cos x)' & = & - \sin x. \end{array} \)

Dowód 9.13.

Promień zbieżności każdego z powyższych szeregów definiujących odpowiednio funkcje \( \displaystyle \exp \) sinus i cosinus równy jest nieskończoności, ponieważ \( \displaystyle \lim_{n\to\infty}\root{n}\of{n!}=\infty \). Aby przekonać się o tym, możemy na przykład zastosować oszacowanie

\( \displaystyle \big(\frac{n}{3}\big)^n\leq n! \leq \big(\frac{n}{2}\big)^n, \text{ dla } n\geq 6, \)

z którego mamy

\( \displaystyle \frac{n}{3}\leq \root{n}\of{n!}\leq \frac{n}{2}. \)

Na mocy twierdzenia o trzech ciągach istnieje więc granica \( \displaystyle \lim_{n\to\infty}\root{n}\of{n!}=\infty \).

Stąd w całym przedziale \( \displaystyle (-\infty, \infty) \) możemy stosować twierdzenie o różniczkowaniu szeregu potęgowego i mamy

\( \displaystyle \begin{align*}(\exp x)' & =\sum_{n=1}^{\infty}\frac{nx^{n-1}}{n!}=\sum_{n=1}^{\infty}\frac{x^{n-1}}{(n-1)!} \text{\ \ (podstawiamy }k:=n-1 \text{)} \\ & =\sum_{k=0}^{\infty}\frac{x^k}{k!}=\exp x.\end{align*} \)

W podobny sposób dowodzimy dwóch pozostałych równości: \( \displaystyle (\sin x)'=\cos x \) oraz \( \displaystyle (\cos x)'=-\sin x \).

Oszacowanie

\( \displaystyle \big(\frac{n}{3}\big)^n\leq n! \leq \big(\frac{n}{2}\big)^n, \text{ dla } n\geq 6, \)

można wykazać indukcyjnie (szczegóły dowodu znajdują się np. w podręczniku Leona Jeśmianowicza i Jerzego Łosia Zbiór zadań z algebry, Państwowe Wydawnictwo Naukowe, wyd.VII, Warszawa 1976). Uogólnieniem tego oszacowania jest

Twierdzenie 9.14. [twierdzenie Stirlinga]

Dla dowolnej liczby naturalnej \( \displaystyle n \) istnieje liczba \( \displaystyle \theta_n \in [0,1) \) (zależna od wyboru liczby \( \displaystyle n \)) taka, że zachodzi równość

\( \displaystyle n!=\big(\frac{n}{e}\big)^n\sqrt{2\pi n}\exp\frac{\theta_n}{12 n}. \)

Równość tę nazywamy wzorem Stirlinga. Zwróćmy uwagę, że dla dużych \( \displaystyle n \) czynnik \( \displaystyle \exp\frac{\theta_n}{12 n}\approx 1 \), stąd

\( \displaystyle n!\approx \big(\frac{n}{e}\big)^n\sqrt{2\pi n}. \)

W wielu praktycznych obliczeniach wystarczy posługiwać się nawet przybliżeniem

\( \displaystyle n!\approx \big(\frac{n}{e}\big)^n \)

lub (pamiętając, że \( \displaystyle 2 < e < 3 \)) oszacowaniem

\( \displaystyle \big(\frac{n}{3}\big)^n\leq n! \leq \big(\frac{n}{2}\big)^n \), dla \( \displaystyle n\geq 6, \)

które wykorzystaliśmy do wyznaczenia promienia zbieżności szeregu definiującego funkcję \( \displaystyle \exp \).

Pochodna logarytmu

Pochodna logarytmu


Funkcja \( \displaystyle x\mapsto \ln x \) jest odwrotna do funkcji \( \displaystyle x\mapsto\exp x \). Stąd - na mocy twierdzenia o pochodnej funkcji odwrotnej - mamy

Uwaga 9.15. [wzór na pochodną logarytmu naturalnego]

\( \displaystyle \frac{d}{dx}\ln x=\frac{1}{\frac{d}{dy}\exp y}=\frac{1}{\exp y}=\frac{1}{\exp(\ln x)}=\frac{1}{x}. \)

Zauważmy też, że pochodna \( \displaystyle \frac{d}{dx}\ln|x|=\frac{1}{x} \), dla \( \displaystyle x\neq 0 \). Oznaczmy symbolem \( \displaystyle \mathrm{\,abs}\, (x)=|x| \) wartość bezwzględną liczby \( \displaystyle x \). Na mocy twierdzenia o pochodnej złożenia funkcji mamy równość

\( \begin{array}{lll} \displaystyle \frac{d}{dx}(\ln|x|) & = & (\ln\circ\mathrm{\,abs}\,)'(x)=(\ln)'(\mathrm{\,abs}\,(x))\cdot (\mathrm{\,abs}\,)'(x) \\ \displaystyle & = & \displaystyle \frac{1}{|x|}\cdot\mathrm{sgn}\, x=\frac{x}{|x|^2}=\frac{1}{x}.\end{array} \)

Ogólnie:

Uwaga 9.16.

Jeśli \( \displaystyle f \) jest funkcją różniczkowalną w punkcie \( \displaystyle x_0 \) i \( \displaystyle f(x_0)\neq 0 \), to istnieje pochodna złożenia \( \displaystyle \ln |f|=\ln\circ\mathrm{\,abs}\,\circ f \) w punkcie \( \displaystyle x_0 \) i jest równa \( \displaystyle \displaystyle (\ln|f|)'(x_0)=\frac{f'(x_0)}{f(x_0)} \).

Przykład 9.17.

Mamy

\( \displaystyle \frac{d}{dx}\ln|\sin x|=\frac{\cos x}{\sin x}=\mathrm{ctg}\, x, \)

a także

\( \displaystyle \frac{d}{dx}\ln|\cos x|=\frac{-\sin x}{\cos x}=-\mathrm{tg}\, x. \)

Wniosek 9.18.

Pochodną funkcji \( \displaystyle x\mapsto g(x)^{f(x)}=\exp\big(f(x)\ln g(x)\big) \) wyznaczymy, różniczkując złożenie iloczynu funkcji \( \displaystyle x\mapsto f(x)\ln g(x) \) z funkcją wykładniczą \( \displaystyle \exp \).

Przykład 9.19.

a) Wyznaczmy pochodną funkcji wykładniczej o podstawie \( \displaystyle a>0 \). Mamy \( \displaystyle a^x=\exp (x \ln a) \), więc

\( \displaystyle \frac{d}{dx}a^x=\frac{d}{dx}\big(\exp (x \ln a)\big)= \exp (x \ln a)\cdot \frac{d}{dx} \big(x \ln a\big)=a^x \ln a, \) czyli \( \displaystyle (a^x)'=a^x \ln a \).

b) Wiemy już, że \( \displaystyle \frac{d}{dx}x^n=nx^{n-1} \), gdy \( \displaystyle n \) jest liczbą naturalną. Korzystając z równości \( \displaystyle x^a=\exp(a \ln x),x>0 \) jesteśmy także w stanie wykazać, że \( \displaystyle (x^a)'=ax^{a-1} \), gdy \( \displaystyle a \) jest dowolną liczbą rzeczywistą. Mamy bowiem

\( \displaystyle \frac{d}{dx}x^a=\frac{d}{dx}\big(\exp(a \ln x)\big)=\exp(a \ln x)\cdot \frac{d}{dx}(a \ln x)=x^a \cdot \frac{a}{x}=ax^{a-1}. \)

Porównanie pochodnych funkcji trygonometrycznych i hiperbolicznych

Porównanie pochodnych funkcji trygonometrycznych i hiperbolicznych


Wprost z definicji funkcji hiperbolicznych, które poznaliśmy w drugim module, korzystając z faktu, że pochodna \( \displaystyle (\exp x)'=\exp x \), wyprowadzamy

Wniosek 9.20.

Wzory na pochodne funkcji hiperbolicznych

\( \begin{array}{lll} \begin{displaystyle} \displaystyle (\sinh x)' & = & \displaystyle \frac{1}{2}(\exp x-\exp(-x))'=\frac{1}{2}(\exp x+\exp(-x))=\cosh x, \\ \displaystyle (\cosh x)' & = & \displaystyle \frac{1}{2}(\exp x+\exp(-x))'=\frac{1}{2}(\exp x-\exp(-x))=\sinh x, & \\ \displaystyle (\textrm{tgh } x)' & = & \displaystyle \bigg(\frac{\sinh x}{\cosh x}\bigg)'=\frac{\cosh x\cosh x-\sinh x\sinh x}{\cosh^2x}=1-\tgh^2 x=\frac{1}{\cosh^2 x}, \\ \displaystyle (\textrm{ctgh } x)' & = & \displaystyle \bigg(\frac{\cosh x}{\sinh x}\bigg)'=\frac{\sinh x\sinh x-\cosh x\cosh x}{\sinh^2x}=1-\ctgh^2 x=\frac{-1}{\sinh^2x}. \end{displaystyle}\end{array} \)

Dowodząc dwóch ostatnich wzorów, skorzystaliśmy z twierdzenia o pochodnej iloczynu oraz z tożsamości \( \displaystyle \cosh^2 x-\sinh^2 x=1 \), zwanej jedynką hiperboliczną.

Korzystając z twierdzenia o pochodnej funkcji odwrotnej i powyższych wzorów, możemy łatwo wykazać, że

\( \displaystyle ({\rm arsinh\, } x)'=\frac{1}{\sqrt{1+x^2}} \)    oraz    \( \displaystyle ({\rm artgh\, } x)'=\frac{1}{1-x^2}. \) Szczegółowe obliczenia przeprowadzimy w ramach ćwiczeń.

Uwaga 9.21.

Otrzymane wzory warto zestawić i porównać ze wzorami określającymi pochodne funkcji trygonometrycznych i cyklometrycznych.

\( \displaystyle \begin{align*} & (\sinh x)'=\cosh x, \ \ \ \ & & (\sin x)'=\cos x, \\ & (\cosh x)'=\sinh x, \ \ \ \ & & (\cos x)'=-\sin x, \\ & (\textrm{tgh } x)'=1-\textrm{tgh }^2 x, \ \ \ \ & & (\mathrm{tg}\, x)'=1+\mathrm{tg}\,^2 x, \\ & (\textrm{ctgh } x)'=1-\textrm{ctgh }^2 x, \ \ \ \ & & (\mathrm{ctg}\, x)'=-1-\mathrm{ctg}\,^2 x, \\ & ({\rm arsinh\, } x)'=\frac{1}{\sqrt{1+x^2 }}, \ \ \ \ & & (\arcsin x)'=\frac{1}{\sqrt{1-x^2 }}, \\ & ({\rm artgh\, } x)'=\frac{1}{1-x^2 }, \ \ \ \ & & (\mathrm{arctg}\, x)'=\frac{1}{1+x^2}. \end{align*} \)

Twierdzenie Rolle'a. Punkty krytyczne

Twierdzenie Rolle'a. Punkty krytyczne


Niech \( \displaystyle X\subset \mathbb{R} \) będzie niepustym podzbiorem zbioru liczb rzeczywistych i niech \( \displaystyle f:X\mapsto \mathbb{R} \). Oznaczmy przez \( \displaystyle d(x,y):=|x-y| \) odległość punktów \( \displaystyle x, y\in X \).

Definicja 9.22.

Mówimy, że funkcja \( \displaystyle f: X\mapsto \mathbb{R} \) osiąga maksimum lokalne (odpowiednio: minimum lokalne) w punkcie \( \displaystyle x_0\in X \), jeśli istnieje pewne otoczenie punktu \( \displaystyle x_0 \), w którym wartości funkcji \( \displaystyle f \) są nie większe (odpowiednio: nie mniejsze) od wartości funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \), to znaczy

\( \displaystyle \exists \delta>0 : \forall x\in X : d(x, x_0) < \delta \Longrightarrow f(x)\leq f(x_0), \)

odpowiednio:

\( \displaystyle \exists \delta>0 : \forall x\in X : d(x, x_0) < \delta \Longrightarrow f(x)\geq f(x_0). \)

Jeśli ponadto w pewnym sąsiedztwie punktu \( \displaystyle x_0 \) funkcja przyjmuje wartości mniejsze (odpowiednio: większe) od wartości funkcji \( \displaystyle f(x_0) \) w punkcie \( \displaystyle x_0 \), co zapisujemy:

\( \displaystyle \exists \delta>0 : \forall x\in X : 0 < d(x, x_0) < \delta \Longrightarrow f(x) < f(x_0), \)

odpowiednio:

\( \displaystyle \exists \delta>0 : \forall x\in X :0 < d(x, x_0) < \delta \Longrightarrow f(x)> f(x_0), \)

to mówimy, że funkcja \( \displaystyle f \) osiąga silne (ścisłe) maksimum lokalne (odpowiednio: silne (ścisłe) minimum lokalne) w punkcie \( \displaystyle x_0 \). Jeśli \( \displaystyle f(x_0)=\sup f(X) \) (odpowiednio: \( \displaystyle f(x_0)=\inf f(X) \)) - to znaczy: jeśli w punkcie \( \displaystyle x_0 \) funkcja \( \displaystyle f \) osiąga kres górny wartości (odpowiednio: kres dolny wartości) w zbiorze \( \displaystyle X \), to mówimy, że funkcja \( \displaystyle f \) osiąga w punkcie \( \displaystyle x_0 \) maksimum globalne (odpowiednio: minimum globalne). Minima i maksima lokalne (odpowiednio: minima i maksima globalne) nazywamy też krótko ekstremami lokalnymi (odpowiednio: ekstremami globalnymi) funkcji.

Przykład 9.23.

Funkcja \( \displaystyle f(x)=x^2 \) zawężona do przedziału \( \displaystyle -1\leq x\leq 2 \) osiąga minimum lokalne w punkcie \( \displaystyle x=0 \) równe \( \displaystyle f(0)=0 \). Funkcja ta osiąga dwa maksima lokalne w punktach \( \displaystyle x=-1 \) oraz \( \displaystyle x=2 \) równe odpowiednio: \( \displaystyle f(-1)=1 \) oraz \( \displaystyle f(2)=4 \). Kresem górnym wartości funkcji \( \displaystyle f \) w przedziale \( \displaystyle [-1,2] \) jest liczba 4, stąd w punkcie \( \displaystyle x=2 \) funkcja \( \displaystyle f \) osiąga maksimum globalne. Kresem dolnym wartości funkcji \( \displaystyle f \) jest liczba zero, stąd w \( \displaystyle x=0 \) funkcja osiąga minimum globalne.

Z kolei \( \displaystyle f(x)=x^2 \) zawężona do przedziału lewostronnie otwartego \( \displaystyle -1 < x\leq 2 \) osiąga minimum globalne w punkcie \( \displaystyle x=0 \), a w punkcie \( \displaystyle x=2 \) osiąga maksimum globalne. Nie osiąga ekstremum w punkcie \( \displaystyle x=-1 \), gdyż nie jest określona w tym punkcie.

Zawężenie funkcji \( \displaystyle f(x)=x^2 \) do przedziału obustronnie otwartego \( \displaystyle -1 < x < 2 \) osiąga minimum globalne w punkcie \( \displaystyle x=0 \) i jest to jedyne ekstremum tej funkcji. W przedziale \( \displaystyle (-1,2) \) nie osiąga bowiem maksimum. Kres górny zbioru wartości funkcji \( \displaystyle f \) w przedziale \( \displaystyle (-1,2) \) wynosi \( \displaystyle 4 \), kres ten nie jest realizowany przez żadną wartość funkcji, to znaczy nie istnieje argument \( \displaystyle x\in (-1,2) \) taki, że \( \displaystyle f(x)=\sup\{f(t), -1 < t < 2\} \).

Wykażemy teraz twierdzenie stanowiące warunek konieczny istnienia ekstremum funkcji w punkcie, w którym jest ona różniczkowalna.

Niech \( \displaystyle f:\mathbb{R}\mapsto\mathbb{R} \) będzie funkcją określoną w pewnym otoczeniu punktu \( \displaystyle x_0\in \mathbb{R} \).

Twierdzenie 9.24.

Jeśli funkcja \( \displaystyle f:(a,b)\mapsto\mathbb{R} \) osiąga ekstremum w punkcie \( \displaystyle x_0\in (a,b) \) i jest różniczkowalna w punkcie \( \displaystyle x_0 \), to pochodna \( \displaystyle f'(x_0)=0 \).

Dowód 9.24.

Załóżmy, że w punkcie \( \displaystyle x_0 \) funkcja osiąga maksimum lokalne. Wobec tego istnieje liczba \( \displaystyle \delta >0 \) taka, że dla \( \displaystyle x\in (x_0-\delta, x_0) \) mamy

\( \displaystyle \frac{f(x_0)-f(x)}{x_0-x}\geq 0, \)

natomiast dla \( \displaystyle x\in (x_0, x_0+\delta) \) mamy

\( \displaystyle \frac{f(x_0)-f(x)}{x_0-x}\leq 0. \)

Wobec istnienia pochodnej \( \displaystyle f'(x_0) \), istnieją granice powyższych ilorazów różnicowych
\( \displaystyle \lim_{x\to x_0 -}\frac{f(x_0)-f(x)}{x_0-x}\geq 0 \) oraz \( \displaystyle \lim_{x\to x_0 +}\frac{f(x_0)-f(x)}{x_0-x}\leq 0 \)

i muszą być równe. Stąd \( \displaystyle f'(x_0)=0 \). W przypadku, gdy w punkcie \( \displaystyle x_0 \) funkcja osiąga minimum, rozumowanie przebiega podobnie.

Zwróćmy uwagę, że w twierdzeniu nie zakładaliśmy ciągłości funkcji \( \displaystyle f \) w otoczeniu punktu \( \displaystyle x_0 \). Pamiętamy, że z faktu istnienia pochodnej \( \displaystyle f'(x_0) \) wynika ciągłość funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \).

Twierdzenie 9.25. [twierdzenie Rolle'a]

Niech \( \displaystyle f:[a,b]\mapsto \mathbb{R} \) będzie funkcją ciągłą w przedziale domkniętym \( \displaystyle [a,b] \) i różniczkowalną wewnątrz tego przedziału. Jeśli na końcach przedziału funkcja \( \displaystyle f \) przyjmuje równe wartości \( \displaystyle f(a)=f(b) \), to istnieje punkt \( \displaystyle \xi\in(a,b) \), w którym zeruje się pochodna funkcji \( \displaystyle f'(\xi)=0 \).

Dowód 9.25.

Jeśli funkcja \( \displaystyle f \) jest stała, to w każdym punkcie \( \displaystyle \xi\in (a,b) \) mamy \( \displaystyle f'(\xi)=0 \). Jeśli natomiast \( \displaystyle f \) nie jest stała, to z twierdzenia Weierstrassa o osiąganiu kresów przez funkcję ciągłą na zbiorze zwartym wynika, że w pewnym punkcie \( \displaystyle \xi\in (a,b) \) funkcja \( \displaystyle f \) osiąga kres górny lub kres dolny. Na podstawie poprzedniego twierdzenia pochodna w tym punkcie zeruje się, tj. \( \displaystyle f'(\xi)=0 \).

Twierdzenie Rolle'a (zgodnie z interpretacją geometryczną pochodnej) orzeka, że jeśli funkcja różniczkowalna w przedziale \( \displaystyle (a,b) \) przyjmuje na końcach przedziału \( \displaystyle [a,b] \) (w którym jest ciągła) tę samą wartość, to między punktami \( \displaystyle a \) i \( \displaystyle b \) da się znaleźć punkt \( \displaystyle \xi \) taki, że styczna do wykresu funkcji \( \displaystyle f \) w punkcie \( \displaystyle (\xi, f(\xi)) \) jest pozioma, tj. równoległa do osi rzędnych.

Twierdzenie Rolle'a wymaga założenia o ciągłości funkcji w przedziale domkniętym \( \displaystyle [a,b] \) i różniczkowalności we wszystkich punktach przedziału \( \displaystyle (a,b) \).

wykres

Przykład 9.26.

Funkcja

\( \displaystyle f(x)=\left \{\begin{align*} & 0, & \text{ dla } & x=0 \\ & \mathrm{ctg}\,(x), & \text{ dla } & 0 < x < \frac{\pi}{2}, \end{align*}. \right. \)

jest określona na przedziale domkniętym \( \displaystyle [0, \frac{\pi}{2}] \) i jest różniczkowalna wewnątrz tego przedziału, gdyż

\( \displaystyle \forall x\in(0, \pi)\ \exists f'(x)=-1-\mathrm{ctg}\,^2 x \leq -1 < 0. \)

Stąd w żadnym punkcie przedziału \( \displaystyle (0, \frac{\pi}{2}) \) pochodna \( \displaystyle f' \) nie zeruje się, mimo że na końcach tego przedziału funkcja przyjmuje takie same wartości: \( \displaystyle f(0)=f(\frac{\pi}{2})=0 \). Twierdzenie Rolle'a nie zachodzi w tym przypadku, funkcja \( \displaystyle f \) nie jest bowiem ciągła w punkcie \( \displaystyle x=0 \).

Przykład 9.27.

Funkcja \( \displaystyle f(x)=|x| \) jest ciągła w przedziale \( \displaystyle [-1,1] \) i na jego końcach osiąga równe wartości. Jest także różniczkowalna we wnętrzu tego przedziału z wyjątkiem tylko jednego punktu \( \displaystyle x=0 \), w którym nie istnieje pochodna \( \displaystyle f' \). Twierdzenia Rolle'a również w tym przypadku nie stosuje się, gdyż - jak pamiętamy - dla \( \displaystyle x\neq 0 \) mamy

\( \displaystyle f'(x)=\mathrm{sgn}\,(x)=\left \{\begin{align*} 1 & , & \text{ dla } & x>0 \\ -1 & , & \text{ dla } & x < 0. \end{align*}, \right. \)

a więc nie ma w zbiorze \( \displaystyle (-1, 0)\cup (0, 1) \) takiego punktu, w którym zerowałaby się pochodna \( \displaystyle f' \).

W szczególności nie istnieje styczna do wykresu funkcji \( \displaystyle x\mapsto |x| \) w punkcie \( \displaystyle (0,0) \).

Dziedzina \( \displaystyle \mathrm{dom}\, f' \) pochodnej \( \displaystyle f' \) jest zawsze podzbiorem dziedziny \( \displaystyle \mathrm{dom}\, f \) funkcji \( \displaystyle f \). Z twierdzenia 9.24. wynika, że jeśli funkcja osiąga ekstremum w punkcie \( \displaystyle a\in \mathrm{dom}\, f' \), to \( \displaystyle f'(a)=0 \). Jednak funkcja \( \displaystyle f \) może osiągać również ekstrema w tych punktach, w których nie istnieje pochodna, tzn. w punktach zbioru \( \displaystyle \mathrm{dom}\, f\setminus \mathrm{dom}\, f' \).

Definicja 9.28.

Niech \( \displaystyle f:\mathbb{R} \mapsto \mathbb{R} \). Mówimy, że punkt \( \displaystyle a\in \mathrm{dom}\, f \) jest punktem krytycznym funkcji \( \displaystyle f \), jeśli funkcja \( \displaystyle f \) nie jest różniczkowalna w punkcie \( \displaystyle a \) albo jest w tym punkcie różniczkowalna i pochodna \( \displaystyle f'(a)=0 \). Zbiór punktów

\( \displaystyle \{a\in \mathrm{dom}\, f: a\notin \mathrm{dom}\, f'\}\cup \{a\in \mathrm{dom}\, f': f'(a)=0\} \)

nazywamy zbiorem punktów krytycznych funkcji \( \displaystyle f \).

Wiemy (zob. przykład 9.4.), że funkcja \( \displaystyle f \) może nie być różniczkowalna w kilku punktach, a nawet w żadnym punkcie swojej dziedziny, mimo że jest ciągła. Badając przebieg zmienności funkcji, nie możemy więc zawężać poszukiwania punktów ekstremalnych wyłącznie do tych punktów, w których funkcja jest różniczkowalna.

Uwaga 9.29.

Jeśli funkcja \( \displaystyle f \) osiąga ekstremum w pewnym punkcie, to punkt ten jest jej punktem krytycznym.

Dowód 9.29.

Funkcja \( \displaystyle f \) może osiągać ekstremum w punkcie, który należy do dziedziny pochodnej \( \displaystyle \mathrm{dom}\, f' \) albo do różnicy dziedziny funkcji i dziedziny jej pochodnej \( \displaystyle \mathrm{dom}\, f\setminus \mathrm{dom}\, f' \). W przypadku, gdy \( \displaystyle a\in\mathrm{dom}\, f' \), na mocy twierdzenia 9.24.> mamy

\( \displaystyle f'(a)=0 \), punkt \( \displaystyle a \) jest więc krytyczny. Z kolei, jeśli \( \displaystyle a\in\mathrm{dom}\, f\setminus \mathrm{dom}\, f' \), to punkt \( \displaystyle a \) jest krytyczny, z definicji 9.28.

Zauważmy, że powyższa uwaga doprecyzowywuje warunek konieczny istnienia ekstremum zawarty w twierdzeniu 9.24. w przypadku, gdy funkcja \( \displaystyle f \) nie jest różniczkowalna w punkcie, w którym osiąga ekstremum. Co więcej, funkcja \( \displaystyle f \) może osiągać ekstremum w punkcie, w którym nie jest nawet ciągła (zob. przykład poniżej). Punkt taki - na mocy uwagi uwagi 9.2.- należy do zbioru \( \displaystyle \mathrm{dom}\, f\setminus \mathrm{dom}\, f' \), jest więc krytyczny.

wykresy

Przykład 9.30.

a) Funkcja \( \displaystyle f(x)=|x| \) określona jest w zbiorze \( \displaystyle \mathrm{dom}\, f= \mathbb{R} \), a różniczkowalna w \( \displaystyle \mathrm{dom}\, f'=\mathbb{R}\setminus \{0\} \). Jedynym punktem krytycznym \( \displaystyle f \) jest punkt \( \displaystyle 0\in \mathrm{dom}\, f\setminus \mathrm{dom}\, f' \), w którym \( \displaystyle f \) osiąga minimum.

b) Funkcja

\( \displaystyle \tilde{f}(x)=\{\begin{align*} 1, \text{ dla } x=0, \\ |x|, \text{ dla } x\neq 0\end{align*} . \)

różni się od poprzedniej funkcji jedynie wartością w zerze, nie jest w tym punkcie ciągła. Pochodna \( \displaystyle \tilde{f}'(x)=\mathrm{sgn}\, x \) nie zeruje się w żadnym punkcie swojej dziedziny \( \displaystyle \mathrm{dom}\, \tilde{f}'=(-\infty, 0)\cup (0, \infty) \). Jedynym punktem krytycznym funkcji \( \displaystyle \tilde{f} \) jest więc zero, w którym funkcja ta osiąga silne maksimum lokalne, gdyż dla \( \displaystyle 0 < |x| < 1 \) mamy \( \displaystyle \tilde{f}(x) < 1=\tilde{f}(0) \).

Przykład 9.31.

Funkcja \( \displaystyle f(x)=x \) zacieśniona do przedziału domkniętego \( \displaystyle [-1, \ 2] \) jest różniczkowalna w przedziale otwartym \( \displaystyle (-1,\ 2) \). W każdym punkcie \( \displaystyle -1 < x < 2 \) mamy \( \displaystyle f'(x)=1\neq 0 \). Stąd jedynymi punktami krytycznym są punkty \( \displaystyle \mathrm{dom}\, f\setminus \mathrm{dom}\, f'=\{-1, \ 2\} \), czyli końce przedziału domkniętego. W punkcie \( \displaystyle x=-1 \) funkcja \( \displaystyle f \) osiąga minimum \( \displaystyle f(-1)=-1 \), a w \( \displaystyle x=2 \) maksimum \( \displaystyle f(2)=2 \).

Przykład 9.32.

Funkcja \( \displaystyle f(x)=\sqrt{1-x^2} \) określona jest na przedziale domkniętym \( \displaystyle \mathrm{dom}\, f=[-1, \ 1] \), a jej pochodna \( \displaystyle f'(x) = \frac{-x}{\sqrt{1-x^2}} \) istnieje w punktach przedziału otwartego \( \displaystyle \mathrm{dom}\, f'=(-1,1) \). Pochodna zeruje się w punkcie \( \displaystyle x=0 \). Stąd zbiór punktów krytycznych funkcji \( \displaystyle f \) składa się z trzech punktów: \( \displaystyle \{-1, \ 0, \ 1\} \). Funkcja \( \displaystyle f \) osiąga w punkcie \( \displaystyle 0 \) maksimum \( \displaystyle f(0)=1 \), a w dwóch pozostałych punktach krytycznych osiąga minima \( \displaystyle f(-1)=f(1)=0 \). Zwróćmy uwagę, że w obu tych punktach pochodna nie istnieje. Co więcej, granice jednostronne pochodnej \( \displaystyle f' \):

\( \displaystyle \lim_{x\to -1+}f'(x)=\infty \ \ \text{ oraz } \ \ \lim_{x\to 1-}f'(x)=-\infty \)

są nieskończone.

Przykład 9.33.

Funkcja \( \displaystyle f(x)=\sqrt{x^2 -1} \) określona jest dla \( \displaystyle |x|\geq 1 \). Stąd \( \displaystyle \mathrm{dom}\, f=(-\infty, -1]\cup[1, \infty). \) Jej pochodna \( \displaystyle f'(x)=\frac{x}{\sqrt{x^2-1}} \) określona jest w sumie przedziałów otwartych \( \displaystyle \mathrm{dom}\, f'=(-\infty, -1)\cup (1, \infty) \). Zwróćmy uwagę, że pochodna nie zeruje się w żadnym punkcie swojej dziedziny. Jednak zbiór punktów krytycznych funkcji \( \displaystyle f \) zawiera dwa punkty: \( \displaystyle -1 \) oraz \( \displaystyle 1 \), w których funkcja \( \displaystyle f \) osiąga minima

\( \displaystyle f(-1)=f(1)=0 \).

W punktach zbioru \( \displaystyle \mathrm{dom}\, f\setminus \mathrm{dom}\, f' \) funkcja nie musi osiągać ekstremum, co ilustrują kolejne przykłady.

Przykład 9.34.

Każdy punkt przedziału \( \displaystyle [0,1] \) jest punktem krytycznym funkcji Dirichleta

\( \displaystyle f(x)=\left \{\begin{align*} & 1, & \text{ dla } & x\in[0,1]\cap \mathbb{Q} \\ & 0, & \text{ dla } & x\in[0,1]\cap (\mathbb{R}\setminus \mathbb{Q})\end{align*} . \right. \)

gdyż nie jest ona różniczkowalna (ani nawet ciągła) w żadnym punkcie tego przedziału. Jednak w żadnym punkcie przedziału \( \displaystyle [0,1] \) (ani w punkcie wymiernym, ani w niewymiernym) funkcja Dirichleta nie osiąga ekstremum, gdyż w dowolnie małym otoczeniu któregokolwiek punktu znajdziemy punkty wymierne i niewymierne, w których funkcja przyjmuje skrajnie różne wartości: albo jeden, albo zero.

Przykład 9.35.

Funkcja

\( \displaystyle f(x)= \left \{\begin{align*} & \sqrt{x}, & \text{dla } & x\geq 0 \\ - & \sqrt{-x}, & \text{ dla } & x < 0\end{align*}., \right. \)

określona jest dla wszystkich liczb rzeczywistych, stąd \( \displaystyle \mathrm{dom}\, f=(-\infty, \infty) \). Jej pochodna

\( \displaystyle f'(x)=\left\{\begin{align*} & \frac{1}{2\sqrt{x}}, & \text{ dla } & x> 0 \\ & \frac{1}{2\sqrt{-x}}, & \text{ dla } & x < 0\end{align*}\right\} =\frac{1}{2\sqrt{|x|}}, \text{ dla } x\neq 0 \)

nie zeruje się w żadnym punkcie swojej dziedziny \( \displaystyle \mathrm{dom}\, f'=(-\infty, 0)\cup (0, \infty) \). Funkcja \( \displaystyle f \) jest nieparzysta, ściśle rosnąca, nie osiąga więc ekstremum w żadnym punkcie swojej dziedziny, również w \( \displaystyle x=0 \), mimo że jest to punkt krytyczny tej funkcji.

Twierdzenie o wartości średniej

Twierdzenie o wartości średniej


Wnioskiem z twierdzenia Rolle'a jest następujące

Twierdzenie 9.36. [twierdzenie Cauchy'ego]

Niech \( \displaystyle f,g: [a,b]\mapsto \mathbb{R} \) będą funkcjami ciągłymi w przedziale domkniętym \( \displaystyle [a,b] \) i różniczkowalnymi w przedziale otwartym \( \displaystyle (a,b) \). Wówczas istnieje punkt \( \displaystyle \xi\in (a,b) \) taki, że

\( \displaystyle \big(f(b)-f(a)\big)g'(\xi)=\big(g(b)-g(a)\big)f'(\xi). \)

Zwróćmy uwagę, że powyższą równość można zapisać w bardziej przejrzystej postaci (i łatwiejszej do zapamiętania):

\( \displaystyle \frac{f(b)-f(a)}{g(b)-g(a)}=\frac{f'(\xi)}{g'(\xi)}, \)

o ile \( \displaystyle g(a)\neq g(b) \) oraz \( \displaystyle g'(\xi)\neq 0 \). Twierdzenie Cauchy'ego głosi w tym przypadku, że istnieje wewnątrz przedziału \( \displaystyle (a,b) \) punkt \( \displaystyle \xi \) taki, że stosunek przyrostów wartości funkcji \( \displaystyle f \) i \( \displaystyle g \) między punktami \( \displaystyle a \) i \( \displaystyle b \) jest równy stosunkowi pochodnych tych funkcji w punkcie \( \displaystyle \xi \).

Dowód 9.36.

Rozważmy pomocniczo funkcję \( \displaystyle h(t):=\big(f(b)-f(a)\big)g(t)-\big(g(b)-g(a)\big)f(t) \) określoną dla \( \displaystyle t\in [a,b] \). Funkcja \( \displaystyle h \) jest ciągła w przedziale domkniętym \( \displaystyle [a,b] \), różniczkowalna w przedziale otwartym \( \displaystyle (a,b) \) o pochodnej równej

\( \displaystyle \frac{d}{dt}h(t)=\big(f(b)-f(a)\big)\frac{d}{dt}g(t)-\big(g(b)-g(a)\big)\frac{d}{dt}f(t). \)

Ponadto \( \displaystyle h(a)=h(b) \). Na mocy twierdzenia Rolle'a istnieje więc taki punkt \( \displaystyle \xi\in (a,b) \), w którym zeruje się pochodna \( \displaystyle h'(\xi)=0 \), skąd wynika teza twierdzenia.

Jako wniosek z twierdzenia Cauchy'ego otrzymujemy

Twierdzenie 9.37. [twierdzenie Lagrange'a]

Jeśli funkcja \( \displaystyle f:[a,b]\mapsto \mathbb{R} \) jest ciągła w przedziale domkniętym \( \displaystyle [a,b] \) i różniczkowalna w każdy punkcie przedziału otwartego \( \displaystyle (a,b) \), to istnieje punkt \( \displaystyle \xi\in (a,b) \) taki, że

\( \displaystyle \frac{f(b)-f(a)}{b-a}=f'(\xi). \)

Dowód 9.37.

Wystarczy w twierdzeniu Cauchy'ego podstawić \( \displaystyle g(t)=t. \) Wówczas \( \displaystyle g(b)=b \), \( \displaystyle g(a)=a \) oraz \( \displaystyle g'(t)=1 \).

wykres

Twierdzenie Lagrange'a nazywane jest też twierdzeniem o przyrostach (skończonych) lub twierdzeniem o wartości średniej, gdyż tezę twierdzenia można zapisać też następująco:

\( \displaystyle f(b)-f(a)=f'(\xi)(b-a), \text{ dla pewnego } \xi\in (a,b). \)

Innymi słowy: przyrost wartości funkcji \( \displaystyle f(b)-f(a) \) odpowiadający przyrostowi argumentu funkcji od \( \displaystyle a \) do \( \displaystyle b \) równy jest iloczynowi przyrostu argumentu \( \displaystyle b-a \) i wartości pochodnej funkcji \( \displaystyle f \) w pewnym punkcie pośrednim \( \displaystyle \xi \) leżącym między punktami \( \displaystyle a \) i \( \displaystyle b \).

Pamiętamy, że interpretacją geometryczną ilorazu różnicowego \( \displaystyle \displaystyle \frac{f(b)-f(a)}{b-a} \) jest współczynnik kierunkowy siecznej wykresu funkcji \( \displaystyle f \) przechodzącej przez punkty \( \displaystyle (a, f(a)) \) i \( \displaystyle (b, f(b)) \). Twierdzenie Lagrange'a orzeka więc, że między punktami \( \displaystyle a \) i \( \displaystyle b \) da się znaleźć taki punkt \( \displaystyle \xi \), że styczna do wykresu funkcji \( \displaystyle f \) w punkcie \( \displaystyle (\xi, f(\xi)) \) jest równoległa do siecznej przechodzącej przez punkty \( \displaystyle (a, f(a)) \) i \( \displaystyle (b, f(b)) \).

Wnioskiem z twierdzenia Lagrange'a o wartości średniej jest twierdzenie, które wiąże monotoniczność funkcji ze znakiem pierwszej pochodnej.

Twierdzenie 9.38.

Niech \( \displaystyle f \) będzie funkcją różniczkowalną w przedziale \( \displaystyle (a,b) \).
a) Jeśli \( \displaystyle f'(x)\geq 0 \) dla wszystkich \( \displaystyle x\in (a,b) \), to \( \displaystyle f \) jest rosnąca w przedziale \( \displaystyle (a,b) \).

a') Jeśli \( \displaystyle f'(x)> 0 \) dla wszystkich \( \displaystyle x\in (a,b) \), to \( \displaystyle f \) jest ściśle rosnąca w przedziale \( \displaystyle (a,b) \).

b) Jeśli \( \displaystyle f'(x)=0 \) dla wszystkich \( \displaystyle x\in (a,b) \), to \( \displaystyle f \) jest stała w przedziale \( \displaystyle (a,b) \).

c) Jeśli \( \displaystyle f'(x)\leq 0 \) dla wszystkich \( \displaystyle x\in (a,b) \), to \( \displaystyle f \) jest malejąca w przedziale \( \displaystyle (a,b) \).

c') Jeśli \( \displaystyle f'(x) < 0 \) dla wszystkich \( \displaystyle x\in (a,b) \), to \( \displaystyle f \) jest ściśle malejąca w przedziale \( \displaystyle (a,b) \).

Dowód 9.38.

Dla dowolnych punktów \( \displaystyle x_1 < x_2 \) z przedziału \( \displaystyle (a,b) \) zgodnie z twierdzeniem Lagrange'a potrafimy wskazać punkt \( \displaystyle \xi\in (x_1, x_2) \) taki, że \( \displaystyle f(x_2)-f(x_1)=f'(\xi)(x_2-x_1) \). Z równości tej wynikają powyższe implikacje.

Wnioskiem z tego twierdzenia jest warunek wystarczający istnienia ekstremum w przypadku, gdy funkcja jest różniczkowalna.

Wniosek 9.39.

Niech \( \displaystyle f \) będzie funkcją różniczkowalną w przedziale \( \displaystyle (a,b) \). Jeśli w punkcie \( \displaystyle x_0\in(a,b) \) pochodna funkcji \( \displaystyle f \) zeruje się (tj. \( \displaystyle f'(x_0)=0 \)) oraz zmienia znak, to znaczy

a) jest dodatnia w przedziale \( \displaystyle (a,x_0) \) i ujemna w \( \displaystyle (x_0,b) \),

b) jest ujemna w przedziale \( \displaystyle (a,x_0) \) i dodatnia w \( \displaystyle (x_0,b) \),

to funkcja \( \displaystyle f \) osiąga w punkcie \( \displaystyle x_0 \) ekstremum, odpowiednio:

a) minimum lokalne, b) maksimum lokalne.

Dowód 9.39.

a) Na mocy poprzedniego twierdzenia funkcja \( \displaystyle f \) jest ściśle rosnąca w przedziale \( \displaystyle (a, x_0) \) i ściśle malejąca w przedziale \( \displaystyle (x_0, b) \), osiąga więc maksimum lokalne w punkcie \( \displaystyle x_0 \). Dowód w przypadku b) jest podobny.

Zwróćmy uwagę, że nie potrzeba zakładać zerowania się pierwszej pochodnej funkcji w punkcie \( \displaystyle x_0 \). Prawdziwy jest więc także

Wniosek 9.40.

Jeśli funkcja \( \displaystyle f \) ciągła w przedziale \( \displaystyle (a,b) \) jest różniczkowalna w przedziałach \( \displaystyle (a, x_0) \) oraz \( \displaystyle (x_0, b) \), przy czym pochodna \( \displaystyle f' \) jest

a) dodatnia w przedziale \( \displaystyle (a, x_0) \) i ujemna w \( \displaystyle (x_0, b) \),

b) ujemna w przedziale \( \displaystyle (a, x_0) \) i dodania w \( \displaystyle (x_0, b) \),

to funkcja \( \displaystyle f \) osiąga w punkcie \( \displaystyle x_0 \) ekstremum, odpowiednio:

a) minimum lokalne,

b) maksimum lokalne.

Przykład funkcji \( \displaystyle f(x)=|x| \), która osiąga minimum w punkcie \( \displaystyle x_0=0 \), a ma pochodną ujemną dla \( \displaystyle x < 0 \), a dodatnią dla \( \displaystyle x>0 \) i wcale nie ma pochodnej w punkcie \( \displaystyle x_0=0 \), stanowi ilustrację ostatniego wniosku.

Przykład 9.41.

Pochodna funkcji \( \displaystyle f(x)=2x^3+3x^2 -12 x+7 \) wynosi

\( \displaystyle f'(x)=6x^2+6x-12=6(x^2+x-2)=6(x+2)(x-1). \)

Stąd \( \displaystyle f'(x) < 0 \) w przedziale \( \displaystyle (-2,1) \), a w obu przedziałach \( \displaystyle (-\infty, -2) \) oraz \( \displaystyle (1, +\infty) \) pochodna jest dodatnia. Na mocy wykazanego twierdzenia, funkcja \( \displaystyle f \) jest ściśle rosnąca w przedziale \( \displaystyle (-\infty, -2) \), następnie maleje w przedziale \( \displaystyle (-2, 1) \) i znowu rośnie w przedziale \( \displaystyle (1, \infty) \). Wobec tego w punkcie \( \displaystyle x=-2 \) osiąga maksimum lokalne równe \( \displaystyle f(-2)=27 \), a w punkcie \( \displaystyle x=1 \) minimum lokalne równe \( \displaystyle f(1)=0 \).

wykres

Uwaga 9.42.

Założenie, że pochodna \( \displaystyle f'(x)\geq 0 \) (odpowiednio \( \displaystyle f'(x)>0 \), \( \displaystyle f'(x)=0 \) itd) w każdym punkcie przedziału \( \displaystyle (a,b) \) jest istotne.

a) Rozważmy funkcję: \( \displaystyle f(x)=[x], \) gdzie \( \displaystyle [x] \) oznacza część całkowitą liczby rzeczywistej \( \displaystyle x \), czyli największą liczbę całkowitą nie większą od \( \displaystyle x \). Wówczas \( \displaystyle f \) jest różniczkowalna w zbiorze \( \displaystyle \mathbb{R}\setminus\mathbb{Z} \) (czyli wszędzie poza zbiorem liczb całkowitych) i w zbiorze tym pochodna \( \displaystyle f'(x)=0 \), mimo że funkcja \( \displaystyle f \) jest rosnąca.

b) Funkcja \( \displaystyle g(x)=x-[x] \) jest różniczkowalna w zbiorze \( \displaystyle \mathbb{R}\setminus\mathbb{Z} \) i w każdym punkcie tego zbioru jej pochodna \( \displaystyle g'(x)=1 \). Jednak funkcja ta nie jest ściśle rosnąca w zbiorze \( \displaystyle \mathbb{R}\setminus \mathbb{Z} \). Jest natomiast ściśle rosnąca w każdym z przedziałów postaci \( \displaystyle (n, n+1) \), gdzie \( \displaystyle n\in\mathbb{Z} \).

Podane funkcje są ciągłe poza zbiorem liczb całkowitych. Można jednak skonstruować przykład funkcji ciągłej, rosnącej o zerowej pochodnej w prawie każdym punkcie, to znaczy w każdym punkcie przedziału \( \displaystyle (0,1) \) poza punktami trójkowego zbioru Cantora

\( \displaystyle C:=\left\{\sum_{k=1}^\infty \frac{a_k}{3^k}, \ \ a_k\in\{0,2\}\right\}. \)

Przypomnijmy, że zbiór ten rozważaliśmy w ramach pierwszego modułu.

wykres

Przykład 9.43.

Niech \( \displaystyle \displaystyle x=(0,a_1 a_2 a_3 a_4 \dots)_{(3)}=\sum_{n=1}^{\infty}\frac{a_n}{3^n} \) będzie dowolną liczbą z przedziału \( \displaystyle [0,1] \) zapisaną w systemie trójkowym za pomocą ciągu cyfr \( \displaystyle a_n=a_n(x)\in\{0,1,2\} \). Niech \( \displaystyle N=N(x) \) będzie najmniejszą liczbą naturalną, dla której \( \displaystyle a_n=1 \). Innymi słowy: niech \( \displaystyle N=N(x) \) będzie pozycją pierwszej jedynki w zapisie trójkowym liczby \( \displaystyle x \), licząc od przecinka pozycyjnego w prawo. Jeśli nie ma takiej liczby, przyjmujemy \( \displaystyle N(x)=\infty \). Określmy ciąg

\( \displaystyle b_n=\left\{\begin{align*} \frac{1}{2}a_n, \text{ dla } n < N(x) \\ 1, \text{ dla } n=N(x) \\ 0, \text{ dla } n>N(x)\end{align*} \right. \)

za pomocą którego definiujemy funkcję Cantora (zwaną także diabelskimi schodami) wzorem

\( \displaystyle \displaystyle f(x)=\sum_{k=1}^{N(x)} \frac{b_k}{2^k}. \)

Łatwo sprawdzić, że \( \displaystyle f(0)=0 \), \( \displaystyle f(1)=1 \), a na odcinkach, które usuwamy kolejno z przedziału \( \displaystyle [0,1] \) podczas kolejnych etapów konstrukcji trójkowego zbioru Cantora, funkcja ta jest stała:

\( \displaystyle f(x)=\frac{1}{2} \text{ dla } x\in\big(\frac{1}{3},\displaystyle\frac{2}{3}\big), \)

\( \displaystyle f(x)=\frac{1}{4} \text{ dla } x\in\big(\frac{1}{9},\frac{2}{9}\big) \text{ oraz } f(x)=\frac{3}{4}\text{ dla } x\in\big(\frac{7}{9}, \frac{8}{9}\big), \)

\( \displaystyle f(x)=\frac{1}{8} \text{ dla } x\in \big(\frac{1}{27},\frac{2}{27}\big), \ f(x)=\frac{3}{8} \text{ dla } x\in\big(\frac{7}{27}, \frac{8}{27}\big), \)

\( \displaystyle f(x)=\frac{5}{8} \text{ dla } x\in \big(\frac{19}{27},\frac{20}{27}\big), f(x)=\frac{7}{8} \text{ dla } x\in\big(\frac{25}{27},\frac{26}{27}\big), \)

i tak dalej. Można wykazać, że funkcja ta jest ciągła w każdym punkcie przedziału \( \displaystyle [0,1] \). Zauważmy, że funkcja Cantora jest różniczkowalna w każdym punkcie zbioru \( \displaystyle [0,1]\setminus C \) (tj. w każdym punkcie przedziału \( \displaystyle (0,1) \) poza punktami trójkowego zbioru Cantora \( \displaystyle C \)). Pochodna funkcji Cantora jest w tych punktach równa zeru, a mimo to (co nietrudno zauważyć) funkcja

Cantora jest rosnąca (niemalejąca) w przedziale \( \displaystyle [0,1] \).

Wzór Taylora. Ekstrema

Wzór Taylora. Ekstrema



Definiujemy pochodne wyższych rzędów oraz funkcje klasy \( \displaystyle C^k \). Twierdzenie Taylora pozwala nam na sformułowanie warunku wystarczającego istnienia ekstremum funkcji klasy \( \displaystyle C^2 \). Pokazujemy, jak można za pomocą wielomianów Taylora przybliżać funkcje klasy \( \displaystyle C^{n+1} \), \( \displaystyle n\geq 1 \). Formułujemy twierdzenie Weierstrassa o przybliżaniu wielomianami funkcji ciągłych na przedziale domkniętym.

Pochodne wyższych rzędów

Pochodne wyższych rzędów


Niech \( \displaystyle f \) będzie funkcją różniczkowalną w przedziale otwartym \( \displaystyle (a,b) \). Rozważmy funkcję pochodną

\( \displaystyle f': (a,b)\ni x\mapsto f'(x)\in \mathbb{R}. \)

Definicja 10.1.

Jeśli funkcja \( \displaystyle f' \) jest różniczkowalna w punkcie \( \displaystyle x_0\in (a,b) \), to znaczy, jeśli istnieje granica ilorazu różnicowego:

\( \displaystyle \lim_{h\to 0}\frac{f'(x_0 +h)-f'(x_0)}{h}, \)

to mówimy, że funkcja \( \displaystyle f \) jest dwukrotnie różniczkowalna w punkcie \( \displaystyle x_0 \), a granicę tę nazywamy pochodną rzędu drugiego (lub krótko: drugą pochodną) funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \) i oznaczamy symbolem \( \displaystyle f''(x_0) \) lub \( \displaystyle \frac{d^2 f}{dx^2}(x_0) \) albo \( \displaystyle \frac{d^2}{dx^2}f(x_0) \), bądź też \( \displaystyle f^{(2)}(x_0) \).

Przykład 10.2.

Znanym ze szkoły przykładem pochodnej rzędu drugiego jest przyśpieszenie, równe pochodnej prędkości \( \displaystyle v \):

\( \displaystyle \frac{d^2}{dt^2}x(t)=\frac{d}{dt}\big(\frac{d}{dt}x(t)\big)=\frac{d}{dt}v(t), \)

gdzie \( \displaystyle t\mapsto x(t) \) oznacza położenie punktu materialnego w chwili \( \displaystyle t \).

Definicję pochodnej rzędu \( \displaystyle n \) możemy podać dla kolejnych liczb naturalnych \( \displaystyle n=1,2,3,\dots \). Często - aby uprościć wypowiedzi twierdzeń - terminem pochodna rzędu zerowego (albo krócej: zerowa pochodna) funkcji \( \displaystyle f \) będziemy nazywać samą funkcję \( \displaystyle f \). Symbol pochodnej rzędu zerowego \( \displaystyle f^{(0)} \) będzie oznaczać funkcję \( \displaystyle f \).

Niech \( \displaystyle f: (a,b)\mapsto \mathbb{R} \) będzie funkcją \( \displaystyle n-1 \) krotnie różniczkowalną, \( \displaystyle n>0 \).

Definicja 10.3.

Jeśli pochodna \( \displaystyle f^{(n-1)} \) rzędu \( \displaystyle n-1 \) funkcji \( \displaystyle f \) jest różniczkowalna w punkcie \( \displaystyle x_0\in (a,b) \), to znaczy, jeśli istnieje granica ilorazu różnicowego:

\( \displaystyle \lim_{h\to 0}\frac{f^{(n-1)}(x_0 +h)-f^{(n-1)}(x_0)}{h}, \)

to mówimy, że funkcja jest \( \displaystyle n \) krotnie różniczkowalna w punkcie \( \displaystyle x_0 \), a granicę tę nazywamy pochodną rzędu \( \displaystyle n \) (lub krótko: \( \displaystyle n \)-tą pochodną) funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \) i oznaczamy symbolem \( \displaystyle f^{(n)}(x_0) \) lub \( \displaystyle \frac{d^n f}{dx^n}(x_0) \), bądź \( \displaystyle \frac{d^n}{dx^n}f(x_0) \).

Jeśli \( \displaystyle n=3,4,\dots \), na oznaczenie pochodnej rzędu \( \displaystyle n \) funkcji \( \displaystyle f \) w punkcie \( \displaystyle x_0 \) używamy raczej symboli:

\( \displaystyle f^{(3)}(x_0), \ f^{(4)}(x_0), \dots , \)

albo

\( \displaystyle \frac{d^3}{dx^3}f(x_0), \ \frac{d^4}{dx^4}f(x_0), \dots, \)

niż \( \displaystyle f'''(x_0), \ f''''(x_0), \dots. \) Kolejne twierdzenie stanowi uogólnienie twierdzenia o pochodnej iloczynu dwóch funkcji na przypadek pochodnej rzędu \( \displaystyle n \).

rycina

Twierdzenie 10.4. [wzór Leibniza]

Niech \( \displaystyle f, g:\mathbb{R}\mapsto\mathbb{R} \) będą funkcjami \( \displaystyle n \) krotnie różniczkowalnymi, \( \displaystyle n\geq 1 \). Zachodzi równość

\( \displaystyle (f\cdot g)^{(n)}=\sum_{k=0}^{n} {n \choose k}f^{(n-k)}g^{(k)}. \)

Dowód 10.4.

Zwróćmy przede wszystkim uwagę na podobieństwo wzoru Leibniza do wzoru dwumianowego Newtona. Dowody obu twierdzeń są analogiczne. Zauważmy wpierw, że twierdzenie zachodzi dla \( \displaystyle n=1 \) mamy bowiem \( \displaystyle (fg)'= {1 \choose 0} f'g+{1 \choose 1}fg'=f'g+fg' \). Następnie, korzystając z równości \( \displaystyle {n \choose k}+ {n \choose k+1}= {n+1 \choose k+1} \), pokazujemy, że dla dowolnej liczby \( \displaystyle m\in{1,2,\dots, n-1} \) zachodzi implikacja

\( \displaystyle \bigg[(f\cdot g)^{(m)}=\sum_{k=0}^{m} {m \choose k}f^{(m-k)}g^{(k)}\bigg] \Longrightarrow \bigg[(f\cdot g)^{(m+1)}=\sum_{k=0}^{m+1} {m+1\choose k}f^{(m-k+1)}g^{(k)}\bigg]. \)

Niech \( \displaystyle k=0,1,2,\dots \) będzie liczbą całkowitą nieujemną.

Definicja 10.5.

Mówimy, że funkcja \( \displaystyle f:(a,b)\mapsto\mathbb{R} \) jest klasy \( \displaystyle C^k \) w przedziale \( \displaystyle (a,b) \), jeśli jest \( \displaystyle k \) krotnie różniczkowalna w przedziale \( \displaystyle (a,b) \) i pochodna \( \displaystyle (a,b) \mapsto f^{(k)}(x) \) rzędu \( \displaystyle k \) funkcji \( \displaystyle f \) jest ciągła. Jeśli dla dowolnej liczby \( \displaystyle k\in\{0,1,2,3,\dots\} \) funkcja \( \displaystyle f \) jest klasy \( \displaystyle C^k \) w przedziale \( \displaystyle (a,b) \), to mówimy, że jest klasy \( \displaystyle C^{\infty} \) w tym przedziale.

Przykład 10.6.

Dowolna funkcja wielomianowa, funkcje sinus, cosinus i wykładnicza \( \displaystyle \exp \) są przykładami funkcji klasy \( \displaystyle C^\infty \) w całym zbiorze liczb rzeczywistych. Ogólnie: dowolna funkcja dana za pomocą szeregu potęgowego \( \displaystyle f(x)=\sum_{k=0}^{\infty}a_k(x-x_0)^k \) jest klasy \( \displaystyle C^\infty \) w przedziale otwartym \( \displaystyle (x_0 -R, x_0+R) \), gdzie \( \displaystyle R \) jest promieniem zbieżności szeregu potęgowego.

Przykład 10.7.

Funkcja \( \displaystyle f_0(x)=|x| \) jest ciągła, ale nie ma ciągłej pochodnej w dowolnym przedziale \( \displaystyle (a,b) \), do którego należy zero, tj. gdy \( \displaystyle a < 0 < b \). Jest więc klasy \( \displaystyle C^0 \) i nie jest klasy \( \displaystyle C^1 \) w takim przedziale. Jeśli zero nie należy do przedziału \( \displaystyle (a,b) \), czyli gdy \( \displaystyle a < b < 0 \) lub \( \displaystyle 0 < a < b \), to restrykcja \( \displaystyle f(x)=|x| \) do przedziału \( \displaystyle (a,b) \) jest wielomianem, czyli funkcją klasy \( \displaystyle C^\infty \).

wykresy

Przykład 10.8.

Funkcja

\( \displaystyle f_1(x)= \left\{\begin{array}{lll} -\frac{1}{2}x^2, \text{ dla }x < 0 \\ \frac{1}{2}x^2, \text{ dla }x\geq 0 \end{array} \right. \)

jest różniczkowalna i jej pochodna \( \displaystyle f'(x)=|x| \). Stąd jeśli \( \displaystyle a < 0 < b \), to \( \displaystyle f_1 \) jest klasy \( \displaystyle C^1 \) w przedziale \( \displaystyle (a,b) \), ale nie jest klasy \( \displaystyle C^2 \).

Przykład ten możemy łatwo dalej modyfikować. Na przykład funkcja

\( \displaystyle f_2(x)= \left\{\begin{array}{lll} -\frac{1}{6}x^3, \text{ dla }x < 0 \\ \frac{1}{6}x^3, \text{ dla }x\geq 0 \end{array} \right. \)

ma pierwszą pochodną równą \( \displaystyle f_2 '(x)=f_1 (x) \), a jej drugą pochodną jest \( \displaystyle f_2 ''(x)=f_0 (x)=|x| \). Funkcja \( \displaystyle f_2 \) jest więc klasy \( \displaystyle C^2 \), ale nie jest klasy \( \displaystyle C^3 \) w dowolnym przedziale otwartym zawierającym zero. Ogólnie

\( \displaystyle f_n(x)=c_n |x|^{n+1}\mathrm{sgn}\, x = \left\{\begin{array}{lll} -c_n x^{n+1}, \text{ dla }x < 0 \\ c_n x^{n+1}, \text{ dla }x\geq 0 \end{array} \right. \)

(gdzie \( \displaystyle c_n=\frac{1}{(n+1)!} \), bądź też jest dowolną inną stałą różną od zera) jest funkcją klasy \( \displaystyle C^n \) i nie jest klasy \( \displaystyle C^{n+1} \) w dowolnym przedziale otwartym zawierającym zero.

Wzór Taylora

Wzór Taylora


Niech \( \displaystyle w(x)=a_0 +a_1 x+a_2 x^2 +a_3 x^3\dots +a_{n-1}x^{n-1}+a_n x^n \) będzie wielomianem. Zauważmy, że wartości pochodnych rzędu \( \displaystyle k=0,1,2,3,\dots , n, n+1,\dots \) w punkcie \( \displaystyle x=0 \) wyrażają się prosto za pomocą współczynników tego wielomianu:

\( \displaystyle \begin{align*} w(0) & =a_0 \\ w'(0) & =a_1, \\ \text{ gdyż }w'(x) & =0+a_1 +2 a_2 x+3a_3 x^2 +\dots +(n-1)a_{n-1}x^{n-2}+n a_n x^{n-1} \\ w''(0) & =2 a_2, \\ \text{ gdyż }w''(x) & =0+0 +2 a_2 +3\cdot 2 a_3 x +\dots +(n-1)(n-2)a_{n-1}x^{n-3}+n(n-1) a_n x^{n-2} \\ w^{(3)}(0) & =3\cdot 2 a_3, \\ \text{ gdyż }w^{(3)}(x) & =0+0 +0 +3\cdot 2 a_3 +\dots +(n-1)(n-2)(n-3)a_{n-1}x^{n-4}+n(n-1)(n-2) a_n x^{n-3} \\ & \vdots \\ w^{(n-1)}(0) & =(n-1)! a_{n-1}, \\ \text{ gdyż }w^{(n-1)}(x) & =0+0 +0 +0 +\dots +(n-1)!a_{n-1}+n! a_n x \\ w^{(n)}(0) & =n! a_{n}, \\ \text{ gdyż }w^{(n)}(x) & =0+0 +0 +0 +\dots +0+n! a_n \\ w^{(n+1)}(0) & =0, \\ \text{ gdyż }w^{(n+1)}(x) & =0+0 +0 +0 +\dots +0+0 \text{ dla dowolnej liczby } x.\end{align*} \)

Każda następna pochodna rzędu wyższego niż stopień wielomianu \( \displaystyle w \) jest równa zeru, i to nie tylko w punkcie zero, ale w każdym punkcie \( \displaystyle x\in \mathbb{R} \).

Uogólnieniem tej obserwacji jest następujące twierdzenie Taylora:

Twierdzenie 10.9.

Niech \( \displaystyle f:(\alpha, \beta)\mapsto \mathbb{R} \) będzie funkcją \( \displaystyle n+1 \) krotnie różniczkowalną w przedziale \( \displaystyle (\alpha, \beta) \). Wówczas dla dowolnych punktów \( \displaystyle a \), \( \displaystyle b \) takich, że \( \displaystyle \alpha < a < b < \beta \) istnieje punkt \( \displaystyle \xi_{n+1}\in (a,b) \) taki, że

\( \displaystyle f(b)=T^{n}_a f(b)+\frac{1}{(n+1)!}f^{(n+1)}(\xi_{n+1})(b-a)^{n+1}, \)

gdzie

\( \begin{array}{lll} \displaystyle T^{n}_a f (b) & = & \displaystyle f(a)+f'(a)(b-a)+\frac{f''(a)}{2!}(b-a)^2+\dots \\ & + & \displaystyle \frac{f^{(n-1)}(a)}{(n-1)!}(b-a)^{n-1}+\frac{f^{(n)}(a)}{n!}(b-a)^{n}.\end{array} \)

Definicja 10.10.

Wielomian

\( \displaystyle \begin{align*} T^{n}_a f : \mathbb{R}\ni x\mapsto T^{n}_a f(x) & =\sum_{k=0}^n\frac{f^{(k)}(a)}{k!}(x-a)^k \\ & =f(a)+f'(a)(x-a)+\frac{f''(a)}{2!}(x-a)^2+\dots+\frac{f^{(n-1)}(a)}{(n-1)!}(x-a)^{n-1}+\frac{f^{(n)}(a)}{n!}(x-a)^{n}\end{align*} \)

nazywamy wielomianem Taylora rzędu \( \displaystyle n \) funkcji \( \displaystyle f \) o środku w punkcie \( \displaystyle a \).

Nim wykażemy twierdzenie Taylora, zauważmy, że z założenia o istnieniu pochodnej rzędu \( \displaystyle n+1 \) funkcji \( \displaystyle f \) w przedziale \( \displaystyle (\alpha, \beta) \) wynika, że funkcja \( \displaystyle f \) i wszystkie jej pochodne \( \displaystyle f', \ f'', \ f^{(3)}, \dots, f^{(n-1)}, f^{(n)} \) aż do rzędu \( \displaystyle n \) włącznie, istnieją i są ciągłe w tym przedziale.

Zauważmy też, że w przypadku \( \displaystyle n=1 \) twierdzenie Taylora sprowadza się do twierdzenia Lagrange'a:

\( \displaystyle f(b)=f(a)+f'(\xi_1)(b-a). \)

Dowód 10.9.

(twierdzenia Taylora) Niech \( \displaystyle M \) będzie stałą określoną tak, że zachodzi równość

\( \displaystyle f(b)=T^{n}_a f(b)+M(b-a)^{n+1}. \)

Aby dowieść twierdzenia, wystarczy pokazać, że istnieje punkt \( \displaystyle \xi_{n+1}\in (a,b) \) taki, że \( \displaystyle (n+1)!M=f^{(n+1)}(\xi_{n+1}) \). Rozważmy dla \( \displaystyle t\in[a,b] \) funkcję

\( \displaystyle g(t):=f(t)-T^{n}_a f(t)-M(t-a)^{n+1}. \)

Zauważmy, że \( \displaystyle g(a)=0 \) i z określenia stałej \( \displaystyle M \) mamy również: \( \displaystyle g(b)=0 \). Z twierdzenia Rolle'a wynika więc, że istnieje \( \displaystyle \xi_1\in (a,b) \) taki, że \( \displaystyle g'(\xi_1)=0 \). Zauważmy następnie, że nie tylko funkcja \( \displaystyle g \), ale również kolejne jej pochodne \( \displaystyle g^{(k)} \) dla \( \displaystyle k=1,2,\dots, n \) zerują się w punkcie \( \displaystyle a \). Wobec tego, że \( \displaystyle g'(a)=0 \) i \( \displaystyle g'(\xi_1)=0 \), z twierdzenia Rolle'a, wnioskujemy o istnieniu kolejnego punktu \( \displaystyle \xi_2\in (a, \xi_1) \), w którym zeruje się druga pochodna funkcji \( \displaystyle g \), tj. \( \displaystyle g''(\xi_2)=0 \). Powtarzając rozumowanie dla kolejnych pochodnych \( \displaystyle g^{(k)} \), \( \displaystyle k=1,2,\dots, n \) na podstawie twierdzenia Rolle'a wnioskujemy o istnieniu punktów \( \displaystyle \xi_{k+1}\in (a, \xi_k ) \) takich, że \( \displaystyle g^{(k+1)}(\xi_{k+1})=0 \). Zwróćmy uwagę, iż ostatni ze znalezionych punktów \( \displaystyle \xi_{n+1} \) jest tym punktem, którego istnienie postulujemy w tezie twierdzenia. Zauważmy, że pochodna rzędu \( \displaystyle n+1 \) funkcji \( \displaystyle g \) wynosi

\( \displaystyle \begin{align*} \frac{d^{n+1}}{dt^{n+1}}g(t) & =\frac{d^{n+1}}{dt^{n+1}}\big(f(t)-T^{n}_a f(t)-M(t-a)^{n+1}\big) \\ & =f^{(n+1)}(t)-0-(n+1)!M. \end{align*} \)

(Pochodna rzędu \( \displaystyle n+1 \) wielomianu \( \displaystyle t\mapsto T_a^n f(t) \) jest w każdym punkcie równa zeru, gdyż wielomian ten jest stopnia co najwyżej \( \displaystyle n \).) Stąd \( \displaystyle 0=g^{(n+1)}(\xi_{n+1})=f^{(n+1)}(\xi_{n+1})-(n+1)! M \).

Jednym z ważniejszych wniosków z wykazanego twierdzenia jest warunek wystarczający istnienia ekstremum funkcji dwukrotnie różniczkowalnej.

wykres

Twierdzenie 10.11.

Niech \( \displaystyle f:(a,b) \mapsto \mathbb{R} \) będzie funkcją klasy \( \displaystyle C^2 \) w przedziale \( \displaystyle (a,b) \) (czyli funkcją dwukrotnie różniczkowalną o ciągłej drugiej pochodnej \( \displaystyle f'' \) w przedziale \( \displaystyle (a,b) \)). Załóżmy, że w punkcie \( \displaystyle x_0\in (a,b) \) pochodna \( \displaystyle f'(x_0) \) zeruje się.

a) Jeśli \( \displaystyle f''(x_0)>0 \), to \( \displaystyle f \) osiąga minimum lokalne w punkcie \( \displaystyle x_0 \).

b) Jeśli \( \displaystyle f''(x_0) < 0 \), to \( \displaystyle f \) osiąga maksimum lokalne w punkcie \( \displaystyle x_0 \).

Dowód 10.11.

a) Załóżmy, że \( \displaystyle f''(x_0)>0 \). Ze wzoru Taylora i z założenia o zerowaniu się pierwszej pochodnej \( \displaystyle f' \) danej funkcji mamy

\( \displaystyle \begin{array}{lll} f(x_0+h) & = & f(x_0)+f'(x_0)+\frac{1}{2}f''(x_0+\theta h) \\ & = & f(x_0)+0+\frac{1}{2}f''(x_0+\theta h),\end{array} \)

gdzie \( \displaystyle \theta \) jest pewną liczbą z przedziału \( \displaystyle (0,1) \). Stąd znak różnicy \( \displaystyle f(x+h)-f(x)=\frac{1}{2}f''(x_0+\theta h) \) jest taki sam jak znak drugiej pochodnej \( \displaystyle f''(x_0+\theta h) \) w pewnym punkcie pośrednim między punktem \( \displaystyle x_0 \) a \( \displaystyle x_0+h \). Z założenia o ciągłości drugiej pochodnej \( \displaystyle f'' \) na mocy własności Darboux wnioskujemy, że nie tylko w samym punkcie \( \displaystyle x_0 \) druga pochodna \( \displaystyle f'' \) jest dodatnia, ale również w pewnym otoczeniu tego punktu. Biorąc więc na tyle mały przyrost \( \displaystyle h \), aby zarówno \( \displaystyle x_0 \) jak i \( \displaystyle x_0+h \) należały do przedziału, w którym \( \displaystyle f'' \) jest dodatnia i nie zeruje się, otrzymamy nierówność \( \displaystyle f''(x+\theta h)>0 \) również w punkcie pośrednim. Stąd \( \displaystyle f \) osiąga minimum lokalne w punkcie \( \displaystyle x_0 \), gdyż \( \displaystyle f(x+h)-f(x)\leq 0 \) w pewnym otoczeniu punktu \( \displaystyle x_0 \). Dowód implikacji b) przebiega podobnie.

Zauważmy, że podane twierdzenie nie rozstrzyga o istnieniu ani o typie ekstremum w przypadku, gdy \( \displaystyle f'(x_0)=0 \) oraz \( \displaystyle f''(x_0)=0 \).

wykresy x 2

Przykład 10.12.

Rozważmy funkcje \( \displaystyle f_1(x)=-x^4 \), \( \displaystyle f_2(x)=x^4 \), \( \displaystyle f_3(x)=x^3 \). Łatwo zauważyć, że zarówno pierwsza jak i druga pochodna każdej z tych trzech funkcji w punkcie \( \displaystyle x_0=0 \) zerują się, podczas gdy \( \displaystyle f_1 \) osiąga maksimum w tym punkcie, a \( \displaystyle f_2 \) minimum. Natomiast funkcja \( \displaystyle f_3 \) w ogóle nie osiąga ekstremum w punkcie \( \displaystyle x_0=0 \).

Uwaga 10.13.

Wzór, który występuje w tezie twierdzenia Taylora:

\( \displaystyle \begin{align*} f(b) & =T^n_a f(b)+\frac{f^{(n+1)}(\xi_{n+1})}{(n+1)!}(b-a)^{n+1} \\ & =\sum_{k=0}^n\frac{f^{(k)}(a)}{k!}(b-a)^k+\frac{f^{(n+1)}(\xi_{n+1})}{(n+1)!}(b-a)^{n+1}\end{align*} \)

nazywamy wzorem Taylora z resztą Lagrange'a

\( \displaystyle R_{n+1}=\frac{f^{(n+1)}(\xi_{n+1})}{(n+1)!}(b-a)^{n+1}. \)

Jeśli oznaczymy przyrost argument funkcji przez \( \displaystyle h:=b-a \), to wzór ten przyjmie postać

\( \displaystyle \begin{align*} f(a+h) & =T^n_a f(a+h)+\frac{f^{(n+1)}(a+\theta h)}{(n+1)!}h^{n+1} \\ & =\sum_{k=0}^n\frac{f^{(k)}(a)}{k!}h^k+\frac{f^{(n+1)}(a+\theta h)}{(n+1)!}h^{n+1}\end{align*} \)

dla pewnej liczby \( \displaystyle \theta \in (0,1) \) dobranej tak, aby \( \displaystyle a+\theta h=\xi_{n+1} \). Tę postać nazywamy wzorem Taylora z resztą Cauchy'ego

rycina

Augustin Louis Cauchy (1789-1857)

Colin Maclaurin (1698-1746)

\( \displaystyle R_{n+1}=\frac{f^{(n+1)}(a+\theta h)}{(n+1)!}h^{n+1}. \)

W szczególnym przypadku, gdy \( \displaystyle a=0 \) otrzymamy wzór

\( \displaystyle \begin{align*} f(h) & =T^n_0 f(h)+\frac{f^{(n+1)}(\theta h)}{(n+1)!}h^{n+1} \\ & =\sum_{k=0}^n\frac{f^{(k)}(0)}{k!}h^k+\frac{f^{(n+1)}(\theta h)}{(n+1)!}h^{n+1},\end{align*} \)

który nazywamy wzorem Maclaurina z resztą

\( \displaystyle R_{n+1}=\frac{f^{(n+1)}(\theta h)}{(n+1)!}h^{n+1}. \)

Uwaga 10.14.

Jeśli \( \displaystyle w \) jest wielomianem stopnia \( \displaystyle k \), to dla dowolnej liczby \( \displaystyle n\geq k \) wielomian Taylora rzędu \( \displaystyle n \) o środku w punkcie \( \displaystyle a=0 \) jest dokładnie równy wielomianowi \( \displaystyle w \), to znaczy

\( \displaystyle w(h)=w(0)+w'(0)h+\frac{w''(0)}{2!}h^2 +\dots +\frac{w^{(n)}(0)}{n!}h^n +R_{n+1} \)   przy czym   \( R_{n+1}=0. \)

Powstaje naturalne pytanie, czy dla innych funkcji (niekoniecznie wielomianów) wzór Taylora pozwala na przedstawienie funkcji \( \displaystyle f \) za pomocą wielomianu Taylora \( \displaystyle T^n_a f \) tak, aby reszta \( \displaystyle R_{n+1} \) była jak najmniejsza i zmierzała do zera, gdy rośnie \( \displaystyle n \), czyli gdy rośnie stopień wielomianu Taylora funkcji \( \displaystyle f \).

Odpowiedź na pytanie uzyskamy, stosując np. wzór Taylora z resztą Cauchy'ego.

Twierdzenie 10.15.

Niech \( \displaystyle f:(\alpha, \beta)\mapsto \mathbb{R} \) będzie funkcją \( \displaystyle n+1 \) krotnie różniczkowalną i niech \( \displaystyle \alpha < a < b < \beta \). Jeśli

\( \displaystyle M:=\sup\{|f^{(n+1)}(t)|, t\in [a,b]\} < \infty \)

(czyli wartość bezwzględna pochodnej rzędu \( \displaystyle (n+1) \) funkcji \( \displaystyle f \) jest ograniczona przez stałą \( \displaystyle M \), która nie zależy od wyboru punktu \( \displaystyle t \) z przedziału \( \displaystyle [a, b] \)), to dla dowolnej liczby \( \displaystyle h \) takiej, że \( \displaystyle 0\leq h\leq b-a \), zachodzi oszacowanie:

\( \displaystyle \bigg|f(a+h)-\sum_{k=0}^n\frac{f^{(k)} (a)}{k!}h^k\bigg|\leq \frac{M}{(n+1)!}h^{n+1}. \)

Dowód 10.15.

Szacując resztę we wzorze Taylora (z resztą Cauchy'ego), otrzymamy:

\( \displaystyle \begin{align*} \bigg|f(a+h)-\sum_{k=0}^n\frac{f^{(k)} (a)}{k!}h^k\bigg| & =\bigg|\frac{f^{(n+1)}(a+\theta h)}{(n+1)!}h^{n+1}\bigg| \\ & \leq \frac{h^{n+1}}{(n+1)!}\sup\{|f^{(n+1)}(a+\theta h)|, 0 < \theta h < b-a \} \\ & \leq M \frac{h^{n+1}}{(n+1)!}.\end{align*} \)

Wniosek 10.16.

Jeśli pochodna rzędu \( \displaystyle n+1 \) funkcji \( \displaystyle f \) jest ograniczona w przedziale \( \displaystyle (\alpha, \beta) \), to dla dowolnych punktów \( \displaystyle a \) oraz \( \displaystyle a+h \) z tego przedziału mamy oszacowanie

\( \displaystyle \bigg|f(a+h)-\sum_{k=0}^n\frac{f^{(k)} (a)}{k!}h^k\bigg|\leq \frac{M}{(n+1)!}|h|^{n+1}, \)

gdzie \( \displaystyle M:=\sup\{|f^{(n+1)}(t)|, \alpha < t < \beta\} \).

Dowód 10.16.

Jeśli \( \displaystyle h>0 \), wniosek sprowadza się do poprzedniego twierdzenia. Jeśli \( \displaystyle h < 0 \), należy powtórzyć poprzednie rozumowanie

w przedziale \( \displaystyle [a+h,a] \).

wykres

Przykład 10.17.

Oszacowanie reszty we wzorze Maclaurina funkcji sinus jest wyjątkowo proste

\( \displaystyle \sin h=h-\frac{h^3}{3!}+\frac{h^5}{5!}+\dots+(-1)^n\frac{h^{2n+1}}{(2n+1)!}+R_{2n+2}, \)

gdzie

\( \displaystyle |R_{2n+2}|=\bigg|\sin^{(2n+2)}(\theta h)\cdot \frac{h^{(2n+2)}}{(2n+2)!}\bigg| \leq \frac{|h|^{(2n+2)}}{(2n+2)!}, \)

gdyż wartość bezwzględna pochodnych dowolnie wysokiego rzędu funkcji sinus jest ograniczona z góry przez 1. Wzór ten pozwala wyznaczyć wartość \( \displaystyle \sin h \) z zadaną z góry dokładnością. Na przykład, chcąc wyznaczyć \( \displaystyle \sin \frac{1}{2} \) z dokładnością do \( \displaystyle 10^{-6} \), wystarczy wskazać taką liczbę \( \displaystyle n \), aby zachodziła nierówność \( \displaystyle |R_{2n+2}| < 10^{-6} \), czyli \( \displaystyle \frac{1}{2^{2n+2}(2n+2)!} < 10^{-6} \). Na mocy wykazanego powyżej wniosku mamy oszacowania:

\( \displaystyle \bigg|\sin \frac{1}{2}-\big(\frac{1}{2}-\frac{1}{2^3\cdot 3!}\big)\bigg|\leq \frac{1}{46080}, \)

natomiast

\( \displaystyle \bigg|\sin \frac{1}{2}-\big(\frac{1}{2}-\frac{1}{2^3\cdot 3!}+\frac{1}{2^5\cdot 5!}\big)\bigg|\leq \frac{1}{10321920}, \)

a więc suma \( \displaystyle \frac{1}{2}-\frac{1}{48}+\frac{1}{3840} \) różni się (a dokładniej: jest większa) o nie więcej niż jedną dziesięciomilionową od \( \displaystyle \sin\frac{1}{2} \).

Przykład 10.18.

Równie łatwo można oszacować resztę we wzorze Maclaurina funkcji cosinus

\( \displaystyle \cos h=1-\frac{h^2}{2}+\frac{h^4}{4!}+\dots+(-1)^n \frac{h^{2n}}{(2n)!}+R_{2n+1}, \)

gdyż wartość bezwzględna pochodnych dowolnie wysokiego rzędu funkcji cosinus jest ograniczona z góry przez 1, więc

\( \displaystyle |R_{2n+1}|=\bigg|\cos^{(2n+1)}(\theta h)\cdot \frac{h^{(2n+1)}}{(2n+1)!}\bigg| \leq \frac{|h|^{(2n+1)}}{(2n+1)!}. \)

Przybliżanie funkcji ciągłych wielomianami

Przybliżanie funkcji ciągłych wielomianami


wykres

Powstaje naturalne pytanie, czy reszta \( \displaystyle R_{n+1} \) we wzorze Maclaurina stanowi ciąg zbieżny do zera, jeśli funkcja \( \displaystyle f \) jest klasy \( \displaystyle C^\infty \) w przedziale zawierającym punkt \( \displaystyle 0 \)? Negatywna odpowiedź na to pytanie zawarta jest w kolejnym przykładzie.

Przykład 10.19.

Funkcja

\( \displaystyle f(x)=\Bigg\{\begin{array}{ll} 0 & \text{ dla }x\leq 0 \\ \exp(-\frac{1}{x}) & \text{ dla } x>0 \end{array} \)

jest różniczkowalna w każdym punkcie \( \displaystyle x\in \mathbb{R} \). W szczególności zerują się wszystkie pochodne w punkcie zero, tj.

\( \displaystyle \forall k=0,1,2,3,\dots \ : f^{(k)}(0)=0, \)

(fakt ten wykażemy w kolejnym module), czyli wszystkie współczynniki wielomianu Taylora o środku w zerze są zerowe. Z twierdzenia Taylora mamy równość: \( \displaystyle f(h)=T_{0}^n(h)+R_{n+1}=0+R_{n+1} \). Zwróćmy uwagę, że dla dowolnej liczby \( \displaystyle h>0 \) funkcja \( \displaystyle f \) przyjmuje wartość dodatnią, więc reszta \( \displaystyle R_{n+1} \) nie stanowi ciągu zbieżnego do zera.

Twierdzenie Taylora nie jest optymalnym narzędziem do przybliżania dowolnych funkcji różniczkowalnych za pomocą wielomianów, gdyż - jak pokazaliśmy w powyższym przykładzie - istnieją funkcje klasy \( \displaystyle C^\infty \) (czyli takie, które mają ciągłe pochodne dowolnie wysokiego rzędu), których nie da się w rozsądny sposób przybliżyć za pomocą wielomianów Taylora \( \displaystyle T_a ^n f \).

Prawdziwe jest jednak twierdzenie, które gwarantuje możliwość przybliżania funkcji ciągłych na przedziale domkniętym wielomianami.

rycina

Karl Weierstrass (1815-1897)

Twierdzenie 10.20. [twierdzenie Weierstrassa]

Funkcję ciągłą na przedziale domkniętym można przybliżać jednostajnie za pomocą wielomianów, tzn. jeśli \( \displaystyle f:[a,b] \mapsto\mathbb{R} \) jest funkcją ciągłą, to istnieje ciąg wielomianów \( \displaystyle w_n \) taki, że

\( \displaystyle \lim_{n\to\infty}\sup\{|f(t)-w_n(t)|, a\leq t\leq b\}=0. \)

Dowód tego ważnego twierdzenia wykracza poza ramy tego kursu. Można natomiast łatwo podać efektywną konstrukcję ciągu wielomianów, które przybliżają jednostajnie daną funkcję ciągłą na przedziale \( \displaystyle [0,1] \).

wykres

Definicja 10.21.

Niech \( \displaystyle f:[0,1]\mapsto \mathbb{R} \) będzie funkcją ciągłą. Dla dowolnej liczby całkowitej nieujemnej \( \displaystyle n=0,1,2,\dots \) definiujemy wielomian Bernsteina rzędu \( \displaystyle n \) funkcji \( \displaystyle f \) wzorem

\( \displaystyle B_n f(t)=\sum_{k=0}^n f \left ( \frac {k} {n} \right) \ {n \choose k}t^{k}(1-t)^{n-k}. \)

Uwaga 10.22.

Podobieństwo wzoru definiującego wielomian Bernsteina do wzoru dwumianowego Newtona nie jest przypadkowe. Weźmy np. funkcję \( \displaystyle f(x)=1 \), stałą w przedziale \( \displaystyle [0,1] \). Wówczas na mocy wzoru Newtona

\( \displaystyle B_n f(t)=\sum_{k=0}^n 1 \cdot {n \choose k}t^{k}(1-t)^{n-k}=(t+1-t)^n=1. \)

Zauważmy, że wielomian Bernsteina rzędu \( \displaystyle n \) jest wielomianem stopnia nie wyższego niż \( \displaystyle n \). Można wykazać, że jeśli \( \displaystyle w \) jest wielomianem stopnia nie wyższego niż \( \displaystyle n \), to \( \displaystyle B_n w(t)=w(t) \) dla dowolnej liczby \( \displaystyle t \). Przypomnijmy, że analogiczną własność mają również wielomiany Taylora (zob. uwaga 10.14.).

Najciekawszą własność ciągu wielomianów Bernsteina podaje

Twierdzenie 10.23. [twierdzenie Bernsteina]

Jeśli \( \displaystyle f:[0,1]\mapsto\mathbb{R} \) jest dowolną funkcją ciągłą, to ciąg wielomianów Bernsteina zmierza do \( \displaystyle f \) jednostajnie na przedziale \( \displaystyle [0,1] \), to znaczy

\( \displaystyle \lim_{n\to \infty}\sup\{|f(t)-B_n(t)|, 0\leq t\leq 1\}=0. \)

Krótki, szczegółowy dowód tego faktu przeprowadzony w oparciu o nierówność Czebyszewa (zob. wykład z rachunku prawdopodobieństwa i statystyki) można znaleźć na przykład w podręczniku P.Billingsleya, Prawdopodobieństwo i miara, Państwowe Wydawnictwo Naukowe, Warszawa 1987, str. 91-92. Zwróćmy uwagę, że twierdzenie Weierstrassa zachodzi nawet dla funkcji klasy \( \displaystyle C^0 \), tj. takich, od których nie wymagamy, aby były różniczkowalne w którymkolwiek punkcie. Przykład takiej funkcji, która jest tylko ciągła i nie jest różniczkowalna w żadnym punkcie, podaliśmy w poprzednim module.

Twierdzenie de l'Hospitala. Równość asymptotyczna

Twierdzenie de l'Hospitala. Równość asymptotyczna



Dowodzimy reguły de l'Hospitala pozwalającej efektywnie wyznaczać granice funkcji w przypadku symboli nieoznaczonych typu \( \displaystyle \frac{0}{0} \) lub \( \displaystyle \frac{\infty}{\infty} \). Definiujemy także symbole Landaua \( \displaystyle o \) małe i \( \displaystyle O \) duże. Porównujemy asymptotyczne zachowanie wybranych funkcji (m.in. logarytmu, funkcji wykładniczej, wielomianów) w zerze i w nieskończoności.

Reguła de l'Hospitala

Reguła de l'Hospitala


Efektywne wyznaczanie granic funkcji w przypadku symboli nieoznaczonych typu \( \displaystyle \frac{0}{0} \), \( \displaystyle \frac{\infty}{\infty} \) często zdecydowanie upraszcza zastosowanie twierdzenia, które nazywamy regułą de l'Hospitala.

Niech \( \displaystyle f,g: (a,b) \mapsto \mathbb{R} \) będą funkcjami różniczkowalnymi w przedziale \( \displaystyle (a,b) \), przy czym \( \displaystyle -\infty\leq a < b\leq \infty \). Załóżmy, że istnieje granica ilorazu pochodnych \( \displaystyle \lim_{x\to a}\frac{f'(x)}{g'(x)} \) i jest równa \( \displaystyle c\in \overline{\mathbb{R}} \). Jeśli istnieją granice funkcji

\( \displaystyle \lim_{x\to a}f(x)=0 \text{ oraz }\lim_{x\to a }g(x)=0, \)

to istnieje granica ilorazu funkcji w punkcie \( \displaystyle a \) i jest równa granicy ilorazu pochodnych w tym punkcie, tj.

\( \displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=c. \)

Dowód 11.1.

(szkic) Twierdzenie wykażemy w przypadku, gdy granica ilorazu pochodnych \( \displaystyle c\in\mathbb{R} \) jest skończona. Załóżmy również dodatkowo (aby uprościć dowód), że \( \displaystyle f(a)=g(a)=0 \). Niech \( \displaystyle h>0 \) będzie dowolną liczbą taką, że \( \displaystyle a+h < b \). Z twierdzenia Cauchy'ego wynika, że dla pewnej liczby \( \displaystyle \xi \in (a, a+h) \) zachodzi równość:

\( \displaystyle \frac{f(a+h)-f(a)}{g(a+h)-g(a)}=\frac{f'(\xi)}{g'(\xi)}, \)

czyli

\( \displaystyle \frac{f(a+h)}{g(a+h)}=\frac{f'(\xi)}{g'(\xi)}, \) gdyż \( f(a)=g(a)=0. \)

Wartość \( \displaystyle \xi \) zależy od wyboru \( \displaystyle h \). Jeśli punkt \( \displaystyle a+h \) zmierza do \( \displaystyle a \), punkt pośredni \( \displaystyle \xi \) również będzie zmierzał do \( \displaystyle a \). Wobec tego w granicy przy \( \displaystyle h\to 0 \) dostajemy równość:

\( \displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=\lim_{h\to 0}\frac{f(a+h)}{g(a+h)}=\lim_{\xi\to a}\frac{f'(\xi)}{g'(\xi)}. \)

Stąd jeśli istnieje granica ilorazu pochodnych \( \displaystyle \lim_{\xi\to a}\frac{f'(\xi)}{g'(\xi)} \) w punkcie \( \displaystyle a \), to istnieje również granica ilorazu funkcji \( \displaystyle\lim_{x\to a}\frac{f(x)}{g(x)} \) w tym punkcie i są one równe.

Uwaga 11.2.

Zastosowanie wzoru z tezy reguły de l'Hospitala jest możliwe po sprawdzeniu, czy licznik i mianownik ułamka \( \displaystyle x\mapsto\frac{f(x)}{g(x)} \) spełniają wszystkie założenia podanego twierdzenia, tj.

- czy obie funkcje są różniczkowalne w sąsiedztwie punktu \( \displaystyle a \),

- czy istnieje granica ilorazu pochodnych \( \displaystyle \frac{f'(x)}{g'(x)} \) w punkcie \( \displaystyle a \),

- czy obie funkcje \( \displaystyle f \) oraz \( \displaystyle g \) zmierzają do zera w punkcie \( \displaystyle a \).

Jeśli którekolwiek z tych założeń nie jest spełnione, nie należy stosować reguły de l'Hospitala, gdyż nie ma żadnej gwarancji, czy granica ilorazu pochodnych ma jakikolwiek związek z istnieniem i wartością granicy ilorazu funkcji. Pamiętajmy także, że zapis (którego w ramach wykładu będziemy unikać, a który jest powszechny w większości zbiorów zadań i w podręcznikach)

\( \displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=\lim_{x\to a}\frac{f'(x)}{g'(x)} \)

należy rozumieć w ten sposób, że uprzednio sprawdzono, iż spełnione są założenia reguły de l'Hospitala i - wobec tego - wnioskujemy o istnieniu granicy ilorazu funkcji i o równości tej granicy z granicą ilorazu pochodnych.

W wersji podanej powyżej reguła de l'Hospitala stanowi narzędzie do badania istnienia granic ilorazu \( \displaystyle \frac{f}{g} \) w przypadku nieoznaczoności typu \( \displaystyle \frac{0}{0} \). Prawdziwe jest również następujące twierdzenie

Twierdzenie 11.3.

Niech \( \displaystyle f,g: (a,b) \mapsto \mathbb{R} \) będą funkcjami różniczkowalnymi w przedziale \( \displaystyle (a,b) \), przy czym \( \displaystyle -\infty\leq a < b\leq \infty \). Załóżmy, że istnieje granica ilorazu pochodnych \( \displaystyle \lim_{x\to a}\frac{f'(x)}{g'(x)} \) i jest równa \( \displaystyle c\in \overline{\mathbb{R}} \). Jeśli istnieją granice funkcji

\( \displaystyle \lim_{x\to a}f(x)=\infty \text{ oraz }\lim_{x\to a }g(x)=\infty, \)

to istnieje granica ilorazu funkcji w punkcie \( \displaystyle a \) i jest równa granicy ilorazu pochodnych w tym punkcie, tj.

\( \displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=c. \)

Dowód tego twierdzenia pomijamy. Zwróćmy jednak uwagę, że mając narzędzie do badania istnienia granicy ilorazu funkcji \( \displaystyle \frac{f}{g} \) w przypadku nieoznaczoności typu \( \displaystyle \frac{0}{0} \), możemy go także użyć w przypadku nieoznaczoności typu \( \displaystyle \frac{\infty}{\infty} \). Wystarczy bowiem iloraz \( \displaystyle \frac{f}{g} \) zastąpić odwrotnością ilorazu odwrotności funkcji \( \displaystyle f \), \( \displaystyle g \), tj.

\( \displaystyle \frac{f}{g}=\frac{\frac{1}{g}}{\frac{1}{f}}, \)

gdyż iloraz \( \displaystyle\frac{\frac{1}{g}}{\frac{1}{f}} \) jest symbolem typu \( \displaystyle \frac{0}{0} \), gdy \( \displaystyle \frac{f}{g} \) jest symbolem nieoznaczonym typu \( \displaystyle \frac{\infty}{\infty} \).

Przykład 11.4.

Dla dowolnej liczby naturalnej \( \displaystyle n \) istnieje granica

\( \displaystyle \lim_{x\to\infty}\frac{x^n}{\exp x}=0. \)

Niech \( \displaystyle n=1 \). Iloraz \( \displaystyle \frac{x}{\exp x} \) spełnia założenia reguły de l'Hospitala, gdyż obie funkcje są różniczkowalne w \( \displaystyle \mathbb{R} \), iloraz \( \displaystyle \frac{x}{\exp x} \) stanowi symbol nieoznaczony \( \displaystyle \frac{\infty}{\infty} \) przy \( \displaystyle x\to\infty \) i istnieje granica ilorazu pochodnych

\( \displaystyle \lim_{x\to\infty}\frac{(x)'}{(\exp x)'}=\lim_{x\to\infty}\frac{1}{\exp x}=0. \)

Stąd istnieje

\( \displaystyle \lim_{x\to\infty}\frac{x}{\exp x}=0. \)

Zauważmy, że dla dowolnej liczby naturalnej \( \displaystyle k\geq 1 \) prawdziwa jest implikacja

\( \displaystyle \bigg[\exists\lim_{x\to\infty}\frac{x^k}{\exp x}=0\bigg]\Longrightarrow \bigg[\exists\lim_{x\to\infty}\frac{x^{k+1}}{\exp x}=0\bigg]. \)

Skoro istnieje \( \displaystyle \lim_{x\to\infty}\frac{x^k}{\exp x}=0 \), to istnieje granica ilorazu pochodnych funkcji \( \displaystyle x\mapsto x^{k+1} \) i \( \displaystyle x\mapsto \exp x \), gdyż

\( \displaystyle \frac{(x^{k+1})'}{(\exp x)'}=(k+1)\frac{x^k}{\exp x}\to 0, \) gdy \( x\to\infty. \)

Z reguły de l'Hospitala wynika więc, że istnieje \( \displaystyle \lim_{x\to\infty}\frac{x^{k+1}}{\exp x}=0. \) Na mocy zasady indukcji matematycznej granica \( \displaystyle \lim_{x\to\infty}\frac{x^n}{\exp x}=0 \) istnieje dla dowolnej liczby naturalnej \( \displaystyle n \).

Wniosek 11.5.

Jeśli \( \displaystyle w \) jest dowolnym wielomianem, to \( \displaystyle\lim_{x\to\infty}\frac{w(x)}{\exp x}=0 \). Innymi słowy: funkcja wykładnicza \( \displaystyle \exp \) zmierza do nieskończoności szybciej niż jakikolwiek wielomian.

Dowód 11.5.

Każdy wielomian jest sumą skończonej liczby jednomianów \( \displaystyle w(x)=a_0+a_1 x+\dots+a_n x^n \). Skoro iloraz dowolnego jednomianu i funkcji wykładniczej zmierza do zera, to na podstawie twierdzenia o granicy sumy wnioskujemy, że suma ilorazów

\( \displaystyle a_0 \frac{1}{\exp x}+a_1\frac{ x}{\exp x}+\dots +a_n \frac{x^n}{\exp x} \)

także zmierza do zera, gdy \( \displaystyle x\to \infty \).

Wniosek 11.6.

Dla dowolnej liczby rzeczywistej \( \displaystyle a \) istnieje \( \displaystyle \lim_{x\to\infty}\frac{x^a}{\exp x}=0 \).

Dowód 11.6.

Dla dowolnej liczby \( \displaystyle a\in \mathbb{R} \) potrafimy znaleźć liczbę naturalną \( \displaystyle n \) większą od \( \displaystyle |a| \). Wówczas dla \( \displaystyle x>1 \) mamy

\( \displaystyle 0\leq \frac{x^a}{\exp x} \leq \frac{x^n}{\exp x}. \)

Skoro \( \displaystyle \frac{x^n}{\exp x}\to 0 \), gdy \( \displaystyle x\to\infty \), to na podstawie twierdzenia o trzech ciągach istnieje \( \displaystyle \lim_{x\to\infty}\frac{x^a}{\exp x}=0 \).

W poprzednim module rozważaliśmy funkcję

\( \displaystyle f(t)=\left\{ \begin{align*} & \exp(-t^{-1}), & \text{ dla } t>0 \\ & 0, & \text{ dla } t\leq 0 \end{align*} .\right. \)

i pozostawiliśmy bez dowodu stwierdzenie, że

Uwaga 11.7.

Funkcja \( \displaystyle f \) ma w punkcie \( \displaystyle t=0 \) pochodne dowolnie wysokiego rzędu równe zeru.

Dowód 11.7.

Dla \( \displaystyle h < 0 \) iloraz różnicowy \( \displaystyle \frac{f(0+h)-f(0)}{h}=\frac{0-0}{h}=0 \). Z kolei dla \( \displaystyle h>0 \) mamy

\( \displaystyle \frac{f(0+h)-f(0)}{h}=\frac{\exp(-h^{-1})-0}{h}=\frac{h^{-1}}{\exp(h^{-1})}=\frac{x}{\exp x} \),gdzie \( x=h^{-1} \).

Zauważmy, że \( \displaystyle x\to\infty \), gdy \( \displaystyle h\to 0^{+} \). Ponieważ istnieje granica \( \displaystyle \lim_{x\to\infty}\frac{x}{\exp x}=0 \), więc istnieje również granica \( \displaystyle\lim_{h\to 0+}\frac{h^{-1}}{\exp(h^{-1})}=0. \) Stąd istnieje \( \displaystyle f'(0)=0 \). Dla \( \displaystyle x\neq 0 \) wyznaczamy pochodną, korzystając z twierdzenia o pochodnej złożenia funkcji i dostajemy (po uwzględnieniu istnienia pochodnej w zerze)

\( \displaystyle f'(t)=\{ \begin{align*} & t^{-2}\exp(-t^{-1}), & \text{ dla } t>0 \\ & 0, & \text{ dla } t\leq 0 \end{align*} . \)

Rozważmy następnie iloraz różnicowy \( \displaystyle \frac{f'(0+h)-f'(0)}{h} \). Dla \( \displaystyle h < 0 \) mamy \( \displaystyle \frac{f'(0+h)-f'(0)}{h}=\frac{0-0}{h}=0 \), natomiast gdy \( \displaystyle h>0 \) zachodzi równość

\( \displaystyle \frac{f'(0+h)-f'(0)}{h}=\frac{h^{-2}\exp(-h^{-1})-0}{h}=\frac{h^{-3}}{\exp(h^{-1})}=\frac{x^3}{\exp x} \) gdzie \( x=h^{-1}. \)

Podobnie jak poprzednio, ponieważ istnieje granica \( \displaystyle \lim_{x \to\infty}\frac{x^3}{\exp x}=0 \), więc istnieje również granica

\( \displaystyle\lim_{h\to 0+}\frac{h^{-3}}{\exp(h^{-1})}=0. \)

Stąd istnieje \( \displaystyle f''(0)=0 \). Wobec tego, że dla \( \displaystyle t < 0 \) mamy \( \displaystyle f''(t)=0 \), a dla dodatnich \( \displaystyle t>0 \) - na mocy twierdzeń o pochodnej iloczynu oraz złożenia funkcji - zachodzi równość

\( \displaystyle \begin{align*} f''(t) & = \big(t^{-2}\exp(-t^{-1})\big)' \\ & =(t^{-2})'\exp(-t^{-1})+t^{-2}\big(\exp(-t^{-1})\big)' \\ & = -2t^{-3}\exp(-t^{-1})+t^{-2}(t^{-2})\exp(-t^{-1}) \\ & =(-2t^{-3}+t^{-4})\exp(-t^{-1}).\end{align*} \)

Wobec tego druga pochodna \( \displaystyle f'' \) istnieje w każdym punkcie \( \displaystyle t \) i wyraża się wzorem

\( \displaystyle f''(t)=\left\{ \begin{align*} & (t^{-4}-2t^{-3})\exp(-t^{-1}), & \text{ dla }& t>0 \\ & 0, & \text{ dla }& t\leq 0. \end{align*} \right. \)

Kontynuując rozumowanie spostrzegamy, że dla dowolnej liczby naturalnej \( \displaystyle k \) pochodna rzędu \( \displaystyle k \) funkcji \( \displaystyle f \) wyraża się wzorem

\( \displaystyle f^{(k)}(t)=\left\{ \begin{align*} & v(t^{-1})\exp(-t^{-1}), & \text{ dla } t>0 \\ & 0, & \text{ dla } t\leq 0, \end{align*} \right. \)

gdzie \( \displaystyle x\mapsto v(x) \) jest pewnym wielomianem zmiennej \( \displaystyle x \) (podstawiamy \( \displaystyle x=t^{-1} \)). Wobec tego iloraz różnicowy w zerze pochodnej rzędu \( \displaystyle k \) funkcji \( \displaystyle f \) jest postaci

\( \displaystyle \frac{f^{(k)}(0+h)-f^{(k)}(0)}{h}=\left\{\begin{align*} & 0, & \text{ dla } h < 0, \\ & \frac{w(t^{-1})}{\exp (t^{-1})}, & \text{ dla } h>0,\end{align*} \right. \)

gdzie \( \displaystyle w: x\mapsto w(x) \) jest także pewnym wielomianem. Po podstawieniu za \( \displaystyle t^{-1}=x \), wobec istnienia

granicy \( \displaystyle\lim_{x\to\infty}\frac{w(x)}{\exp x}=0 \) wnioskujemy o istnieniu granicy \( \displaystyle\lim_{t\to 0+}\frac{w(t^{-1})}{\exp (t^{-1})}=0 \). W oczywisty sposób istnieje także granica ilorazu różnicowego przy \( \displaystyle h\to 0^{-} \), więc istnieje \( \displaystyle f^{(k+1)}(0)=0 \). Na mocy zasady indukcji matematycznej istnieje więc \( \displaystyle f^{(n)}(0)=0 \) dla dowolnej liczby naturalnej \( \displaystyle n \).

Porównajmy zachowanie w sąsiedztwie zera oraz nieskończoności funkcji logarytmicznej i funkcji \( \displaystyle x\mapsto x^a \), gdy \( \displaystyle a>0 \). Wykażemy, że

Uwaga 11.8.

Dla dowolnej liczby rzeczywistej \( \displaystyle a>0 \) istnieją granice

\( \displaystyle \lim_{x\to 0+} x^a \ln x=0 \ \text{ oraz } \lim_{x\to \infty} \frac{ \ln x}{x^a}=0. \)

Dowód 11.8.

Obie funkcje \( \displaystyle x\mapsto \ln x \) oraz \( \displaystyle x\mapsto x^{-a} \) są różniczkowalne w prawostronnym sąsiedztwie zera i istnieją granice \( \displaystyle\lim_{x\to 0+} \ln x=-\infty \) oraz \( \displaystyle\lim_{x\to 0+} x^{-a}=\infty \). Ponadto iloraz pochodnych tych funkcji

\( \displaystyle \frac{(\ln x)'}{(x^{-a})'}=\frac{x^{-1}}{-ax^{-a-1}}=-a^{-1}x^{a} \)

zmierza do zera, gdy \( \displaystyle x\to 0+ \) dla dowolnej liczby \( \displaystyle a>0 \). Stąd na mocy reguły de l'Hospitala istnieje

\( \displaystyle \lim_{x\to 0+} x^a \ln x=0. \)

Z kolei przy \( \displaystyle x\to\infty \) mamy \( \displaystyle \ln x\to \infty \), \( \displaystyle x^a\to\infty \) dla \( \displaystyle a>0 \). Iloraz pochodnych tych funkcji

\( \displaystyle \frac{(\ln x)'}{(x^a)'}=\frac{x^{-1}}{ax^{a-1}}=\frac{1}{ax^a} \)

zmierza do zera przy \( \displaystyle x\to \infty \) dla dowolnej liczby \( \displaystyle a>0 \). Stąd na mocy reguły de l'Hospitala istnieje także

\( \displaystyle \lim_{x\to \infty} \frac{\ln x}{x^a}=0. \)

Uwagę można podsumować krótko stwierdzeniem, że funkcja logarytmiczna zmierza do nieskończoności wolniej niż jakakolwiek potęga zmiennej \( \displaystyle x \) o dodatnim wykładniku. W sąsiedztwie zera z kolei funkcja logarytmiczna zmierza tak wolno do minus nieskończoności, że pomnożenie jej przez jakąkolwiek potęgę zmiennej \( \displaystyle x \) o dodatnim wykładniku stanowi wyrażenie zbieżne do zera.

Reguła de l'Hospitala pozwala łatwo wykazać istnienie szeregu ważnych granic.

Twierdzenie 11.9.

Istnieją granice

a) \( \displaystyle \lim_{x\to 0}\frac{\sin x}{x}=1 \),

b) \( \displaystyle \lim_{x\to 0}\frac{1-\cos x}{x^2}=\frac{1}{2} \),

c) \( \displaystyle \lim_{x\to 0}\frac{\ln (1+x)}{x}=1 \),

d) \( \displaystyle \lim_{x\to\infty}\big(1+\frac{a}{x}\big)^x=\exp a \), dla dowolnej liczby \( \displaystyle a\in\mathbb{R} \).

Dowód 11.9.

a) Funkcje \( \displaystyle f(x)=\sin x \) i \( \displaystyle g(x)=x \) są różniczkowalne, zmierzają do zera, gdy argument \( \displaystyle x \) zmierza do zera i istnieje granica ilorazu ich pochodnych \( \displaystyle\frac{(\sin x)'}{(x)'}=\frac{\cos x}{1}\to 1 \), gdy \( \displaystyle x\to 0 \). Stąd na mocy reguły de l'Hospitala istnieje \( \displaystyle \lim_{x\to 0}\frac{\sin x}{x}=1 \).

b) Funkcje \( \displaystyle f(x)=1- \cos x \) i \( \displaystyle g(x)=x^2 \) są różniczkowalne, zmierzają do zera, gdy argument \( \displaystyle x \) zmierza do zera i istnieje granica ilorazu ich pochodnych \( \displaystyle\frac{(1-\cos x)'}{(x^2)'}=\frac{\sin x}{2x}=\frac{1}{2}\frac{\sin x}{x}\to \frac{1}{2} \) na mocy punktu a). Stąd istnieje także \( \displaystyle \lim_{x\to 0}\frac{1-\cos x}{x^2}=\frac{1}{2} \).

c) Podobnie jak w obu poprzednich punktach \( \displaystyle f(x)=\ln (1+x) \) i \( \displaystyle g(x)=x \) są różniczkowalne, zmierzają do zera, gdy argument \( \displaystyle x \) zmierza do zera i istnieje granica ilorazu ich pochodnych \( \displaystyle\frac{(\ln (1+x))'}{(x)'}=\frac{1}{x+1}\to 1 \), gdy \( \displaystyle x\to 0 \). Stąd istnieje \( \displaystyle \lim_{x\to 0}\frac{\ln (1+x)}{x}=1 \).

d) Wyrażenie \( \displaystyle \big(1+\frac{a}{x}\big)^x \) stanowi przy \( \displaystyle x\to \infty \) symbol nieoznaczony typu \( \displaystyle 1^\infty \). Przekształćmy je

\( \displaystyle \big(1+\frac{a}{x}\big)^x=\exp\bigg(x\ln\big(1+\frac{a}{x}\big)\bigg). \)

Zauważmy, że wykładnik

\( \displaystyle x\ln\big(1+\frac{a}{x}\big)=a\cdot \frac{\ln\big(1+\frac{a}{x}\big)}{\frac{a}{x}}\to a\cdot 1, \text{ gdy } x\to \infty, \)

gdyż na mocy poprzedniego punktu iloraz \( \displaystyle \frac{\ln(1+t)}{t} \) zmierza do jedynki, gdy \( \displaystyle t=\frac{a}{x} \) zmierza do zera. Stąd wobec ciągłości funkcji wykładniczej istnieje granica

\( \displaystyle \lim_{x\to \infty}\exp\bigg(x\ln\big(1+\frac{a}{x}\big)\bigg)=\exp a. \)

Zwróćmy uwagę, że z faktu istnienia granicy ciągu \( \displaystyle a_n = (1+\frac{1}{n})^n \), nie można wyciągnąć bezpośrednio wniosku o istnieniu granicy funkcji \( \displaystyle f(x)=\big(1+\frac{a}{x}\big)^x \) przy \( \displaystyle x\to \infty \), stąd dowód punktu d) uwagi jest konieczny, aby stwierdzić, że granica ta istnieje.

Równość asymptotyczna

Równość asymptotyczna


Niech \( \displaystyle a\in \bar{\mathbb{R}} \). Zauważmy, że istnienie skończonej granicy ilorazu \( \displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=C \) oznacza, że w pewnym sąsiedztwie punktu \( \displaystyle a \) funkcje \( \displaystyle f \) oraz \( \displaystyle C g \) są w przybliżeniu równe, gdyż zgodnie z definicją granicy funkcji w punkcie \( \displaystyle a\in \mathbb{R} \) dla dowolnej liczby \( \displaystyle \epsilon>0 \) istnieje

\( \displaystyle \delta >0 \) taka, że

\( \displaystyle \big|\frac{f(x)}{g(x)}-C\big| < \epsilon, \) o ile \( x\in (a-\delta, a+\delta), \)

co jest równoważne nierówności

\( \displaystyle C-\epsilon < \frac{f(x)}{g(x)} < C+\epsilon, \)

czy też

\( \displaystyle (C-\epsilon)g(x) < f(x) < (C+\epsilon)g(x) \)

w pobliżu punktu \( \displaystyle a \). Podobnie, gdy \( \displaystyle a=\infty \), istnienie skończonej granicy \( \displaystyle \lim_{x\to \infty}\frac{f(x)}{g(x)}=C \) oznacza, że dla dużych wartości argumentu \( \displaystyle x \) obie funkcje \( \displaystyle f \) oraz \( \displaystyle C g \) są w przybliżeniu równe w tym sensie, że dla \( \displaystyle \epsilon>0 \) potrafimy wskazać taką liczbę \( \displaystyle M \), że na prawo od niej, tj. w przedziale \( \displaystyle (M, +\infty) \) iloraz \( \displaystyle \frac{f(x)}{g(x)} \) różni się od stałej \( \displaystyle C \) o nie więcej niż \( \displaystyle \epsilon \). Innymi słowy dla \( \displaystyle x>M \) mamy nierówność \( \displaystyle (C-\epsilon)g(x) < f(x) < (C+\epsilon)g(x) \).

Niech \( \displaystyle f, g \) będą funkcjami określonymi w prawo- lub lewostronnym sąsiedztwie punktu \( \displaystyle a \) (tj. w przedziale postaci \( \displaystyle (a, a+h) \) lub \( \displaystyle (a-h, a) \), dla pewnego \( \displaystyle h>0 \), gdy \( \displaystyle a \) jest liczbą skończoną, bądź też w przedziale postaci \( \displaystyle (M, \infty) \), \( \displaystyle (-\infty, M) \), gdy \( \displaystyle a=\infty \) lub \( \displaystyle a=-\infty \)).

Definicja 11.10.

Mówimy, że funkcja \( \displaystyle f \) jest rzędu \( \displaystyle o(g(x)) \) w punkcie \( \displaystyle a \), jeśli istnieje granica (prawo- lub lewostronna) ilorazu \( \displaystyle \frac{f(x)}{g(x)} \) w punkcie \( \displaystyle a \) i jest równa zeru.

Jeśli iloraz \( \displaystyle \big|\frac{f(x)}{g(x)}\big| \) jest ograniczony w pewnym prawo- lub lewostronnym sąsiedztwie punktu \( \displaystyle a \), to mówimy, że funkcja \( \displaystyle f \) jest rzędu \( \displaystyle O(g(x)) \) w punkcie \( \displaystyle a \).

Symbole \( \displaystyle o(g(x)) \) oraz \( \displaystyle O(g(x)) \) nazywamy symbolami Landaua. Czytamy je o małe oraz O duże od \( \displaystyle g(x) \).

Zauważmy, że jeśli \( \displaystyle f(x)=o(g(x)) \) w punkcie \( \displaystyle a \), to \( \displaystyle f(x)=O(g(x)) \) w tym punkcie, ale nie na odwrót.

Uwaga 11.11.

Z twierdzenia o granicy sumy i granicy ilorazu dwóch funkcji wynikają natychmiast wzory stanowiące arytmetykę symboli \( \displaystyle o \) małe i \( \displaystyle O \) duże.

\( \displaystyle \begin{align*} & o+o=o \ \ & \ & o\cdot o=o \\ & o+O=O \ \ & \ & o\cdot O=o \\ & O+O=O \ \ & \ & O\cdot O=O.\end{align*} \)

Często spotyka się symbole \( \displaystyle o \) małe i \( \displaystyle O \) duże w następujących przypadkach:

\( \displaystyle f(x)=g(x)+o(x^n), \ x\to a, \)

co oznacza, że iloraz \( \displaystyle \frac{f(x)-g(x)}{x^n} \) zmierza do zera przy \( \displaystyle x\to a \)

lub

\( \displaystyle f(x)=g(x)+O(x^n), \ x\to a, \)

gdy iloraz \( \displaystyle \big|\frac{f(x)-g(x)}{x^n}\big| \) jest ograniczony przy \( \displaystyle x\to a \).

W szczególności zapis

\( \displaystyle f(x)=g(x)+o(1) \)

oznacza po prostu, że

\( \displaystyle \lim_{x\to a}\big(f(x)-g(x)\big)=0, \)

zaś

\( \displaystyle f(x)=g(x)+O(1) \)

piszemy, gdy różnica

\( \displaystyle |f(x)-g(x)| \)

jest ograniczona przy \( \displaystyle x\to a \).

Definicja 11.12.

Jeśli istnieją stałe \( \displaystyle a, b \) takie, że \( \displaystyle f(x)=ax+b+o(1) \), przy \( \displaystyle x\to\infty \) (lub \( \displaystyle x\to-\infty \)), to prostą o równaniu \( \displaystyle y=ax+b \) nazywamy asymptotą ukośną funkcji \( \displaystyle f \) przy \( \displaystyle x \) zmierzających do \( \displaystyle \infty \) (lub \( \displaystyle -\infty \)). W szczególnym przypadku, gdy \( \displaystyle a=0 \) mówimy, że funkcja \( \displaystyle f \) ma asymptotę poziomą o równaniu \( \displaystyle y=b \).

Przypomnijmy także, że jeśli w pewnym punkcie \( \displaystyle a\in \mathbb{R} \) istnieje granica nieskończona \( \displaystyle \lim_{x\to a+}f(x) \) (lub \( \displaystyle \lim_{x\to a-}f(x) \)), to mówimy, że funkcja \( \displaystyle f \) ma w punkcie \( \displaystyle a \) asymptotę pionową prawostronną (odpowiednio: asymptotę pionową lewostronną) \( \displaystyle x=a \). Jeśli prosta \( \displaystyle x=a \) jest zarówno prawo- i lewostronną asymptotą pionową funkcji \( \displaystyle f \) (czyli obie granice jednostronne \( \displaystyle \lim_{x\to a+}f(x) \) oraz \( \displaystyle \lim_{x\to a-}f(x) \) istnieją i są nieskończone), to mówimy krótko, że funkcja \( \displaystyle f \) ma asymptotę pionową \( \displaystyle x=a \).

Uwaga 11.13.

Jeśli funkcja \( \displaystyle f \) ma asymptotę ukośną \( \displaystyle y=ax+b \) w nieskończoności (odpowiednio: ma asymptotę ukośną \( \displaystyle y=\alpha x+\beta \) w minus nieskończoności), to

\( \displaystyle a=\lim_{x\to \infty} \frac{f(x)}{x} \text{ oraz } b=\lim_{x\to\infty} (f(x)-ax) \)

i odpowiednio:

\( \displaystyle \alpha =\lim_{x\to -\infty} \frac{f(x)}{x} \text{ oraz }\beta=\lim_{x\to -\infty} (f(x)-\alpha x) \)

Dowód 11.13.

Jeśli \( \displaystyle f(x)=ax+b+o(1) \), to \( \displaystyle \frac{f(x)}{x}-a-\frac{b}{x}\to 0 \), gdy \( \displaystyle x\to\infty \). Stąd \( \displaystyle \frac{f(x)}{x}\to a \).

Skoro \( \displaystyle f(x)-ax=b+o(1) \), to \( \displaystyle f(x)-ax\to b \), przy \( \displaystyle x\to \infty \). W przypadku asymptoty ukośnej w minus nieskończoności rozumowanie jest identyczne.

wykresy

Przykład 11.14.

a) Funkcja \( \displaystyle f(x)=\exp x \) ma asymptotę poziomą \( \displaystyle y=0 \) przy \( \displaystyle x\to-\infty \), czyli \( \displaystyle \exp x=0+o(1) \), gdy \( \displaystyle x\to -\infty \). Nie ma asymptoty przy \( \displaystyle x\to \infty \).

b) Funkcja \( \displaystyle f(x)=\mathrm{arctg}\, x \) ma przy \( \displaystyle x\to-\infty \) asymptotę poziomą \( \displaystyle y=-\frac{\pi}{2} \), a przy \( \displaystyle x\to \infty \) asymptotę poziomą \( \displaystyle y=\frac{\pi}{2} \). Możemy to też zapisać w postaci \( \displaystyle \mathrm{arctg}\, x=\frac{\pi}{2}+o(1) \) przy \( \displaystyle x\to\infty \) oraz \( \displaystyle \mathrm{arctg}\, x=-\frac{\pi}{2}+o(1) \) przy \( \displaystyle x\to-\infty \).

c) Funkcja \( \displaystyle f(x)=\sqrt{4x^2-1} \) ma przy \( \displaystyle x\to\infty \) asymptotę ukośną \( \displaystyle y=2x \), a przy \( \displaystyle x\to-\infty \) asymptotę ukośną \( \displaystyle y=-2x \), czyli \( \displaystyle \sqrt{4x^2-1}=2x+o(1) \) przy \( \displaystyle x\to\infty \) oraz \( \displaystyle \sqrt{4x^2-1}=-2x+o(1) \) przy \( \displaystyle x\to-\infty \).

wykresy

d) Funkcja \( \displaystyle f(x)=\frac{\sin x}{x} \) ma przy \( \displaystyle x\to\infty \) oraz przy \( \displaystyle x\to-\infty \) asymptotę poziomą \( \displaystyle y=0 \), czyli \( \displaystyle \frac{\sin x}{x}=0+o(1) \) przy \( \displaystyle |x|\to \infty \).

e) Zauważmy także, że \( \displaystyle \sinh x=\frac{1}{2}\exp x+o(1) \) przy \( \displaystyle x\to\infty \) oraz \( \displaystyle \sinh x=-\frac{1}{2}\exp(- x)+o(1) \) przy \( \displaystyle x\to-\infty \).

wykresy

f) Podobnie \( \displaystyle \cosh x=\frac{1}{2}\exp x+o(1) \) przy \( \displaystyle x\to\infty \) oraz \( \displaystyle \cosh x=\frac{1}{2}\exp(- x)+o(1) \) przy \( \displaystyle x\to-\infty \).

Z powyższych przykładów wynika, że

Uwaga 11.15.

Funkcja \( \displaystyle f \) może mieć mieć asymptotę ukośną (lub poziomą) w plus nieskończoności daną innym równaniem niż asymptota ukośna w minus nieskończoności. Może też na przykład mieć wyłącznie asymptotę w minus nieskończoności i nie mieć asymptoty w plus nieskończoności. Stąd istnieje konieczność wyznaczenia granicy ilorazu \( \displaystyle \frac{f(x)}{x} \) osobno przy \( \displaystyle x\to\infty \) i

\( \displaystyle x\to-\infty \).

Przykład 11.16.

Wykazaliśmy już, że \( \displaystyle \frac{\sin x}{x}=1+o(1) \), co można też zapisać \( \displaystyle \sin x=x+o(x) \), przy \( \displaystyle x\to 0 \). Można też wykazać, że

\( \displaystyle \begin{align*} \sin x & =1-\frac{x^3}{3!}+o(x^3) \\ & =1-\frac{x^3}{3!}+\frac{x^5}{5!}+o(x^5) \\ & =1-\frac{x^3}{3!}+\frac{x^5}{5!}+o(x^5) \\ & =1-\frac{x^3}{3!}+\frac{x^5}{5!}-\frac{x^7}{7!}+o(x^7)\end{align*} \)

Ogólnie z twierdzenia Taylora (które wykazaliśmy w poprzednim module) wynika, że

Uwaga 11.17.

Jeśli \( \displaystyle f \) jest funkcją \( \displaystyle (n+1) \) razy różniczkowalną w otoczeniu punktu \( \displaystyle a \), to

\( \displaystyle \begin{align*} f(a+h) & =\sum_{k=0}^n \frac{f^{(k)}(a)}{k!}h^k+o(h^n) \\ & =\sum_{k=0}^n \frac{f^{(k)}(a)}{k!}h^k+O(h^{n+1}), \text{ przy } h\to 0. \end{align*} \)

Uwagi o efektywnym stosowaniu reguły de l'Hospitala

Uwagi o efektywnym stosowaniu reguły de l'Hospitala


Zwróciliśmy już uwagę na fakt, że reguła de l'Hospitala -- podobnie jak każde twierdzenie -- wymaga przed zastosowaniem tezy sprawdzenia, czy spełnione są założenia twierdzenia. Jednak nawet w przypadku, gdy są spełnione założenia, nie ma gwarancji, czy rachunki w oparciu o wzór z tezy prowadzą krótką drogą do celu, jakim jest stwierdzenie czy istnieje oraz ile wynosi granica ilorazu dwóch funkcji.
Rozważmy następujący

Przykład 11.18.

Sprawdźmy, czy istnieje granica

\( \displaystyle \lim_{t\to 1}\frac{8t-\sqrt{63+t}}{4t-\root{3}\of{63+t}}. \)

Zauważamy, że iloraz funkcji \( \displaystyle f(t)=8t-\sqrt{63+t} \) oraz \( \displaystyle g(t)=4-\root{3}\of{63+t} \) stanowi w punkcie \( \displaystyle t=1 \) symbol nieoznaczony \( \displaystyle \frac{0}{0} \). Obie funkcje są różniczkowalne w otoczeniu tego punktu, więc pozostaje zbadanie, czy istnieje granica ilorazu pochodnych \( \displaystyle \frac{f'(t)}{g'(t)} \) w punkcie \( \displaystyle t=1 \). Próba wyznaczenia ilorazu pochodnych prowadzi do otrzymania ułamków piętrowych, które nie zachęcają do dalszych przekształceń. Zauważmy jednak, że podstawienie \( \displaystyle u:=\root{6}\of{63+t} \) sprowadza zadanie do zbadania, czy istnieje granica

\( \displaystyle \frac{8t-\sqrt{63+t}}{4t-\root{3}\of{63+t}}=\frac{8(u^6-63)-u^3}{4(u^6-63)-u^2} \)

ilorazu dwóch wielomianów \( \displaystyle F(u)=8(u^6-63)-u^3 \) oraz \( \displaystyle G(u)=4(u^6-63)-u^2 \) w punkcie \( \displaystyle u=2 \), ponieważ \( \displaystyle u(t)=\root{6}\of{63+t}\to 2 \), gdy \( \displaystyle t\to 1 \). Iloraz \( \displaystyle \frac{F(u)}{G(u)} \) stanowi symbol nieoznaczony \( \displaystyle \frac{0}{0} \) w punkcie \( \displaystyle u=2 \). Sprawdzenie, czy istnieje granica ilorazu pochodnych tych wielomianów jest bardzo proste

\( \displaystyle \frac{F'(u)}{G'(u)}=\frac{48u^5-3u^2}{24u^5-2u} =\frac{48u^4-3u}{24u^4-2}\to \frac{381}{191}, \) gdy \( u\to 2. \)

Stąd na mocy reguły de l'Hospitala istnieje granica \( \displaystyle\lim_{t\to 1}\frac{8t-\sqrt{63+t}}{4t-\root{3}\of{63+t}} \) i jest równa \( \displaystyle \frac{381}{191} \).

Przykład 11.19.

Zbadajmy, czy funkcja \( \displaystyle f(x)=(x+2)\exp\big(\frac{x+1}{x-1}\big) \) ma asymptotę ukośną. Stwierdzamy, że iloraz \( \displaystyle \frac{f(x)}{x}\to e \), gdy \( \displaystyle x\to\infty \). Następnie stajemy przed zadaniem wyznaczenia granicy różnicy \( \displaystyle f(x)-ex \) przy \( \displaystyle x\to \infty \). Wyrażenie to stanowi symbol nieoznaczony typu \( \displaystyle \infty-\infty \). Przekształćmy je:

\( \displaystyle \begin{align*} f(x)-ex & = (x+2)\exp\big(\frac{x+1}{x-1}\big)-ex \\ & =x\bigg(\big(1+\frac{2}{x}\big)\exp\big(\frac{x+1}{x-1}\big)-e\bigg) \\ & =\frac{\big(1+\frac{2}{x}\big)\exp\big(\frac{x+1}{x-1}\big)-e}{\frac{1}{x}}. \end{align*} \)

Ułamek o liczniku \( \displaystyle \big(1+\frac{2}{x}\big)\exp\big(\frac{x+1}{x-1}\big)-e \) oraz mianowniku \( \displaystyle \frac{1}{x} \) stanowi symbol nieoznaczony typu \( \displaystyle \frac{0}{0} \) przy \( \displaystyle x\to \infty \). Licznik i mianownik są funkcjami różniczkowalnymi w sąsiedztwie nieskończoności, tj. w przedziale typu \( \displaystyle (M, \infty) \), dla pewnego \( \displaystyle M \). Jednak już próba policzenia i uproszczenia pochodnej licznika jest dość nieprzyjemnym zadaniem. Zauważmy jednak, że podstawienie za \( \displaystyle \frac{x+1}{x-1}=:u \) nowej zmiennej, znacznie uprości rachunki. Mamy bowiem

\( \displaystyle \begin{align*} f(x)-ex & =x\bigg(\big(1+\frac{2}{x}\big)\exp\big(\frac{x+1}{x-1}\big)-e\bigg) \\ & =\frac{u+1}{u-1}\bigg[\big(1+2\frac{u-1}{u+1}\big)\exp u-e\bigg] \\ & =\frac{(3u-1)\exp u-(u+1)e}{u-1}. \end{align*} \)

Stwierdzenie, czy istnieje granica ilorazu

\( \displaystyle \frac{(3u-1)\exp u-(u+1)e}{u-1} \) przy \( u\to 1 \)

(ponieważ \( \displaystyle u(x)=\frac{x+1}{x-1}\to 1 \), gdy \( \displaystyle x\to\infty \)) jest prostym zadaniem. Iloraz funkcji

\( \displaystyle F(u)=(3u-1)\exp u-(u+1)e \) oraz \( G(u)=u-1 \)

stanowi symbol nieoznaczony typu \( \displaystyle \frac{0}{0} \) w punkcie \( \displaystyle u=1 \); obie funkcje są różniczkowalne w otoczeniu tego punktu. Wyznaczamy iloraz pochodnych i potrzebną granicę

\( \displaystyle \frac{F'(u)}{G'(u)}=\frac{3\exp u+(3u-1)\exp u -e}{1}\to 4e, \) gdy \( u\to 1. \)

Z reguły de l'Hospitala wynika więc, że istnieje granica ilorazu \( \displaystyle \lim_{u\to 1}\frac{F(u)}{G(u)} \) i jest równa \( \displaystyle 4e \). Stąd ostatecznie wnioskujemy, że prosta \( \displaystyle y=ex+4e \) jest asymptotą ukośną funkcji \( \displaystyle f \) przy \( \displaystyle x\to \infty \). Podobne obliczenia pozwalają stwierdzić, że ta sama prosta jest także asymptotą funkcji \( \displaystyle f \) przy \( \displaystyle x\to -\infty \).

Wypukłość. Badanie funkcji jednej zmiennej

Wypukłość. Badanie funkcji jednej zmiennej



Definiujemy funkcje wypukłe i dowodzimy ich elementarnych własności. Podajemy związek wypukłości funkcji z monotonicznością jej pochodnej. Przedstawiamy nierówność Jensena, Minkowskiego, Höldera oraz klasyczną nierówność między średnią arytmetyczną, geometryczną i harmoniczną. Schemat badania przebiegu zmienności funkcji jednej zmiennej stanowi podsumowanie poprzednich czterech modułów.

Funkcje wypukłe

Funkcje wypukłe


wykres

Pojęcie wypukłości jest nam znane z geometrii. Mówimy, że podzbiór \( \displaystyle A \) przestrzeni wektorowej \( \displaystyle X \) jest wypukły, jeśli dowolny odcinek o końcach należących do zbioru \( \displaystyle A \) jest zawarty w tym zbiorze. Innymi słowy:

\( \displaystyle \forall x, y\in A \ \forall t\in [0,1] \ : \ (1-t)x+ty\in A. \)

Zbiór

\( \displaystyle \{(1-t)x+ty, \ 0\leq t\leq 1\} \)

jest odcinkiem o końcach \( \displaystyle x \), \( \displaystyle y \). Punkty \( \displaystyle x \), \( \displaystyle y \) uzyskamy, gdy w kombinacji liniowej \( \displaystyle (1-y)x+ty \) parametr \( \displaystyle t \) przyjmie odpowiednio wartość \( \displaystyle 0 \) lub \( \displaystyle 1 \). Gdy \( \displaystyle t=\frac{1}{2} \), otrzymujemy punkt \( \displaystyle \frac{1}{2}(x+y) \), który jest środkiem odcinka łączącego punkty \( \displaystyle x \) oraz \( \displaystyle y \). Zauważmy też, że zbiory

\( \displaystyle \{(1-t)x+ty, \ t\leq 1\} \)

oraz

\( \displaystyle\{(1-t)x+ty, \ 0\leq t\} \)

to - odpowiednio - półprosta o początku \( \displaystyle x \) przechodząca przez punkt \( \displaystyle y \) oraz półprosta o początku \( \displaystyle y \) przechodząca przez punkt \( \displaystyle x. \)

Definicję funkcji wypukłej opieramy na intuicji geometrycznej.

Definicja 12.1.

Mówimy, że funkcja \( \displaystyle f:(a,b)\mapsto \mathbb{R} \) jest wypukła w przedziale \( \displaystyle (a,b) \), jeśli jej nadwykres

\( \displaystyle \{(x, y) : a < x < b, \ y\geq f(x)\} \)

jest zbiorem wypukłym, to znaczy

\( \displaystyle \forall x, y\in (a,b) : x < y \ \forall t\in [0,1] \ f((1-t)x+ty)\leq (1-t)f(x)+tf(y). \)

Jeśli powyższa nierówność jest ostra (wewnątrz odcinka \( \displaystyle 0 < t < 1 \)), tzn.

\( \displaystyle \forall x, y\in (a,b) : x < y \ \forall t\in (0,1) \ f((1-t)x+ty) < (1-t)f(x)+tf(y), \)

to mówimy, że funkcja \( \displaystyle f \) jest ściśle wypukła w przedziale \( \displaystyle (a,b) \).

Z kolei, jeśli zachodzą nierówności przeciwne, tj.

\( \displaystyle \forall x, y\in (a,b) : x < y \ \forall t\in [0,1] : \ f((1-t)x+ty)\geq (1-t)f(x)+tf(y) \)

oraz odpowiednio

\( \displaystyle \forall x, y\in (a,b) : x < y \ \forall t\in (0,1) : \ f((1-t)x+ty)> (1-t)f(x)+tf(y), \)

to mówimy, że funkcja \( \displaystyle f \) jest wklęsła w przedziale \( \displaystyle (a,b) \) oraz - odpowiednio - ściśle wklęsła.

Zwróćmy uwagę, że jeśli funkcja nie jest wypukła w przedziale \( \displaystyle (a,b) \), to nie oznacza to, że jest wklęsła w tym przedziale. Na przykład funkcja Dirichleta

\( \displaystyle D(x)=\left\{\begin{align*} & 0, & \text{ dla } & x\in [0,1]\cap\mathbb{Q} \\ & 1, & \text{ dla } & x\in [0,1]\cap (\mathbb{R}\setminus \mathbb{Q})\end{align*} \right. \)

nie jest wypukła w żadnym przedziale \( \displaystyle (a,b)\subset [0,1] \), ale nie jest też wklęsła.

Zauważmy, że jeśli \( \displaystyle x=(1-t)a+tb \), to nierówność

\( \displaystyle f\big((1-t)a+tb\big)\leq (1-t)f(a)+tf(b), \)

za pomocą której określiliśmy wypukłość funkcji w przedziale \( \displaystyle (a,b) \), jest równoważna nierówności

\( \displaystyle f(x)\leq\frac{b-x}{b-a}f(a)+\frac{x-a}{b-a}f(b) \)

lub

\( \displaystyle 0\leq (b-x)f(a)+(a-b)f(x)+(x-a)f(b), \)

którą możemy również zapisać w postaci łatwej do zapamiętania za pomocą wyznacznika

\( \displaystyle w_f(x):=\det [1 & a & f(a) \\ 1 & x & f(x) \\ 1 & b & f(b)] \geq 0. \)

Uwaga 12.2.

Funkcja \( \displaystyle f \) jest wypukła (odpowiednio: ściśle wypukła, wklęsła, ściśle wklęsła) w przedziale \( \displaystyle (a,b) \) wtedy i tylko wtedy, gdy dla dowolnej liczby \( \displaystyle x\in(a,b) \) wyznacznik \( \displaystyle w_f(x)\geq 0 \) (odpowiednio: \( \displaystyle w_f(x)> 0 \), \( \displaystyle w_f(x)\leq 0 \), \( \displaystyle w_f(x) < 0 \)).

Elementarne własności funkcji wypukłych

Elementarne własności funkcji wypukłych


Sformułujmy parę uwag, które wynikają bezpośrednio z definicji wypukłości funkcji.

Uwaga 12.3.

a) Jeśli \( \displaystyle f \) jest wypukła w przedziale \( \displaystyle (a,b) \), to jest również wypukła w dowolnym mniejszym przedziale \( \displaystyle (a_1, b_1) \) zawartym w \( \displaystyle (a,b). \)

b) Funkcja \( \displaystyle x\mapsto f(x) \) jest wypukła (odpowiednio: ściśle wypukła) w przedziale \( \displaystyle (a,b) \) wtedy i tylko wtedy, gdy funkcja \( \displaystyle x\mapsto -f(x) \) jest wklęsła (odpowiednio: ściśle wklęsła) w tym przedziale.

c) Jeśli \( \displaystyle C>0 \) jest stałą dodatnią, to funkcja \( \displaystyle x\mapsto C f(x) \) jest wypukła wtedy i tylko wtedy, gdy \( \displaystyle f \) jest wypukła.

d) Jeśli \( \displaystyle C \) jest dowolną stałą, to funkcja \( \displaystyle x\mapsto C+ f(x) \) jest wypukła wtedy i tylko wtedy, gdy \( \displaystyle f \) jest wypukła.

e) Suma funkcji wypukłych jest funkcją wypukłą.

Kolejne elementarne własności funkcji wypukłych podaje

Twierdzenie 12.4.

a) Złożenie \( \displaystyle g\circ f \) funkcji wypukłych \( \displaystyle f \) i \( \displaystyle g \) jest funkcją wypukłą, jeśli \( \displaystyle g \) jest funkcją rosnącą.

b) Funkcja \( \displaystyle g \) odwrotna do funkcji \( \displaystyle f \) wypukłej rosnącej jest wklęsła rosnąca.

c) Funkcja ściśle wypukła w przedziale \( \displaystyle (a,b) \) nie osiąga maksimum w żadnym punkcie tego przedziału.

d) Funkcja ściśle wklęsła w przedziale \( \displaystyle (a,b) \) nie osiąga minimum w żadnym punkcie tego przedziału.

Dowód 12.4.

a) Funkcja \( \displaystyle f \) jest wypukła w \( \displaystyle (a,b) \), więc

\( \displaystyle f\big((1-t)x+ty\big)\leq (1-t)f(x)+tf(y) \)

dla dowolnych \( \displaystyle x,y\in (a,b) \), \( \displaystyle t\in [0,1] \). Mamy następnie nierówność

\( \displaystyle g\bigg(f\big((1-t)x+ty\big)\bigg)\leq g\big((1-t)f(x)+tf(y)\big), \)

ponieważ funkcja \( \displaystyle g \) jest rosnąca. Zuwagi na wypukłość \( \displaystyle g \) mamy

\( \displaystyle g\big((1-t)f(x)+tf(y)\big)\leq (1-t)g(f(x))+tg(f(y)), \)

czyli

\( \displaystyle (g\circ f)\big((1-t)x+ty\big)\leq (1-t)(g\circ f )(x)+t(g\circ f )(y) \)

dla dowolnych \( \displaystyle x,y\in (a,b) \) i \( \displaystyle 0\leq t\leq 1 \). Stąd złożenie \( \displaystyle g\circ f \) jest funkcją wypukłą.

b) Niech \( \displaystyle a < x_1 < x_2 < b \) i niech \( \displaystyle y_1=f(x_1) \), \( \displaystyle y_2=f(x_2) \). Wówczas \( \displaystyle g(y_1)=x_1 \) oraz \( \displaystyle g(y_2)=x_2 \). Funkcja odwrotna do rosnącej jest rosnąca, gdyż

\( \displaystyle \begin{align*} x_1 & < x_2 & & \Leftrightarrow \ \ f(x_1) < f(x_2) \\ & & \Updownarrow & \\ g(y_1) & < g(y_2) & & \Leftrightarrow \ \ y_1 < y_2.\end{align*} \)

Z wypukłości funkcji \( \displaystyle f \) mamy

\( \displaystyle f\big((1-t)x_1 +t x_2\big) \leq (1-t)f(x_1)+tf(x_2) \ \ \text{ dla } t\in [0,1], \)

co jest równoważne nierównościom

\( \displaystyle \begin{align*} & g\bigg(f\big((1-t)x_1 +t x_2\big)\bigg) & \leq & g\big((1-t)y_1+ty_2\big) & \\ & (1-t)x_1 +t x_2 & \leq & g\big((1-t)y_1+ty_2\big) & \\ & (1-t)g(y_1) +t g(y_2) & \leq & g\big((1-t)y_1+ty_2\big) & \text{ dla } t\in [0,1], \end{align*} \)

czyli \( \displaystyle g \) jest wklęsła.

c) Przypuśćmy wbrew tezie, że funkcja \( \displaystyle f \) osiąga maksimum w pewnym punkcie \( \displaystyle x_0\in(a,b) \). Funkcja \( \displaystyle f \) nie jest stała, istnieje więc liczba \( \displaystyle h>0 \) taka, że \( \displaystyle f(x_0-h) < f(x_0) \) oraz \( \displaystyle f(x_0+h) < f(x_0) \). Wobec tego

\( \displaystyle \frac{1}{2}f(x_0-h)+\frac{1}{2}f(x_0+h) < f(x_0)=f\big(\frac{1}{2}(x_0-h)+\frac{1}{2}(x_0+h)\big) \)

co oznacza, że funkcja \( \displaystyle f \) nie jest wypukła w przedziale \( \displaystyle (x_0-h, x_0+h) \). Sprzeczność.

d) Dowód przebiega podobnie do dowodu własności c).

wykres

Definicja 12.5.

Jeśli dla pewnej liczby \( \displaystyle h>0 \) funkcja \( \displaystyle f \), określona w przedziale \( \displaystyle (a-h, a+h) \), jest

  • ściśle wypukła w przedziale \( \displaystyle (a-h,a) \) i ściśle wklęsła w przedziale \( \displaystyle (a, a+h) \)

albo na odwrót:

  • ściśle wklęsła w przedziale \( \displaystyle (a-h,a) \) i ściśle wypukła w przedziale \( \displaystyle (a, a+h) \),

to mówimy, że punkt \( \displaystyle a \) jest punktem przegięcia (wykresu) funkcji \( \displaystyle f \).

Przykład 12.6.

a) Funkcja stała \( \displaystyle f(x)=C \) jest wypukła w przedziale \( \displaystyle (-\infty, \infty) \); nie jest ściśle wypukła.

b) Funkcja \( \displaystyle f(x)=|x| \) jest wypukła w każdym przedziale \( \displaystyle (-\infty, \infty) \); nie jest ściśle wypukła.

c) Funkcja \( \displaystyle f(x)=x^{2n} \) jest ściśle wypukła w całym zbiorze liczb rzeczywistych, gdy wykładnik \( \displaystyle 2n \) jest dowolną parzystą liczbą dodatnią. Gdy \( \displaystyle 2n \) jest parzystą liczbą ujemną, to \( \displaystyle f \) jest ściśle wypukła w obu przedziałach \( \displaystyle (-\infty, 0) \) oraz \( \displaystyle (0, \infty) \).

d) Gdy wykładnik \( \displaystyle 2n+1 \) jest nieparzystą liczbą dodatnią lub ujemną, funkcja \( \displaystyle f(x)=x^{2n+1} \) jest ściśle wypukła w przedziale \( \displaystyle (0,\infty) \) i jest ściśle wklęsła w przedziale \( \displaystyle (-\infty, 0) \). Punkt \( \displaystyle 0 \) jest więc punktem przegięcia funkcji \( \displaystyle f(x)=x^{2n+1} \), gdy wykładnik jest dowolną liczbą nieparzystą dodatnią. Gdy wykładnik \( \displaystyle 2n+1 \) jest liczbą ujemną, liczba \( \displaystyle 0 \) nie należy do dziedziny funkcji \( \displaystyle f \), nie jest więc punktem przegięcia funkcji \( \displaystyle f \).

e) Funkcja \( \displaystyle f(x)=\sin x \) jest ściśle wypukła w każdym z przedziałów \( \displaystyle (-\pi+2k\pi, 0+2k\pi) \) i jest ściśle wklęsła w każdym z przedziałów \( \displaystyle (0+2k\pi, \pi+2k\pi) \), \( \displaystyle k\in\mathbb{Z} \). Stąd każdy punkt \( \displaystyle k \pi \), \( \displaystyle k\in\mathbb{Z} \), jest punktem przegięcia tej funkcji.

Wypukłość funkcji a monotoniczność jej pochodnej

Wypukłość funkcji a monotoniczność jej pochodnej


Badanie wypukłości funkcji różniczkowalnej można sprowadzić do badania monotoniczności jej pochodnej.

Twierdzenie 12.7

Niech \( \displaystyle f \) będzie funkcją różniczkowalną w przedziale \( \displaystyle (a,b) \). Funkcja \( \displaystyle f \) jest wypukła w przedziale \( \displaystyle (a,b) \) wtedy i tylko wtedy, gdy jej pochodna \( \displaystyle f' \) jest rosnąca.

Dowód 12.7.

Jeśli funkcja \( \displaystyle f \) jest wypukła w przedziale \( \displaystyle (\alpha, \beta) \), to dla dowolnych liczb \( \displaystyle a,b\in (\alpha, \beta) \), \( \displaystyle a < b \) oraz dla dowolnego punktu \( \displaystyle x\in (a,b) \) zachodzi nierówność:

\( \displaystyle 0\leq (b-x)f(a)+(a-b)f(x)+(x-a)f(b), \)

którą możemy zapisać w równoważnej postaci:

\( \displaystyle \frac{f(x)-f(a)}{x-a}\leq \frac{f(b)-f(x)}{b-x}. \)

Gdy \( \displaystyle x\to a \) lub \( \displaystyle x\to b \), wobec różniczkowalności \( \displaystyle f \), otrzymamy

\( \displaystyle f'(a)\leq \frac{f(b)-f(a)}{b-a} \)

oraz

\( \displaystyle \frac{f(b)-f(a)}{b-a} \leq f'(b). \)

Stąd \( \displaystyle f'(a)\leq f'(b) \), a więc pochodna \( \displaystyle f' \) jest rosnąca w przedziale \( \displaystyle (\alpha, \beta) \).

Załóżmy teraz z kolei, że pochodna \( \displaystyle f' \) jest funkcją rosnącą. Z twierdzenia Lagrange'a o wartości średniej istnieją punkty \( \displaystyle \xi\in (a,x) \) oraz \( \displaystyle \eta\in (x,b) \) takie, że

\( \displaystyle \frac{f(x)-f(a)}{x-a}=f'(\xi) \)

oraz

\( \displaystyle \frac{f(b)-f(x)}{b-x}=f'(\eta). \)

Pamiętamy, że \( \displaystyle a < \xi < x < \eta < b \). Skoro \( \displaystyle f' \) jest rosnąca w przedziale \( \displaystyle (\alpha, \beta) \), więc \( \displaystyle f'(\xi)\leq f'(\eta) \), czyli

\( \displaystyle \frac{f(x)-f(a)}{x-a}\leq \frac{f(b)-f(x)}{b-x}, \)

co wobec dowolności wyboru punktów \( \displaystyle a < x < b \) z przedziału \( \displaystyle (\alpha, \beta) \) oznacza, że funkcja \( \displaystyle f \) jest wypukła.

Pamiętamy, że monotoniczność funkcji różniczkowalnej jest ściśle związana ze znakiem jej pochodnej. Stąd monotoniczność pochodnej jest związana ze znakiem drugiej pochodnej funkcji.

Wniosek 12.8.

Niech \( \displaystyle f \) będzie funkcją dwukrotnie

różniczkowalną w przedziale \( \displaystyle (a,b) \). Jeśli w dowolnym punkcie \( \displaystyle x\in (a,b) \) druga pochodna \( \displaystyle f''(x)\geq 0 \) (odpowiednio: \( \displaystyle f''(x)\leq 0 \)), to funkcja \( \displaystyle f \) jest wypukła (odpowiednio: wklęsła) w tym przedziale.

wykres

Przykład 12.9.

a) Funkcja wykładnicza \( \displaystyle x\mapsto a^x \) jest ściśle wypukła w przedziale \( \displaystyle (-\infty, \infty) \), gdy \( \displaystyle a\in (0,1)\cup (1, \infty) \), ponieważ jej druga pochodna \( \displaystyle \frac{d^2}{dx^2}a^x=(\ln a)^2 a^x \) jest dodatnia w każdym punkcie \( \displaystyle x\in \mathbb{R} \). W przypadku, gdy \( \displaystyle a=1 \), funkcja stała \( \displaystyle f(x)=1^x=1 \) jest także wypukła, ale nie jest ściśle wypukła.

b) Funkcja logarytmiczna \( \displaystyle x\mapsto -\ln |x| \) jest ściśle wypukła w przedziałach \( \displaystyle (-\infty, 0) \) oraz \( \displaystyle (0, \infty) \), gdyż jej druga pochodna

\( \displaystyle \frac{d^2}{dx^2}(-\ln |x|)=\frac{1}{x^2} \)

jest dodatnia dla \( \displaystyle x\neq 0 \).

c) Jeśli \( \displaystyle f \) jest funkcją wypukłą, to również \( \displaystyle \exp f: x\mapsto e^{f(x)} \) jest funkcją wypukłą, gdyż jest złożeniem funkcji wypukłej \( \displaystyle f: x\mapsto f(x) \) i rosnącej funkcji wypukłej \( \displaystyle \exp: u\mapsto \exp u \).

Z twierdzenia o monotoniczności pochodnej funkcji wypukłej wynika również warunek konieczny istnienia punktu przegięcia funkcji dwukrotnie różniczkowalnej w przedziale \( \displaystyle (a,b) \).

Wniosek 12.10.

Niech \( \displaystyle f \) będzie funkcją dwukrotnie różniczkowalną w przedziale \( \displaystyle (a,b) \). Jeśli \( \displaystyle x_0\in (a,b) \) jest punktem przegięcia funkcji \( \displaystyle f \), to \( \displaystyle f''(x_0)=0 \).

Zwróćmy uwagę, że zerowanie drugiej pochodnej nie jest warunkiem wystarczającym istnienia punktu przegięcia.

Każda z funkcji \( \displaystyle f(x)=x^{2n} \), gdy \( \displaystyle n\geq 2 \), ma zerową drugą pochodną w punkcie \( \displaystyle x=0 \), jednak punkt ten nie jest dla żadnej z nich punktem przegięcia, gdyż każda z tych funkcji jest ściśle wypukła w przedziale \( \displaystyle (-\infty, +\infty) \).

Badając przebieg zmienności funkcji musimy również pamiętać, aby skontrolować, czy funkcja nie ma punktów przegięcia, w których nie istnieje druga pochodna.

Przykład 12.12.

Funkcja

\( \displaystyle f(x)=\left\{ \begin{array}{lll} \sqrt{x}, \text{ dla } x\geq 0 \\ -\sqrt{-x}, \text{ dla } x < 0 \end{array} \right. \)

jest ściśle wypukła w przedziale \( \displaystyle (-\infty, 0) \) i ściśle wklęsła w przedziale \( \displaystyle (0, \infty) \). Jest określona w punkcie \( \displaystyle x=0 \), ma więc punkt przegięcia \( \displaystyle x=0 \), który nie jest miejscem zerowym drugiej pochodnej

\( \displaystyle f''(x)=-\frac{1}{4}\mathrm{sgn}\, x |x|^{-\frac{3}{2}}, \)

która jest różna od zera w dowolnym punkcie swojej dziedziny, tj. gdy \( \displaystyle x\neq 0 \).

Nierówność Jensena

Nierówność Jensena


Szereg ważnych nierówności, m.in. klasyczna nierówność między średnią arymetyczną, geometryczną a harmoniczną liczb

nieujemnych \( \displaystyle a \), \( \displaystyle b \):

\( \displaystyle \frac{2}{\frac{1}{a}+\frac{1}{b}}\leq\sqrt{ab}\leq \frac{1}{2}(a+b) \)

jest konsekwencją wypukłości pewnych funkcji. Można je wyprowadzić z nierówności Jensena.

Twierdzenie 12.13. [nierówność Jensena]

Jeśli funkcja \( \displaystyle f \) jest wypukła w przedziale \( \displaystyle (a,b) \), to zachodzi nierówność:

\( \displaystyle f(t_1 x_1 +t_2 x_2 +\dots +t_n x_n)\leq t_1 f(x_1) +t_2 f(x_2)+\dots +t_n f(x_n), \)

dla dowolnych liczb nieujemnych \( \displaystyle t_1, t_2, \dots, t_n \) takich, że

\( \displaystyle t_1+t_2+\dots +t_n =1 \)

oraz dla dowolnych \( \displaystyle x_1, x_2, \dots , x_n \) z przedziału \( \displaystyle (a,b) \).

Dowód 12.13.

Gdy \( \displaystyle n=2 \) nierówność z tezy twierdzenia

\( \displaystyle f(t_1 x_1 +t_2 x_2)\leq t_1 f(x_1)+t_2 f(x_2), \)

gdy \( \displaystyle t_1 +t_2=1, \ t_1, t_2\geq 0 \), wynika z definicji wypukłości. Następnie dowodzimy dla \( \displaystyle k\geq 2 \) implikacji

\( \displaystyle \begin{align*} \forall t_1, t_2, \dots, t_k\geq 0, \ t_1+t_2+\dots +t_k=1 \ \forall x_1, x_2, \dots, x_k \in (a,b): \\ \ f(t_1 x_1 +t_2 x_2 +\dots +t_k x_k)\leq t_1 f(x_1) +t_2 f(x_2)+\dots +t_k f(x_k)\end{align*} \)

\( \displaystyle \Downarrow \)

\( \displaystyle \begin{align*} \forall s_1, s_2, \dots, s_{k+1}\geq 0, \ s_1+s_2+\dots +s_{k+1}=1 \ \forall y_1, y_2, \dots, y_{k+1} \in (a,b): \\ \ f(s_1 y_1 +s_2 y_2 +\dots +s_{k+1} y_{k+1})\leq s_1 f(y_1) +s_2 f(y_2)+\dots +s_{k+1} f(y_{k+1})\end{align*} \)

(szczegóły zawarte są w ćwiczeniach do tego modułu). Stąd na mocy zasady indukcji matematycznej wynika prawdziwość twierdzenia.

Warunek \( \displaystyle t_1+t_2+\dots+t_n=1 \) spełniają liczby postaci \( \displaystyle t_i=\frac{p_i}{p_1+p_2+\dots+p_n} \), gdzie \( \displaystyle p_1, p_2, \dots, p_n \) są dowolnymi liczbami rzeczywistymi dodatnimi. Oznaczmy przez \( \displaystyle \sum p_i=p_1+p_2+\dots+p_n \) sumę liczb \( \displaystyle p_i \) i analogicznie przez \( \displaystyle \sum p_ix_i=p_1x_1+p_2x_2+\dots+p_nx_n \) sumę iloczynów \( \displaystyle p_i x_i \). Nierówność Jensena możemy również sformułować następująco:

Wniosek 12.14.

Jeśli \( \displaystyle f \) jest wypukła w przedziale \( \displaystyle (a,b) \), to zachodzi nierówność

\( \displaystyle f\bigg(\frac{\sum x_i p_i}{\sum p_i}\bigg)\leq \frac{\sum p_i f(x_i)}{\sum p_i}, \)

czyli

\( \displaystyle f\bigg(\frac{ x_1 p_1+x_2p_2+\dots +x_np_n}{p_1+p_2+\dots +p_n}\bigg)\leq \frac{ p_1 f(x_1)+p_2 f(x_2)+\dots+p_nf(x_n)}{p_1+p_2+\dots+p_n} \)

dla dowolnych liczb \( \displaystyle x_1, x_2, \dots, x_n \) z przedziału \( \displaystyle (a,b) \) i dla dowolnych liczb dodatnich \( \displaystyle p_1, p_2, \dots, p_n \).

Przykład 12.15.

Funkcja \( \displaystyle x\mapsto \exp x \) jest wypukła, więc podstawiając w nierówności Jensena \( \displaystyle t_i=\ln x_i \), gdzie \( \displaystyle x_i \) są dowolnymi dodatnimi liczbami rzeczywistymi oraz \( \displaystyle p_i=1 \) otrzymujemy

\( \displaystyle \exp\big(\frac{1}{n}(\ln x_1+\ln x_2 +\dots +\ln x_n)\big)\leq \frac{1}{n}\big(\exp \ln x_1+\exp \ln x_2+\dots+\exp \ln x_n\big) \)

\( \displaystyle \big(\exp(\ln x_1)\exp(\ln x_2)\dots \exp(\ln x_n)\big)^\frac{1}{n}\leq \frac{1}{n}\big(\exp \ln x_1+\exp \ln x_2+\dots+\exp \ln x_n\big) \)

\( \displaystyle (x_1 x_2 \dots x_n)^\frac{1}{n}\leq \frac{1}{n}(x_1+x_2+\dots+x_n), \)

nierówność pomiędzy średnią geometryczną \( \displaystyle (x_1 x_2 \dots x_n)^\frac{1}{n} \) a średnią arytmetyczną \( \displaystyle \frac{1}{n}(x_1+x_2+\dots+x_n) \) liczb dodatnich \( \displaystyle x_1, x_2, \dots, x_n \).

Podstawiając z kolei w otrzymanej nierówności \( \displaystyle x_i=\frac{1}{y_i} \), otrzymamy

\( \displaystyle \bigg(\frac{1}{y_1} \frac{1}{y_2} \dots \frac{1}{y_n}\bigg)^\frac{1}{n}\leq \frac{1}{n}(\frac{1}{y_1}+\frac{1}{y_2}+\dots+\frac{1}{y_n}) \)

czyli

\( \displaystyle (y_1 y_2 \dots y_n)^\frac{1}{n}\geq \frac{n}{y_1^{-1}+y_2^{-1}+\dots+y_n^{-1}} \)

nierówność między średnią geometryczną \( \displaystyle (y_1 y_2 \dots y_n)^\frac{1}{n} \) a średnią harmoniczną \( \displaystyle \displaystyle \frac{n}{y_1^{-1}+y_2^{-1}+\dots+y_n^{-1}} \) liczb dodatnich \( \displaystyle y_1, y_2, \dots, y_n \).

Wykazaliśmy w ten sposób nierówność pomiędzy średnią harmoniczną, geometryczną i arytmetyczną.

wykres

Rysunek do uwagi 12.17.

Wniosek 12.16.

Dla dowolnych liczb rzeczywistych dodatnich \( \displaystyle x_1, x_2, \dots, x_n \) zachodzi nierówność

\( \displaystyle H(x_1, x_2, \dots, x_n)\leq G(x_1, x_2, \dots, x_n)\leq A(x_1, x_2, \dots, x_n), \)

gdzie

\( \displaystyle \begin{align*} H(x_1, x_2, \dots, x_n) & :=\frac{n}{x_1^{-1}+x_2^{-1}+\dots+x_n^{-1}} \\ G(x_1, x_2, \dots, x_n) & :=(x_1 x_2 \dots x_n)^\frac{1}{n} \\ A(x_1, x_2, \dots, x_n) & :=\frac{1}{n}(x_1+x_2+\dots+x_n) \end{align*} \)

są odpowiednio średnimi: harmoniczną, geometryczną i arytmetyczną liczb dodatnich \( \displaystyle x_1, x_2, \dots, x_n \).

Uwaga 12.17.

W przypadku dwóch liczb dodatnich \( \displaystyle 0 < a < b \) otrzymana nierówność ma klarowną interpretację geometryczną. Mając dane dwie proste prostopadłe \( \displaystyle k \), \( \displaystyle l \), przecinające się w punkcie \( \displaystyle O \), odkładamy na jednej z nich, np. na prostej \( \displaystyle l \) odcinki długości \( \displaystyle a \) oraz \( \displaystyle b \) tak, aby \( \displaystyle OA=a \), \( \displaystyle OB=b \) i \( \displaystyle A\in \overline{OB} \). Niech \( \displaystyle S \) będzie środkiem odcinka \( \displaystyle \overline{AB} \). Kreślimy okrąg o środku \( \displaystyle S \) i promieniu \( \displaystyle r=SA \). Niech \( \displaystyle P \) będzie punktem styczności stycznej poprowadzonej do okręgu z punktu \( \displaystyle O \). Łatwo spostrzec, że \( \displaystyle OS=\frac{1}{2}(a+b) \) jest średnią arytmetyczną odcinków \( \displaystyle OA=a \) i \( \displaystyle OB=b \). Nietrudno też dowieść (stosując twierdzenie Pitagorasa do boków trójkąta prostokątnego \( \displaystyle \triangle OSP \)), że odcinek stycznej \( \displaystyle OP=\sqrt{ab} \) jest średnią geometryczną danych odcinków. Warto też dostrzec podobieństwo trójkątów prostokątnych \( \displaystyle \triangle OSP \) i \( \displaystyle \triangle OPQ \), gdzie \( \displaystyle Q \) jest rzutem prostopadłym punktu \( \displaystyle P \) na prostą \( \displaystyle k \). Odcinek \( \displaystyle PQ=\frac{2}{a^{-1}+b^{-1}} \) jest średnią harmoniczną danych odcinków \( \displaystyle a \), \( \displaystyle b \). Z interpretacji tej jasno wynika, że w przypadku, gdy \( \displaystyle 0 < a < b \) w nierówności między średnimi mamy zawsze nierówność ostrą:

\( \displaystyle \frac{2}{\frac{1}{a}+\frac{1}{b}} < \sqrt{ab} < \frac{1}{2}(a+b). \)

Gdy punkt \( \displaystyle A \) zmierza do \( \displaystyle B \) (czyli, gdy \( \displaystyle a \) zmierza do \( \displaystyle b \)), promień \( \displaystyle r\to 0 \) i punkt \( \displaystyle P \) zmierza do \( \displaystyle S \). W granicznym przypadku, gdy \( \displaystyle a=b \), mamy \( \displaystyle r=0 \) oraz \( \displaystyle P=S=A=B \) i rezultacie trzy średnie: harmoniczna, geometryczna i arytmetyczna są równe.
Jeśli ustalimy \( \displaystyle b \), natomiast punkt \( \displaystyle A \) zmierza do \( \displaystyle O \), to \( \displaystyle r\to\frac{b}{2} \), punkt \( \displaystyle P \) zmierza do \( \displaystyle O \) i w ten sposób średnia geometryczna i średnia harmoniczna liczb \( \displaystyle a \), \( \displaystyle b \) zmierzają do zera, a średnia arytmetyczna do \( \displaystyle \frac{b}{2} \).

Jeśli ustalimy punkt \( \displaystyle A \), a punkt \( \displaystyle B \) będzie oddalał się w prawo po prostej \( \displaystyle k \) do nieskończoności, to \( \displaystyle r\to\infty \), punkt \( \displaystyle P \) będzie również oddalał się nieograniczenie od punktu \( \displaystyle O \) i w rezultacie trzy średnie będą zmierzały do nieskończoności.

Jako wniosek z nierówności Jensena w ramach ćwiczeń dowodzimy nierówności Höldera i nierówności Minkowskiego.

Twierdzenie 12.18. [nierówność Höldera]

Jeśli \( \displaystyle p \), \( \displaystyle q \) są liczbami dodatnimi spełniającymi równość \( \displaystyle \frac{1}{p}+\frac{1}{q}=1 \), to dla dowolnych liczb rzeczywistych \( \displaystyle x_1,...,x_n,y_1,...,y_n \) zachodzi nierówność

\( \displaystyle \sum_{k=1}^n|x_ky_k|\leq \left(\sum_{k=1}^n|x_k|^p \right)^\frac1p \left(\sum_{k=1}^n|y_k|^q \right)^\frac1q, \)

gdzie \( \displaystyle n \) jest liczbą naturalną.

Twierdzenie 12.19. [nierówność Minkowskiego]

Jeśli \( \displaystyle p\geq 1 \) jest dowolną liczbą rzeczywistą, to dowolnych liczb rzeczywistych \( \displaystyle x_1,...,x_n,y_1,...,y_n \) zachodzi nierówność

\( \displaystyle \left( \sum_{k=1}^n |x_k+y_k|^p \right)^{\frac{1}{p}}\leq \left( \sum_{k=1}^n |x_k|^p \right )^{\frac{1}{p}}+ \left( \sum_{k=1}^n |y_k|^p \right )^{\frac{1}{p}}, \)

gdzie \( \displaystyle n \) jest liczbą naturalną.

Badanie przebiegu zmienności funkcji

Badanie przebiegu zmienności funkcji


Uwaga 12.20.

Klasyczny schemat badania przebiegu zmienności funkcji jednej zmiennej obejmuje:

(1) Wyznaczenie dziedziny funkcji.

(2) Sprawdzenie, czy funkcja jest okresowa, parzysta, nieparzysta.

(3) Wyznaczenie granic funkcji na końcach przedziałów, z których w sumie składa się dziedzina funkcji, z wyszczególnieniem końców przedziałów, w których funkcja jest ciągła.

(4) Wyznaczenie asymptot pionowych, poziomych, ukośnych.

(5) Wyznaczenie punktów charakterystycznych wykresu funkcji, np. miejsc zerowych, wartości w zerze; wyznaczenie zbioru, w którym funkcja przyjmuje wartości dodatnie, ujemne.

(6) Badanie pierwszej pochodnej:

  • określenie dziedziny pochodnej;
  • wyznaczenie miejsc zerowych pochodnej oraz zbioru, w którym pochodna jest dodatnia, ujemna.

(7) Wyznaczenie przedziałów monotoniczności funkcji.

(8) Wyznaczenie punktów krytycznych funkcji oraz ekstremów.

(9) Badanie drugiej pochodnej funkcji:

  • określenie dziedziny drugiej pochodnej;
  • wyznaczenie miejsc zerowych drugiej pochodnej oraz zbioru, w którym druga pochodna jest dodatnia, ujemna.

(10) Wyznaczenie przedziałów wypukłości i wklęsłości funkcji oraz punktów przegięcia funkcji.

(11) Zebranie uzyskanych danych o funkcji w tabeli.

(12) Sporządzenie wykresu w oparciu o uzyskane dane.

Powstaje oczywiste pytanie, na ile ten klasyczny schemat jest aktualny i potrzebny dziś, gdy dysponujemy komputerami z zainstalowanymi programami do obliczeń symbolicznych (np. MATHEMATICA, MAPLE) i zamiast wykonywać żmudne rachunki wymienione w punktach od (1) do (11) możemy od ręki obejrzeć wykres interesującej nas funkcji, czyli zacząć i skończyć badanie funkcji na punkcie (12).

Wszystkich, którzy podzielają pogląd, że klasyczny schemat badania funkcji jest przeżytkiem, prosimy o skonstruowanie wykresu funkcji

\( \displaystyle f(x)=\left\{\begin{align*} (x+3)\exp\frac{x+1}{x-1}, \text{ dla } x\neq 1 \\ 0, \text{ dla } x=1\end{align*} \right. \)

np. za pomocą programu MATHEMATICA przez wypisanie w tym programie poleceń

f = (x+3)Exp[(x+1)/(x-1)]
 
oraz 
 
Plot[f, x, -5.0, 5.0]

a następnie prosimy o odczytanie z otrzymanego rysunku jakichkolwiek punktów charakterystycznych funkcji \( \displaystyle f \).

wykresy

Wobec oczywistej porażki (z wykresu, który przedstawia fragment niemal pionowej linii w pobliżu punktu \( \displaystyle x=1 \) można jedynie odczytać, że w zaproponowanym przedziale \( \displaystyle [-5, \ 5] \) funkcja przyjmuje duże wartości) powstaje potrzeba co najmniej powierzchownej analizy, która pozwoliłaby oszacować przedział, w którym funkcja może osiągać ekstrema. Próba poszukiwania po omacku metodą wybierania przedziału argumentów na chybił trafił być może po wielu próbach przyniosłaby zadawalający wynik w postaci przybliżonej, jednak prosta analiza znaku pochodnej danej funkcji znacznie szybciej prowadzi do znalezienia wszystkich ekstremów i innych punktów charakterystycznych danej funkcji i to w postaci dokładnej. Prześledźmy więc następujący przykład:

Przykład 12.21.

Klasyczny schemat badania funkcji

\( \displaystyle f(x)=\left\{\begin{align*} (x+3)\exp\frac{x+1}{x-1}, \text{ dla } x\neq 1 \\ 0, \text{ dla } x=1\end{align*} \right. \)

Obliczenia możemy wykonać samodzielnie, bądź wykorzystać procedury, które oferuje program do obliczeń symbolicznych (MATHEMATICA, MAPLE lub inny).

(1) Dziedziną \( \displaystyle f \) jest zbiór liczb rzeczywistych, na który składa się suma przedziałów \( \displaystyle (-\infty, 1)\cup(1, +\infty) \), w których funkcja \( \displaystyle f \) jest ciągła (będąc złożeniem funkcji ciągłych w obu przedziałach) oraz punkt \( \displaystyle \{1\} \), w którym funkcja \( \displaystyle f \) może nie mieć granicy.

(2) Funkcja \( \displaystyle f \) nie jest ani parzysta, ani nieparzysta, ani okresowa.

(3) Wyznaczmy granice funkcji \( \displaystyle f \) na końcach przedziałów ciągłości

\( \begin{array}{l} \displaystyle \lim_{x\to-\infty} f(x)=-\infty, \\ \displaystyle \lim_{x\to 1-} f(x)=0, \\ \displaystyle \lim_{x\to 1+} f(x)=\infty, \\ \displaystyle \lim_{x\to\infty} f(x)=+\infty. \end{array} \)

Funkcja nie ma granicy w punkcie \( \displaystyle x=1 \), nie jest więc ciągła w tym punkcie.

(4) Z punktu 3. wynika, że funkcja ma asymptotę pionową prawostronną w punkcie \( \displaystyle x=1 \) i nie ma asymptot poziomych, co nie wyklucza istnienia asymptot ukośnych.

Sprawdzamy, czy istnieje granica ilorazu \( \displaystyle \frac{f(x)}{x} \) przy \( \displaystyle x\to \infty \) i przy \( \displaystyle x\to-\infty \):

\( \displaystyle a=\lim_{x\to\infty}\frac{f(x)}{x}=e, \alpha=\lim_{x\to-\infty}\frac{f(x)}{x}=e. \)

Wobec istnienia tych granic wyznaczamy granice różnic (zob. przykład zastosowania reguły de l'Hospitala w poprzednim module): \( \displaystyle b=\lim_{x\to \infty}(f(x)-ex)=5e,\beta=\lim_{x\to -\infty}(f(x)-ex)=5e. \) Wynika stąd, że prosta \( \displaystyle y=ex+5e \) jest asymptotą ukośną wykresu funkcji \( \displaystyle f \) zarówno przy \( \displaystyle x\to\infty \) jak i przy \( \displaystyle x\to-\infty \). Funkcja \( \displaystyle x\mapsto ex+5e \) w przedziale \( \displaystyle [-5, 5] \) osiąga wartości w przedziale \( \displaystyle [0, 10e] \).

Stąd ograniczenie zbioru wartości na wykresie generowanym przez program MATHEMATICA do tego przedziału, nieco poprawia wygląd wykresu funkcji \( \displaystyle f \).

Plot[{f, Exp[1]x+5Exp[1]}, {x, -5, 5}, PlotRange -&gt; {0,10 Exp[1]}]

(5) Funkcja \( \displaystyle f \) ma dwa miejsca zerowe. Są to punkty \( \displaystyle x=-3 \) oraz \( \displaystyle x=1 \). Ponieważ funkcja wykładnicza przyjmuje wyłącznie wartości dodatnie, więc czynnik \( \displaystyle \exp\frac{x+1}{x-1} \) jest dodatni. Na znak funkcji \( \displaystyle f \) ma wpływ jedynie czynnik \( \displaystyle x-3 \). Wobec tego funkcja \( \displaystyle f \)

  • jest ujemna w przedziale \( \displaystyle (-\infty, -3) \),
  • jest dodatnia w przedziałach \( \displaystyle (-3, 1) \) oraz \( \displaystyle (1, +\infty) \),
  • przyjmuje wartość zero w punktach \( \displaystyle x=-3 \) oraz \( \displaystyle x=1 \).

Ponadto \( \displaystyle f(0)=\frac{3}{e} \).

Z twierdzenia Weierstrassa o osiąganiu kresów przez funkcję ciągłą na zbiorze zwartym wynika, że funkcja \( \displaystyle f \) osiąga maksimum wewnątrz przedziału \( \displaystyle [-3,1] \). Ponieważ \( \displaystyle f \) jest ciągła w przedziale \( \displaystyle (0, \infty) \) i zmierza do nieskończoności, gdy \( \displaystyle x\to 0+ \) oraz \( \displaystyle x\to\infty \), więc \( \displaystyle f \) osiąga minimum lokalne w co najmniej jednym punkcie \( \displaystyle x_1>0 \).

(6) Badanie pierwszej pochodnej

\( \displaystyle f'(x)=\frac{x^2 -4x-5}{(x-1)^2}\exp\frac{x+1}{x-1}=\frac{(x+1)(x-5)}{(x-1)^2}\exp\frac{x+1}{x-1}. \) >

  • Dziedziną pierwszej pochodnej jest suma przedziałów \( \displaystyle (-\infty, 1)\cup (1, \infty). \)
  • Miejscami zerowymi pierwszej pochodnej są \( \displaystyle x=-1 \) oraz \( \displaystyle x=5 \).

Pochodna jest dodatnia w zbiorze

\( \displaystyle \{f'>0\}=(-\infty, -1)\cup (5, \infty) \)

i jest ujemna w zbiorze

\( \displaystyle \{f' < 0\}=(-1, 1)\cup (1,5). \)

(7) W oparciu o dane z punktu (6) wnioskujemy, że funkcja \( \displaystyle f \) rośnie w przedziałach

\( \displaystyle (-\infty, -1), \ \ (5,\infty) \)

i maleje w przedziałach

\( \displaystyle (-1, 1), \ \ (1,5). \)

(8) Zbiór punktów krytycznych funkcji \( \displaystyle f \) składa się z trzech elementów:

\( \displaystyle \{-1, \ 1, \ 5\}, \)

to jest miejsc zerowych pochodnej \( \displaystyle -1 \), \( \displaystyle 5 \) oraz punktu \( \displaystyle 1 \), który należy do dziedziny funkcji i nie należy do dziedziny pochodnej. Z punktu 7. wynika, że

  • w punkcie \( \displaystyle x=-1 \) funkcja \( \displaystyle f \) osiąga maksimum lokalne \( \displaystyle f(-1)=2 \),
  • w punkcie \( \displaystyle x=1 \) funkcja \( \displaystyle f \) osiąga minimum lokalne \( \displaystyle f(1)=0 \),
  • w punkcie \( \displaystyle x=5 \) funkcja \( \displaystyle f \) osiąga minimum lokalne \( \displaystyle f(5)=8 \exp\frac{3}{2}=35,85\dots \)

Widzimy więc, że rysując wykres funkcji, musimy zadbać o to, aby zbiór wartości funkcji na wykresie zawierał co najmniej wartości \( \displaystyle f(1) \) oraz \( \displaystyle f(5) \).

Można np. przyjąć \( \displaystyle -6 < x < 8 \) oraz \( \displaystyle -10 < y < 50 \) i skorzystać z polecenia programu MATHEMATICA:

Plot[{f, Exp[1]x+5Exp[1]}, {x, -6, 8}, PlotRange -&gt;{-10, 50}]

które wygeneruje wykres funkcji \( \displaystyle f \) i jej asymptoty ukośnej w zadanym obszarze płaszczyzny.

Dodatkowe polecenie

PlotPoints -&gt; 1024

zwiększa rozdzielczość rysunku

PlotStyle -&gt; {{Hue[0.95], Thickness[0.007]}, {Hue[0.3], Dashing[{0.02,0.03}]}}

rysuje wykres funkcji \( \displaystyle f \) w kolorze zadanym przez Hue[0.95] o grubości Thickness[0.007] oraz asymptotę ukośną tej funkcji kolorem Hue[0.95] linią przerywaną zefiniowaną za pomocą Dashing[0.02,0.03] natomiast

AspectRatio -&gt; 5/2

(stosunek wysokości do szerokości \( \displaystyle 5:2 \)) zmienia format rysunku. Ostatecznie:

Plot[{f, Exp[1]x+5Exp[1]}, {x, -6, 8}, 
PlotRange -&gt; {-10,50},
PlotPoints -&gt; 1024, 
PlotStyle -&gt; {{Hue[0.95], Thickness[0.007]}, {Hue[0.3], Dashing[{0.02,0.03}]}}, 
AspectRatio -&gt; 5/2]

(9) Druga pochodna funkcji

\( \displaystyle f''(x)=\frac{4(5x-1)}{(x-1)^4}\exp\frac{x+1}{x-1} \)

jest określona w zbiorze

\( \displaystyle (-\infty, 1)\cup (1, \infty). \)

Przyjmuje wartości dodatnie w zbiorze

\( \displaystyle \{f''>0\}=\big(\frac{1}{5}, 1\big)\cup (1, \infty), \)

a ujemne w zbiorze

\( \displaystyle \{f'' < 0\}=\big(-\infty, \frac{1}{5}\big). \)

Jedynym punktem, w którym zeruje się druga pochodna, jest \( \displaystyle x=\frac{1}{5} \).

(10) W oparciu o dane (z punktu (9)) o znaku drugiej pochodnej wnioskujemy, że funkcja \( \displaystyle f \) jest (ściśle) wypukła w przedziałach

\( \displaystyle \big(\frac{1}{5}, 1\big), \ \ (1, \infty) \)

i jest (ściśle) wklęsła w przedziale

\( \displaystyle \big(-\infty, \frac{1}{5}\big). \)

Stąd punkt \( \displaystyle x=\frac{1}{5} \), w którym funkcja przyjmuje wartość

\( \displaystyle f\big(\frac{1}{5}\big)=\frac{16}{5}\exp\big(-\frac{3}{2}\big)=0,71\dots , \)

jest jedynym punktem przegięcia funkcji.

Program MATHEMATICA po wpisaniu polecenia

Plot[{f, y}, {x, -1, 1.5}, 
PlotRange -&gt; {-1,3}, 
PlotPoints -&gt; 1024, 
PlotStyle -&gt; {{Hue[0.95], 
Thickness[0.007]}, {Hue[0.5]}}, 
AspectRatio -&gt; 1]

kreśli w przedziale \( \displaystyle [-1, \frac{3}{2}] \) wykres funkcji \( \displaystyle f \) i stycznej do wykresu o równaniu \( \displaystyle y=f'(x_p)(x-x_p)+f(x_p) \) w punkcie przegięcia \( \displaystyle x_p=\frac{1}{5} \).

(11) Zebranie wszystkich punktów charakterystycznych funkcji \( \displaystyle f \) (miejsca punkty nieciągłości, miejsca zerowe funkcji, jej pierwszej i drugiej pochodnej, ekstrema, punkty przegięcia) w jednej tabeli usprawnia przygotowanie starannego wykresu.

(12) Na wykresie staramy się przedstawić wszystkie punkty

charakterystyczne funkcji \( \displaystyle f \) jak też jej asymptoty.

Całka nieoznaczona

Całka nieoznaczona

W pierwszej części tego wykładu wprowadzamy pojęcia funkcji pierwotnej i całki nieoznaczonej. Podajemy całki pewnych funkcji elementarnych, jak również przykłady funkcji, których pierwotne nie są funkcjami elementarnymi. Dowodzimy wzorów na całkowanie przez części i całkowanie przez podstawienie.

Druga część wykładu jest przeglądem metod całkowania. Omawiamy kolejno metody całkowania wyrażeń wymiernych (rozkład na ułamki proste), metody całkowania pewnych wyrażeń niewymiernych (m.in. metodę współczynników nieoznaczonych, podstawienia Eulera) oraz metody całkowania wyrażeń zawierających funkcje trygonometryczne.

Funkcja pierwotna

Funkcja pierwotna


Definicja 13.1.

Niech \( \displaystyle D\subseteq \mathbb{R} \) będzie przedziałem oraz niech \( \displaystyle f\colon D\longrightarrow\mathbb{R} \) będzie funkcją.

Funkcję \( \displaystyle F\colon D\longrightarrow\mathbb{R} \) nazywamy pierwotną funkcji \( \displaystyle f, \) jeśli \( \displaystyle F \) jest różniczkowalna i \( \displaystyle F'=f. \)

Twierdzenie 13.2.

Dwie dowolne pierwotne funkcji \( \displaystyle f\colon \mathbb{R}\supseteq D\longrightarrow\mathbb{R} \) różnią się o stałą, to znaczy

(1) Jeśli \( \displaystyle F \) i \( \displaystyle G \) są pierwotnymi funkcji \( \displaystyle f, \) to \( \displaystyle F-G=c \) dla pewnego \( \displaystyle c\in\mathbb{R}. \)

(2) Jeśli \( \displaystyle F \) jest pierwotną funkcji \( \displaystyle f \) oraz \( \displaystyle F-G=c \) dla pewnego \( \displaystyle c\in\mathbb{R}, \) to \( \displaystyle G \) też jest pierwotną funkcji \( \displaystyle f. \)

Dowód 13.2.

(Ad (1)) Jeśli \( \displaystyle F \) i \( \displaystyle G \) są pierwotnymi funkcji \( \displaystyle f, \) to mamy \( \displaystyle (F-G)'=F'-G'=f-f=0. \) Ponieważ pochodna różnicy \( \displaystyle F-G \) wynosi \( \displaystyle 0, \) więc różnica ta musi być stała. Zatem istnieje \( \displaystyle c\in\mathbb{R} \) takie, że \( \displaystyle F-G=c. \)

(Ad (2)) Załóżmy, że \( \displaystyle F \) jest pierwotną funkcji \( \displaystyle f \) oraz funkcje \( \displaystyle F \) i \( \displaystyle G \) różnią się o stałą, to znaczy \( \displaystyle G=F+c \) dla pewnej stałej \( \displaystyle c\in\mathbb{R}. \) Ponieważ \( \displaystyle F \) jest różniczkowalna (jako pierwotna) oraz funkcja stała jest różniczkowalna, więc także funkcja \( \displaystyle G \) jest różniczkowalna. Licząc pochodną sumy, dostajemy

\( \displaystyle G' \ =\ (F+c)'=F' \ =\ f, \)

zatem \( \displaystyle G \) jest także pierwotną funkcji \( \displaystyle f. \)

Definicja 13.3. [całka nieoznaczona, całkowanie]

Całką nieoznaczoną funkcji \( \displaystyle f \) nazywamy zbiór jego pierwotnych i oznaczamy

\( \displaystyle \int f(x)\,dx \) lub \( int f\,dx. \)

Całkowaniem nazywamy wyznaczanie całki.

Oczywiście, jeśli zmienna funkcji \( \displaystyle f \) nazywa się \( \displaystyle t, \) to piszemy \( \displaystyle \int f(t)\,dt \) lub \( \displaystyle \int f\,dt \), a jeśli zmienna funkcji \( \displaystyle f \) nazywa się na przykład \( \displaystyle \xi, \) to piszemy \( \displaystyle \int f(\xi)\,d\xi \) lub \( \displaystyle \int f\,d\xi \).

Wniosek 13.4.

Jeśli \( \displaystyle F \) jest pierwotną funkcji \( \displaystyle f, \) to

\( \displaystyle \int f(x)\,dx \ =\ F(x)+c. \)

Uwaga 13.5.

Jeśli \( \displaystyle F \) jest jedną z pierwotnych funkcji \( \displaystyle f \) oraz \( \displaystyle (x_0,y_0)\in\mathbb{R}^2, \) to pierwotna \( \displaystyle G \) funkcji \( \displaystyle f \) spełniająca \( \displaystyle G(x_0)=y_0 \) (to znaczy której wykres przechodzi przez punkt \( \displaystyle (x_0,y_0) \)) jest równa

\( \displaystyle G(x) \ =\ F(x)+c, \)

gdzie \( \displaystyle C=y_0-F(x_0). \)

Przykład 13.6.

Funkcja pierwotna nie zawsze istnieje.

Rozważmy następującą funkcję \( \displaystyle f\colon\mathbb{R}\longrightarrow\mathbb{R} \)

\( \displaystyle f(x)= \left\{ \begin{array}{lll} 0 & \textrm{gdy} & x\ne 0, \\ 1 & \textrm{gdy} & x= 0. \end{array} . < br> \right. \)

Pokażemy, że \( \displaystyle f \) nie ma pierwotnej. Dla dowodu niewprost, przypuśćmy, że funkcja ta posiada pierwotną \( \displaystyle F\colon\mathbb{R}\longrightarrow\mathbb{R}. \) Wówczas \( \displaystyle F'=f. \) Na przedziale \( \displaystyle (-\infty,0), \) funkcja \( \displaystyle f \) jest tożsamościowo równa \( \displaystyle 0, \) zatem jej pierwotna jest stała, powiedzmy \( \displaystyle F|_{(-\infty,0)}\equiv a. \) Podobnie na przedziale \( \displaystyle (0,+\infty), \) powiedzmy \( \displaystyle F|_{(0,+\infty)}\equiv b. \) Ponieważ funkcja pierwotna jest ciągła (jako różniczkowalna), zatem

\( \displaystyle a \ =\ \lim_{x\to 0^-}F(x) \ =\ \lim_{x\to 0^+}F(x) \ =\ b \)

oraz \( \displaystyle a=F(0)=b. \) Zatem pokazaliśmy, że \( \displaystyle F\equiv a. \) Ale wówczas \( \displaystyle F'=0\ne f, \) sprzeczność. Zatem tak zdefiniowana funkcja \( \displaystyle f \) nie ma pierwotnej.

Zachodzi natomiast następujące twierdzenie (które podajemy tutaj bez dowodu).

Twierdzenie 13.7.

Każda funkcja ciągła ma pierwotną.

Całki pewnych funkcji elementarnych

Całki pewnych funkcji elementarnych


Poniższe twierdzenie podaje całki nieoznaczone pewnych funkcji elementarnych. Ponieważ wiemy już, ile wynoszą pochodne pewnych funkcji elementarnych, więc łatwo stąd odgadnąć pierwotne niżej podanych funkcji.

Twierdzenie 13.8. [Całki pewnych funkcji elementarnych]

(1) \( \displaystyle \int 0\,dx=c \);

(2) \( \displaystyle \int 1\,dx =x+c \);

(3) \( \displaystyle \int x^{\alpha}\,dx=\frac{1}{\alpha+1} x^{\alpha+1}+c \) dla \( \displaystyle \alpha\ne -1 \);

(4) \( \displaystyle \int\frac{1}{x}\,dx = \ln |x|+c \);

(5) \( \displaystyle \int a^x\,dx=\frac{a^x}{\ln a}+c, \) dla \( \displaystyle a>0,a\ne 1, \) (w szczególności \( \displaystyle \int e^x\,dx=e^x+c); \)

(6) \( \displaystyle \int\sin x\,dx=-\cos x+c \);

(7) \( \displaystyle \int\cos x\,dx=\sin x+c \);

(8) \( \displaystyle \int\frac{1}{\cos^2 x}\,dx=\mathrm{tg}\, x+c \);

(9) \( \displaystyle \int\frac{1}{\sin^2 x}\,dx=-\mathrm{ctg}\, x+c \);

(10) \( \displaystyle \int\frac{1}{\sqrt{1-x^2}}\,dx =\arcsin x+c \);

(11) \( \displaystyle \int\frac{1}{1+x^2}\,dx =\mathrm{arctg}\, x+c \);

(12) \( \displaystyle \int\frac{1}{\sqrt{x^2+1}}\,dx ={\rm arsinh\, } x=\ln\big|x+\sqrt{x^2+1}\big| \);

(13) \( \displaystyle \int\frac{1}{\sqrt{x^2-1}}\,dx ={\rm arcosh\, } x=\ln\big|x+\sqrt{x^2-1}\big| \).

Poniższe twierdzenie pozwoli nam liczyć całkę z sumy i różnicy funkcji oraz z iloczynu funkcji przez stałą. Wynika ono natychmiast z twierdzenia o liniowości pochodnej.

Twierdzenie 13.9. [Liniowość całki]

Jeśli \( \displaystyle f,g\colon\mathbb{R}\supseteq D\longrightarrow\mathbb{R} \) są funkcjami, dla których istnieją całki nieoznaczone, \( \displaystyle \lambda\in\mathbb{R}, \) to

(1) \( \displaystyle \int(f\pm g)(x)\,dx= \int f(x)\,dx\pm\int g(x)\,dx \);

(2) \( \displaystyle \int(\lambda f)(x)\,dx =\lambda\int f(x)\,dx. \)

W przypadku liczenia pochodnej funkcji mieliśmy także do dyspozycji wzór na pochodną iloczynu i ilorazu. Pozwalało to w praktyczny sposób policzyć pochodną dowolnej funkcji elementarnej.

W przypadku całki nieoznaczonej nie mamy do dyspozycji takiego narzędzia. Okazuje się nawet, że dla pewnych funkcji elementarnych nie istnieje funkcja pierwotna elementarna (mimo, że pierwotna na pewno istnieje, bo funkcja jest na przykład ciągła).

Uwaga 13.10. [o funkcjach elementarnych]

(1) Funkcje elementarne to funkcje, które można otrzymać z funkcji:

  • stałych,
  • potęgowych,
  • wykładniczych,
  • trygonometrycznych,

przez wykonywanie skończonej liczby operacji:

  • dodawania/odejmowania,
  • mnożenia/dzielenia,
  • złożenia,
  • odwracania.

(2) Pochodna funkcji elementarnej jest zawsze funkcją elementarną. Wynika to ze wzorów na pochodną funkcji stałej, potęgowej, wykładniczej, trygonometrycznej oraz wzorów na pochodne sumy, iloczynu, ilorazu, złożenia i funkcji odwrotnej.

(3) Całka nieoznaczona funkcji elementarnej nie musi być funkcją elementarną. Przykłady funkcji, których pierwotne nie są funkcjami elementarnymi, to między innymi

\( \displaystyle \int\sqrt[3]{1+x^2}\,dx,\quad \int e^{-x^2}\,dx,\quad \int \sin x^2\,dx,\quad \int \cos x^2\,dx,\quad \int\frac{e^x}{x}\,dx, \)

\( \displaystyle \int\frac{\sin x}{x}\,dx,\quad \int\frac{\cos x}{x}\,dx\quad \int\frac{1}{\ln x}\,dx \)

oraz tak zwane całki eliptyczne:

\( \displaystyle \int\frac{1}{\sqrt{(1-x^2)(1-kx^2)}},\quad \int\frac{x^2}{\sqrt{(1-x^2)(1-kx^2)}}\quad \) dla \( k\in(0,1). \)

Całkowanie przez częśc

Całkowanie przez części


Do liczenia całki nieoznaczonej z iloczynu przydatny jest następujący wzór, który w niektórych przypadkach sprowadza całkę z iloczynu (lub ilorazu) do postaci łatwiejszej do wyliczenia.

Twierdzenie 13.11. [Całkowanie przez części]

Jeśli \( \displaystyle I\subseteq \mathbb{R} \) jest przedziałem, \( \displaystyle f,g\colon I\longrightarrow\mathbb{R} \) są funkcjami różniczkowalnymi oraz istnieje całka nieoznaczona dla funkcji \( \displaystyle f\cdot g', \) to istnieje także całka nieoznaczona dla funkcji \( \displaystyle f'\cdot g \) oraz

\( \displaystyle \int f'g\,dx \ =\ fg-\int fg'\,dx. \)

Dowód 13.11.

Ponieważ funkcje \( \displaystyle f \) i \( \displaystyle g \) są różniczkowalne, więc różniczkowalny jest także iloczyn \( \displaystyle f\cdot g \) oraz zachodzi wzór

\( \displaystyle (f\cdot g)' \ =\ f'\cdot g+f\cdot g', \)

zatem

\( \displaystyle f'\cdot g \ =\ (f\cdot g)' - f\cdot g'. \)

Ponieważ funkcja po prawej stronie jest całkowalna, więc funkcja po lewej stronie także jest całkowalna i mamy

\( \begin{array}{lll} \displaystyle \int f'\cdot g\,dx & = & \displaystyle \int\big[(f\cdot g)'\,dx - f\cdot g'\big] \\ & = & \displaystyle \int(f\cdot g)'\,dx - \int f\cdot g'\,dx = f\cdot g-\int f\cdot g'\,dx. \end{array} \)

Całkowanie przez podstawienie

Całkowanie przez podstawienie


Podobnie jak w przypadku iloczynu i ilorazu funkcji nie ma ogólnego wzoru na obliczanie pierwotnej, tak i w przypadku złożenia funkcji nie ma ogólnej metody wyznaczania pierwotnej (tak jak to miało miejsce w przypadku pochodnej). W przypadku złożenia pomocnym narzędziem może być następujący wzór na całkowanie przez podstawienie zwany także wzorem na zmianę zmiennych w całce. Pozwala ono w pewnych sytuacjach obliczyć całkę z funkcji zawierającej złożenie dwóch funkcji.

Twierdzenie 13.12. [Całkowanie przez podstawianie]

Jeśli \( \displaystyle I, J\subseteq\mathbb{R} \) są przedziałami, \( \displaystyle f\colon I\longrightarrow J \) jest funkcją różniczkowalną oraz \( \displaystyle g\colon J\longrightarrow\mathbb{R} \) jest funkcją, dla której istnieje pierwotna \( \displaystyle G\colon J\longrightarrow\mathbb{R}, \) to istnieje całka nieoznaczona dla funkcji \( \displaystyle (g\circ f)\cdot f' \) oraz

\( \displaystyle \int (g\circ f)\cdot f'\,dx \ =\ G\circ f. \)

Dowód 13.12.

Ponieważ funkcje \( \displaystyle G \) i \( \displaystyle f \) są różniczkowalne, więc ich złożenie także oraz mamy

\( \displaystyle (G\circ f)' \ =\ (G'\circ f)\cdot f' \ =\ (g\circ f)\cdot f'. \)

Całkując obie strony, dostajemy tezę naszego twierdzenia.

Uwaga 13.13.

Wzór całkowania przez podstawianie często zapisujemy jako:

\( \displaystyle \int g\big(f(x)\big)f'(x)\,dx \ =\ \int g(t)\,dt, \)

rozumiejąc, że należy "wrócić" do tej samej zmiennej po obu stronach (\( \displaystyle x \) po prawej lub \( \displaystyle t \) po lewej) przez złożenie "\( \displaystyle \circ f \)" po prawej stronie lub "\( \displaystyle \circ f^{-1} \)" po lewej stronie.

Przykład 13.14.

Obliczyć całkę nieoznaczoną z funkcji \( \displaystyle f(x)=\sin x\cos x. \)

Całkowanie funkcji wymiernych

Całkowanie funkcji wymiernych


Zacznijmy od przypomnienia znanego ze szkoły twierdzenia.

Twierdzenie 13.15. [Podstawowe twierdzenie algebry (w wersji rzeczywistej)]

Dowolny wielomian można rozłożyć na czynniki nierozkładalne stopnia co najwyżej \( \displaystyle 2, \) to znaczy

\( \begin{array}{lll} \displaystyle Q(x) & = & c(x-A_1)^{k_1}(x-A_2)^{k_2}\ldots \\ & \ldots & \displaystyle (x-A_r)^{k_r} (x^2+B_1x+C_1)^{l_1}(x^2+B_2x+C_2)^{l_2}\ldots (x^2+B_sx+C_s)^{l_s}, \end{array} \)

gdzie stopień wielomianu \( \displaystyle Q \) wynosi

\( \displaystyle \deg Q\ =\ k_1+k_2+\ldots+k_r+2(l_1+l_2+\ldots+l_s) \)

oraz

\( B_i^2-4C_i < 0\ \) dla \( i=1,2,\ldots s. \)

Definicja 13.16. [ułamki proste]

Ułamkami prostymi nazywamy funkcje wymierne postaci:

\( \displaystyle \frac{a}{(x-A)^k} \) oraz \( \displaystyle \frac{bx+c}{(x^2+Bx+C)^s}, \)

gdzie \( \displaystyle a,b,c,A,B,C\in\mathbb{R},k,s\in\mathbb{N},B^2-4C < 0. \)

Podamy twierdzenie, które pozwoli na obliczanie całki z dowolnej funkcji wymiernej. Ponieważ twierdzenie to "wygląda" dość formalnie, proponujemy przestudiować najpierw poniższy przykład.

Przykład 13.17.

Obliczyć całkę z następującej funkcji wymiernej \( \displaystyle \int\frac{3x+5}{2x^2-5x-3}\,dx. \)

To, że funkcję wymierną w powyższym przykładzie udało się rozłożyć na prostsze ułamki nie jest przypadkiem.

Okazuje się, że funkcję wymierną można zawsze przedstawić jako sumę ułamków prostych. Jeśli zatem będziemy umieli scałkować ułamki proste, to dzięki liniowości całki będziemy potrafili scałkować dowolną funkcję wymierną (o ile jej mianownik efektywnie rozłożymy na czynniki stopnia co najwyżej drugiego). Kolejne twierdzenie o rozkładzie funkcji wymiernej na ułamki proste będzie więc bardzo przydatne w rachunkach.

Twierdzenie 13.18. [O rozkładzie na ułamki proste]

Niech \( \displaystyle f(x)=\frac{P(x)}{Q(x)} \) będzie funkcją wymierną, gdzie \( \displaystyle \deg P=m < n=\deg Q. \) Wówczas istnieje jedyny rozkład funkcji \( \displaystyle f \) na ułamki proste oraz jeśli

\( \displaystyle f(x) \ =\ \frac{P(x)}{(x-A_1)^{k_1}(x-A_2)^{k_2}\ldots (x-A_r)^{k_r} (x^2+B_1x+C_1)^{l_1}(x^2+B_2x+C_2)^{l_2}\ldots (x^2+B_sx+C_s)^{l_s}}, \)

gdzie

\( \displaystyle B_i^2-4C_i < 0 \) dla \( i=1,2,\ldots s, \)

to

\( \begin{array}{lll} \displaystyle \frac{P(x)}{Q(x)} & = & \displaystyle \frac{a_1^1}{(x-A_1)}+ \frac{a_2^1}{(x-A_1)^2}+ \ldots + \frac{a_{k_1}^1}{(x-A_1)^{k_1}} \\ & + & \displaystyle \frac{a_1^2}{(x-A_2)}+ \frac{a_2^2}{(x-A_2)^2} + \ldots +\frac{a_{k_2}^2}{(x-A_2)^{k_2}} \\ & + & \displaystyle \ldots \\ & + & \displaystyle \frac{a_1^r}{(x-A_r)}+\frac{a_2^r}{(x-A_r)^2}+\ldots+\frac{a_{k_r}^r}{(x-A_r)^{k_r}} \\ & + & \displaystyle \frac{b_1^1x+c_1^1}{(x^2+B_1x+C_1)}+\frac{b_2^1x+c_2^1}{(x^2+B_1x+C_1)^2}+\ldots + \frac{b_{l_1}^1x+c_{l_1}^1}{(x^2+B_1x+C_1)^{l_1}} \\ & + & \displaystyle \frac{b_1^2x+c_1^2}{(x^2+B_2x+C_2)}+ \frac{b_2^2x+c_2^2}{(x^2+B_2x+C_2)^2}+\ldots + \frac{b_{l_2}^2x+c_{l_2}^2}{(x^2+B_2x+C_2)^{l_2}} \\ & + & \displaystyle \ldots \\ & + & \displaystyle \frac{b_1^sx+c_1^s}{(x^2+B_sx+C_s)}+\frac{b_2^sx+c_2^s}{(x^2+B_sx+C_s)^2}+\ldots+ \frac{b_{l_s}^sx+c_{l_s}^s}{(x^2+B_sx+C_s)^{l_s}} \\ & = & \displaystyle \sum_{i=1}^r\sum_{j_i=1}^{k_i}\frac{a^i_{j_i}}{(x-A_i)^{j_i}} +\sum_{i=1}^s\sum_{j_i=1}^{l_i}\frac{b^i_{j_i}x+c^i_{j_i}}{(x^2+B_ix+C_i)^{j_i}}. \end{array} \)

Przykład 13.19.

Rozłożyć funkcję wymierną \( \displaystyle f(x)= \frac{x^5+4x^3-x^2+13x-3}{x^4+2x^2+9} \) na ułamki proste.

Uwaga 13.20.

Korzystając z liniowości całki nieoznaczonej dla policzenia całki z funkcji wymiernej \( \displaystyle \frac{P(x)}{Q(x)} \), wystarczy umieć policzyć całki z ułamków prostych. Znamy już całki z ułamków:

\( \begin{array}{lll} \displaystyle \int\frac{A}{x-a}\,dx & = & \displaystyle A\ln (x-a)+c, \\ \int\frac{A}{(x-a)^k}\,dx & = & \displaystyle -\frac{A}{k-1}\cdot\frac{1}{(x-a)^{k-1}}+c, \quad\textrm{dla}\ k\ge 2. \end{array} \)

Całki z ułamków prostych postaci \( \displaystyle \frac{bx+c}{(x^2+Bx+C)^k} \) będą policzone na ćwiczeniach (patrz ćwiczenie 13.4.).

Całkowanie funkcji niewymiernych

Całkowanie funkcji niewymiernych


Zacznijmy od rozważenia następującej całki:

\( \displaystyle \int\frac{W_n(x)}{\sqrt{px^2+qx+r}}\,dx, \)

gdzie \( \displaystyle W_n \) jest dowolnym wielomianem (stopnia \( \displaystyle n \)). Okazuje się, że istnieje ogólna metoda obliczania tego typu całek. Opiera się ona na twierdzeniu, które mówi, iż mamy następującą równość

\( \displaystyle \int\frac{W_n(x)}{\sqrt{px^2+qx+r}}\,dx \ =\ Q_{n-1}(x)\sqrt{px^2+qx+r} +A\int\frac{dx}{\sqrt{px^2+qx+r}}, \)

gdzie \( \displaystyle Q_{n-1}(x) \) jest wielomianem stopnia \( \displaystyle n-1. \) Współczynniki wielomianu \( \displaystyle Q_{n-1} \) oraz stałą \( \displaystyle \lambda \) znajdujemy, licząc pochodną z obu stron powyższej równości (pamiętamy, że pochodna z całki to funkcja podcałkowa!) i mnożąc potem obie strony przez \( \displaystyle \sqrt{px^2+qx+r}. \) Dostaniemy wtedy:

\( \displaystyle W(x)=Q_{n-1}'(x)(px^2+qx+r)+Q_{n-1}(x)(px+\frac{q}{2})+\lambda, \)

skąd, porównując współczynniki przy odpowiednich potęgach zmiennej \( \displaystyle x, \) znajdujemy współczynniki wielomianu \( \displaystyle Q_{n-1} \) oraz stałą \( \displaystyle \lambda. \)

Pozostaje jeszcze do obliczenia

\( \displaystyle \int\frac{dx}{\sqrt{px^2+qx+r}}, \)

którą przez odpowiednie podstawienie sprowadzamy do jednej z całek

\( \displaystyle \int\frac{dt}{\sqrt{1-t^2}} \quad\ \) lub \( \quad \int\frac{dt}{\sqrt{1+t^2}} \)

(patrz twierdzenie 13.8.).

Policzymy teraz pewną całkę, którą w przyszłości będziemy wielokrotnie wykorzystywać.

Przykład 13.21.

Policzyć

\( \displaystyle \int\sqrt{R^2-x^2}\,dx, \)

gdzie \( \displaystyle R \) jest stałą dodatnią. Aby użyć metody współczynników nieoznaczonych, zapiszmy

\( \displaystyle \int\frac{R^2-x^2}{\sqrt{R^2-x^2}}\,dx. \)

Wielomian \( \displaystyle R^2-x^2 \) jest stopnia \( \displaystyle 2 \), zatem

\( \displaystyle \int\frac{R^2-x^2}{\sqrt{R^2-x^2}}\,dx \ =\ (ax+b)\sqrt{R^2-x^2}+\lambda\int\frac{1}{\sqrt{R^2-x^2}}\,dx. \)

Stąd

\( \displaystyle R^2-x^2 \ =\ a(R^2-x^2)-x(ax+b)+\lambda=-2ax^2-bx+aR^2+\lambda, \)

skąd dostajemy układ równań

\( \displaystyle -2a=-1,\quad b=0, \quad aR^2+\lambda=R^2, \)

zatem

\( \displaystyle a=\frac{1}{2},\quad b=0, \quad \lambda=\frac{1}{2}R^2. \)

Pozostaje do policzenia \( \displaystyle \int\frac{1}{\sqrt{R^2-x^2}}\,dx. \) Podstawiając \( \displaystyle \frac{x}{R}=t \) (zatem \( \displaystyle \frac{dx}{R}=dt \)), mamy

\( \begin{array}{lll} \displaystyle \int\frac{1}{\sqrt{R^2-x^2}}\,dx & = & \displaystyle \int\frac{\frac{dx}{R}}{\sqrt{1-\frac{x^2}{R^2}}} \\ & = & \displaystyle \int\frac{dt}{\sqrt{1-t^2}}=\arcsin t+c=\arcsin \frac{x}{R} +c. \end{array} \)

Reasumując, mamy

\( \displaystyle \int\sqrt{R^2-x^2}\,dx \ =\ \frac{x}{2}\sqrt{R^2-x^2}+\frac{R^2}{2}\arcsin \frac{x}{R} +c. \)

Kolejne twierdzenie zawiera warunek konieczny i wystarczający istnienia pierwotnej elementarnej dla funkcji postaci \( \displaystyle f(x)=x^r(a+bx^s)^p \) oraz podaje sposób policzenia całki nieoznaczonej, jeśli pierwotna jest funkcją elementarną. Dowód twierdzenia pomijamy.

Twierdzenie 13.22.

Funkcja

\( \displaystyle f(x) \ =\ x^r(a+bx^s)^p, \quad \ \) gdzie \( \ a,b\in\mathbb{R},\ p,r,s\in\mathbb{Q}, \)

ma pierwotną elementarną wtedy i tylko wtedy, gdy zachodzi jeden z przypadków:
(1) \( \displaystyle p\in\mathbb{Z} \) (robimy podstawienie \( \displaystyle x=z^N, \) gdzie \( \displaystyle N \) jest wspólnym mianownikiem ułamków \( \displaystyle r \) i \( \displaystyle s \));
(2) \( \displaystyle \frac{r+1}{s}\in\mathbb{Z} \) (robimy podstawienie \( \displaystyle a+bx^s=z^N, \) gdzie \( \displaystyle N \) jest mianownikiem ułamka \( \displaystyle p \));
(3) \( \displaystyle \frac{r+1}{s}+p\in\mathbb{Z} \) (robimy podstawienie \( \displaystyle ax^{-s}+b=z^N, \) gdzie \( \displaystyle N \) jest mianownikiem ułamka \( \displaystyle p \)).

Przykład 13.23.

Które z funkcji mają pierwotną elementarną? Sprowadzić całki z funkcji, które mają pierwotną elementarną do całek z funkcji wymiernych.
(1) \( \displaystyle f(x)=\sqrt[3]{1+x^2}. \)
(2) \( \displaystyle f(x)=\sqrt[4]{1+x^2}. \)
(3) \( \displaystyle f(x)=\sqrt[3]{1+\sqrt{x^3}}. \)

Uwaga 13.24. [Podstawienia Eulera]

Do policzenia całki postaci

\( \displaystyle \int R\big(x,\sqrt{ax^2+bx+c}\big)\,dx, \) gdzie \( \displaystyle R=R(x,\xi) \) jest funkcją wymierną, \( \displaystyle a,b,c\in\mathbb{R},a\ne 0 \) można zastosować następujące podstawienia (tak zwane podstawienia Eulera):

  • Niech \( \displaystyle a>0. \) Podstawiamy

\( \displaystyle \sqrt{ax^2+bx+c}=t-\sqrt{a}x. \)

  • Niech \( \displaystyle c>0. \) Podstawiamy

\( \displaystyle \sqrt{ax^2+bx+c}=xt+\sqrt{c}. \)

  • Niech trójmian kwadratowy ma dwa różne pierwiastki \( \displaystyle \mu,\lambda, \) to znaczy \( \displaystyle ax^2+bx+c=a(x-\lambda)(x-\mu). \) Podstawiamy

\( \displaystyle \sqrt{ax^2+bx+c}=t(x-\lambda). \)

Przykład 13.25.

Całkę

\( \displaystyle \int\frac{\,dx}{x+\sqrt{x^2-x+1}} \)

sprowadzimy do całki z funkcji wymiernej, stosując pierwsze podstawienie Eulera. Podstawiamy

\( \displaystyle \sqrt{x^2-x+1}=t-x, \)

skąd

\( \displaystyle x \ =\ \frac{t^2-1}{2t-1} \)

oraz

\( \displaystyle dx \ =\ \frac{2t^2-2t+2}{(2t-1)^2}\,dt. \) Podstawiając, dostajemy

\( \displaystyle \int\frac{\,dx}{x+\sqrt{x^2-x+1}}=2\int\frac{t^2-t+1}{t(2t-1)^2}\,dt, \)

czyli całkę z funkcji wymiernej, którą już umiemy policzyć.

Teraz tę samą całkę \( \displaystyle \int\frac{\,dx}{x+\sqrt{x^2-x+1}} \) sprowadzimy do całki z funkcji wymiernej, używając drugiego podstawienia Eulera. Podstawiamy

\( \displaystyle \sqrt{x^2-x+1}=tx-1, \)

skąd

\( \displaystyle x \ =\ \frac{1-2t}{1-t^2} \quad dx=-2\frac{t^2-t+1}{(1-t^2)^2}\,dt. \)

Podstawiając, dostajemy

\( \displaystyle \int\frac{\,dx}{x+\sqrt{x^2-x+1}} \ =\ -2\int\frac{t^2-t+1}{t(t-1)(t+1)^2}\,dt, \)

czyli też całkę z funkcji wymiernej - co prawda nieco bardziej skomplikowaną niż poprzednia.

Całkowanie wyrażeń zawierających funkcje trygonometryczne

Całkowanie wyrażeń zawierających funkcje trygonometryczne


Uwaga 13.26.

Aby policzyć całkę

\( \displaystyle \int R(\sin x,\cos x,\mathrm{tg}\, x)\,dx, \)

stosujemy podstawienie

\( \displaystyle \mathrm{tg}\,\frac{x}{2}=t \)

i mamy

\( \begin{array}{rllll} \displaystyle \sin x & = & \displaystyle\frac{2\mathrm{tg}\,\frac{x}{2}}{1+\mathrm{tg}\,^2\frac{x}{2}} & = & \displaystyle\frac{2t}{1+t^2}, \\ \\ \ \cos x & = & \displaystyle\frac{1-\mathrm{tg}\,^2\frac{x}{2}}{1+\mathrm{tg}\,^2\frac{x}{2}} & = & \displaystyle\frac{1-t^2}{1+t^2}, \\ \\ \mathrm{tg}\, x & = & \displaystyle\frac{2\mathrm{tg}\,\frac{x}{2}}{1-\mathrm{tg}\,^2\frac{x}{2}} & = & \displaystyle\frac{2t}{1-t^2} \end{array} \)

oraz

\( \displaystyle x \ =\ 2\mathrm{arctg}\, t, \quad\ \) zatem \( \quad \,dx=\frac{2\,dt}{1+t^2}. \) Po podstawieniu dostajemy całkę

\( \displaystyle \int R\bigg(\frac{2t}{1+t^2}, \frac{1-t^2}{1+t^2}, \frac{2t}{1-t^2} \bigg)\frac{2dt}{1+t^2}. \)

Przykład 13.27.

Obliczyć całkę \( \displaystyle \int\frac{dx}{2+\cos x}. \) W całce tej stosujemy podstawienie \( \displaystyle \mathrm{tg}\, \frac{x}{2}=t, \) wówczas \( \displaystyle x=2\mathrm{arctg}\, t \) i \( \displaystyle dx=\frac{2\,dt}{1+t^2}. \) Zatem

\( \begin{array}{lll} \displaystyle \int\frac{dx}{2+\cos x} & = & \int\frac{\displaystyle\frac{2\,dt}{1+t^2}}{\displaystyle 2+\frac{1-t^2}{1+t^2}} \ =\ 2\int \frac{dt}{t^2+3} \ =\ \frac{2}{3}\int\frac{dt}{\displaystyle\bigg(\frac{t}{\sqrt{3}}\bigg)^2+1} \ =\ \bigg| \begin{array} {rcl} \displaystyle\frac{t}{\sqrt{3}} & = & s \\ dt & = & \displaystyle\sqrt{3}\,ds \end{array} \bigg| \\ & = & \displaystyle \frac{2}{\sqrt{3}}\int\frac{\displaystyle\sqrt{3}\,ds}{s^2+1} \ =\ 2\mathrm{arctg}\, s+c \ =\ 2\mathrm{arctg}\,\bigg(\displaystyle\frac{\mathrm{tg}\,\frac{x}{2}}{\sqrt{3}}\bigg)+c. \end{array} \)

Uwaga 13.28.

Aby policzyć całkę

\( \displaystyle \int R(\sin^2x,\cos^2x,\sin x\cos x)\,dx, \)

stosujemy podstawienie

\( \displaystyle \mathrm{tg}\, x=t \)

i mamy

\( \begin{array}{rllll} \displaystyle \sin^2x & = & \displaystyle\frac{\mathrm{tg}\,^2x}{1+\mathrm{tg}\,^2x} & = & \displaystyle\frac{t^2}{1+t^2}, \\ \\ \cos^2x & = & \displaystyle\frac{1}{1+\mathrm{tg}\,^2x} & = & \displaystyle\frac{1}{1+t^2}, \\ \\ \sin x\cos x & = & \displaystyle\frac{\mathrm{tg}\, x}{1+\mathrm{tg}\,^2x} & = & \displaystyle\frac{t}{1+t^2} \end{array} \)

oraz

\( \displaystyle x \ =\ \mathrm{arctg}\, t,\quad \,dx=\frac{\,dt}{1+t^2}. \)

Zatem po podstawieniu dostajemy całkę

\( \displaystyle \int R\bigg(\frac{t^2}{1+t^2}, \frac{1}{1+t^2}, \frac{t}{1+t^2} \bigg)\frac{dt}{1+t^2}. \)

Przykład 13.29.

Obliczyć całkę \( \displaystyle \int\frac{dx}{1+2\cos^2x}\,dx. \)

W całce tej stosujemy podstawienie \( \displaystyle \mathrm{tg}\, x=t, \) wówczas \( \displaystyle \cos^2x=\frac{1}{1+t^2} \) i \( \displaystyle dx=\frac{\,dt}{1+t^2}. \) Zatem

\( \displaystyle \int\frac{dx}{1+2\cos^2x}\,dx \ =\ \int\frac{\displaystyle\frac{1}{1+t^2}}{\displaystyle 1+\frac{2}{1+t^2}}\,dt \ =\ \int\frac{dt}{t^2+3}. \)

Zauważmy, że całkę tę liczyliśmy w przykładzie 13.27. Zatem

\( \displaystyle \int\frac{dx}{1+2\cos^2x}\,dx \ =\ \mathrm{arctg}\,\bigg(\frac{\mathrm{tg}\, x}{\sqrt{3}}\bigg)+c. \)

Całka Riemanna funkcji jednej zmiennej

Całka Riemanna funkcji jednej zmiennej


W tym wykładzie wprowadzamy pojęcie całki Riemanna dla funkcji jednej zmiennej. Omawiamy całkowalność w sensie Riemanna i podajemy szereg własności całki Riemanna. Dowodzimy twierdzenia całkowego o wartości średniej oraz ciągłości całki jako górnej granicy całkowania. Wykazujemy podstawowe twierdzenie rachunku różniczkowego i całkowego oraz wzory na całkowanie przez części i całkowanie przez podstawienie. Na koniec definiujemy całki niewłaściwe oraz podajemy kryterium całkowe zbieżności szeregów.

W praktyce spotykamy się niejednokrotnie (choć najczęściej nieświadomie) z całką Riemanna. Wyobraźmy sobie, że jedziemy samochodem; co minutę spoglądamy na wskazania szybkościomierza i zapamiętujemy naszą prędkość. Każdy potrafi obliczyć, że jeśli jechaliśmy \( \displaystyle 10 \) minut, z czego pierwsze \( \displaystyle 5 \) ze zmierzoną prędkością \( \displaystyle 30 \) km/h (\( \displaystyle =\frac{1}{2} \)km/min), a drugie \( \displaystyle 5 \) minut z prędkością \( \displaystyle 60 \) km/h (\( \displaystyle =1 \)km/min), to przebyliśmy drogę \( \displaystyle (5\cdot\frac{1}{2}+ 5\cdot 1) \) km, czyli \( \displaystyle 7.5 \) km. (Właśnie policzyliśmy sumę całkową!). Skoro pomiarów prędkości dokonujemy co minutę, to oczywiście przebytą drogę policzyliśmy tylko w przybliżeniu. Widać jednak, że im częściej będziemy dokonywać pomiaru prędkości, tym dokładniej nasza suma będzie przybliżała się do rzeczywiście przebytej drogi. Obliczając granicę, do której dążą nasze sumy, gdy coraz bardziej skracamy czas między pomiarami, dostaniemy w końcu dokładną długość przebytej drogi. (Teraz właśnie policzyliśmy całkę Riemanna!).

wykres

Wykres prędkości

Obejrzyjmy teraz wykres na rysunku obok.

Na tym rysunku przedstawiony jest wykres prędkości naszego samochodu w zależności od czasu. Nasza pierwsza suma to \( \displaystyle (5\cdot\frac{1}{2}+ 5\cdot 1), \) czyli suma pól prostokątów zaznaczonych na rysunku. Intuicyjnie jest oczywiste, że gdy będziemy zmniejszać długości odcinków na osi \( \displaystyle Ot \), sumy pól prostokątów będą coraz lepiej przybliżać pole powierzchni pod wykresem. W ten sposób odkryliśmy geometryczną interpretację całki Riemanna - jako pola pod wykresem funkcji.

Przejdziemy teraz do formalnego wprowadzenia tego pojęcia.

DEFINICJA 14.1.

Wykres prędkości

Obejrzyjmy teraz wykres na rysunku obok.

Na tym rysunku przedstawiony jest wykres prędkości naszego samochodu w zależności od czasu. Nasza pierwsza suma to \( \displaystyle (5\cdot\frac{1}{2}+ 5\cdot 1), \) czyli suma pól prostokątów zaznaczonych na rysunku. Intuicyjnie jest oczywiste, że gdy będziemy zmniejszać długości odcinków na osi \( \displaystyle Ot \), sumy pól prostokątów będą coraz lepiej przybliżać pole powierzchni pod wykresem. W ten sposób odkryliśmy geometryczną interpretację całki Riemanna - jako pola pod wykresem funkcji.

Przejdziemy teraz do formalnego wprowadzenia tego pojęcia.

Definicja 14.1.

Niech \( \displaystyle [a,b]\subseteq\mathbb{R} \) będzie przedziałem. Wówczas

\( \displaystyle P:\ a \ =\ x_0 \ < \ x_1 \ < \ \ldots \ < \ x_n \ =\ b \)

nazywamy podziałem przedziału \( [a,b] \) .

Liczbę

\( \displaystyle d(P) \ \stackrel{df}{=}\ \max_{i=1,\ldots n}(x_i-x_{i-1}) \)

nazywamy średnicą podziału \( \displaystyle P. \) Wprowadzamy oznaczenie \( \displaystyle \Delta x_i\stackrel{df}{=} x_i-x_{i-1} \) dla \( \displaystyle i=1,\ldots,n. \)

Ciąg podziałów \( \displaystyle \{P_m\}_{m\in\mathbb{N}} \) nazywamy normalnym, jeśli \( \displaystyle \lim\limits_{m \to +\infty} d(P_m)=0. \)

Definicja 14.2.

Niech \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) będzie funkcją oraz niech

\( \displaystyle P:\ a \ =\ x_0 \ < \ x_1 \ < \ \ldots \ < \ x_n \ =\ b \)

będzie podziałem przedziału \( \displaystyle [a,b]. \) Liczbę

\( \displaystyle L(f,P) \ \stackrel{df}{=}\ \displaystyle \sum_{i=1}^n\Delta x_i\cdot m_i(f,P), \quad\ \) gdzie \( \quad m_i(f,P)\ \stackrel{df}{=}\ \inf_{x\in[x_{i-1},x_i]}f(x) \)

nazywamy sumą dolną całkową (Darboux).

wykresy

Liczbę

\( \displaystyle U(f,P) \ \stackrel{df}{=}\ \displaystyle \sum_{i=1}^n\Delta x_i\cdot M_i(f,P), \quad\ \) gdzie \( \quad M_i(f,P)\ \stackrel{df}{=}\ \sup_{x\in[x_{i-1},x_i]}f(x) \)

nazywamy sumą górną całkową (Darboux).

Liczbę

\( \displaystyle S(f,P) \ =\ S(f,P,y_1,\ldots,y_n) \ \stackrel{df}{=}\ \displaystyle \sum_{i=1}^n\Delta x_i\cdot f(y_i), \) dla \( \quad y_i\in[x_{i-1},x_i] \)

nazywamy sumą całkową funkcji \( \displaystyle f \) dla podziału \( \displaystyle P \) wyznaczoną przez punkty pośrednie \( \displaystyle y_1,\ldots,y_n. \)

Wprost z definicji wynika następująca uwaga.

Uwaga 14.3.

Jeśli \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją oraz \( \displaystyle P \) jest podziałem przedziałem \( \displaystyle [a,b], \) to
(1) \( \displaystyle L(f,P)\le S(f,P,y_1,\ldots,y_n)\le U(f,P) \) dla dowolnych punktów pośrednich \( \displaystyle y_1,\ldots,y_n \);

(2) \( \displaystyle \inf_{\{(y_1,\ldots,y_n)\}} S(f,P,y_1,\ldots,y_n) \ =\ L(f,P) \);

(3) \( \displaystyle \sup_{\{(y_1,\ldots,y_n)\}} S(f,P,y_1,\ldots,y_n) \ =\ U(f,P). \)

Definicja 14.4.

Niech \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) będzie funkcją ograniczoną (to znaczy \( \displaystyle \exists M>0\ \forall x\in[a,b]:\ \big|f(x)\big|\le M \)).

Funkcję \( \displaystyle f \) nazywamy całkowalną w sensie Riemanna w przedziale \( \displaystyle [a,b], \) jeśli dla dowolnego normalnego ciągu \( \displaystyle \{P_m\}_{m\in\mathbb{N}} \) podziałów przedziału \( \displaystyle [a,b], \) istnieje granica

\( \displaystyle \lim\limits_{m \to +\infty} S(f,P_m,y_1^m,\ldots,y_{n_m}^m) \)

niezależna od wyboru punktów pośrednich. Granicę tę nazywamy całką Riemanna funkcji \( \displaystyle f \) w przedziale \( \displaystyle [a,b] \) i oznaczamy

\( \displaystyle \int\limits_a^b f(x)\,dx \quad\ \) lub \( \quad (R)\displaystyle\int\limits_a^b f(x)\,dx. \)

Uwaga 14.5.

W definicji brak jest żądania, aby granica była taka sama dla dowolnego ciągu podziałów. Mimo to definicja jest poprawna, to znaczy całka Riemanna jest jednoznacznie określona (to znaczy nie zależy od wyboru ciągu podziałów \( \displaystyle \{P_m\}_{m\in\mathbb{N}} \)).

Dowód 14.5. [nadobowiązkowy]

Aby to zobaczyć niech \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) będzie funkcją całkowalną w sensie Riemanna. Niech \( \displaystyle \{P_m^1\} \) i \( \displaystyle \{P_m^2\} \) będą dwoma normalnymi ciągami podziałów przedziału \( \displaystyle [a,b]. \) Zdefiniujmy nowy ciąg podziałów \( \displaystyle \{P_m\} \) jako:

\( \displaystyle P_1^1,P_1^2,P_2^1,P_2^2,P_3^1,P_3^2,\ldots \)

Jest to oczywiście ciąg podziałów normalnych przedziału \( \displaystyle [a,b] \) i ponieważ funkcja jest całkowalna w sensie Riemanna, więc granica

\( \displaystyle \lim\limits_{k \to +\infty} S(f,P_m,y^m_1,\ldots,y^m_{n_m}) \)

istnieje i nie zależy od wyboru punktów pośrednich. Zatem dla podciągów \( \displaystyle \{P_{2m}\} \) i \( \displaystyle \{P_{2m+1}\} \) granice muszą być takie same, więc

\( \displaystyle \lim\limits_{m \to +\infty} S(f,P^1_m) \ =\ \lim\limits_{m \to +\infty} S(f,P_m^2). \)

Kolejne twierdzenie podaje związek między całkowalnością w sensie Riemanna a sumami górną i dolną Darboux. Dowód pomijamy.

Twierdzenie 14.6.

Jeśli \( \displaystyle f\colon[a,b]\longrightarrow\mathbb{R} \) jest funkcją ograniczoną, to \( \displaystyle f \) jest całkowalna w sensie Riemanna na przedziale \( \displaystyle [a,b] \), wtedy i tylko wtedy, gdy dla dowolnego ciągu \( \displaystyle \{P_m\}_{m\in\mathbb{N}} \) podziałów normalnych zachodzi

Definicja 14.7.

Niech \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) będzie funkcją całkowalną w sensie Riemanna. Przyjmuje się następujące oznaczenia:

\( \begin{array}{lll} \displaystyle \displaystyle\int\limits_b^a f(x)\,dx & \ \stackrel{df}{=}\ & -\displaystyle\int\limits_a^b f(x)\,dx, \\ \displaystyle\int\limits_a^a f(x)\,dx & \ \stackrel{df}{=}\ & 0. \end{array} \)

Uwaga 14.8.

Wprost z definicji całki Riemanna wynika, że dla funkcji nieujemnej całkę \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx \) możemy interpretować jako pole pod wykresem funkcji \( \displaystyle f \) na przedziale \( \displaystyle [a,b] \).

Zanim podamy klasy funkcji całkowalnych w sensie Riemanna (to znaczy takich, dla których całka w sensie Riemanna istnieje) podamy przykład funkcji, dla której całka Riemanna nie istnieje.

rycina

Przykład 14.9

Funkcja Dirichleta \( \displaystyle f\colon[0,1]\longrightarrow\mathbb{R} \) zdefiniowana przez

\( \displaystyle f(x) \ \stackrel{df}{=}\ \left\{ \begin{array} {ll} 1 & \quad\textrm{dla}\ x\in \mathbb{Q}\cap[0,1], \\ 0 & \quad\textrm{dla}\ x\in [0,1]\setminus\mathbb{Q}, \end {array} \right. .\)

nie jest całkowalna w sensie Riemanna.

Aby to pokazać, wybierzmy dowolny podział odcinka \( \displaystyle [0,1] \):

\( \displaystyle P:\ 0 \ =\ x_0 \ < \ x_1 \ < \ \ldots \ < \ x_n \ =\ 1. \)

Z własności zbioru liczb rzeczywistych wiemy, że w każdym przedziale \( \displaystyle (x_{i-1},x_i) \) znajduje się zarówno liczba wymierna jak i niewymierna. Zatem

\( \begin{array}{lll} \displaystyle L(f,P) & = & \displaystyle \sum_{i=1}^n\Delta x_i\cdot \underbrace{m_i(f,P)}_{=0} \ =\ 0, \\ U(f,P) & = & \displaystyle \sum_{i=1}^n\Delta x_i\cdot \underbrace{M_i(f,P)}_{=1} \ =\ \displaystyle \sum_{i=1}^n\Delta x_i \ =\ 1. \end{array} \)

Zatem z twierdzenia 14.6. wnioskujemy, że funkcja \( \displaystyle f \) nie jest całkowalna w sensie Riemanna.

Poniższe twierdzenie podaje, jakie klasy funkcji są całkowalne w sensie Riemanna. Twierdzenie to podajemy bez dowodu. Warto tutaj zaznaczyć, że istnieje pełna charakteryzacja funkcji całkowalnych w sensie Riemanna (to znaczy twierdzenie, które podaje warunek konieczny i wystarczający dla całkowalności w sensie Riemanna). Wykracza to jednak poza niniejszy kurs analizy (temat ten będzie dokładniej omówiony na wykładzie z Analizy Matematycznej 2. (Moduł 10)).

wykresy

Twierdzenie 14.10. [Klasy funkcji całkowalnych w sensie Riemanna]

Niech \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) będzie funkcją ograniczoną.
(1) Jeśli \( \displaystyle f \) jest ciągła, to jest całkowalna w sensie Riemanna.

(2) Jeśli \( \displaystyle f \) ma skończoną ilość punktów nieciągłości, to jest całkowalna w sensie Riemanna.

(3) Jeśli \( \displaystyle f \) jest monotoniczna, to jest całkowalna w sensie Riemanna.

W kolejnym twierdzeniu zebrano szereg własności całki Riemanna. Dowody wynikające wprost z definicji całki pomijamy.

wykresy

Twierdzenie 14.11. [Własności całki Riemanna]

Jeśli \( \displaystyle f,g\colon [a,b]\longrightarrow\mathbb{R} \) są funkcjami całkowalnymi w sensie Riemanna, \( \displaystyle a < b,k\in\mathbb{R},c\in(a,b), \) to:

(1) Liniowość całki. Funkcje \( \displaystyle kf,f\pm g,f\cdot g,\displaystyle\frac{f}{g} \) (o ile \( \displaystyle g(x)\ne 0 \) dla \( \displaystyle x\in[a,b] \)) są całkowalne w sensie Riemanna oraz

\( \displaystyle \int\limits_a^bkf(x)\,dx \ =\ k\displaystyle\int\limits_a^b f(x)\,dx \quad\ \) i \( \quad \displaystyle\int\limits_a^b\big[f(x)\pm g(x)\big]\,dx \ =\ \displaystyle\int\limits_a^b f(x)\,dx\pm\displaystyle\int\limits_a^b g(x)\,dx; \)

(2) funkcja \( \displaystyle |f| \) jest całkowalna w sensie Riemanna oraz

\( \displaystyle \bigg|\displaystyle\int\limits_a^b f(x)\,dx\bigg| \ \le\ \displaystyle\int\limits_a^b\big|f(x)\big|\,dx; \)

(3) jeśli \( \displaystyle [c,d]\subseteq[a,b], \) to \( \displaystyle f|_{[c,d]} \) jest całkowalna w sensie Riemanna;

(4) jeśli zmienimy wartości funkcji \( \displaystyle f \) w skończonej ilości punktów, to funkcja nadal pozostanie całkowalna w sensie Riemanna i jej całka nie ulegnie zmianie;

(5)\( \displaystyle \int\limits_a^b f(x)\,dx \ =\ \displaystyle\int\limits_a^c f(x)\,dx + \displaystyle\int\limits_c^b f(x)\,dx \)

(6)\( \displaystyle \int\limits_a^b k\,dx \ =\ k(b-a), \)

w szczególności

\( \displaystyle \int\limits_a^b 0\,dx \ =\ 0,\quad \displaystyle\int\limits_a^b 1\,dx \ =\ b-a; \)

(7) jeśli \( \displaystyle f\ge 0 \) (to znaczy \( \forall \, x \ [a,b]\, f(x) \ge 0 \)), to \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx\ge 0 \);

jeśli \( \displaystyle f>0, \) to \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx>0 \);

(8) Monotoniczność całki. Jeśli \( \displaystyle f\le g, \) to \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx\le\displaystyle\int\limits_a^b g(x)\,dx \);

jeśli \( \displaystyle f < g, \) to \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx < \displaystyle\int\limits_a^b g(x)\,dx \);

(9) jeśli \( \displaystyle \{x_n\},\{y_n\}\subseteq [a,b] \) są dwoma ciągami takimi, że \( \displaystyle x_n\longrightarrow x_0,y_n\longrightarrow y_0 \) oraz \( \displaystyle x_n\le y_n \) dla \( \displaystyle n\in\mathbb{N}, \)

to \( \displaystyle \displaystyle\int\limits_{x_n}^{y_n} f(x)\,dx\longrightarrow\displaystyle\int\limits_{x_0}^{y_0} f(x)\,dx. \)

Twierdzenie 14.12. [Twierdzenie całkowe o wartości średniej]

Jeśli \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją całkowalną w sensie Riemanna oraz

\( \displaystyle \exists m,M\in\mathbb{R}\ \forall x\in [a,b]:\ \ m\le f(x)\le M, \) to \( \displaystyle \exists\mu\in[m,M]:\ \ \displaystyle\int\limits_a^b f(x)\,dx\ =\ \mu(b-a). \)

Dowód 14.12.

Z własności monotoniczności całki wynika, że

\( \displaystyle m(b-a) \ =\ \displaystyle\int\limits_a^b m\,dx \ \le\ \displaystyle\int\limits_a^b f(x)\,dx \ \le\ \displaystyle\int\limits_a^b M\,dx \ =\ M(b-a). \)

Dzieląc stronami przez \( \displaystyle (b-a), \) dostajemy:

\( \displaystyle m \ \le\ \frac{1}{b-a} \displaystyle\int\limits_a^b f(x)\,dx \ \le\ M. \)

Zatem, jeśli zdefiniujemy \( \displaystyle \mu\ \stackrel{df}{=}\ \frac{1}{b-a}\displaystyle\int\limits_a^b f(x)\,dx, \) to otrzymujemy tezę twierdzenia.

Kolejne twierdzenia doprowadzą nas do związku całki Riemanna z całką nieoznaczoną. Pierwsze z twierdzeń mówi, jak za pomocą całki Riemanna z funkcji ciągłej (wówczas całka Riemanna zawsze istnieje) uzyskać wzór na pierwotną funkcji podcałkowej.

Twierdzenie 14.13. [Własności całki jako funkcji górnej granicy całkowania]

Jeśli \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją całkowalną w sensie Riemanna oraz

\( \displaystyle F(x)\ \stackrel{df}{=}\ \displaystyle\int\limits_a^x f(t)\,dt \) dla \( \displaystyle x\in[a,b], \) to

(1) \( \displaystyle F \) jest ciągła w \( \displaystyle [a,b] \);

(2) jeśli \( \displaystyle f \) jest ciągła w punkcie \( \displaystyle x_0\in(a,b), \) to funkcja \( \displaystyle F \) jest różniczkowalna w \( \displaystyle x_0 \) oraz \( \displaystyle F'(x_0)=f(x_0) \);

(3) jeśli \( \displaystyle f \) jest funkcją ciągłą, to \( \displaystyle F \) jest funkcją pierwotną dla \( \displaystyle f. \)

Dowód 14.13. [nadobowiązkowy]

(Ad (1)) Pokażemy ciągłość prawostronną funkcji \( \displaystyle F \) w dowolnym punkcie \( \displaystyle x_0\in[a,b) \) (dowód lewostronnej ciągłości w punktach przedziału \( \displaystyle (a,b] \) jest analogiczny; z obu tych faktów wynika ciągłość funkcji \( \displaystyle F \) w przedziale \( \displaystyle [a,b] \); patrz twierdzenie 8.17.). Niech \( \displaystyle \{x_n\}\subseteq (x_0,b) \) będzie ciągiem takim, że \( \displaystyle x\longrightarrow x_0^+. \) Należy wykazać, że \( \displaystyle F(x_n)\longrightarrow F(x_0 \)). Bez straty ogólności można założyć, że \( \displaystyle \{x_n\} \) jest ciągiem monotonicznie malejącym do \( \displaystyle x_0 \) (piszemy \( \displaystyle x_n\searrow x_0 \)). Z definicji funkcji \( \displaystyle F \) oraz twierdzenie 14.11. (2) mamy

\( \displaystyle \big|F(x_n)-F(x_0)\big| \ =\ \bigg|\displaystyle\int\limits_{x_0}^{x_n}f(t)\,dt\bigg| \ \le\ \displaystyle\int\limits_{x_0}^{x_n}|f(t)|\,dt. \)

Ponieważ \( \displaystyle x_n\searrow \ x_0, \) więc z twierdzenie 14.11. (9) mamy

\( \displaystyle \int\limits_{x_0}^{x_n}|f(t)|\,dt \ \searrow\ \displaystyle\int\limits_{x_0}^{x_0}|f(t)|\,dt \ =\ 0, \)

czyli pokazaliśmy, że \( \displaystyle F \) jest prawostronnie ciągła w punkcie \( \displaystyle x_0\in[a,b). \)

(Ad (2)) Niech \( \displaystyle x_0\in(a,b). \) Dla \( \displaystyle x\in(a,b)\setminus\{x_0\} \) mamy

\( \begin{array}{lll} \displaystyle \frac{F(x)-F(x_0)}{x-x_0}-f(x_0) & = & \displaystyle \frac{1}{x-x_0}\displaystyle\int\limits_{x_0}^{x}f(t)\,dt-f(x_0)\frac{1}{x-x_0}\displaystyle\int\limits_{x_0}^{x}\,dt \\ & = & \displaystyle \frac{1}{x-x_0}\displaystyle\int\limits_{x_0}^{x}[f(t)-f(x_0)]\,dt. \end{array} \)

Ustalmy dowolne \( \displaystyle \varepsilon>0. \) Ponieważ funkcja \( \displaystyle f \) jest ciągła w \( \displaystyle x_0, \) więc

\( \displaystyle \exists \delta>0\ \forall t\in [a,b]:\ \bigg[ |t-x_0| < \delta \ \Longrightarrow\ |f(t)-f(x_0)| < \varepsilon \bigg]. \)

Niech \( \displaystyle x\in (a,b)\setminus \{x_0\} \) będzie takie, że \( \displaystyle |x-x_0| < \delta. \) Wówczas

\( \displaystyle \bigg|\frac{F(x)-F(x_0)}{x-x_0}-f(x_0)\bigg| \ =\ \frac{1}{|x-x_0|} \bigg|\displaystyle\int\limits_{x_0}^{x}\varepsilon\,dt\bigg| \ =\ \frac{1}{|x-x_0|}\varepsilon|x-x_0| \ =\ \varepsilon. \)

Zatem pokazaliśmy, że

\( \displaystyle \lim\limits_{\begin{array}{l}x \to x_0 \\ x\neq x_0 \end{array}} \displaystyle \frac{F(x)-F(x_0)}{x-x_0} \ =\ f(x_0). \)

czyli \( \displaystyle F'(x_0)=f(x_0). \)

(Ad (3)) Wynika natychmiast z (2).

Natychmiastową konsekwencją powyższego twierdzenia jest następujący wniosek.

Wniosek 14.14.

Jeśli \( \displaystyle f\in C\big([a,b];\mathbb{R}\big), \) to \( \displaystyle \frac{d}{dx}\bigg(\displaystyle\int\limits_a^x f(t)\,dt\bigg)\bigg|_{x=x_0} \ =\ f(x_0)\displaystyle\qquad\forall\ x_0\in(a,b). \)

Kolejne twierdzenie podaje związek między pierwotną a całką Riemanna. Mówi ono, że do policzenia całki Riemanna z funkcji ciągłej na przedziale, wystarczy znać wartości pierwotnej na końcach tego przedziału.

rycina

Twierdzenie 14.15. [Podstawowe twierdzenie rachunku różniczkowego i całkowego; Twierdzenie Newtona-Leibniza]

Jeśli \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją ciągłą, \( \displaystyle F \) jest pierwotną funkcji \( \displaystyle f, \) to

\( \displaystyle \int\limits_a^b f(x)dx \ =\ F(b)-F(a). \)

Oznaczenie: \( \displaystyle F|_a^b\ =\ F(b)-F(a). \)

Dowód 14.15.

Z twierdzenia 14.13.(2) wynika, że funkcja

\( \displaystyle F_1\colon [a,b]\ni x \longmapsto F_1(x)\ \stackrel{df}{=}\ \displaystyle\int\limits_a^xf(t)\,dt \)

jest pierwotną funkcji \( \displaystyle f. \) Ponieważ \( \displaystyle F \) jest także pierwotną, więc korzystając z faktu, że każde dwie pierwotne różnią się o stałą, dostajemy

\( \displaystyle \exists c\in\mathbb{R}\ \forall x\in [a,b]:\ F(x)-F_1(x)=c, \)

zatem także

\( \displaystyle c \ =\ F(a)-\underbrace{F_1(a)}_{=0} \ =\ F(a), \)

czyli

\( \displaystyle F(b)-F(a) \ =\ F(b)-c \ =\ F_1(b) \ =\ \displaystyle\int\limits_a^bf(x)\,dx, \)

co należało dowieść.

Natychmiastową konsekwencją powyższego twierdzenia jest następujący wniosek.

Wniosek 14.16.

Jeśli \( \displaystyle F\in C^1\big([a,b];\mathbb{R}\big), \) to \( \displaystyle \displaystyle\int\limits_a^b F'(x)\,dx \ =\ F|_a^b. \)

Kolejne twierdzenie podaje wersję wzoru całkowania przez części dla całki Riemanna. Dowód, analogiczny jak dla całki nieoznaczonej, pomijamy.

Twierdzenie 14.17. [Całkowanie przez części]

(1) Jeśli \( \displaystyle F,G\in C^1\big([a,b];\mathbb{R}\big), \) to

\( \displaystyle \int\limits_a^b FG'\,dx \ =\ FG|_a^b-\displaystyle\int\limits_a^b F'G\,dx. \)

(2) Jeśli \( \displaystyle F,G\in C^{n+1}\big([a,b];\mathbb{R}\big),n\ge 1, \) to

\( \begin{array}{lll} \displaystyle \displaystyle\int\limits_a^b FG^{n+1}\,dx & = & \displaystyle \big[FG^{(n)}-F'G^{(n-1)}+\ldots+(-1)^nF^{(n)}G\big]\big|_a^b +(-1)^{n+1}\displaystyle\int\limits_a^b F^{(n+1)}G\,dx \\ & = & \displaystyle \bigg[\displaystyle \sum_{k=0}^n(-1)^k F^{(k)}G^{(n-k)}\bigg]\bigg|_a^b +(-1)^{n+1}\displaystyle\int\limits_a^b F^{(n+1)}G\,dx. \end{array} \)

\( \displaystyle F^{(0)}\stackrel{ozn}{=}F. \)

Przykład 14.18.

Obliczyć \( \displaystyle \displaystyle\int\limits_0^{\frac{\pi}{2}}x\sin x\,dx \).

Liczymy

\( \begin{array}{rll} \displaystyle \int\limits_0^{\frac{\pi}{2}}x\sin x\,dx & = & \Bigg| \begin{array} {ll} f'(x)=\sin x & f(x)=-\cos x \\ g(x)= x & g'(x)=1 \end{array} \Bigg| \\ & = & \displaystyle -x\cos x\bigg|_0^{\frac{\pi}{2}} +\displaystyle\int\limits_0^{\frac{\pi}{2}} \cos x \,dx \ =\ 0+\sin x\bigg|_0^{\frac{\pi}{2}} \ =\ 1.\end{array} \)

Kolejne twierdzenie podaje wzór na zmianę zmiennych w całce Riemanna. Ze względu na prostotę dowodu podamy go tutaj dla funkcji ciągłej. Twierdzenie to zachodzi także przy słabszych założeniach.

Twierdzenie 14.19. [Całkowanie przez podstawienie; Zmiana zmiennych w całce]

Jeśli \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest funkcją ciągłą (a zatem w szczególności całkowalną w sensie Riemanna), \( \displaystyle P\subseteq\mathbb{R} \) jest przedziałem o końcach

\( \displaystyle \alpha \) i \( \displaystyle \beta \) (to znaczy \( \displaystyle P=[\alpha,\beta] \) lub \( \displaystyle P=[\beta,\alpha] \)), \( \displaystyle \varphi\colon P\longrightarrow [a,b] \) jest funkcją klasy \( \displaystyle C^1,\displaystyle\varphi(\alpha)=a,\displaystyle\varphi(\beta)=b, \) to

\( \displaystyle \int\limits_a^b f(x)\,dx \ =\ \displaystyle\int\limits_{\alpha}^{\beta}f\big(\varphi(t)\big)\cdot\varphi'(t)\,dt. \)

Dowód 14.19.

Pierwotną funkcji \( \displaystyle f \) (która istnieje, gdyż \( \displaystyle f \) jest ciągła) oznaczmy przez \( \displaystyle F, \) to znaczy \( \displaystyle F'=f. \) Zdefiniujmy funkcję \( \displaystyle \Phi(t)=F(\varphi(t)). \) Wówczas \( \displaystyle \Phi \) jest funkcją klasy \( \displaystyle C^1 \) oraz

\( \displaystyle \Phi'(t) \ =\ F'(\varphi(t))\cdot \varphi'(t) \ =\ f(\varphi(t))\cdot \varphi'(t), \)

to znaczy funkcja \( \displaystyle \Phi \) jest pierwotną funkcji \( \displaystyle t\longmapsto f(\varphi(t))\cdot \varphi'(t). \) Z twierdzenia 14.15. mamy

\( \begin{array}{lll} \displaystyle \int\limits_a^bf(x)\,dx & = & F(b)-F(a) \ =\ F(\varphi(\beta))-F(\varphi(\alpha)) \\ & = & \displaystyle \Phi(\beta)-\Phi(\alpha) \ =\ \displaystyle\int\limits_{\alpha}^{\beta}f(\varphi(t))\cdot\varphi'(t)\,dt,\end{array} \)

Obliczyć całkę \( \displaystyle \displaystyle\int\limits_0^1\frac{\ln(1+x)}{1+x^2}\,dx. \)

W niniejszym przykładzie zastosujemy dość nietypowe podstawienie \( \displaystyle x=\varphi(t)=\mathrm{tg}\, t. \)

\( \begin{array}{lll} \displaystyle I & = & \displaystyle\int\limits_0^1\frac{\ln(1+x)}{1+x^2}\,dx =\displaystyle\Bigg| \begin{array} {rcl} x & = & \mathrm{tg}\, t \\ dx & = & \displaystyle\frac{1}{\cos^2t}\,dt \end{array} \Bigg | \\ & = & \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \frac{\ln(1+\mathrm{tg}\, t)}{1+\mathrm{tg}\,^2 t}\cdot \frac{1}{\cos^2t}\,dt \ =\ \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \frac{\ln(1+\mathrm{tg}\, t)}{\cos^2t+\sin^2 t}\,dt \ =\ \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln(1+\mathrm{tg}\, t)\,dt.\end{array} \)

Przekształcając wyrażenie trygonometryczne \( \displaystyle 1+\mathrm{tg}\, t, \) korzystając ze wzoru

\( \displaystyle \sin\alpha+\sin\beta=2\sin\frac{\alpha+\beta}{2}\cos\frac{\alpha-\beta}{2}, \)

otrzymujemy

\( \begin{array}{lll} \displaystyle 1+\mathrm{tg}\, t & = & \displaystyle 1+\frac{\sin t}{\cos t} \ =\ \frac{\sin t+\cos t}{\cos t} \ =\ \frac{\sin t+\sin(\frac{\pi}{2}-t)}{\cos t} \\ & = & \displaystyle \frac{2\sin\frac{\pi}{4}\cos(t-\frac{\pi}{4})}{\cos t} \ =\ \frac{\sqrt{2}\cos(t-\frac{\pi}{4})}{\cos t}.\end{array} \)

Wracając do naszej całki, mamy

\( \displaystyle I \ =\ \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\frac{\sqrt{2}\cos(t-\frac{\pi}{4})}{\cos t} \ =\ \underbrace{\displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\sqrt{2}\,dt}_{=A} + \underbrace{\displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\cos(t-\frac{\pi}{4})\,dt}_{=B} - \underbrace{\displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\cos t\,dt}_{=C}. \)

Policzmy każdą z całek \( \displaystyle A,B \) i \( \displaystyle C \) osobno:

\( \begin{array}{lll} \displaystyle A & = & \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\sqrt{2}\,dt \ =\ \ln\sqrt{2}\cdot x\bigg|_{0}^{\frac{\pi}{4}} \ =\ \frac{\pi}{4}\ln\sqrt{2} \ =\ \frac{\pi}{8}\ln 2; \\ B & = & \displaystyle\int\limits_{0}^{\frac{\pi}{4}} \ln\cos(t-\frac{\pi}{4})\,dt \ =\Bigg| \begin{array} {rcl} t & = & \frac{\pi}{4}-s \\ dt & = & ds \end{array} \Bigg| \ =\ \displaystyle\int\limits_{\frac{\pi}{4}}^0 (-1)\ln\cos(-s)\,ds \ =\ \displaystyle\int\limits_0^{\frac{\pi}{4}} \ln\cos s\,ds \ =\ C. \end{array} \)

Ponieważ \( \displaystyle B=C, \) więc niepotrzebna jest nam znajomość całek \( \displaystyle B \) i \( \displaystyle C \) (wystarczy nam wiedza, że one istnieją), gdyż

\( \displaystyle I \ =\ A+B-C \ =\ A \ =\ \frac{\pi\ln 2}{8}. \)

Zdefiniowana do tej pory całka Riemanna mogła być określona tylko dla funkcji ograniczonej na przedziale ograniczonym. Nietrudno jest zauważyć, że oba te założenia były konieczne, aby granice całkowe Darboux były skończone. Z praktycznego punktu widzenia rozważa się także całki niewłaściwe (gdy obszar jest nieograniczony lub gdy funkcja jest nieograniczona). Definicje takich całek można postawić na bazie całki Riemanna z funkcji ograniczonej na zbiorze ograniczonym.

wykresy

Definicja 14.21. [Całki niewłaściwe]

(1) Niech \( \displaystyle -\infty\le a < b < +\infty \) oraz niech \( \displaystyle f\colon (a,b]\longrightarrow\mathbb{R} \) będzie funkcją. Przez całkę niewłaściwą funkcji \( \displaystyle f \) na przedziale \( \displaystyle (a,b] \) rozumiemy

\( \displaystyle \int\limits_a^b f(x)\,dx \ \stackrel{df}{=}\ \lim_{a'\searrow a^+}\displaystyle\int\limits_{a'}^bf(x)\,dx, \)

o ile całki Riemanna po prawej stronie oraz granica po prawej stronie istnieją.

(2) Niech \( \displaystyle -\infty < a < b\le +\infty \) oraz niech \( \displaystyle f\colon [a,b)\longrightarrow\mathbb{R} \) będzie funkcją. Przez całkę niewłaściwą funkcji \( \displaystyle f \) na przedziale \( \displaystyle [a,b) \) rozumiemy

\( \displaystyle \int\limits_a^b f(x)\,dx \ \stackrel{df}{=}\ \lim_{b'\nearrow b^-}\displaystyle\int\limits_a^{b'}f(x)\,dx, \)

o ile całki Riemanna po prawej stronie oraz granica po prawej stronie istnieją.

(3) Niech \( \displaystyle -\infty\le a < b\le +\infty \) oraz niech \( \displaystyle f\colon (a,b)\longrightarrow\mathbb{R} \) będzie funkcją. Przez całkę niewłaściwą funkcji \( \displaystyle f \) na przedziale \( \displaystyle (a,b) \) rozumiemy

\( \displaystyle \int\limits_a^b f(x)\,dx \ \stackrel{df}{=}\ \lim_{a'\searrow a^+ \atop b'\nearrow b^-} \displaystyle\int\limits_{a'}^{b'}f(x)\,dx, \)

o ile całki Riemanna po prawej stronie oraz granica po prawej stronie istnieją.

Gdy całka niewłaściwa \( \displaystyle \displaystyle\int\limits_a^b f(x)\,dx \) istnieje, to mówimy, że całka jest zbieżna (w przeciwnym razie mówimy, że całka jest rozbieżna). Jeśli całka niewłaściwa \( \displaystyle \displaystyle\int\limits_a^b \big|f(x)\big|\,dx \) istnieje to mówimy, że całka jest bezwzględnie zbieżna (oczywiście zbieżność bezwzględna całki implikuje zbieżność całki; Patrz twierdzenie 14.11.(2)).

Uwaga 14.22.

Jeśli funkcja \( \displaystyle f\colon [a,b]\longrightarrow\mathbb{R} \) jest całkowalna w sensie Riemanna, to całki niewłaściwe z funkcji \( \displaystyle f|_{(a,b]},f_{[a,b)} \) oraz \( \displaystyle f_{(a,b)} \) są równe dokładnie całce Riemanna. Wynika to wprost z twierdzenie 14.11.(9).

Wykres funkcji \( f(x)=\frac{\sin x}{x} \)

Przykład 14.23.

Udowodnić zbieżność całki \( \displaystyle \displaystyle\int\limits_a^{+\infty}\frac{\sin x}{x^{\alpha}} \) dla \( \displaystyle a\in\mathbb{R} \) oraz \( \displaystyle \alpha>0. \)

Wprowadźmy oznaczenie:

\( \displaystyle F(z) \ =\ \displaystyle\int\limits_a^z\frac{\sin x}{x^{\alpha}} \qquad\forall\ z\ge a. \)

Pokażemy, że funkcja \( \displaystyle F \) spełnia warunek Cauchy'ego w \( \displaystyle +\infty, \) co będzie implikowało istnienie granicy \( \displaystyle \lim_{z \to +\infty}F(z). \) W tym celu ustalmy dowolne \( \displaystyle \varepsilon>0. \) Niech \( \displaystyle M>a \) będzie odpowiednio duże, tak aby \( \displaystyle \frac{3}{M^{\alpha}} < \varepsilon. \) Dla dowolnych \( \displaystyle z'>z>M \) mamy

\( \begin{array}{lll} \displaystyle F(z') -F(z) & = & \displaystyle\int\limits_z^{z'}\frac{\sin x}{x^{\alpha}}\,dx \ =\Bigg| \begin{array} {ll} f'(x)=\sin x & f(x)=-\cos x \\ \displaystyle g(x)=\frac{1}{x^{\alpha}} & \displaystyle g'(x)=\frac{-\alpha}{x^{\alpha+1}} \end{array} \Bigg | \\ & = & \displaystyle \frac{-\cos x}{x^{\alpha}}\bigg|_{z}^{z'} +\alpha\displaystyle\int\limits_z^{z'}\frac{\cos x}{x^{\alpha+1}}\,dx \ =\ \frac{-\cos z'}{{z'}^{\alpha}} +\frac{\cos z}{{z}^{\alpha}} +\alpha\displaystyle\int\limits_z^{z'}\frac{\cos x}{x^{\alpha+1}}\,dx. \end{array} \)

Całkę powyższą możemy teraz oszacować:

\( \displaystyle \bigg|\alpha\displaystyle\int\limits_z^{z'}\frac{\cos x}{x^{\alpha+1}}\,dx\bigg| \ \le\ \alpha\displaystyle\int\limits_z^{z'}\frac{1}{x^{\alpha+1}}\,dx \ =\ \frac{-1}{x^{\alpha}}\bigg|_z^{z'} \ =\ \frac{1}{z^{\alpha}} -\frac{1}{{z'}^{\alpha}} \ < \ \frac{1}{z^{\alpha}}. \)

Zatem mamy

\( \displaystyle \big|F(z')-F(z)\big| \ < \ \frac{3}{z^{\alpha}} \ < \ \frac{3}{M^{\alpha}} \ < \ \varepsilon. \)

Zatem funkcja \( \displaystyle F \) spełnia warunek Cauchy'ego w \( \displaystyle +\infty, \) a więc ma granicę (skończoną) w \( \displaystyle +\infty. \)

Warto tu dodać, że pomimo dowodu istnienia całki niewłaściwej \( \displaystyle \displaystyle\int\limits_a^{\infty}\frac{\sin x}{x^{\alpha}}\,dx, \) nie znamy sposobów wyliczenie tej całki dla dowolnego \( \displaystyle a, \) nawet w przypadku \( \displaystyle \alpha=1 \) (przypomnijmy, że dla funkcji \( \displaystyle f(a)=\frac{\sin x}{x} \) pierwotna nie jest funkcją elementarną). Dla pewnych wartości \( \displaystyle a \) całkę tę daje się wyliczyć metodami, których nie poznamy w ramach tego kursu. Dla przykładu dla \( \displaystyle a=0 \) całka ta wynosi \( \displaystyle \displaystyle\int\limits_0^{\infty}\frac{\sin x}{x}\,dx=\frac{\pi}{2}. \)

wykres

Wykresy funkcji \( f_1(x)=\frac{1}{\sqrt{x}} \), \( f_2(x)=\frac{1}{x} \), \( f_3(x)=\frac{1}{x^2} \)

wykres

Wykresy funkcji \( f_1(x)=\bigg|\frac{\sin x}{x}\bigg| \), \( f_2(x)=\bigg|\frac{\sin x}{x^2}\bigg| \), \( f_3(x)=\bigg|\frac{\sin x}{\sqrt{x}}\bigg| \)

Przykład 14.24.

Udowodnić, że:

(1) Całka \( \displaystyle \displaystyle\int\limits_0^1\frac{1}{x^{\alpha}}\,dx \) jest zbieżna wtedy i tylko wtedy, gdy \( \displaystyle \alpha < 1 \);

(2) Całka \( \displaystyle \displaystyle\int\limits_1^{+\infty}\frac{1}{x^{\alpha}}\,dx \) jest zbieżna wtedy i tylko wtedy, gdy \( \displaystyle \alpha>1 \);

(3) Całka \( \displaystyle \displaystyle\int\limits_a^{+\infty}\Bigg|\frac{\sin x}{x^{\alpha}}\Bigg|\,dx \) jest zbieżna wtedy i tylko wtedy, gdy \( \displaystyle \alpha>1 \) (gdzie \( \displaystyle a>0 \)).

(Ad (1)) Ponieważ

\( \displaystyle \int\frac{1}{x^{\alpha}}\,dx \ =\left \{ \begin{array} {lll} \displaystyle \frac{1}{1-\alpha}x^{1-\alpha}+c & \textrm{dla} & \alpha\ne 1, \\ \ln x+c & \textrm{dla} & \alpha= 1, \end{array} .\right. \)

więc rozważmy osobno dwa przypadki.

Przypadek 1. \( \displaystyle \alpha\ne 1. \)

\( \begin{array}{lll} \displaystyle \displaystyle\int\limits_0^1\frac{1}{x^{\alpha}}\,dx & = & \displaystyle\lim_{a \to 0^+}\displaystyle\int\limits_a^1\frac{1}{x^{\alpha}}\,dx \ =\ \lim_{a \to 0^+} \bigg(\frac{1}{1-\alpha}x^{1-\alpha}\bigg)\bigg|_a^1 \ =\ \lim_{a \to 0^+} \frac{1}{1-\alpha}(1-a^{1-\alpha}) \\ & = & \displaystyle \left \{ \begin{array} {lll} \displaystyle \frac{1}{1-\alpha} & \textrm{dla} & \alpha < 1, \\ +\infty & \textrm{dla} & \alpha>1. \end{array} . \right. \end{array} \)

Przypadek 2. \( \displaystyle \alpha=1. \)

\( \displaystyle \int\limits_0^1\frac{1}{x}\,dx \ =\ \lim_{a \to 0^+}\displaystyle\int\limits_a^1\frac{1}{x}\,dx \ =\ \lim_{a \to 0^+} \ln x\bigg|_a^1 \ =\ \lim_{a \to 0^+} (0-\ln a) \ =\ +\infty. \)

Wykazaliśmy zatem, że całka jest zbieżna wtedy i tylko wtedy, gdy \( \displaystyle \alpha < 1. \)

(Ad (2)) Dowód analogiczny do dowodu w części (1) pozostawiamy jako ćwiczenie.

(Ad (3)) Gdy \( \displaystyle \alpha>1, \) to możemy oszacować:

\( \begin{array}{lll} \displaystyle \int\limits_a^{\infty}\bigg|\frac{\sin x}{x^{\alpha}}\bigg|\,dx & = & \displaystyle \lim_{b \to +\infty} \displaystyle\int\limits_a^b\bigg|\frac{\sin x}{x^{\alpha}}\bigg|\,dx \ \le\ \lim_{b \to +\infty} \displaystyle\int\limits_a^b\frac{1}{x^{\alpha}}\,dx \\ & = & \displaystyle \lim_{b \to +\infty} \bigg[\frac{1}{-\alpha+1}x^{-\alpha+1}\bigg]_a^b \ =\ 0+\frac{1}{(1-\alpha)a^{1-\alpha}} \ < \ +\infty.\end{array} \)

Gdy \( \displaystyle \alpha\le 1, \) to mamy

\( \displaystyle \forall x\ge 1:\ x^{\alpha}\le x. \)

Możemy także ustalić \( \displaystyle k \) takie, że \( \displaystyle k\pi\ge a. \) Wówczas mamy:

\( \begin{array}{lll} \displaystyle \int\limits_a^{\infty}\bigg|\frac{\sin x}{x^{\alpha}}\bigg|\,dx & \ge & \displaystyle\int\limits_{k\pi}^{\infty}\frac{|\sin x|}{x}\,dx \ =\ \sum_{i=k}^{\infty} \displaystyle\int\limits_{i\pi}^{(i+1)\pi}\frac{|\sin x|}{x}\,dx \\ & \ge & \displaystyle \sum_{i=k}^{\infty} \frac{1}{\pi(i+1)} \displaystyle\int\limits_{i\pi}^{(i+1)\pi}|\sin x|\,dx \ =\ \sum_{i=k}^{\infty} \frac{2}{\pi(i+1)} \ =\ +\infty.\end{array} \)

Przedostatnia równość wynika z faktu, że \( \displaystyle \displaystyle\int\limits_{i\pi}^{(i+1)\pi}|\sin x|\,dx=\displaystyle\int\limits_0^{\pi}|\sin x|\,dx=2, \) natomiast ostatnia z faktu, że szereg harmoniczny jest rozbieżny.

Uwaga 14.25.

W rachunkach będziemy pisać krótko

\( \displaystyle F(x)\bigg|_a^{+\infty} \quad\textrm{zamiast}\quad \lim_{b' \to +\infty}F(x)\bigg|_a^{b'} \)

oraz

\( \displaystyle F(x)\bigg|_{-\infty}^b \quad\textrm{zamiast}\quad \displaystyle \lim_{a' \to -\infty}F(x)\bigg|_{a'}^b. \)

Rysunek do kryterium całkowego zbieżności szeregów

Na zakończenie podamy jeden z wielu związków całki z szeregiem. Następujące twierdzenie jest jeszcze jednym kryterium zbieżności szeregów. Może być ono wykorzystane także do badania zbieżności całki przy pomocy badania zbieżności szeregu.

Twierdzenie 14.26. [Kryterium całkowe zbieżności szeregów]

Jeśli \( \displaystyle n_0\in\mathbb{N} \) oraz \( \displaystyle f\colon [n_0,+\infty]\longrightarrow\mathbb{R}_+ \) jest funkcją malejącą oraz całkowalną w sensie Riemanna, to szereg \( \displaystyle \sum_{n=n_0}^{\infty}f(n) \) jest zbieżny wtedy i tylko wtedy, gdy całka \( \displaystyle \displaystyle\int\limits_{n_0}^{+\infty}f(x)\,dx \) jest zbieżna.

Dowód tego twierdzenia pozostawiamy jako proste ćwiczenie oparte na następującym sugestywnym rysunku:

Przykład 14.27.

Zbadać zbieżność szeregu \( \displaystyle \displaystyle \sum_{n=2}^{\infty}\frac{1}{n\ln^2 n}. \)

Zauważmy, że funkcja \( \displaystyle f(x)=\frac{1}{x\ln^2 x} \) jest ciągła i malejąca na przedziale \( \displaystyle [2,+\infty). \) Można zatem stosować kryterium całkowe zbieżności szeregów. Zbieżność szeregu \( \displaystyle \displaystyle \sum_{n=2}^{\infty}\frac{1}{n\ln^2 n} \) jest równoważna zbieżności całki \( \displaystyle \displaystyle\int\limits_2^{\infty}\frac{1}{x\ln^2x}\,dx. \) Liczymy

\( \displaystyle \displaystyle\int\limits_2^{\infty}\frac{1}{x\ln^2x}\,dx \ =\Bigg| \begin{array} {rcl} \ln x & = & t \\ \displaystyle\frac{1}{x}\,dx & = & dt \end{array} \Bigg| \ =\ \displaystyle\int\limits_{\ln 2}^{\infty}\frac{dt}{t^2} \ =\ -\frac{1}{t}\bigg|_{\ln 2}^{+\infty} \ =\ \frac{1}{\ln 2} \ < \ +\infty. \)

Zatem korzystając z kryterium całkowego zbieżności szeregów, otrzymujemy, że szereg jest zbieżny.

Krzywe i bryły obrotowe

Krzywe i bryły obrotowe

W tym wykładzie wprowadzamy pojęcie krzywej i krzywej zwyczajnej. Definiujemy długość krzywej i krzywą prostowalną. Dowodzimy, że krzywa zwyczajna klasy \( \displaystyle C^1 \) jest prostowalna. Wyprowadzamy wzór na długość krzywej i liczymy długości cykloidy i asteroidy. W drugiej części wykładu podajemy wzory na pola powierzchni i objętości brył obrotowych.

Długość krzywej

Długość krzywej


Definicja 15.1.

Niech \( \displaystyle -\infty < a < b < +\infty. \) Krzywą nazywamy zbiór punktów

\( \displaystyle K \ =\ \big\{(x,y)\in\mathbb{R}^2:\ x=\varphi(t),\ y=\psi(t),\ t\in[a,b]\big\}, \)

gdzie \( \displaystyle \displaystyle\varphi,\psi\colon[a,b]\longrightarrow\mathbb{R} \) są dwiema funkcjami ciągłymi. Piszemy:

\( \displaystyle K=K(\varphi,\psi):\left \{ \begin{array} {l} x=\varphi(t) \\ y=\psi(t) \end{array} . \right. \ \qquad t\in[a,b]. \)

Powyższe równanie nazywamy też równaniem parametrycznym krzywej.

wykres

Przykład 15.2.

Zapiszmy parametryczne równanie okręgu o promieniu \( \displaystyle R>0 \) w \( \displaystyle \displaystyle\mathbb{R}^2. \) Jeśli jako parametr \( \displaystyle t \) przyjmiemy kąt jaki tworzy promień poprowadzony do punktu \( \displaystyle \displaystyle (x,y) \) na okręgu, to widzimy (patrz rysunek), że \( \displaystyle x=\cos t \) i \( \displaystyle y=\sin t. \) Zatem następująca krzywa:

\( \displaystyle K:\left \{ \begin{array} {l} x=R\cos t \\ y=R\sin t \end{array} . \right. \qquad t\in[0,2\pi] \) opisuje okrąg.

Definicja 15.3.

Mówimy, że punkt \( \displaystyle \displaystyle (x,y)\in K \) jest punktem wielokrotnym krzywej \( \displaystyle K, \) jeśli

\( \displaystyle \exists t_1,t_2\in(a,b):\ t_1\ne t_2\quad\land\quad (x,y)=\big(\varphi(t_1),\psi(t_1)\big)=\big(\varphi(t_2),\psi(t_2)\big). \)

Krzywą \( \displaystyle K \) nazywamy zwyczajną, jeśli nie zawiera punktów wielokrotnych, to znaczy

\( \begin{array}{ll} \displaystyle & \bigg[ \big(\varphi(t_1),\psi(t_1)\big)=\big(\varphi(t_2),\psi(t_2)\big),\ t_1\le t_2 \bigg] \\ \\ \Longrightarrow & \bigg[ \big(t_1= t_2\big)\quad\lor\quad \big(t_1=a\ \land\ t_2=b\big) \bigg].\end{array} \)

wykres

Definicja 15.4.

Niech

\( \displaystyle a \ =\ t_0 \ < \ t_1 \ < \ \ldots \ < \ t_n \ =\ b \)

będzie podziałem przedziału \( \displaystyle \displaystyle [a,b]. \) Łamaną \( \displaystyle p \) łączącą punkty:

\( \displaystyle \big(\varphi(t_0),\psi(t_0)\big), \ \ldots,\ \big(\varphi(t_n),\psi(t_n)\big) \)

nazywamy łamaną wpisaną w krzywą \( \displaystyle K \). Przez \( \displaystyle l(p) \) oznaczamy długość łamanej \( \displaystyle p \) (to znaczy sumę długości odcinków wchodzących w skład łamanej).

Definicja 15.5.

Długością krzywej \( \displaystyle K \) nazywamy liczbę:

\( \displaystyle l(K) \ =\ \sup_p l(p), \)

gdzie supremum jest brane po wszystkich łamanych wpisanych w \( \displaystyle K. \)

wykres

Definicja 15.6.

Jeśli \( \displaystyle l(K) < +\infty \), to mówimy, że krzywa \( \displaystyle K \) jest prostowalna. Twierdzenie 15.7.

Niech \( \displaystyle \displaystyle\varphi,\psi\colon [a,b]\longrightarrow\mathbb{R} \) będą klasy \( \displaystyle C^1 \) oraz niech \( \displaystyle K=K(\varphi,\psi) \) będzie krzywą zwyczajną.
Wówczas krzywa \( \displaystyle K \) jest prostowalna.

wykres

Łamana wpisana w krzywą

Dowód 15.7. [nadobowiązkowy]

Niech \( \displaystyle p \) będzie dowolną łamaną wpisaną w krzywą \( \displaystyle K, \) to znaczy istnieje podział

\( \displaystyle a \ =\ t_0 \ < \ t_1 \ < \ \ldots \ < \ t_n \ =\ b \)

taki, że \( \displaystyle p \) jest łamaną o wierzchołkach \( \displaystyle \displaystyle (x_i,y_i) \) dla \( \displaystyle i=0,\ldots,n, \) gdzie

\( \displaystyle \left \{ \begin{array} {l} x_i\ =\ \varphi(t_i) \\ y_i\ =\ \psi(t_i) \end{array} . \right. \ \qquad i\in\{0,\ldots,n\}. \)

Długość łamanej \( \displaystyle p \) wyraża się wzorem:

\( \displaystyle l(p) \ =\ \sum_{i=1}^n \sqrt{\big(x_i-x_{i-1}\big)^2+\big(y_i-y_{i-1}\big)^2}. \)

Ponieważ \( \displaystyle \displaystyle\varphi,\psi\in C^1\big([a,b];\mathbb{R}\big), \) więc z twierdzenia o wartości średniej (patrz twierdzenie 9.37.) mamy

\( \displaystyle x_i-x_{i-1} \ =\ \varphi(t_i)-\varphi(t_{i-1}) \ =\ \varphi'(\tau_i)(t_i-t_{i-1}), \)

\( \displaystyle y_i-y_{i-1} \ =\ \psi(t_i)-\psi(t_{i-1}) \ =\ \psi'(\tau^*_i)(t_i-t_{i-1}), \)

gdzie

\( \tau_i\in (t_{i-1},t_i),\quad i=1,\ldots n,\quad \tau^*_i\in (t_{i-1},t_i),\quad i=1,\ldots n. \)

Zatem

\( \displaystyle l(p) \ =\ \sum_{i=1}^n \sqrt{\varphi'(\tau_i)^2+\psi'(\tau^*_i)^2}\cdot(t_i-t_{i-1}). \)

Ponieważ \( \displaystyle \displaystyle\varphi',\psi'\in C\big([a,b];\mathbb{R}\big) \) i przedział \( \displaystyle \displaystyle [a,b] \) jest zwarty, więc funkcje \( \displaystyle \displaystyle\varphi',\psi' \) są ograniczone.

Definiujemy

\( \displaystyle M \ =\ \sup_{t\in[a,b]}\varphi'(t), \qquad M^* \ =\ \sup_{t\in[a,b]}\psi'(t), \)

\( \displaystyle m \ =\ \displaystyle\inf_{t\in[a,b]}\varphi'(t), \qquad m^* \ =\ \displaystyle\inf_{t\in[a,b]}\psi'(t). \)

Zatem

\( \displaystyle \sqrt{m^2+{m^*}^2}\cdot(b-a) \ \le\ l(p) \ \le\ \sqrt{M^2+{M^*}^2}\cdot(b-a). \)

Ponieważ powyższa nierówność zachodzi dla dowolnej łamanej \( \displaystyle p \) wpisanej w krzywą \( \displaystyle K, \) więc przechodząc do supremum po wszystkich takich łamanych, dostajemy

\( \displaystyle \sqrt{m^2+{m^*}^2}\cdot(b-a) \ \le\ l(K) \ \le\ \sqrt{M^2+{M^*}^2}\cdot(b-a), \)

a zatem krzywa \( \displaystyle K \) jest prostowalna.

Uwaga 15.8.

W powyższym twierdzeniu (jak i twierdzeniach następnych) zakładamy, że krzywa jest klasy \( \displaystyle C^1. \) (to znaczy \( \displaystyle \varphi,\psi \), są klasy \( C^1 \)) W zastosowaniach okaże się jednak, że często będziemy mieli do czynienia z krzywymi, które są tylko ciągłe, zwyczajne oraz "kawałkami" klasy \( \displaystyle C^1, \) to znaczy krzywą można otrzymać jako "sklejenie" kilku krzywych klasy \( \displaystyle C^1 \) (przy sklejaniu początek następnej krzywej jest końcem poprzedniej). Wszystkie wypowiadane tu twierdzenia dla krzywych klasy \( \displaystyle C^1 \) stosują się także do krzywych kawałkami klasy \( \displaystyle C^1. \)

wykres

Krzywa \( K(t) \)

Definicja 15.9.

Niech \( \displaystyle K=K(\varphi,\psi) \) będzie krzywą. Zdefiniujmy:

\( \displaystyle K(t) \ \ \stackrel{df}{=}\ \ \bigg\{\big(\varphi(\tau),\psi(\tau)\big):\ \tau\in[a,t]\bigg\}, \)

oraz

\( \displaystyle s(t) \ \ \stackrel{df}{=}\ \ l\big(K(t)\big)\quad \) (długośćkrzywejK(t)) \( \displaystyle . \)

W szczególności \( \displaystyle s(b)=l(K). \)

Niech \( \displaystyle \displaystyle\varphi,\psi\colon [a,b]\longrightarrow\mathbb{R} \) będą klasy \( \displaystyle C^1 \) oraz niech \( \displaystyle K=K(\varphi,\psi) \) będzie krzywą zwyczajną.

Wówczas

\( \displaystyle s'(t) \ =\ \sqrt{\varphi'(t)^2+\psi'(t)^2} \qquad\forall\ t\in[a,b]. \)

Dowód 15.10. [nadobowiązkowy]

Niech \( \displaystyle t_0,t_0+h\in[a,b]. \) Analogicznie do ostatniego oszacowania w dowodzie twierdzenia 15.7. dostajemy:

\( \displaystyle \sqrt{m_h^2+{m_h^*}^2}\cdot h \ \le\ s(t_0+h)-s(t_0) \ \le\ \sqrt{M_h^2+{M_h^*}^2}\cdot h, \)

gdzie

\( \displaystyle M_h \ =\ \sup_{t\in[t_0,t_0+h]}\varphi'(t), \qquad M_h^* \ =\ \sup_{t\in[t_0,t_0+h]}\psi'(t), \)

\( \displaystyle m_h \ =\ \inf_{t\in[t_0,t_0+h]}\varphi'(t), \qquad m_h^* \ =\ \displaystyle\inf_{t\in[t_0,t_0+h]}\psi'(t). \)

Dzielimy wszystkie strony powyższego oszacowania przez \( \displaystyle h, \) dostając:

\( \displaystyle \sqrt{m_h^2+{m_h^*}^2} \ \le\ \frac{s(t_0+h)-s(t_0)}{h} \ \le\ \sqrt{M_h^2+{M_h^*}^2}. \)

Ponieważ funkcje \( \displaystyle \displaystyle\varphi' \) i \( \displaystyle \displaystyle\psi' \) są ciągłe, więc dostajemy

\( \displaystyle \begin{align*} M_h & \xrightarrow[h \to 0]{} & \varphi'(t_0), \\ m_h & \xrightarrow[h \to 0]{} & \varphi'(t_0), \\ M_h^* & \xrightarrow[h \to 0]{} & \psi'(t_0), \\ m_h^* & \xrightarrow[h \to 0]{} & \psi'(t_0). \end{align*} \)

Z powyższych oszacowań oraz z twierdzenia o trzech ciągach dostajemy:

\( \displaystyle s'(t_0) \ =\ \lim_{h \to 0}\frac{s(t_0+h)-s(t_0)}{h} \ =\ \sqrt{\varphi'(t_0)^2+\psi'(t_0)^2}. \)

Twierdzenie 15.11. [O długości krzywej]

Niech \( \displaystyle \displaystyle\varphi,\psi\colon [a,b]\longrightarrow\mathbb{R} \) będą klasy \( \displaystyle C^1 \) oraz niech \( \displaystyle K=K(\varphi,\psi) \) będzie krzywą zwyczajną. Wówczas długość krzywej wyraża się wzorem

\( \displaystyle l(K) \ =\ \int\limits_a^b\sqrt{\varphi'(\tau)^2+\psi'(\tau)^2}\,d\tau. \)

W szczególności, jeśli krzywa zadana jest wykresem funkcji \( \displaystyle y=f(x), \) dla \( \displaystyle x\in[a,b], \) to

\( \displaystyle l(K) \ =\ \int\limits_a^b\sqrt{1+f'(t)^2}\,dt. \)

Dowód 15.11.

\( \displaystyle l(K) \ =\ s(b) \ =\ s(b)-\underbrace{s(a)}_{=0} \ =\ \int\limits_a^b s'(\tau)\,d\tau \ =\ \int\limits_a^b\sqrt{\varphi'(\tau)^2+\psi'(\tau)^2}\,d\tau. \)

W drugim przypadku krzywą zadaną przez funkcję \( \displaystyle f \) możemy zapisać w postaci parametrycznej

\( \displaystyle \left \{ \begin{array} {l} x(t)=t \\ y(t)=f(t) \end{array} ., \right. \ \qquad t\in[a,b] \)

i od razu otrzymujemy drugi ze wzorów.

Przykład 15.12.

Wyprowadzić wzór na długość krzywej zadanej w postaci biegunowej:

\( \displaystyle r \ =\ g(\vartheta) \qquad \vartheta\in[\alpha,\beta]. \)

Przedstawmy tę krzywą w postaci parametrycznej:

\( \displaystyle \left \{ \begin{array} {l} x\ = \ r\cos\vartheta\ =\ g(\vartheta)\cos\vartheta \\ y\ = \ r\sin\vartheta\ =\ g(\vartheta)\sin\vartheta. \end{array} . \right. \)

Liczymy

\( \begin{array}{lll}\displaystyle \quad x'(\vartheta)^2+y'(\vartheta)^2 & = & \big[g'(\vartheta)\cos\vartheta-g(\vartheta)\sin(\vartheta)\big]^2 + \big[g'(\vartheta)\sin\vartheta+g(\vartheta)\cos(\vartheta)\big]^2 \\ \\ & = & g'(\vartheta)^2\cos^2\vartheta -2g(\vartheta)g'(\vartheta)\sin\vartheta\cos\vartheta +g(\vartheta)^2\sin^2\vartheta \\ \\ & + & g'(\vartheta)^2\sin^2\vartheta +2g(\vartheta)g'(\vartheta)\sin\vartheta\cos\vartheta +g(\vartheta)^2\cos^2\vartheta \\ \\ & = & g'(\vartheta)^2 +g(\vartheta)^2, \end{array} \)

Zatem

\( \displaystyle l(K) \ =\ \displaystyle\int\limits_{\alpha}^{\beta} \sqrt{g(\vartheta)^2+g'(\vartheta)^2}\,d\vartheta. \)

wykres

Definicja 15.13.

Cykloidą nazywamy krzywą kreśloną

przez ustalony punkt \( \displaystyle 0 \) na okręgu toczącym się po prostej \( \displaystyle l. \)

wykres

Przykład 15.14.

Wyprowadzić wzór parametryczny cykloidy.

Oznaczenia:
\( \displaystyle a \) - promień okręgu;
\( \displaystyle O \) - początkowy punkt styczności okręgu i prostej \( \displaystyle l \);
\( \displaystyle N \) - nowy punkt styczności;
\( \displaystyle M \) - nowe położenie punktu \( \displaystyle O \);
\( \displaystyle \displaystyle t=∢ NDM \) - parametr określający położenie punktu \( \displaystyle M. \)

Liczymy współrzędne punktu \( \displaystyle M(x,y) \):

\( \displaystyle x \ = \ OF \ =\ ON-FN \ =\ \widehat{NM}-MG \ =\ at-a\sin t, \)

\( \displaystyle y \ = \ FM \ =\ NG \ =\ ND-GD \ =\ a-a\cos t. \)

Zatem

\( \displaystyle \left \{ \begin{array} {l} x=a(t-\sin t) \\ y=a(1-\cos t) \end{array} . \right. \ \qquad t\in [0,2\pi] \quad( \) lub \( \displaystyle \ t\in\mathbb{R}). \)

Przykład 15.15.

Obliczyć długość łuku cykloidy:

\( \displaystyle \left \{ \begin{array} {l} x=a(t-\sin t) \\ y=a(1-\cos t) \end{array} . \right. \ \qquad t\in [0,2\pi]. \)

\( \begin{array}{lll} \displaystyle \sqrt{x'(t)^2+y'(t)^2} & = & \sqrt{a^2(1-\cos t)^2+a^2\sin^2 t} \ =\ \sqrt{a^2-2a^2\cos t+a^2\cos^2 t+a^2\sin^2 t} \\ & = & \displaystyle \sqrt{2a^2(1-\cos t)} \ =\ \sqrt{4a^2\sin^2\frac{t}{2}} \ =\ 2a\bigg|\sin\frac{t}{2}\bigg|.\end{array} \)

Zatem

\( \displaystyle \begin{array}{lll}l(K) & = & \displaystyle\int\limits_0^{2\pi} \sqrt{x'(t)^2+y'(t)^2}\,dt \ =\ 2a\displaystyle\int\limits_0^{2\pi}\bigg|\sin\frac{t}{2}\,\bigg|dt \\ & = & 2a\displaystyle\int\limits_0^{2\pi}\sin\frac{t}{2}\,dt \ =\ -4a\cos\frac{t}{2}\bigg|_0^{2\pi} \ =\ a. \end{array} \)

Przykład 15.16.

Obliczyć długość łuku asteroidy:

\( \displaystyle x^{\frac{2}{3}}+y^{\frac{2}{3}} \ =\ a^{\frac{2}{3}}. \)

Równanie parametryczne asteroidy, to:

\( \displaystyle \left \{ \begin{array} {l} x=a\cos^3 t \\ y=a\sin^3 t \end{array} . \right. \ \qquad t\in [0,2\pi]. \)

Liczymy

\( \displaystyle \sqrt{x'(t)^2+y'(t)^2} \ =\ 3a\sin t\cos t \qquad\forall\ t\in[0,2\pi]. \)

Zatem

\( \displaystyle l(K) \ =\ 4\displaystyle\int\limits_0^{\frac{\pi}{2}}3a\sin t\cos t\,dt \ =\ 6a. \)

wykresy

Całka krzywoliniowa

Całka krzywoliniowa


Niech \( \displaystyle K \) będzie krzywą klasy \( \displaystyle C^1 \):

\( \displaystyle K \ =\ \big\{(x,y)\in\mathbb{R}^2:\ x=\varphi(t),\ y=\psi(t),\ t\in[a,b]\big\}, \)

Przypuśćmy, że określona jest funkcja ciągła \( \displaystyle f\colon K\ni M\longmapsto f(M)\in\mathbb{R}, \) to znaczy funkcja, która każdemu punktowi \( \displaystyle M \) krzywej \( \displaystyle K \) przyporządkowuje pewną wartość rzeczywistą \( \displaystyle f(M). \) Okazuje się, że dla takich funkcji możemy także zdefiniować całkę oznaczoną, to znaczy całkę z funkcji \( \displaystyle f \) po krzywej \( \displaystyle K. \)

rycina

Całkę tę wprowadza się analogicznie jak całkę Riemanna na odcinku. Pominiemy to jednak w tym miejscu, podając jedynie wzór końcowy na obliczanie takiej całki:

\( \displaystyle \displaystyle\int\limits_K f(x,y)\,ds \ =\ \displaystyle\int\limits_a^b f\big(\varphi(t),\psi(t)\big)\sqrt{\varphi'(t)^2+\psi'(t)^2}\,dt. \)

Tę całkę stosuje się w fizyce na przykład do obliczania masy i środka ciężkości krzywej (pręta, którego wszystkie wymiary poza długością są pomijalne).

Jeśli mamy daną krzywą (pręt) \( \displaystyle K \) zadaną jak wyżej, o gęstości w każdym jej punkcie \( \displaystyle M(x,y) \) danej funkcją ciągłą \( \displaystyle \displaystyle\varrho(M), \) to masa tego pręta wyraża się wzorem

\( \displaystyle m \ =\ \displaystyle\int\limits_K \varrho(x,y)\,ds. \)

Współrzędne środka ciężkości pręta \( \displaystyle \displaystyle (x_0,y_0) \) możemy policzyć ze wzorów

\( \displaystyle \begin{align*} x_0 & = & \frac{1}{m}\displaystyle\int\limits_K x\cdot \varrho(x,y)\,ds, \\ x_0 & = & \frac{1}{m}\displaystyle\int\limits_K y\cdot \varrho(x,y)\,ds. \end{align*} \)

Przykład 15.17.

Obliczyć masę pręta półkolistego \( \displaystyle K=\{(x,y)\in\mathbb{R}^2:\ x^2+y^2=R^2,\ y\ge 0\} \) o gęstości \( \displaystyle \displaystyle\varrho(x,y)=y^2. \)

Masa krzywej o gęstości \( \displaystyle \displaystyle\varrho \) dana jest wzorem

\( \displaystyle m \ =\ \displaystyle\int\limits_K \varrho(x,y)\,ds \ =\ \displaystyle\int\limits_K y^2\,ds. \)

Stosując wzór na całkę krzywoliniową oraz korzystając z parametryzacji półokręgu:

\( \displaystyle K=K(\varphi,\psi):\left \{ \begin{array} {l} x=\varphi(t)=R\cos t \\ y=\psi(t)=R\sin t \end{array} . \right. \ \qquad t\in[0,\pi], \)

mamy

\( \begin{array}{lll} \displaystyle m & = & \displaystyle\int\limits_0^{\pi}R^2\sin^2 t\sqrt{(-R\sin t)^2+(R\cos t)^2}\,dt \ =\ R^3\displaystyle\int\limits_0^{\pi}\sin^2 t\,dt \\ & = & R^3\bigg[\frac{t}{2}-\frac{1}{4}\sin 2t\bigg]_0^{\pi} \ =\ \frac{R^3\pi}{2}.\end{array} \)

Odpowiedź:

Masa pręta wynosi \( \displaystyle \displaystyle \frac{R^3\pi}{2} \).

Przykład 15.18.

Obliczyć masę i współrzędne środka ciężkości odcinka \( \displaystyle K \) łączącego punkt \( \displaystyle \displaystyle (0,0) \) z punktem \( \displaystyle \displaystyle (1,1) \) o gęstości wprost proporcjonalnej do odległości punktu od środka układu i równej \( \displaystyle \displaystyle\sqrt{2} \) w punkcie \( \displaystyle \displaystyle (1,1). \)

Skoro gęstość \( \displaystyle \displaystyle\varrho \) jest proporcjonalna do odległości punktu od środka układu i wynosi \( \displaystyle \displaystyle\sqrt{2} \) w punkcie \( \displaystyle \displaystyle (1,1), \) to

\( \displaystyle \varrho(x,t) \ =\ c\sqrt{x^2+y^2} \quad \) oraz \( \displaystyle \quad \varrho(1,1)=c\sqrt{2}=\sqrt{2}, \)

stąd \( \displaystyle c=1. \) Parametryzacją odcinka jest na przykład

\( \displaystyle K=K(\varphi,\psi):\left \{ \begin{array} {l} x=\varphi(t)=t \\ y=\psi(t)=t \end{array} . \right. \ \qquad t\in[0,1], \)

zatem masa wynosi

\( \displaystyle m \ =\ \displaystyle\int\limits_K\sqrt{x^2+y^2}\,ds \ =\ \displaystyle\int\limits_0^1\sqrt{t^2+t^2}\sqrt{2}\,dt \ =\ 2\displaystyle\int\limits_0^1t\,dt \ =\ t^2\bigg|_0^1 \ =\ 1. \)

Pierwszą współrzędną środka ciężkości liczymy ze wzoru

\( \displaystyle x_0 \ =\ \frac{1}{m}\displaystyle\int\limits_K x\cdot \varrho(x,y)\,ds \ =\ \displaystyle\int\limits_0^1 t\cdot\sqrt{2t^2}\sqrt{2}\,dt \ =\ 2\displaystyle\int\limits_0^1 t^2\,dt \ =\ \frac{2}{3}t^3\bigg|_0^1 \ =\ \frac{2}{3}. \)

Z symetrii zadania wynika, że \( \displaystyle y_0=\frac{2}{3}. \)

Pole powierzchni i objętość bryły obrotowej

Pole powierzchni i objętość bryły obrotowej


W dalszej części wykładu będziemy zakładać, że krzywe są klasy \( \displaystyle C^1. \) Podamy liczne wzory na obliczanie pól powierzchni i objętości brył obrotowych, w większości pozostawiając je bez dowodów (podając natomiast pewne ich uzasadnienia).

wykres

Z poprzedniego wykładu znamy już związek całki Riemanna z polem obszaru ograniczonego wykresami funkcji. Dla porządku przypomnijmy ten związek.

Uwaga 15.19.

Jeśli trapez krzywoliniowy jest ograniczony z góry i z dołu krzywymi:

\( \displaystyle y=f_1(x) \quad \) i \( \displaystyle \quad y=f_2(x) \quad x\in[a,b], \)

to pole tego trapezu wynosi:

\( \displaystyle |P| \ =\ \displaystyle\int\limits_a^b\big[f_1(x)-f_2(x)\big]\,dx \)

Uzasadnienie: Wzór ten wynika bezpośrednio z geometrycznej interpretacji całki oznaczonej.

Twierdzenie 15.20.

Pole obszaru pod wykresem krzywej zadanej w postaci parametrycznej

\( \displaystyle K:\left \{ \begin{array} {l} x=\varphi(t) \\ y=\psi(t) \end{array} ., \right. \ \qquad \) dla \( \displaystyle \ t\in[\alpha,\beta], \)

wynosi

\( \displaystyle |P| \ =\ \displaystyle\int\limits_{\alpha}^{\beta}\psi(t)\varphi'(t)\,dt. \)

Uzasadnienie: Wzór ten jest konsekwencją wzoru z uwagi 15.19. i twierdzenia o całkowaniu przez podstawienie.

wykresy

Twierdzenie 15.21.

Jeśli obszar jest ograniczony odcinkami \( \displaystyle OA \) i \( \displaystyle OB \) (gdzie \( \displaystyle O=(0,0) \)) oraz krzywą \( \displaystyle AB \) daną w postaci biegunowej

\( \displaystyle r \ =\ g(\vartheta), \quad \vartheta\in[\vartheta_1,\vartheta_2], \)

to pole tego obszaru wynosi:

\( \displaystyle |P| \ =\ \frac{1}{2}\displaystyle\int\limits_{\vartheta_1}^{\vartheta_2}\big[g(\vartheta)\big]^2\,d\vartheta. \)

Uzasadnienie: Obszar dzielimy na trójkąty krzywoliniowe jak na rysunku

Oznaczając przez \( \displaystyle P_{ABC} \) pole trójkąta krzywoliniowego, mamy

\( \displaystyle P_{ABC} \approx \frac{1}{2}\cdot g(\vartheta)\cdot g(\vartheta)\cdot\sin\Delta\vartheta \approx \frac{1}{2} g(\vartheta)^2\Delta\vartheta \)

(dla małych kątów \( \displaystyle \displaystyle\Delta\vartheta \) zachodzi \( \displaystyle \displaystyle\Delta\sin\vartheta\approx\Delta\vartheta \)). Sumując pola trójkątów (analogicznie jak sumy całkowe w całce Riemanna; patrz definicja 14.4.) i przechodząc do granicy, dostajemy powyższy wzór.

Twierdzenie 15.22.

(1) Pole powierzchni powstałej z obrotu krzywej

\( \displaystyle K:\ y=f(x), \quad \) dla \( \displaystyle \ x\in[a,b] \)

wokół osi \( \displaystyle Ox \):

\( \displaystyle |P| \ =\ 2\pi \displaystyle\int\limits_a^b \big[f(x)\big] \sqrt{1+f'(x)^2}\,dx. \)

Wzór ten pozostawiamy bez uzasadnienia.

(2) Pole powierzchni powstałej z obrotu krzywej

\( \displaystyle K:\left \{ \begin{array} {l} x=\varphi(t) \\ y=\psi(t) \end{array} . \right. \ \quad \) dla \( \displaystyle \ t\in[\alpha,\beta] \)

wokół osi \( \displaystyle Ox \):

\( \displaystyle |P| \ =\ 2\pi \displaystyle\int\limits_{\alpha}^{\beta} \big[\psi(t)\big] \sqrt{\varphi'(t)^2+\psi'(t)^2}\,dt. \)

wykres

Twierdzenie 15.23.

(1) Objętość bryły powstałej z obrotu obszaru "pod krzywą"

\( \displaystyle K:\ y=f(x), \quad \) dla \( \displaystyle \ x\in[a,b] \)

wokół osi \( \displaystyle Ox \):

\( \displaystyle |V_x| \ =\ \pi \displaystyle\int\limits_a^b f(x)^2\,dx. \)

Uzasadnienie: Weźmy podział odcinka \( \displaystyle \displaystyle [a,b] \):

\( \displaystyle P:\ a \ =\ x_0 \ < \ x_1 \ < \ \ldots \ < \ x_n \ =\ b \)

oraz podzielmy bryłę na "plasterki", to znaczy na bryły powstałe przez obrót obszaru pod wykresem funkcji \( \displaystyle y=f(x) \) dla \( \displaystyle x\in[x_{i-1},x_i]. \) Objętość takiego "plasterka" jest w przybliżeniu równa objętości walca o promieniu podstawy \( \displaystyle f(x_i) \) i wysokości \( \displaystyle \displaystyle\Delta x_i=x_i-x_{i-1}, \) czyli \( \displaystyle \displaystyle\pi f(x_i)^2\Delta x_i. \) Sumując objętości "plasterków", otrzymujemy sumę całkową jak w całce Riemanna i przechodząc do granicy, dostajemy powyższy wzór.

(2) Objętość bryły powstałej z obrotu obszaru "pod krzywą"

\( \displaystyle K:\left \{ \begin{array} {l} x=\varphi(t) \\ y=\psi(t) \end{array} . \right. \ \quad \) dla \( \displaystyle \ t\in[\alpha,\beta] \)

wokół osi \( \displaystyle Ox \):

\( \displaystyle |V_x| \ =\ \pi \displaystyle\int\limits_{\alpha}^{\beta} \psi(t)^2\varphi'(t)\,dt. \)

Uzasadnienie: Wzór powyższy jest konsekwencją poprzedniego wzoru oraz twierdzenia o całkowaniu przez podstawienie.

wykres

Twierdzenie 15.24.

(1) Objętość bryły powstałej z obrotu obszaru "pod krzywą"

\( \displaystyle K:\ y=f(x) \quad \) dla \( \displaystyle x\in[a,b] \)

wokół osi \( \displaystyle Oy \):

\( \displaystyle |V_y| \ =\ 2\pi \displaystyle\int\limits_a^b x\,f(x)\,dx. \)

Uzasadnienie: Weźmy podział odcinka \( \displaystyle \displaystyle [a,b] \):

\( \displaystyle P:\ a \ =\ x_0 \ < \ x_1 \ < \ \ldots \ < \ x_n \ =\ b \)

oraz podzielmy bryłę na "cylindry" powstałe przez obrót obszaru pod wykresem funkcji \( \displaystyle y=f(x) \) dla \( \displaystyle x\in[x_{i-1},x_i] \) wokół osi \( \displaystyle Oy. \) Objętość takiego "cylindra" jest w przybliżeniu równa \( \displaystyle 2\pi x_i f(x_i)-2\pi x_{i-1}f(x_i)=2\pi\Delta x_i f(x_i). \) Sumując objętości "cylindrów", otrzymujemy sumę całkową jak w całce Riemanna i przechodząc do granicy, dostajemy wzór na \( \displaystyle |V_y|. \)

(2) Objętość bryły powstałej z obrotu obszaru "pod krzywą"

\( \displaystyle K:\left \{ \begin{array} {l} x=\varphi(t) \\ y=\psi(t) \end{array} . \right. \ \quad \) dla \( \displaystyle \ t\in[\alpha,\beta] \)

wokół osi \( \displaystyle Oy \):

\( \displaystyle |V_y| \ =\ 2\pi \displaystyle\int\limits_{\alpha}^{\beta} \varphi(t)\psi(t)\varphi'(t)\,dt. \)

wykres

Przykład 15.25.

Obliczyć objętość torusa powstałego przez obrót koła

\( \displaystyle x^2+(y-a)^2 \ \le\ r^2 \qquad (0 < r < a) \)

wokół osi \( \displaystyle Ox. \)

\( \begin{array}{lll} \displaystyle |V_x| & = & \pi\displaystyle\int\limits_{-r}^r \bigg[\big(a+\sqrt{r^2-x^2}\big)^2 -\big(a-\sqrt{r^2-x^2}\big)^2\bigg]\,dx \ =\ 4\pi a\displaystyle\int\limits_{-r}^r \sqrt{r^2-x^2}\,dx \\ & \stackrel{(★)}{=} & 4\pi a \bigg[\frac{r^2}{2}\arcsin\frac{x}{r}+\frac{x}{2}\sqrt{r^2-x^2}\bigg]_{-r}^r =\ 4\pi a \bigg[\frac{r^2}{2}\cdot\frac{\pi}{2}+\frac{r^2}{2}\cdot\frac{\pi}{2}\bigg] \ =\ 4\pi a\frac{r^2\pi}{2} \ =\ 2\pi^2 ar^2, \end{array} \)

gdzie wykorzystano następującą całkę:

\( \displaystyle \begin{align*} (★)\quad I & = & \int\sqrt{r^2-x^2}\,dx \ =\ \int\frac{r^2-x^2}{\sqrt{r^2-x^2}}\,dx \ =\ r^2\underbrace{\int\frac{dx}{\sqrt{r^2-x^2}}}_{I_1} -\underbrace{\int\frac{x^2 dx}{\sqrt{r^2-x^2}}}_{I_2}. \end{align*} \)

\( \displaystyle I_1 \ =\ \arcsin\frac{x}{|r|}+c. \)

Teraz liczymy całkę \( \displaystyle I \) inaczej:

\( \begin{array}{lll} \displaystyle I & = & \int\sqrt{r^2-x^2}\,dx \ \begin{array}{c}\textrm{części} \\ =\end{array} x\sqrt{r^2-x^2} -\int x\frac{-2x}{2\sqrt{r^2-x^2}}dx \\ & = & x\sqrt{r^2-x^2} +\underbrace{\int\frac{x^2}{\sqrt{r^2-x^2}}\,dx}_{=I_2}= x\sqrt{r^2-x^2}+I_2. \end{array} \)

Porównując to z \( \displaystyle \displaystyle (★), \) otrzymujemy:

\( \displaystyle r^2I_1-I_2 \ =\ x\sqrt{r^2-x^2}+I_2, \)

stąd

\( \displaystyle 2I_2 \ =\ r^2I_1-x\sqrt{r^2-x^2} \ =\ r^2\arcsin\frac{x}{r} -x\sqrt{r^2-x^2}, \)

zatem

\( \displaystyle I_2 \ =\ \frac{r^2}{2}\arcsin\frac{x}{r} -\frac{x}{2}\sqrt{r^2-x^2}. \)

Wstawiając do \( \displaystyle \displaystyle (★), \) otrzymujemy:

\( \displaystyle \begin{align*} I & = & r^2\arcsin\frac{x}{r} -\frac{1}{2}r^2\arcsin\frac{x}{r} +\frac{1}{2}x\sqrt{r^2-x^2}+c \ =\ \frac{r^2}{2}\arcsin\frac{x}{r} +\frac{x}{2}\sqrt{r^2-x^2}+c. \end{align*} \)