Krzywe

wykres

Krzywa w \( \mathbb{R}^2 \)

Przypomnijmy definicję krzywej zwyczajnej (patrz Analiza matematyczna 1 definicja 15.1.).

Niech \( \displaystyle \displaystyle [a,b] \) będzie przedziałem w \( \displaystyle \displaystyle\mathbb{R}. \) Weźmy ciągłą funkcję

\( \displaystyle \gamma : [a,b]\ni t \to (\varphi(t),\psi(t))\in \mathbb{R}^2. \)

Załóżmy, że funkcja \( \displaystyle \displaystyle\gamma \) jest różnowartościowa na \( \displaystyle \displaystyle (a, b] \) i na \( \displaystyle \displaystyle [a,b). \) (Możliwe jest więc, że \( \displaystyle \displaystyle\gamma(a)=\gamma(b) \)).

Definicja 12.1.

Przy założeniach jak wyżej, krzywą zwyczajną \( \displaystyle K \) będziemy nazywać obraz odcinka \( \displaystyle \displaystyle [a,b] \) przez \( \displaystyle \displaystyle\gamma, \)

\( \displaystyle K := \{\gamma(t)\in \mathbb{R}^2 | t\in[a,b]\}. \)

Funkcję \( \displaystyle \displaystyle\gamma \) nazywamy parametryzacją krzywej \( \displaystyle K. \)

W dalszych rozważaniach będziemy zajmować się tylko krzywymi zwyczajnymi (czyli takimi, które nie mają punktów wielokrotnych, więc będziemy pisać "krzywa", zakładając, że jest to krzywa zwyczajna.

Uwaga 12.2.

Krzywa \( \displaystyle K \) może mieć różne parametryzacje.

Przykład 12.3.

Jako krzywą \( \displaystyle K \) weźmy odcinek w \( \displaystyle \displaystyle\mathbb{R}^2 \) łączący punkt \( \displaystyle \displaystyle (0,0) \) z punktem \( \displaystyle \displaystyle (1,1). \) Oto przykłady parametryzacji \( \displaystyle K \):

(1) \( \displaystyle \displaystyle\gamma_I: [0,1]\to \mathbb{R}^2, \ \gamma_I(t)=(t,t), \)

(2) \( \displaystyle \displaystyle\gamma_{II}: [0,\frac{1}{2}]\to \mathbb{R}^2, \ \gamma_{II}(t)=(2t,2t), \)

(3) \( \displaystyle \displaystyle\gamma_{III}: [0,1]\to \mathbb{R}^2, \ \gamma_{III}(t)=(1-t,1-t). \)

wykres x2

Definicja 12.4.

(1) Krzywą \( \displaystyle K \) nazywamy łukiem gładkim, jeśli istnieje parametryzacja \( \displaystyle \displaystyle\gamma=(\varphi,\psi): [a,b]\to\mathbb{R}^2 \) taka, że pochodne \( \displaystyle \displaystyle\varphi' \) i \( \displaystyle \displaystyle\psi' \) są ciągłe oraz zachodzi

\( \displaystyle (\varphi'(t))^2+(\psi'(t))^2>0, \) dla każdego \( \displaystyle t\in [a,b]. \)

(2) Krzywą \( \displaystyle K \) nazywamy regularną, jeśli można ją podzielić na skończoną ilość łuków gładkich, to znaczy, jeśli istnieje parametryzacja \( \displaystyle \displaystyle\gamma : [a,b]\to\mathbb{R}^2 \) i istnieje podział odcinka \( \displaystyle \displaystyle [a,b] \) punktami \( \displaystyle a=t_0 < t_1 < \ldots < t_s=b \) taki, że \( \displaystyle \displaystyle\gamma_{[t_i,t_{i+1}]}, i=0,\ldots,s-1 \) parametryzuje łuk gładki.

(3) Jeśli \( \displaystyle \displaystyle\gamma(a)=\gamma(b) \), to krzywą nazywamy zamkniętą.

wykres

Weźmy teraz krzywą \( \displaystyle K \) i jej parametryzację \( \displaystyle \displaystyle\gamma : [a,b]\to\mathbb{R}^2. \) Ustalmy \( \displaystyle t_1,t_2\in [a,b] \) takie, że \( \displaystyle t_1 < t_2 \) i oznaczmy \( \displaystyle \displaystyle\gamma(t_1)=P_1, \gamma(t_2)=P_2. \) Niech \( \displaystyle \displaystyle\tilde{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 \) będzie inną parametryzacją krzywej \( \displaystyle K. \)

Definicja 12.5.

(1) Mówimy, że \( \displaystyle \displaystyle\tilde{\gamma} \) zadaje na \( \displaystyle K \) tę samą orientację co \( \displaystyle \displaystyle\gamma \), jeśli dla \( \displaystyle q_1, q_2\in[\alpha,\beta] \) takich, że \( \displaystyle \displaystyle\tilde{\gamma}(q_1)=P_1 \) i \( \displaystyle \tilde{\gamma}(q_2)=P_2 \) mamy \( \displaystyle q_1 < q_2. \)
(Oznacza to, że dla \( \displaystyle \displaystyle\tau \) przebiegających wartości od \( \displaystyle \displaystyle\alpha \) do \( \displaystyle \displaystyle\beta, \) wartości \( \displaystyle \displaystyle\tilde{\gamma}(\tau) \) "wędrują" po krzywej \( \displaystyle K \) od punktu \( \displaystyle A \) do punktu \( \displaystyle B, \) tak samo jak wartości \( \displaystyle \displaystyle\gamma(t) \) dla \( \displaystyle t \) przebiegającego od \( \displaystyle a \) do \( \displaystyle b \)).

(2) Mówimy, że \( \displaystyle \displaystyle\tilde{\gamma} \) zadaje na \( \displaystyle K \) orientację przeciwną niż \( \displaystyle \displaystyle\gamma \) jeśli dla \( \displaystyle q_1, q_2 \in [\alpha,\beta] \) takich, że \( \displaystyle \displaystyle\tilde{\gamma}(q_1)=P_1 \) i \( \displaystyle \displaystyle\tilde{\gamma}(q_2)=P_2 \) mamy \( \displaystyle q_1>q_2. \)

(Tym razem dla \( \displaystyle \displaystyle\tau \) przebiegających wartości od \( \displaystyle \displaystyle\alpha \) do \( \displaystyle \displaystyle\beta, \) wartości \( \displaystyle \displaystyle\tilde{\gamma}(\tau) \) "wędrują" po krzywej \( \displaystyle K \) od punktu \( \displaystyle B \) do punktu \( \displaystyle A \)).

Jeśli \( \displaystyle A\neq B \), to jako \( \displaystyle t_1, t_2 \) możemy wziąć po prostu \( \displaystyle a \) i \( \displaystyle b. \)

Przykład 12.6.

Wróćmy do trzech parametryzacji odcinka, pokazanych w przykładzie powyżej. Łatwo zauważyć, że \( \displaystyle \displaystyle\gamma_{II} \) zadaje na \( \displaystyle K \) tę samą orientację co \( \displaystyle \displaystyle\gamma_I \), a \( \displaystyle \displaystyle\gamma_{III} \) zadaje orientację przeciwną niż \( \displaystyle \displaystyle\gamma_{I} \) (i \( \displaystyle \displaystyle\gamma_{II} \)); weźmy na przykład \( \displaystyle t_1=0, t_2=1, \) wtedy \( \displaystyle \displaystyle\gamma_I(t_1)=(0,0), \gamma_I(t_2)=(1,1) \) oraz mamy \( \displaystyle \displaystyle\gamma_{II}(0)=(0,0), \gamma_{II}\bigg(\frac{1}{2}\bigg)=(1,1) \) i \( \displaystyle 0 < \frac{1}{2}. \) Dla \( \displaystyle \displaystyle\gamma_{III} \) natomiast, \( \displaystyle \displaystyle\gamma_{III}(1)=(0,0) \) i \( \displaystyle \displaystyle\gamma_{III}(0)=(1,1),\displaystyle 1>0, \) a więc \( \displaystyle \displaystyle\gamma_{III} \) zadaje orientację przeciwną niż \( \displaystyle \displaystyle\gamma_I, \) (patrz rysunek do przykładu 12.3.)

Możemy teraz zdefiniować całkę krzywoliniową zorientowaną.

Definicja 12.7.

Niech \( \displaystyle K \) będzie krzywą w \( \displaystyle \mathbb{R}^2 \) daną przez parametryzację \( \displaystyle \displaystyle\gamma =(\varphi,\psi) : [a,b]\to\mathbb{R}^2. \) Niech \( \displaystyle F \) będzie odwzorowaniem ciągłym

\( \displaystyle F \ =\ (P,Q): K\to \mathbb{R}^2. \)

Niech \( \displaystyle \displaystyle\circ \) oznacza iloczyn skalarny w \( \displaystyle \displaystyle\mathbb{R}^2, \) przez \( \displaystyle \displaystyle (x,y) \) oznaczymy zmienne w \( \displaystyle \displaystyle\mathbb{R}^2. \) Wówczas całkę

\( \displaystyle \displaystyle\int\limits_a^b(F(\gamma(t))\circ\gamma'(t))dt \)

nazywamy całką krzywoliniową zorientowaną po krzywej \( \displaystyle K \) i oznaczamy

\( \displaystyle \displaystyle\int\limits_KF\circ d\textbf{x}, \)

gdzie \( \displaystyle d\textbf{x}=(dx,dy). \)

wykres

Zauważmy, że

\( \begin{array}{lll}\displaystyle F(\gamma(t))\circ\gamma'(t) \ & = & \displaystyle (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ(\varphi'(t),\psi'(t)) \\ \ & = & \displaystyle P(\varphi(t),\psi(t))\varphi'(t)+Q(\varphi(t),\psi(t))\psi'(t), \end{array} \)

wszystkie funkcje występujące w tym wyrażeniu są z założenia ciągłe, zatem istnieje całka (Riemanna) po przedziale \( \displaystyle \displaystyle [a,b] \) z \( \displaystyle F(\gamma(t))\circ\gamma'(t). \)

Uwaga 12.8.

Zapis i oznaczenia
Całkę krzywoliniową \( \displaystyle \displaystyle\displaystyle\int\limits_KF\circ d\textbf{x} \) dla krzywej w \( \displaystyle K\subset \mathbb{R}^2 \) zapisuje się najczęściej jako

\( \displaystyle \displaystyle\int\limits_KP(x,y)dx+Q(x,y)dy, \)

a dla krzywej zamkniętej \( \displaystyle K \)

\( \displaystyle \oint_KP(x,y)dx+Q(x,y)dy. \)

Wykażemy teraz następujące stwierdzenie.

Stwierdzenie 12.9.

Niech \( \displaystyle K,\displaystyle F \) i \( \displaystyle \displaystyle\gamma \) będą jak w definicji 12.7. Niech \( \displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 \) będzie inną parametryzacją krzywej \( \displaystyle K. \) Jeśli \( \displaystyle \displaystyle\hat{\gamma} \) zadaje tę samą orientację krzywej \( \displaystyle K \) co \( \displaystyle \displaystyle\gamma \), to

\( \displaystyle \displaystyle\int\limits_K\mathbf{F}od\mathbf{x}=\displaystyle\int\limits_a^bF(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt; \)

jeśli natomiast \( \displaystyle \displaystyle\hat{\gamma} \) zadaje orientację krzywej \( \displaystyle K \) przeciwną niż \( \displaystyle \displaystyle\gamma \), to

\( \displaystyle \displaystyle\int\limits_K\mathbf{F}od\mathbf{x}=-\displaystyle\int\limits_a^bF(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt. \)

Stwierdzenie to mówi zatem, że dla parametryzacji dających tę samą orientację krzywej, całki krzywoliniowe zorientowane są równe. Dla parametryzacji dających orientację przeciwną, całka krzywoliniowa zorientowana zmienia znak - i stąd nazwa "zorientowana".

Warto tu zauważyć, że w takim razie - z dokładnością do znaku - całka krzywoliniowa nie zależy od parametryzacji, zależy tylko od krzywej jako zbioru i od odwzorowania \( \displaystyle F \).

Dowód 12.9.

Weźmy parametryzację krzywej \( \displaystyle K,\displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 \) dającą tę samą orientację co \( \displaystyle \displaystyle\gamma. \) Musimy wykazać, że

\( \displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ \displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt. \)

Oznaczmy przez \( \displaystyle \displaystyle\varphi(t):=\gamma^{-1}(\hat{\gamma}(t)). \) Wtedy \( \displaystyle \displaystyle\hat{\gamma}(t)=\gamma(\varphi(t)) \) i \( \displaystyle \displaystyle\hat{\gamma}'(t)=\gamma'(\varphi(t))\varphi'(t). \) A zatem :

\( \displaystyle \displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t) \ =\ \displaystyle\int\limits_{\alpha}^{\beta}F(\gamma(\varphi(t)))\circ\gamma'(\varphi(t))\varphi'(t)dt. \) Skorzystamy z twierdzenia o zmianie zmiennych w całce Riemanna (Analiza matematyczna 1 twierdzenie 14.19). Przyjmijmy \( \displaystyle s=\varphi(t), \) wtedy \( \displaystyle \displaystyle\varphi[\alpha,\beta]=[a,b] \) i mamy

\( \displaystyle \displaystyle\int\limits_{\alpha}^{\beta}F(\gamma(\varphi(t)))\circ\gamma'(\varphi(t))\varphi'(t)dt=\displaystyle\int\limits_a^bF(\gamma(s))\gamma'(s)ds, \)
co należało dowieść.

Niech teraz \( \displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 \) będzie parametryzacją \( \displaystyle K \) dającą orientację przeciwną \( \displaystyle \displaystyle\gamma. \) Mamy wykazać, że

\( \displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ -\displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt. \)

Zdefiniujmy parametryzację \( \displaystyle \displaystyle\tilde{\gamma} \) następująco:

\( \displaystyle \tilde{\gamma}:[-b,-a]\ni t \to \hat\gamma(-t)\in K. \)

Nietrudno zobaczyć, że jeśli \( \displaystyle \displaystyle\hat{\gamma} \) daje orientację przeciwną niż \( \displaystyle \displaystyle\gamma \), to \( \displaystyle \displaystyle\tilde{\gamma} \) daje tę samą orientację co \( \displaystyle \displaystyle\gamma. \) A zatem z pierwszej części dowodu mamy

\( \displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ \displaystyle\int\limits_{-b}^{-a}F(\tilde{\gamma}(s))\circ\tilde{\gamma}'(s)ds \ =\ \displaystyle\int\limits_{-b}^{-a}F(\hat{\gamma}(-s))\circ(\hat{\gamma}(-s))'ds. \)

Zauważmy, że \( \displaystyle \displaystyle (\hat{\gamma}(-s))'=-\hat{\gamma}'(-s). \) Przyjmując \( \displaystyle t=-s, \) mamy zatem:

\( \displaystyle \displaystyle\int\limits_{-b}^{-a}F(\hat{\gamma}(-s))\circ(\hat{\gamma}(-s))'ds \ =\ \displaystyle\int\limits_{b}^{a}F(\hat{\gamma}(t))\circ(-\hat{\gamma}'(t))d(-t) \ =\ -\displaystyle\int\limits_{a}^{b}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt. \)

Uwaga 12.10.

(1) Niech \( \displaystyle \displaystyle\gamma :[a,b]\to \mathbb{R}^2 \) będzie parametryzacją krzywej \( \displaystyle K. \) Przez \( \displaystyle -K \) będziemy oznaczać krzywą \( \displaystyle K \) z parametryzacją \( \displaystyle \displaystyle\hat\gamma :[-b,-a]\to \mathbb{R}^2, \hat{\gamma}(t):=\gamma(-t) \) (\( \displaystyle \displaystyle\hat{\gamma} \) zadaje orientację przeciwną niż \( \displaystyle \displaystyle\gamma \)).

(2) Jeśli krzywa \( \displaystyle K_1 \) ma parametryzację \( \displaystyle \displaystyle\gamma_1 :[a,b]\to \mathbb{R}^2 \), a krzywa \( \displaystyle K_2 \) parametryzację \( \displaystyle \displaystyle\gamma_2 :[b,c]\to \mathbb{R}^2 \) oraz \( \displaystyle \gamma_1(b)=\gamma_2(b) \), to przez \( \displaystyle K_1+K_2 \) będziemy oznaczać krzywą o parametryzacji

\( \displaystyle \gamma: [a,c]\ni t \to \gamma_1(t), \ t\in[a,b] \)
\( \displaystyle \gamma_2(t)\ t\in [b,c]. \)

(Czyli \( \displaystyle K_1+K_2 \) jest "sklejeniem" krzywych \( \displaystyle K_1 \) i \( \displaystyle K_2 \) w ten sposób, że koniec \( \displaystyle K_1 \) łączy się z początkiem \( \displaystyle K_2 \)).

Przykład 12.11.

(1) Policzyć całkę

\( \displaystyle \displaystyle\int\limits_K(x-y)dx+(x+y)dy, \)

gdzie \( \displaystyle K \) jest górną połową okręgu o promieniu \( \displaystyle 1. \)

Górna połowa okręgu o promieniu \( \displaystyle 1 \) jest sparametryzowana przez

\( \displaystyle \gamma :[0,\pi)\ni t \to (\cos t, \sin t)\in \mathbb{R}^2. \)

A zatem zgodnie z definicją całki krzywoliniowej

\( \displaystyle \begin{align*} \displaystyle\int\limits_K(x-y)dx+(x+y)dy & = \displaystyle\int\limits_0^{\pi}((\cos t-\sin t)(\cos t)'+(\cos t+\sin t)(\sin t)')dt \\ & = \displaystyle\int\limits_0^{\pi}((\cos t-\sin t)(-\sin t)+(\cos t+\sin t)\cos t)dt \displaystyle\int\limits_0^{\pi}dt =\pi. \end{align*} \)

(2) Policzyć całkę

\( \displaystyle \displaystyle\int\limits_K ydx+xdy, \)

gdzie \( \displaystyle K \) jest okręgiem o promieniu \( \displaystyle R. \)

Parametryzacją okręgu o promieniu \( \displaystyle R \) jest

\( \displaystyle \gamma :[0,2\pi)\ni t \to (R\cos t, R\sin t)\in \mathbb{R}^2, \)

zatem

\( \displaystyle \begin{align*} \displaystyle\int\limits_Kydx+xdy & = \displaystyle\int\limits_0^{2\pi}((R\sin t)(-R\sin t)+(R\cos t)(R\cos t))dt \\ & =R^2\displaystyle\int\limits_0^{2\pi}(\cos^2t-\sin^2t)dt = R^2\displaystyle\int\limits_0^{2\pi}\cos 2tdt=\frac{R^2}{2}\sin{2t}\bigg|_0^{2\pi}=0. \end{align*} \)

(3) Policzyć całkę

\( \displaystyle \displaystyle\int\limits_K\cos^2x dy+\sin^2y dx, \)

gdzie \( \displaystyle K \) jest odcinkiem w \( \displaystyle \displaystyle\mathbb{R}^2 \) łączącym punkt \( \displaystyle \displaystyle (0,0) \) z Punktem \( \displaystyle \displaystyle (1,1). \)

Jak już wiemy, odcinek \( \displaystyle K \) możemy sparametryzować za pomocą:

\( \displaystyle \gamma:[0,1]\ni t \to (t,t)\in K\subset \mathbb{R}^2. \)

Stąd

\( \displaystyle \displaystyle\int\limits_K\cos^2x dy+\sin^2y dx=\displaystyle\int\limits_0^1(\cos^2 t\cdot 1 +\sin^2 t\cdot 1)d t=\displaystyle\int\limits_0^1dt=1. \)

wykres

Dodatnia orientacja krzywej \( K \)

Sformułujemy teraz i udowodnimy twierdzenie, które mówi o związku całki krzywoliniowej z całką podwójną. Potrzebne nam będzie pojęcie krzywej zamkniętej "zorientowanej dodatnio". Weźmy \( \displaystyle K, \) krzywą zamkniętą w \( \displaystyle \displaystyle\mathbb{R}^2, \) ograniczającą zbiór \( \displaystyle D. \) Wybierzmy parametryzację \( \displaystyle \displaystyle\gamma \) krzywej \( \displaystyle K. \) Wybór parametryzacji wyznacza kierunek obiegu krzywej - z danego punktu poruszamy się w kierunku pokazywanym przez wektor styczny \( \displaystyle \displaystyle [\varphi'(t),\psi'(t)]. \) Umawiamy się, że \( \displaystyle K \) jest zorientowana dodatnio, jeśli przy obiegu \( \displaystyle K \) zgodnie z kierunkiem wyznaczonym przez parametryzację zbiór \( \displaystyle D \) zostaje "po naszej lewej stronie".

Weźmy teraz krzywą \( \displaystyle K \) zorientowaną dodatnio ograniczającą zbiór \( \displaystyle D\subset \mathbb{R}^2. \) Niech \( \displaystyle \displaystyle\overline{D} \) oznacza \( \displaystyle D\cup K. \) (Zapisujemy także \( \displaystyle K=\partial D,\displaystyle K \) jest brzegiem \( \displaystyle D \)). Załóżmy, że zbiór \( \displaystyle D \) jest normalny ze względu na obie osie. Weźmy dwie funkcje \( \displaystyle P, Q : \overline{D}\to \mathbb{R}, \) ciągłe w \( \displaystyle \displaystyle\overline{D} \) i mające ciągłe pochodne cząstkowe w \( \displaystyle D \). Możemy teraz wypowiedzieć twierdzenie.

Twierdzenie 12.12. [Twierdzenie Greena]

Niech krzywa \( \displaystyle K, \) zbiór \( \displaystyle D \) oraz funkcje \( \displaystyle P(x,y) \) i \( \displaystyle Q(x,y) \) będą jak wyżej. Wtedy:

\( \displaystyle \oint_K Pdx+Qdy \ =\ \iint\limits_D(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} )dxdy. \)

Dowód 12.12.

Wykażemy, że

\( \displaystyle \oint_K P(x,y)dx \ =\ \iint\limits_D -\frac{\partial P}{\partial y}(x,y)dxdy \)

i

\( \displaystyle \oint_K Q(x,y) dy \ =\ \iint\limits_D\frac{\partial Q}{\partial x}(x,y) dxdy. \)

Skoro zbiór \( \displaystyle D \) jest normalny względem osi \( \displaystyle Ox \), to istnieje przedział \( \displaystyle \displaystyle [a,b]\subset \mathbb{R} \) i dwie funkcje \( \displaystyle y_1(x), y_2(x) \) takie, że

\( \displaystyle D \ =\ \{(x,y)\in \mathbb{R}^2 : a\leq x\leq b, y_1(x)\leq y \leq y_2(x)\}. \)

Oznaczmy przez \( \displaystyle K_1 \) wykres funkcji \( \displaystyle y_1(x) \), a przez \( \displaystyle K_2 \) wykres funkcji \( \displaystyle y_2(x). \) Wówczas

\( \displaystyle K \ =\ K_1+(-K_2), \)

zatem

\( \displaystyle \iint\limits_D \frac{\partial P}{\partial y}(x,y)dxdy \ =\ \displaystyle\int\limits_a^b \displaystyle\int\limits_{y_1(x)}^{y_2(x)}\frac{\partial P}{\partial y}(x,y)dxdy \ =\ \displaystyle\int\limits_a^b(P(x,y_2(x))-P(x,y_1(x)))dx. \)

Korzystając teraz z definicji całki krzywoliniowej, mamy:

\( \displaystyle \displaystyle\int\limits_{K_2}P(x,y)dx=\displaystyle\int\limits_a^bP(x,y_2(x))dx \)

oraz

\( \displaystyle \displaystyle\int\limits_{K_1}P(x,y)dx=\displaystyle\int\limits_a^bP(x,y_1(x))dx, \)

a zatem

\( \displaystyle \begin{align*} \displaystyle\int\limits_a^b(P(x,y_2(x))-P(x,y_1(x)))dx & =\displaystyle\int\limits_{K_2}P(x,y)dx-\displaystyle\int\limits_{K_1}P(x,y)dx \\ & = -\displaystyle\int\limits_{-K_2}P(x,y)dx-\displaystyle\int\limits_{K_1}P(x,y)dx=-\oint_KP(x,y)dx. \end{align*} \)

Analogicznie, skoro \( \displaystyle D \) jest normalny względem osi \( \displaystyle Oy \), to istnieje przedział \( \displaystyle \displaystyle [c,d]\subset \mathbb{R} \) i dwie funkcje \( \displaystyle x_1(y), x_2(y) \) takie, że

\( \displaystyle D \ =\ \{(x,y)\in \mathbb{R}^2 : c\leq y\leq d, x_1(y)\leq x \leq x_2(y)\}. \)

Oznaczmy przez \( \displaystyle L_1 \) wykres funkcji \( \displaystyle x_1(y) \), a przez \( \displaystyle L_2 \) wykres funkcji \( \displaystyle x_2(y). \) Wówczas

\( \displaystyle K \ =\ L_1+(-L_2), \)

zatem

\( \displaystyle \iint\limits_D \frac{\partial Q}{\partial x}(x,y)dxdy \ =\ \displaystyle\int\limits_c^d dy \displaystyle\int\limits_{x_1(y)}^{x_2(y)}\frac{\partial Q}{\partial x}(x,y)dx \ =\ \displaystyle\int\limits_c^d(Q(x_2(y),y)-Q(x_1(y),y))dy= \)

analogicznie jak wyżej

\( \displaystyle =\displaystyle\int\limits_{L_2}Q(x,y)dx-\displaystyle\int\limits_{L_1}Q(x,y)dx= \displaystyle \oint\limits_{K} Q(x,y)dx. \)

Uwaga 12.13.

Zauważmy, że twierdzenie Greena jest prawdziwe także dla zbiorów, które możemy podzielić na skończoną sumę zbiorów normalnych względem obu osi.

Dowód 12.13.

Wystarczy wykazać uwagę dla zbioru \( \displaystyle D \) będącego sumą dwóch zbiorów normalnych względem obu osi \( \displaystyle D=D_1\cup D_2. \) Niech \( \displaystyle L \) będzie krzywą dzielącą \( \displaystyle D \) na \( \displaystyle D_1\cup D_2, \) niech \( \displaystyle K_1=\partial D_1\setminus L, K_2=\partial D\setminus L. \) Zauważmy, że jeśli \( \displaystyle \displaystyle\partial D_1 \) i \( \displaystyle \displaystyle\partial D_2 \) zorientujemy dodatnio, to krzywą \( \displaystyle L \) przebiegamy raz w jedną, raz w drugą stronę, możemy zatem napisać \( \displaystyle \displaystyle\partial D=K=K_1+L+K_2-L. \)

Wtedy

\( \begin{array}{lll} \displaystyle\iint\limits_D(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} )dxdy & = & \displaystyle \iint\limits_{D_1}(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} )dxdy+\iint\limits_{D_2}(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} )dxdy \\ & = & \displaystyle\int\limits_{K_1+L}Pdx+Qdy+ \displaystyle\int\limits_{K_2-L}Pdx+Qdy=\displaystyle\int\limits_KPdx+Qdy. \end{array} \)

Przykład 12.14.

(1) Policzyć jeszcze raz całkę

\( \displaystyle \displaystyle\int\limits_K ydx+xdy, \)

gdzie \( \displaystyle K \) jest okręgiem o promieniu \( \displaystyle R, \) tym razem korzystając z twierdzenia Greena.

Oznaczmy przez \( \displaystyle D \) koło o promieniu \( \displaystyle R. \) Teraz \( \displaystyle P(x,y)=y, Q(x,y)+x. \) Z twierdzenia Greena mamy:

\( \displaystyle \displaystyle\int\limits_K ydx+xdy \ =\ \iint\limits_D(1-1)dxdy=\iint\limits_D 0 dxdy \ =\ 0. \)

Wykażemy jeszcze następującą uwagę.

Uwaga 12.15.

Pole powierzchni obszaru \( \displaystyle D \) ograniczonego krzywą \( \displaystyle K \) wyraża się za pomocą całek krzywoliniowych następująco:

\( \displaystyle |D| \ =\ \oint_Kxdy=-\oint_Kydx \)

albo

\( \displaystyle |D| \ =\ \frac{1}{2}\oint_Kxdy-ydx. \)

Dowód 12.15.

Faktycznie, \( \displaystyle |D|=\displaystyle\iint\limits_D1dxdy, \) z twierdzenia Greena mamy \( \displaystyle \displaystyle\iint\limits_D1 dxdy=\displaystyle\oint\limits_{K}x dy = \displaystyle-\oint\limits_{K}y dx. \)

Powiemy jeszcze kilka słów o polach potencjalnych. Z polami potencjalnymi spotkaliśmy się już na wykładzie poświęconym funkcjom wielu zmiennych. Przypomnijmy, że polem wektorowym nazywamy odwzorowanie z \( \displaystyle \mathbb{R}^N \) w \( \displaystyle \mathbb{R}^N \). (Nazwa bierze się stąd, że każdemu punktowi z \( \displaystyle \mathbb{R}^N \) przyporządkowujemy wartość odwzorowania w tym punkcie, a więc wektor z \( \displaystyle \mathbb{R}^N \)).

Niech teraz \( \displaystyle U\subset \mathbb{R}^2 \) będzie zbiorem, którego brzegiem jest jedna krzywa (zwyczajna) zamknięta \( \displaystyle K \), to znaczy \( \displaystyle K=\partial U \). (Taki zbiór będziemy nazywać zbiorem jednospójnym. Przykładem zbioru, który jest jednospójny jest koło. Koło bez środka nie jest zbiorem jednospójnym).

Na \( \displaystyle U \) określmy odwzorowanie (pole wektorowe)

\( \displaystyle F:\ U\to \mathbb{R}^2, \)

\( \displaystyle F(x,y) \ =\ (P(x,y),Q(x,y))\in \mathbb{R}^2. \)

Faktycznie to odwzorowanie każdemu punktowi \( \displaystyle \displaystyle (x,y)\in U \) przyporządkowuje wektor \( \displaystyle \displaystyle (P(x,y),Q(x,y)) \) z \( \displaystyle \displaystyle\mathbb{R}^2. \)

Będziemy zakładać, że nasze pole wektorowe \( \displaystyle F \) jest ciągłe i ma ciągłe pochodne cząstkowe w \( \displaystyle U. \)

Definicja 12.16.

Mówimy, że pole wektorowe jest polem potencjalnym, jeśli istnieje funkcja (zwana potencjałem pola) \( \displaystyle \displaystyle\varrho : U\to \mathbb{R} \) taka, że

\( \displaystyle (P(x,y),Q(x,y)) \ =\ (\frac{\partial \varrho}{\partial x}(x,y), \frac{\partial \varrho}{\partial y}(x,y)), \)

co zapisujemy krótko

\( \displaystyle F\ =\ \nabla\varrho. \)

Uwaga 12.17.

Zauważmy, że jeśli pole jest potencjalne, to z faktu, że \( \displaystyle P=\displaystyle\frac{\partial \varrho}{\partial x} \) i \( \displaystyle Q=\displaystyle\frac{\partial \varrho}{\partial y}, \) wynika, że \( \displaystyle \displaystyle\frac{\partial P}{\partial y} \textbf{=}\frac{\partial Q}{\partial x} \), bo oba wyrażenia są równe \( \displaystyle \displaystyle\frac{\partial^2 \varrho}{\partial x\partial y} \).

Korzystając z twierdzenia Greena, możemy wykazać, że w polu potencjalnym całka krzywoliniowa nie zależy od drogi całkowania. Dokładniej, zachodzi następujące stwierdzenie:

Stwierdzenie 12.18.

Niech \( \displaystyle U \) będzie obszarem jednospójnym w \( \displaystyle \displaystyle\mathbb{R}^2 \), a \( \displaystyle F \) polem wektorowym na \( \displaystyle U. \) Niech \( \displaystyle A \) i \( \displaystyle B \) będą dwoma punktami w \( \displaystyle U \), a \( \displaystyle K_1 \) i \( \displaystyle K_2 \) dwoma krzywymi łączącymi punkty \( \displaystyle A \) i \( \displaystyle B. \) Wówczas

\( \displaystyle \displaystyle\int\limits_{K_1}Pdx+Qdy \ =\ \displaystyle\int\limits_{K_2}Pdx+Qdy. \)

Dowód 12.18.

Stwierdzenie wykażemy tylko w przypadku, gdy krzywe \( \displaystyle K_1 \) i \( \displaystyle K_2 \) nie przecinają się i ograniczają razem zbiór normalny (względem którejś osi) \( \displaystyle D, \) czyli \( \displaystyle \displaystyle\partial D=K_1-K_2, \) tak jak w dowodzie twierdzenia Greena. Wtedy z twierdzenia Greena mamy

\( \displaystyle \oint\limits_{K_1-K_2}Pdx+Qdy \ =\ \iint\limits_D(\frac{\partial P}{\partial y}-\frac{\partial Q}{\partial x})dxdy \ =\ 0, \)

bo obie pochodne cząstkowe są sobie równe (zobacz wyżej).

Zauważmy, że z tego stwierdzenia wynika od razu, że całka po krzywej zamkniętej w polu potencjalnym wynosi zero.

Można także sformuowaćnastępujące stwierdzenie (dowód pominiemy).

Stwierdzenie 12.19.

Niech \( \displaystyle U \) będzie obszarem jednospójnym w \( \displaystyle \displaystyle\mathbb{R}^2 \), a \( \displaystyle F=(P,Q) \) polem wektorowym klasy \( \displaystyle {\cal C}^1 \) na \( \displaystyle U. \) Jeśli

\( \displaystyle \frac{\partial P}{\partial y} \ =\ \frac{\partial Q}{\partial x}, \)

to pole \( \displaystyle F \) jest polem potencjalnym.

Przykład 12.20.

Przypomnijmy znany z fizyki wzór na pracę. Niech \( \displaystyle F=(P,Q) \) będzie polem wektorowym reprezentującym siłę. Siły pola \( \displaystyle F \) działają na punkt, który przesuwamy po krzywej \( \displaystyle K. \) Wtedy praca pola sił wyraża się wzorem

\( \displaystyle W \ =\ \displaystyle\int\limits_KF\circ d\textbf{x} \ =\ \displaystyle\int\limits_KPdx+Qdy. \)

(1) Policzmy pracę wykonaną przez pole sił \( \displaystyle F=(P,Q), \)

\( \displaystyle P(x,y) \ =\ x^2+y^2, \ Q(x,y)=2xy, \)

wzdłuż krzywej \( \displaystyle K \): \( \displaystyle y=x^2, \) przy przesunięciu punktu od punktu \( \displaystyle \displaystyle (0,0) \) do punktu \( \displaystyle \displaystyle (1,1). \)

Krzywą \( \displaystyle K \) możemy sparametryzować \( \displaystyle \displaystyle\gamma(t)=(t,t^2) \) dla \( \displaystyle t\in[0,1], \) tak więc \( \displaystyle x=t, y=t^2. \) Mamy zatem

\( \displaystyle W \ =\ \displaystyle\int\limits_KPdx+Qdy=\displaystyle\int\limits_0^1((t^2+t^4)+(2t^3)2t)dt \ =\ \displaystyle\int\limits_0^1t^2+5t^4dt \ =\ \frac{4}{3}. \)

wykres

(2) Dane jest pole sił:

\( \displaystyle P(x,y) \ =\ \frac{x}{(x^2+y^2)^{\frac{3}{2}}}, \quad Q(x,y) \ =\ \frac{y}{(x^2+y^2)^{\frac{3}{2}}}. \)

Policzyć pracę wykonaną przez pole sił przy przesuwaniu punktu wokół okręgu o środku w punkcie \( \displaystyle \displaystyle (3,3) \) i promieniu \( \displaystyle 1. \)

Sprawdźmy, że pole \( \displaystyle \displaystyle (P,Q) \) jest polem potencjalnym w zbiorze \( \displaystyle U \) będącym kołem o środku w punkcie \( \displaystyle \displaystyle (3,3) \) i promieniu \( \displaystyle 2. \) (Taki zbiór \( \displaystyle U \) wybieramy, by móc zastosować stwierdzenie 12.19, do zbioru \( \displaystyle U \) nie może należeć punkt \( \displaystyle \displaystyle (0,0), \) bo tam \( \displaystyle P \) i \( \displaystyle Q \) nie są określone).

Policzmy: \( \displaystyle \displaystyle\frac{\partial P}{\partial y}=\frac{-3xy}{(x^2+y^2)^{\frac{5}{2}}}=\frac{\partial Q}{\partial x}, \) tak więc pole jest potencjalne na podstawie stwierdzenia stwierdzenia 12.19, a w polu potencjalnym całka po krzywej zamkniętej (a więc także po naszym okręgu) jest równa zero.

rycina

Wektor pola wektorowego na krzywej \( K \) oraz jego składowa styczna do krzywej

Na zakończenie warto wspomnieć o związku całki krzywoliniowej zorientowanej z całką krzywoliniową niezorientowaną, wprowadzoną na wykładzie z Analizy Matematycznej 1.

Weźmy krzywą \( \displaystyle K \) o parametryzacji \( \displaystyle \displaystyle\gamma=(\varphi,\psi) : [a,b]\to \mathbb{R}^2. \) Niech \( \displaystyle F=(P,Q) \) będzie polem wektorowym na \( \displaystyle K. \) Mamy wówczas całkę krzywoliniową zorientowaną:

\( \displaystyle \displaystyle\int\limits_KF\circ d\textbf{x}=\displaystyle\int\limits_a^b(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ ((\varphi'(t),\psi'(t))dt. \)

Z definicji iloczynu skalarnego w \( \displaystyle \mathbb{R}^2 \) i normy euklidesowej w \( \displaystyle \mathbb{R}^2 \),

\( \begin{array}{lll}\displaystyle & (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ ((\varphi'(t),\psi'(t)) \\ & =\|(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\|\cdot \|(\varphi'(t),\psi'(t))\|\cos \alpha, \end{array} \)

gdzie \( \displaystyle \|v\| \) oznacza długość wektora \( \displaystyle v \), a \( \displaystyle \displaystyle\alpha \) jest kątem pomiędzy wektorem \( \displaystyle \displaystyle (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t))) \), a wektorem stycznym \( \displaystyle \displaystyle (\varphi'(t),\psi'(t)). \) Ze wzoru na długość wektora mamy

\( \displaystyle \|(\varphi'(t),\psi'(t))\|=\sqrt{\varphi'^2(t)+\psi'^2(t)}. \)

Zauważmy jeszcze, że

\( \displaystyle F_s(\gamma(t)):=\|(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\|\cos \alpha \)

jest długością rzutu prostopadłego wektora \( \displaystyle \displaystyle (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t))) \) na styczną do krzywej, czyli długością składowej stycznej. A zatem

\( \displaystyle \displaystyle\int\limits_KF\circ d\textbf{x}=\displaystyle\int\limits_a^bF_s(\gamma(t))\sqrt{\varphi'^2(t)+\psi'^2(t)}dt=\displaystyle\int\limits_KF_s dl. \)