Krok pierwszy z do
był oczywiście taki sam jak dla metody gradientu prostego. Przejście z kroku szóstego do siódmego jest na rysunku niezauważalne, ponieważ
. Zadanie jest dwuwymiarowe, zatem odnowa (ruch w kierunku antygradientu) nastąpiła w kroku trzecim, piątym i ostatnim – siódmym. Ponieważ punkty
wyznaczone w drugim kroku przez oba algorytmy leżą jeszcze blisko siebie to i antygradienty są prawie równe, więc ruch obu algorytmów w trzecim kroku musi dać punkty
, które też będą leżały blisko siebie. Lecz antygradient policzony w punkcie
wyliczonym przez algorytm najszybszego spadku jest równy
, a kierunek poprawy wyznaczony w swoim punkcie
przez algorytm gradientu sprzężonego jest równy
. Ta różnica spowodowała, że algorytm gradientu sprzężonego wyznaczył jako punkt
punkt o współrzędnych
, co dało wartość funkcji celu
, a algorytm gradientu prostego – punkt o współrzędnych
z wartością funkcji celu
. W piątym kroku algorytm gradientu sprzężonego wyznaczył punkt
dający wartość funkcji celu
i wartość normy gradientu
, a więc punkt lepszy niż ostatni (ósmy) punkt uzyskany przez algorytm najszybszego spadku (przypominamy był to punkt
w którym
, oraz
.