Krok pierwszy z do był oczywiście taki sam jak dla metody gradientu prostego. Przejście z kroku szóstego do siódmego jest na rysunku niezauważalne, ponieważ . Zadanie jest dwuwymiarowe, zatem odnowa (ruch w kierunku antygradientu) nastąpiła w kroku trzecim, piątym i ostatnim – siódmym. Ponieważ punkty wyznaczone w drugim kroku przez oba algorytmy leżą jeszcze blisko siebie to i antygradienty są prawie równe, więc ruch obu algorytmów w trzecim kroku musi dać punkty , które też będą leżały blisko siebie. Lecz antygradient policzony w punkcie wyliczonym przez algorytm najszybszego spadku jest równy , a kierunek poprawy wyznaczony w swoim punkcie przez algorytm gradientu sprzężonego jest równy . Ta różnica spowodowała, że algorytm gradientu sprzężonego wyznaczył jako punkt punkt o współrzędnych , co dało wartość funkcji celu , a algorytm gradientu prostego – punkt o współrzędnych z wartością funkcji celu . W piątym kroku algorytm gradientu sprzężonego wyznaczył punkt dający wartość funkcji celu i wartość normy gradientu , a więc punkt lepszy niż ostatni (ósmy) punkt uzyskany przez algorytm najszybszego spadku (przypominamy był to punkt w którym , oraz .