#5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки