logo

Crowdly

Browser

Додати до Chrome

Which of the following statement(s) is / are true for Gradient Descent (GD) and...

✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.

Which of the following statement(s) is / are true for Gradient Descent (GD) and Stochastic Gradient Descent (SGD)?

  1. In GD and SGD, you update a set of parameters in an iterative manner to minimize the error function.
  2. In SGD, you must run through all the samples in your training set for a single parameter update in each iteration.
  3. In GD, you either use the entire data points or a subset of training data to update a parameter in each iteration.

Більше питань подібних до цього

Хочете миттєвий доступ до всіх перевірених відповідей на moodle.elct.lnu.edu.ua?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!

Browser

Додати до Chrome