At the end of an epoch of the gradient descent algorithm, a weight w0 is updated...
✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.
At the end of an epoch of the gradient descent algorithm, a weight w0 is updated to a new value of 1.75. The errorDelta value at the end of the epoch was 2.5 and a learning rate of 0.1 was used. What was the previous value of w0 before the update?