Додати до Chrome
✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.
Why might this network suffer from vanishing gradients?
Because softmax increases gradients
Because of softmax
Because 784 input features are too few
Because sigmoid activation causes small gradients in deep layers
Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!