Додати до Chrome
✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.
Почему функция активации ReLU предпочтительнее сигмоиды в глубоких нейронных сетях?
ReLU гарантирует сходимость обучения при любых гиперпараметрах
ReLU всегда возвращает значения в диапазоне [0, 1]
ReLU является дифференцируемой во всех точках
ReLU решает проблему затухания градиента для положительных значений
Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!