Add to Chrome
✅ The verified answer to this question is available below. Our community-reviewed solutions help you understand the material better.
Почему функция активации ReLU предпочтительнее сигмоиды в глубоких нейронных сетях?
ReLU гарантирует сходимость обучения при любых гиперпараметрах
ReLU всегда возвращает значения в диапазоне [0, 1]
ReLU является дифференцируемой во всех точках
ReLU решает проблему затухания градиента для положительных значений
Get Unlimited Answers To Exam Questions - Install Crowdly Extension Now!