logo

Crowdly

Masked attention in a standard GPT allows the word at position N to attend to al...

✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.

Masked attention in a standard GPT allows the word at position N to attend to all previous words at positions N-1, N-2, etc.

100%
0%
Більше питань подібних до цього

Хочете миттєвий доступ до всіх перевірених відповідей на moodle.kent.ac.uk?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!