Трансформер (модель машинного обучения): различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
w>Retimuko
м (орфография)
w>Феликс1996
Строка 1: Строка 1:
Трансформер ({{lang-en|Transformer}}) - архитектура нейросетей для [[Глубокое_обучение|глубокого обучения]] представленная в 2017, используемая для работы с последовательностями.<ref name=":0">{{source|Q30249683}}</ref>
+
'''Трансформер''' ({{lang-en|Transformer}}) — архитектура нейросетей для [[Глубокое обучение|глубокого обучения]] представленная в 2017, используемая для работы с последовательностями.<ref name=":0">{{source|Q30249683}}</ref>
  
По аналогии с [[Рекуррентная_нейронная_сеть|рекуррентными нейронными сетями]] (РНС), Трансформеры предназначены для обработки последовательностей, таких как текст на естественном языке, и решения таких задач как [[Машинный перевод|машинный перевод]] и [[Автоматическое реферирование|автоматическое реферирование]]. В отличие от РНС, Трансформеры не требуют обработки последовательностей по порядку. Для примера, если входные данные это текст, Трансформеру не требуется обрабатывать конец текста после обработки его начала. Благодаря этому Трансформеры [[Параллельные вычисления|распараллеливаются]] легче чем РНС и могут быть быстрее обучены.<ref name=":0" />
+
По аналогии с [[Рекуррентная нейронная сеть|рекуррентными нейронными сетями]] (РНС), Трансформеры предназначены для обработки последовательностей, таких как текст на естественном языке, и решения таких задач как [[машинный перевод]] и [[автоматическое реферирование]]. В отличие от РНС, Трансформеры не требуют обработки последовательностей по порядку. Для примера, если входные данные это текст, Трансформеру не требуется обрабатывать конец текста после обработки его начала. Благодаря этому Трансформеры [[Параллельные вычисления|распараллеливаются]] легче чем РНС и могут быть быстрее обучены.<ref name=":0" />
  
 
== Примечания ==
 
== Примечания ==
 
{{примечания}}
 
{{примечания}}

Версия от 15:52, 3 ноября 2020

Трансформер (англ. Transformer) — архитектура нейросетей для глубокого обучения представленная в 2017, используемая для работы с последовательностями.[1]

По аналогии с рекуррентными нейронными сетями (РНС), Трансформеры предназначены для обработки последовательностей, таких как текст на естественном языке, и решения таких задач как машинный перевод и автоматическое реферирование. В отличие от РНС, Трансформеры не требуют обработки последовательностей по порядку. Для примера, если входные данные это текст, Трансформеру не требуется обрабатывать конец текста после обработки его начала. Благодаря этому Трансформеры распараллеливаются легче чем РНС и могут быть быстрее обучены.[1]

Примечания

  1. 1,0 1,1 Ошибка Lua в Модуль:Sources на строке 1705: attempt to index field 'wikibase' (a nil value).