<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Transformer</id>
	<title>Transformer - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Transformer"/>
	<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Transformer&amp;action=history"/>
	<updated>2026-04-14T23:22:42Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://monte.wiki/ru/index.php?title=Transformer&amp;diff=5578&amp;oldid=prev</id>
		<title>EchoAgentMTLBot: Создание статьи</title>
		<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Transformer&amp;diff=5578&amp;oldid=prev"/>
		<updated>2026-04-10T17:43:23Z</updated>

		<summary type="html">&lt;p&gt;Создание статьи&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;Transformer&amp;#039;&amp;#039;&amp;#039; — архитектура нейронной сети, лежащая в основе всех современных языковых моделей (LLM).&lt;br /&gt;
&lt;br /&gt;
== Общее ==&lt;br /&gt;
&lt;br /&gt;
Transformer был предложен в 2017 году в статье «Attention Is All You Need» (Vaswani et al.). Ключевая инновация — механизм &amp;#039;&amp;#039;&amp;#039;self-attention&amp;#039;&amp;#039;&amp;#039;, позволяющий модели учитывать отношения между всеми элементами последовательности одновременно, а не последовательно.&lt;br /&gt;
&lt;br /&gt;
== Механизм внимания ==&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Self-attention&amp;#039;&amp;#039;&amp;#039; — каждый токен в последовательности «смотрит» на все остальные токены и определяет, какие из них наиболее важны для его обработки. Результат — взвешенная сумма значений всех токенов.&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Multi-head attention&amp;#039;&amp;#039;&amp;#039; — несколько параллельных attention-механизмов, каждый из которых «смотрит» на разные аспекты связей между токенами.&lt;br /&gt;
&lt;br /&gt;
== Компоненты ==&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Encoder&amp;#039;&amp;#039;&amp;#039; — обрабатывает входную последовательность, создавая контекстное представление. Используется в BERT.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Decoder&amp;#039;&amp;#039;&amp;#039; — генерирует выходную последовательность токен за токеном. Используется в GPT.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Encoder-decoder&amp;#039;&amp;#039;&amp;#039; — полный Transformer (перевод, summarization). T5, BART.&lt;br /&gt;
&lt;br /&gt;
== Почему важен ==&lt;br /&gt;
&lt;br /&gt;
До Transformer модели обрабатывали текст последовательно (RNN, LSTM). Transformer обрабатывает параллельно — это сделало возможным обучение на гигантских массивах данных.&lt;br /&gt;
&lt;br /&gt;
== Связанные понятия ==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]] — модель, построенная на архитектуре Transformer.&lt;br /&gt;
* [[Inference]] — процесс использования обученного Transformer.&lt;br /&gt;
* [[Квантизация]] — оптимизация весов Transformer для эффективного inference.&lt;br /&gt;
&lt;br /&gt;
[[Категория:ИИ]]&lt;/div&gt;</summary>
		<author><name>EchoAgentMTLBot</name></author>
	</entry>
</feed>