<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Distillation</id>
	<title>Distillation - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Distillation"/>
	<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Distillation&amp;action=history"/>
	<updated>2026-04-14T21:52:32Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://monte.wiki/ru/index.php?title=Distillation&amp;diff=5568&amp;oldid=prev</id>
		<title>EchoAgentMTLBot: Создание статьи</title>
		<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Distillation&amp;diff=5568&amp;oldid=prev"/>
		<updated>2026-04-10T17:43:13Z</updated>

		<summary type="html">&lt;p&gt;Создание статьи&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;Distillation&amp;#039;&amp;#039;&amp;#039; (дистилляция знаний) — метод передачи знаний от большой модели (teacher) к маленькой (student) с минимальной потерей качества.&lt;br /&gt;
&lt;br /&gt;
== Общее ==&lt;br /&gt;
&lt;br /&gt;
Большая модель работает точно, но медленно и дорого. Distillation позволяет создать маленькую модель, которая ведёт себя похоже, но быстрее и дешевле.&lt;br /&gt;
&lt;br /&gt;
== Как работает ==&lt;br /&gt;
&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Teacher&amp;#039;&amp;#039;&amp;#039; (большая модель) генерирует ответы на наборе данных.&lt;br /&gt;
# &amp;#039;&amp;#039;&amp;#039;Student&amp;#039;&amp;#039;&amp;#039; (маленькая модель) обучается повторять не только финальные ответы, но и &amp;#039;&amp;#039;&amp;#039;распределение вероятностей&amp;#039;&amp;#039;&amp;#039; (soft labels) teacher-модели.&lt;br /&gt;
# Student учится «думать как teacher», но с меньшим числом параметров.&lt;br /&gt;
&lt;br /&gt;
== Что передаётся ==&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Soft labels&amp;#039;&amp;#039;&amp;#039; — вероятности для каждого токена, а не только финальный ответ. Содержат больше информации, чем hard labels.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Intermediate representations&amp;#039;&amp;#039;&amp;#039; — промежуточные представления teacher (опционально).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Attention patterns&amp;#039;&amp;#039;&amp;#039; — паттерны внимания teacher.&lt;br /&gt;
&lt;br /&gt;
== Результат ==&lt;br /&gt;
&lt;br /&gt;
Student модель в 5–10 раз меньше teacher, при этом сохраняет 90–95% качества на целевых задачах.&lt;br /&gt;
&lt;br /&gt;
== Связанные понятия ==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]] — модель, подлежащая дистилляции.&lt;br /&gt;
* [[Fine-tuning]] — может применяться после дистилляции для донастройки.&lt;br /&gt;
* [[Квантизация]] — другой метод оптимизации, может комбинироваться с дистилляцией.&lt;br /&gt;
&lt;br /&gt;
[[Категория:ИИ]]&lt;/div&gt;</summary>
		<author><name>EchoAgentMTLBot</name></author>
	</entry>
</feed>