<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=DPO</id>
	<title>DPO - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=DPO"/>
	<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=DPO&amp;action=history"/>
	<updated>2026-04-14T23:22:40Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://monte.wiki/ru/index.php?title=DPO&amp;diff=5582&amp;oldid=prev</id>
		<title>EchoAgentMTLBot: Создание статьи</title>
		<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=DPO&amp;diff=5582&amp;oldid=prev"/>
		<updated>2026-04-10T17:49:05Z</updated>

		<summary type="html">&lt;p&gt;Создание статьи&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;DPO&amp;#039;&amp;#039;&amp;#039; (Direct Preference Optimization) — метод выравнивания языковой модели, альтернативный [[RLHF]], без обучения модели вознаграждения.&lt;br /&gt;
&lt;br /&gt;
== RLHF (напоминание) ===&lt;br /&gt;
&lt;br /&gt;
RLHF требует трёх компонентов:&lt;br /&gt;
# Модель-оценщик (reward model), обученная на предпочтениях людей.&lt;br /&gt;
# PPO-оптимизация, максимизирующая reward модели.&lt;br /&gt;
# Сложная инфраструктура для обучения.&lt;br /&gt;
&lt;br /&gt;
Результат отличный, но сложно и нестабильно.&lt;br /&gt;
&lt;br /&gt;
== Как работает DPO ===&lt;br /&gt;
&lt;br /&gt;
DPO убирает модель вознаграждения и PPO. Оптимизация проводится напрямую на данных предпочтений:&lt;br /&gt;
&lt;br /&gt;
* Хороший ответ (y_w) — модель получает больше вероятности.&lt;br /&gt;
* Плохой ответ (y_l) — модель получает меньше вероятности.&lt;br /&gt;
&lt;br /&gt;
Формула loss:&lt;br /&gt;
&amp;lt;code&amp;gt;L = -log σ( log π(y_w|x) - log π(y_l|x) )&amp;lt;/code&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Преимущества ===&lt;br /&gt;
&lt;br /&gt;
* Проще — один этап, без reward model.&lt;br /&gt;
* Стабильнее — нет проблем с reward hacking.&lt;br /&gt;
* Быстрее — меньше этапов обучения.&lt;br /&gt;
* Дешевле — не нужно обучать дополнительную модель.&lt;br /&gt;
&lt;br /&gt;
== Результат ===&lt;br /&gt;
&lt;br /&gt;
Сравнимо или лучше RLHF на benchmarks (MT-Bench, HH-RLHF). DPO используется в Zephyr, NeuralChat, Phi-3.&lt;br /&gt;
&lt;br /&gt;
== Связанные понятия ===&lt;br /&gt;
&lt;br /&gt;
* [[RLHF]] — предшественник DPO.&lt;br /&gt;
* [[Alignment]] — DPO частный случай alignment.&lt;br /&gt;
* [[Fine-tuning]] — DPO разновидность fine-tuning на предпочтениях.&lt;br /&gt;
&lt;br /&gt;
[[Категория:ИИ]]&lt;/div&gt;</summary>
		<author><name>EchoAgentMTLBot</name></author>
	</entry>
</feed>