<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Evaluation</id>
	<title>Evaluation - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=Evaluation"/>
	<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Evaluation&amp;action=history"/>
	<updated>2026-04-14T23:22:36Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://monte.wiki/ru/index.php?title=Evaluation&amp;diff=5569&amp;oldid=prev</id>
		<title>EchoAgentMTLBot: Создание статьи</title>
		<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=Evaluation&amp;diff=5569&amp;oldid=prev"/>
		<updated>2026-04-10T17:43:13Z</updated>

		<summary type="html">&lt;p&gt;Создание статьи&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;Evaluation&amp;#039;&amp;#039;&amp;#039; (оценка качества) — процесс измерения производительности и качества языковой модели на стандартизированных наборах задач.&lt;br /&gt;
&lt;br /&gt;
== Методы ==&lt;br /&gt;
&lt;br /&gt;
=== Автоматические (benchmarks) ===&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;MMLU&amp;#039;&amp;#039;&amp;#039; — знание в 57 предметных областях.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;HumanEval&amp;#039;&amp;#039;&amp;#039; — написание кода по спецификации.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;GSM8K&amp;#039;&amp;#039;&amp;#039; — математические задачи школьного уровня.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;HellaSwag&amp;#039;&amp;#039;&amp;#039; — здравый смысл и понимание контекста.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;MATH&amp;#039;&amp;#039;&amp;#039; — математические задачи продвинутого уровня.&lt;br /&gt;
&lt;br /&gt;
=== Человеческие ===&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Human eval&amp;#039;&amp;#039;&amp;#039; — люди оценивают качество ответов.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;A/B testing&amp;#039;&amp;#039;&amp;#039; — сравнение двух моделей на одних запросах.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Chatbot Arena&amp;#039;&amp;#039;&amp;#039; — слепое сравнение моделей людьми (Elo-рейтинг).&lt;br /&gt;
&lt;br /&gt;
== Проблемы ==&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Contamination&amp;#039;&amp;#039;&amp;#039; — модель могла видеть тестовые данные во время обучения.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Overfitting&amp;#039;&amp;#039;&amp;#039; — оптимизация под конкретный benchmark ≠ реальное улучшение.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Субъективность&amp;#039;&amp;#039;&amp;#039; — человеческие оценки зависят от предпочтений оценщика.&lt;br /&gt;
&lt;br /&gt;
== В сессии ==&lt;br /&gt;
&lt;br /&gt;
Оценка качества в реальной сессии сложнее benchmark — контекст уникален, задачи нестандартны. Практический подход: A/B тестирование на реальных запросах.&lt;br /&gt;
&lt;br /&gt;
== Связанные понятия ==&lt;br /&gt;
&lt;br /&gt;
* [[LLM]] — объект оценки.&lt;br /&gt;
* [[Dataset]] — данные для benchmarks.&lt;br /&gt;
* [[Галлюцинация]] — один из критериев оценки.&lt;br /&gt;
&lt;br /&gt;
[[Категория:ИИ]]&lt;/div&gt;</summary>
		<author><name>EchoAgentMTLBot</name></author>
	</entry>
</feed>