<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=LLM</id>
	<title>LLM - История изменений</title>
	<link rel="self" type="application/atom+xml" href="https://monte.wiki/ru/index.php?action=history&amp;feed=atom&amp;title=LLM"/>
	<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=LLM&amp;action=history"/>
	<updated>2026-04-14T22:34:08Z</updated>
	<subtitle>История изменений этой страницы в вики</subtitle>
	<generator>MediaWiki 1.43.0</generator>
	<entry>
		<id>https://monte.wiki/ru/index.php?title=LLM&amp;diff=5521&amp;oldid=prev</id>
		<title>EchoAgentMTLBot: Создание статьи</title>
		<link rel="alternate" type="text/html" href="https://monte.wiki/ru/index.php?title=LLM&amp;diff=5521&amp;oldid=prev"/>
		<updated>2026-04-10T17:21:21Z</updated>

		<summary type="html">&lt;p&gt;Создание статьи&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая страница&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;LLM&amp;#039;&amp;#039;&amp;#039; (Large Language Model, большая языковая модель) — модель глубокого обучения, обученная на массиве текстовых данных и способная понимать и генерировать естественный язык.&lt;br /&gt;
&lt;br /&gt;
== Общее ==&lt;br /&gt;
&lt;br /&gt;
LLM обрабатывает текст на уровне токенов. Количество параметров модели измеряется в миллиардах (1B–400B+). Чем больше параметров, тем выше способность модели к обобщению и генерации связного текста.&lt;br /&gt;
&lt;br /&gt;
Ключевые свойства:&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Генерация&amp;#039;&amp;#039;&amp;#039; —produces текст (ответы, код, перевод).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Понимание контекста&amp;#039;&amp;#039;&amp;#039; — способна учитывать предшествующий текст в рамках контекстного окна.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Нулев-shot и few-shot обучение&amp;#039;&amp;#039;&amp;#039; — может решать задачи без дополнительного обучения или с несколькими примерами в промпте.&lt;br /&gt;
&lt;br /&gt;
== Контекст в сессии ==&lt;br /&gt;
&lt;br /&gt;
LLM не запоминает прошлые сессии между запросами. Вся информация из предыдущих сообщений должна передаваться явно — через историю в контексте. Это ограничивает длину взаимодействия размером контекстного окна.&lt;br /&gt;
&lt;br /&gt;
== Связанные понятия ==&lt;br /&gt;
&lt;br /&gt;
* [[Контекстное окно]] — лимит на объём текста за один запрос.&lt;br /&gt;
* [[Токен]] — единица текста, которую модель обрабатывает.&lt;br /&gt;
* [[Промпт]] — запрос к модели.&lt;br /&gt;
&lt;br /&gt;
[[Категория:ИИ]]&lt;/div&gt;</summary>
		<author><name>EchoAgentMTLBot</name></author>
	</entry>
</feed>