Экспертиза / Financial One

Что такое большая языковая модель? Как она работает?

7342

О принципах работы больших языковых моделей рассказал ведущий образовательного математического канала 3Blue1Brown Грант Сандерсон.

Представьте, что вам попался короткий сценарий фильма, в котором описывается сцена между человеком и его помощником в виде искусственного интеллекта (ИИ). В сценарии есть то, что человек спрашивает у ИИ, но ответ ИИ не представлен. Предположим, у вас есть мощная магическая машина, которая может взять любой текст и выдать разумное предсказание того, какое слово в нем будет следующим. Тогда вы сможете дописать сценарий, передав машине тот текст, который у вас уже есть.

Когда вы взаимодействуете с чат-ботом, именно это и происходит. Большая языковая модель – это сложная математическая функция, которая предсказывает, какое слово будет следующим в любом фрагменте текста. Однако вместо того, чтобы с уверенностью предсказать одно слово, она присваивает вероятность всем возможным следующим словам.

Чтобы создать чат-бота, вы составляете текст, описывающий взаимодействие между пользователем и гипотетическим помощником ИИ, добавляете все, что пользователь вводит в качестве первой части взаимодействия, а затем заставляете модель несколько раз предсказать следующее слово, которое такой гипотетический помощник ИИ произнесет в ответ, и именно это слово будет представлено пользователю. При этом результат будет выглядеть гораздо естественнее, если позволить модели выбирать менее вероятные слова в случайном порядке. Это означает, что, хотя сама модель детерминирована, при каждом запуске она обычно выдает разные ответы.

Модели учатся делать прогнозы, обрабатывая огромное количество текста, обычно взятого из интернета. Для того чтобы обычный человек прочитал тот объем текста, который был использован для обучения GPT-3, например, если бы он читал без перерыва 24 часа в сутки, потребовалось бы более 2600 лет. Более крупные модели с тех пор тренируются на гораздо, гораздо большем объеме. Обучение можно представить как настройку циферблатов на большой машине. То, как ведет себя языковая модель, полностью определяется множеством различных непрерывных значений, обычно называемых параметрами или весами. Изменение этих параметров приводит к изменению вероятностей, которые модель выдает для следующего слова.

Что делает большую языковую модель большой, так это то, что у нее могут быть сотни миллиардов таких параметров. Человек никогда не устанавливает эти параметры намеренно: изначально модель просто выдает тарабарщину, но ответы многократно уточняются на основе множества примеров текста. Один из таких обучающих примеров может состоять из нескольких слов, а может и из тысяч, но в любом случае модель работает следующим образом: в нее вводятся все слова, кроме последнего, и она сравнивает полученное предсказание с истинным последним словом из примера. Алгоритм под названием метод обратного распространения ошибки, используется для изменения всех параметров таким образом, чтобы модель с большей вероятностью выбрала истинное последнее слово и с меньшей – все остальные.

Повторив все это на триллионах примеров, модель не только начинает давать более точные предсказания на обучающих данных, но и начинает делать более обоснованные предсказания на тексте, который она никогда раньше не видела. Учитывая огромное количество параметров и колоссальный объем обучающих данных, масштаб вычислений, связанных с обучением большой языковой модели, просто поражает воображение. Для примера представьте, что вы можете выполнять миллиард сложений и умножений каждую секунду. Попробуйте предположить, сколько времени вам понадобится, чтобы выполнить все операции, связанные с обучением самых больших языковых моделей? Думаете, это займет год? Может быть, что-то вроде 10 тысяч лет? На самом деле ответ гораздо больше – более 100 млн лет.

Однако это лишь часть истории. Весь этот процесс называется предварительным обучением. Цель автозаполнения случайного отрывка текста из интернета сильно отличается от цели стать хорошим помощником ИИ. Чтобы решить эту проблему, чат-боты проходят другой тип обучения, не менее важный, который называется обучением с подкреплением и обратной связью от человека. Работники отмечают бесполезные или проблематичные прогнозы, и их исправления изменяют параметры модели, повышая вероятность того, что она будет давать прогнозы, которые понравятся пользователям.

Однако, если вспомнить предварительное обучение, такой ошеломляющий объем вычислений возможен только благодаря использованию специальных компьютерных чипов, оптимизированных для параллельного выполнения множества операций, известных как графические процессоры. Кстати, до 2017 года большинство языковых моделей обрабатывали текст по одному слову за раз, но затем команда исследователей из Google представила новую модель, известную как трансформер. Трансформеры не читают текст от начала до конца, они впитывают его сразу, параллельно.

Самым первым шагом трансформера, да и большинства других языковых моделей, является ассоциация каждого слова с длинным списком чисел. Причина в том, что процесс обучения работает только с непрерывными значениями, поэтому необходимо как-то закодировать язык с помощью чисел, и каждый из этих списков чисел должен каким-то образом кодировать значение соответствующего слова. Уникальность трансформеров заключается в том, что они опираются на специальную операцию, известную как внимание. Эта операция дает всем спискам чисел возможность общаться друг с другом и уточнять значения, которые они кодируют, исходя из окружающего контекста, причем все это происходит параллельно.

Трансформеры обычно включают в себя и второй тип операций, известный как нейронная сеть с прямой связью, что дает модели дополнительные возможности для хранения большего количества закономерностей в языке, полученных в процессе обучения.

Хотя исследователи разрабатывают структуру работы каждого из этапов, важно понимать, что конкретное поведение представляет собой эмерджентность, то есть несводимость свойств системы к сумме свойств ее компонентов. Эмерджентность основана на том, как именно сотни миллиардов параметров настраиваются в процессе обучения. Поэтому определить, почему модель делает те или иные прогнозы, невероятно сложно.

Антон Прокудин о снижении цен на нефть и ослаблении рубля

Как политика Дональда Трампа повлияет на российский рынок, что будет с ценами на нефть и курсом рубля, обсудили с главным макроэкономистом УК «Ингосстрах – инвестиции» Антоном Прокудиным.

Делимся мнением эксперта от первого лица.

Наиболее важные тезисы, которые произносил Трамп и в рамках предвыборной кампании, и до нее, заключаются в том, что он хочет несколько увеличить расходы и сократить доходную часть американского бюджета за счет снижения налогов. Он также обещал ввести пошлины в отношении ряда импортных товаров, прежде всего китайских.

Продолжение





Вернуться в список новостей

Комментарии (0)
Оставить комментарий
Отправить
Новые статьи
  • Акции Газпрома и НОВАТЭКа поддержал рост спроса на газ в ЕС, нефти в РФ хватит на 62 года
    Наталья Мильчакова и Владимир Чернов, аналитики Freedom Finance Global 27.02.2026 19:03
    602

    По данным Gas Infrastructure Europe (GIE), страны Евросоюза в конце февраля установили суточный рекорд импорта газа на фоне опустошения подземных хранилищ. Так, на 25 февраля ЕС закупил 500 млрд куб. м СПГ, что превысило январский исторический рекорд. Вице-премьер России Александр Новак на открытой встрече со студентами в образовательном центре «Сириус» заявил, что геологических извлекаемых запасов нефти в стране хватает примерно на 62 года. Рентабельные запасы, по словам чиновника, оцениваются примерно 15 млрд тонн, а общие — в 31 млрд тонн.
    more

  • Курс рубля не сумел возобновить рост, ОФЗ развернулись вверх
    Дмитрий Бабин, эксперт по фондовому рынку «БКС Мир инвестиций» 27.02.2026 18:30
    622

    Рубль после негативного начала торгов совершил к юаню несколько разнонаправленных движений, почти все время оставаясь на отрицательной территории, но потери оставались умеренными.more

  • Ozon. Финансовые результаты (4К25 МСФО)
    Артем Михайлин, аналитик ИК «ВЕЛЕС Капитал» 27.02.2026 18:24
    624

    Ozon представил сильные финансовые результаты по итогам 4К 2025 г., которые опередили консенсус рынка. Компании, как мы и рассчитывали, удалось превзойти ориентиры менеджмента. Оборот в 2025 г. увеличился на 45% г/г при целевом уровне роста 41-43% г/г. Годовая EBITDA составила 156 млрд руб. пока прогноз предполагал значение около 140 млрд руб. В октябре-декабре рост GMV замедлился до 33% г/г на фоне эффекта высокой базы сравнения. Количество заказов на Ozon увеличилось за этот период почти вдвое г/г благодаря расширению активной аудитории и резко возросшей частотности покупок. Средний чек при этом снизился почти на 30% г/г, отражая изменения в потребительском поведении. more

  • HeadHunter: почему аналитики верят в эмитента рынка онлайн-рекрутинга? Дайджест Fomag
    Ксения Малышева 27.02.2026 17:01
    665

    Бизнес компании напрямую отражает ситуацию на рынке труда, который в последние годы характеризуется структурным дефицитом кадров. Потребность в подборе персонала сохраняется даже в периоды экономического спада, что обеспечивает устойчивый спрос на услуги платформы.  Несмотря на текущее охлаждение экономической активности, аналитики сходятся во мнении, что фундаментальная привлекательность HeadHunter остается высокой. Давайте посмотрим оценки аналитиков. 



    more

  • Золото в нуле, другие драгметаллы продолжают ралли 
    Наталья Мильчакова, аналитик Freedom Finance Global 27.02.2026 14:59
    683

    С начала торгов 27 февраля серебро дорожает на 3,2% за тройскую унцию, до $89,8, платина — на 5,8%, палладий — на 3,3%. Символическое снижение цены на золото (-0,04%) объясняется некоторым ослаблением международной напряженности. Иран и США, которые продолжают переговоры по ядерной сделке, заявляют о возможности компромисса. В этом случае американские войска откажутся от удара по военным объектам исламской республики.more