Экспертиза / Financial One

Что такое большая языковая модель? Как она работает?

7412

О принципах работы больших языковых моделей рассказал ведущий образовательного математического канала 3Blue1Brown Грант Сандерсон.

Представьте, что вам попался короткий сценарий фильма, в котором описывается сцена между человеком и его помощником в виде искусственного интеллекта (ИИ). В сценарии есть то, что человек спрашивает у ИИ, но ответ ИИ не представлен. Предположим, у вас есть мощная магическая машина, которая может взять любой текст и выдать разумное предсказание того, какое слово в нем будет следующим. Тогда вы сможете дописать сценарий, передав машине тот текст, который у вас уже есть.

Когда вы взаимодействуете с чат-ботом, именно это и происходит. Большая языковая модель – это сложная математическая функция, которая предсказывает, какое слово будет следующим в любом фрагменте текста. Однако вместо того, чтобы с уверенностью предсказать одно слово, она присваивает вероятность всем возможным следующим словам.

Чтобы создать чат-бота, вы составляете текст, описывающий взаимодействие между пользователем и гипотетическим помощником ИИ, добавляете все, что пользователь вводит в качестве первой части взаимодействия, а затем заставляете модель несколько раз предсказать следующее слово, которое такой гипотетический помощник ИИ произнесет в ответ, и именно это слово будет представлено пользователю. При этом результат будет выглядеть гораздо естественнее, если позволить модели выбирать менее вероятные слова в случайном порядке. Это означает, что, хотя сама модель детерминирована, при каждом запуске она обычно выдает разные ответы.

Модели учатся делать прогнозы, обрабатывая огромное количество текста, обычно взятого из интернета. Для того чтобы обычный человек прочитал тот объем текста, который был использован для обучения GPT-3, например, если бы он читал без перерыва 24 часа в сутки, потребовалось бы более 2600 лет. Более крупные модели с тех пор тренируются на гораздо, гораздо большем объеме. Обучение можно представить как настройку циферблатов на большой машине. То, как ведет себя языковая модель, полностью определяется множеством различных непрерывных значений, обычно называемых параметрами или весами. Изменение этих параметров приводит к изменению вероятностей, которые модель выдает для следующего слова.

Что делает большую языковую модель большой, так это то, что у нее могут быть сотни миллиардов таких параметров. Человек никогда не устанавливает эти параметры намеренно: изначально модель просто выдает тарабарщину, но ответы многократно уточняются на основе множества примеров текста. Один из таких обучающих примеров может состоять из нескольких слов, а может и из тысяч, но в любом случае модель работает следующим образом: в нее вводятся все слова, кроме последнего, и она сравнивает полученное предсказание с истинным последним словом из примера. Алгоритм под названием метод обратного распространения ошибки, используется для изменения всех параметров таким образом, чтобы модель с большей вероятностью выбрала истинное последнее слово и с меньшей – все остальные.

Повторив все это на триллионах примеров, модель не только начинает давать более точные предсказания на обучающих данных, но и начинает делать более обоснованные предсказания на тексте, который она никогда раньше не видела. Учитывая огромное количество параметров и колоссальный объем обучающих данных, масштаб вычислений, связанных с обучением большой языковой модели, просто поражает воображение. Для примера представьте, что вы можете выполнять миллиард сложений и умножений каждую секунду. Попробуйте предположить, сколько времени вам понадобится, чтобы выполнить все операции, связанные с обучением самых больших языковых моделей? Думаете, это займет год? Может быть, что-то вроде 10 тысяч лет? На самом деле ответ гораздо больше – более 100 млн лет.

Однако это лишь часть истории. Весь этот процесс называется предварительным обучением. Цель автозаполнения случайного отрывка текста из интернета сильно отличается от цели стать хорошим помощником ИИ. Чтобы решить эту проблему, чат-боты проходят другой тип обучения, не менее важный, который называется обучением с подкреплением и обратной связью от человека. Работники отмечают бесполезные или проблематичные прогнозы, и их исправления изменяют параметры модели, повышая вероятность того, что она будет давать прогнозы, которые понравятся пользователям.

Однако, если вспомнить предварительное обучение, такой ошеломляющий объем вычислений возможен только благодаря использованию специальных компьютерных чипов, оптимизированных для параллельного выполнения множества операций, известных как графические процессоры. Кстати, до 2017 года большинство языковых моделей обрабатывали текст по одному слову за раз, но затем команда исследователей из Google представила новую модель, известную как трансформер. Трансформеры не читают текст от начала до конца, они впитывают его сразу, параллельно.

Самым первым шагом трансформера, да и большинства других языковых моделей, является ассоциация каждого слова с длинным списком чисел. Причина в том, что процесс обучения работает только с непрерывными значениями, поэтому необходимо как-то закодировать язык с помощью чисел, и каждый из этих списков чисел должен каким-то образом кодировать значение соответствующего слова. Уникальность трансформеров заключается в том, что они опираются на специальную операцию, известную как внимание. Эта операция дает всем спискам чисел возможность общаться друг с другом и уточнять значения, которые они кодируют, исходя из окружающего контекста, причем все это происходит параллельно.

Трансформеры обычно включают в себя и второй тип операций, известный как нейронная сеть с прямой связью, что дает модели дополнительные возможности для хранения большего количества закономерностей в языке, полученных в процессе обучения.

Хотя исследователи разрабатывают структуру работы каждого из этапов, важно понимать, что конкретное поведение представляет собой эмерджентность, то есть несводимость свойств системы к сумме свойств ее компонентов. Эмерджентность основана на том, как именно сотни миллиардов параметров настраиваются в процессе обучения. Поэтому определить, почему модель делает те или иные прогнозы, невероятно сложно.

Антон Прокудин о снижении цен на нефть и ослаблении рубля

Как политика Дональда Трампа повлияет на российский рынок, что будет с ценами на нефть и курсом рубля, обсудили с главным макроэкономистом УК «Ингосстрах – инвестиции» Антоном Прокудиным.

Делимся мнением эксперта от первого лица.

Наиболее важные тезисы, которые произносил Трамп и в рамках предвыборной кампании, и до нее, заключаются в том, что он хочет несколько увеличить расходы и сократить доходную часть американского бюджета за счет снижения налогов. Он также обещал ввести пошлины в отношении ряда импортных товаров, прежде всего китайских.

Продолжение





Вернуться в список новостей

Комментарии (0)
Оставить комментарий
Отправить
Новые статьи
  • Акции Ленты вернулись в зону покупки после коррекции
    Владимир Чернов, аналитик Freedom Finance Global 30.04.2026 18:34
    1329

    Лента представила результаты МСФО за первый квартал. Выручка ретейлера выросла на 23,4% г/г, до 306,9 млрд руб., при прогнозе Freedom Finance Global в пределах 300–310 млрд руб. Розничные продажи увеличились на 23,7% г/г, до 304,7 млрд руб. Валовая прибыль поднялась на 22,2% г/г, до 67,0 млрд руб. EBITDA (до применения стандарта IFRS 16) снизилась на 0,7% г/г, до 16,4 млрд руб., а чистая прибыль сократилась на 16,3% г/г, до 5,0 млрд руб.more

  • Аналитики Freedom Finance Global считают, что акции Baker Hughes торгуются выше справедливой стоимости
    аналитики Freedom Finance Global 30.04.2026 18:15
    1336

    Baker Hughes (BKR) смогла превзойти консенсус по выручке и скорректированной прибыли в I кв. 2026 года. Значительный объем заказов на оборудование для СПГ-заводов позволил показать сильные результаты. Однако негативные тенденции в сегменте нефтесервисных услуг и оборудования сохраняются. Конфликт на Ближнем Востоке привел к падению выручки региона «Ближний Восток и Азия». Компания оптимизирует портфель активов. В 2026 году менеджмент планирует получить около $3 млрд от продажи активов и завершить сделку по покупке Chart Industries за $13,6 млрд.more

  • Почему большинство россиян не имеет накоплений в банках?
    Наталья Мильчакова, аналитик Freedom Finance Global 30.04.2026 17:47
    1357

    Глава Минфина Антон Силуанов заявил, что доля держащих сбережения в банках россиян, составляет всего около 48% от общей численности населения России. В свою очередь, председатель ЦБ РФ Эльвира Набиуллина отмечает, что сбережения населения в настоящее время являются чуть ли не единственным источником финансирования российской экономики: из этих средств банки выдают кредиты, необходимые в экономике для инвестиций.more

  • Темпы роста цен в России остаются вблизи целевого диапазона ЦБ
    Владимир Чернов, аналитик Freedom Finance Global 30.04.2026 17:05
    1368

    Инфляция в России с 21 по 27 апреля ускорилась до 0,05% после 0,01% неделей ранее, рост потребительских цен замедлился с 5,68% до 5,62%. С начала апреля рост цен составил 0,23%, с начала года 3,21%, согласно данным Росстата.more

  • Насколько устойчив текущий рост американского фондового рынка: взгляд Morgan Stanley
    Ксения Малышева 30.04.2026 16:30
    1340

    Американский фондовый рынок пережил один из самых впечатляющих с технической точки зрения отскоков в истории наблюдений. После падения, вызванного военным конфликтом с Ираном в конце зимы, к концу апреля индексы не только восстановились, но и достигли новых исторических максимумов.more