Lifestyle / Financial One

Как работает ChatGPT

Как работает ChatGPT
2149

О принципах работы ChatGPT рассказал NLP-исследователь Валентин Малых на киберфестивале Positive Hack Days. Запись выступления опубликована на YouTube-канале «Positive Events».

Обучение языковой модели

NLP-исследователи занимаются извлечением пользы из текстов. Языковая модель позволяет человеку формулировать мысли и доносить их до других людей. В отличие от человека языковая модель машины представляет собой набор математических функций. ChatGPT – обыкновенная языковая модель. Разработчики берут базовый текст и пытаются его продолжить с помощью языковой модели, которая предсказывает следующее слово на основе модели конкретного языка. Например, предложение «мама мыла» продолжится словом «раму», а с отсылкой к Л. Н. Толстому за словом «Война» последует «и мир».

Процесс обучения языковой модели сложен. Он начинается с того, что человек отбирает в тексте слова конкретного языка. Так, перед специалистом стоит задача отметить фразы на французском языке в романе «Война и мир». В более широком контексте задача различать слова разных языков неочевидная – например, письменность многих народов создана на основе кириллицы.

«Теперь у нас есть разметка набора данных, и теперь мы пытаемся добиться от нашей модели того, чтобы она эту разметку нам воспроизводила. Что значит воспроизводила? Это значит, что мы даем нашей модели посмотреть текст, вот этот самый текст “Войны и мира”, и она нам должна сказать: “Вот это предложение – на русском языке, а это предложение – не на русском языке. <…> Конечно, важно отметить, что помимо задачи распознавания языка есть еще куча других задач – их буквально сотни», – рассказывает Малых.

Чтобы языковая модель предсказала желаемый результат, необходимо выбрать пример для обучения и описать желаемый результат. Разработчики могут заставить модель генерировать именно ту фразу, которую они хотят получить. Однако этот способ неоптимальный.

Внутриконтекстное обучение модели

За последние пару лет в области произошли изменения – появилась модель Т5 (Text-To-Text Transfer Transformer), которая иначе подходит к привычным методам работы с данными. При общении с моделью разработчики перешли от цифровых символов к текстовым: специалист задает модели текстовые данные и получает от нее выход тоже в виде текста. Преимущество – человек может сразу понять и оценить текстовый выход, то есть стало возможно работать с текстами без использования дополнительной разметки.

Следствием модели Т5 стало появление внутриконтекстного обучения. Контекст – это слова, которые разработчик дает модели, а модель использует их как затравку.

«У нас есть набор слов, с которым мы что-то делаем. Интересное заключается в том, что, оказалось, современные модели (те модели, которые сейчас уже можно назвать предшественниками ChatGPT <…>) уже умеют следующую историю. Если мы им в контексте нашей затравки покажем, как что-то делать даже без специального обучения, то есть просто покажем, что у нас есть перевод, допустим, с английского на немецкий или с японского на корейский, то получается, что мы показали один пример, второй пример, а на третий пример модель уже “догадалась”, что мы можем делать точно так же еще», – поясняет исследователь.

Разработчик вводит пример на английском языке, а модель сама переводит этот текст на немецкий язык. Модель, не обучавшаяся задаче машинного перевода, выполняет задачу по контексту. Поэтому специалисты назвали данную историю внутриконтекстным обучением.

Способность рассуждать

Теперь разработчики могут попросить модель порассуждать на определенную тему. При этом если модель просят представить рассуждение, то качество ее ответов становится выше. Сейчас становится популярным RLHF (Reinforcement Learning from Human Feedback) – метод обучения языковой модели, который позволяет ей научиться соответствовать ожиданиям людей. Это позволяет сделать текст более «человеческим» – то есть внешне более логически связанным.

Метод основан на обучении с подкреплением, базирующемся на взаимодействии агента и окружения. «Агент делает некоторое действие, окружение как-то на действие реагирует, и агент получает награду от окружения – вот это базовая история. Вся идея заключается в том, что теперь у нас есть некая штука, которая умеет взаимодействовать с окружением, только теперь это взаимодействие уже можно обставить», – поясняет исследователь.

Потребность в окружении отпадает, когда появляется модель награды. Разработчик получает от модели несколько вариантов ответа, ранжирует полученные варианты от лучшего к худшему и обучает модель награды. За счет нее языковая модель учится «говорить» как человек, получая некую награду за свои действия.

Таким образом, предсказание следующего слова позволяет обучить языковую модель не только определенным, но и произвольным задачам, причем обучать модель можно на ходу.

Сергей Попов про PHDays, про акции Tesla и конференцию SmartLab

Обсудили жизнь после дивидендов Сбербанка и другие темы с управляющим директором NZT Rusfond Сергеем Поповым.

По словам Попова, киберфестиваль Positive Hack Days, организованный Positive Technologies, стал одним из самых масштабных мероприятий для инвесторов. На фестивале представители компании и приглашенные эксперты доступно рассказали о кибербезопасности и работе данного сектора. Участникам удалось познакомиться с продукцией компаний, производящих решения для информационной защиты.

Продолжение




Теги: ChatGPT, инвестиции, технологии

Вернуться в список новостей

Комментарии (0)
Оставить комментарий
Отправить
Новые статьи
  • Как прошла информационная кампания США на нефтяном рынке
    Автор: Маргарита Вахрушева 07.06.2023 18:15
    344

    О напряжении Саудовской Аравии и РФ, влиянии США на нефтяной рынок и дальнейшей динамике цен на нефть рассказал эксперт аналитического центра «Инфотэк» Александр Фролов ведущему Максиму Радайкину на YouTube-канале «Геоэнергетика инфо».

    Незадолго до начала встречи ОПЕК+, которая состоялась 4 июня, наблюдалось напряжение во взаимоотношениях России и Саудовской Аравии, сообщила The Wall Street Journal в конце мая со ссылкой на источники, знакомые с вопросом. По их данным, Эр-Рияд высказал Москве недовольства: по мнению королевства, РФ не сдержала обещания по сокращению добычи нефти в полной мере. После встречи ОПЕК+ вице-премьер РФ Александр Новак, ссылаясь на данные Минэнерго, заявил, что Россия снизила добычу нефти на 500 тысяч баррелей в сутки и будет дальше следовать заявленным договоренностям.

    По мнению эксперта, заявление The Wall Street Journal о претензиях Саудовской Аравии к России перед встречей ОПЕК+ было крупной информационной кампанией, которая могла вынудить более мелких участников картеля сомневаться в правильности курса крупных игроков. Предполагаемое принятие NOPEC, вероятно, вызывает беспокойство у более мелких игроков, которые боятся ареста активов со стороны США. По словам Фролова, ожидалось, что мелкие участники будут настаивать на увеличении добычи нефти до уровня февраля.

    Продолжение

    more

  • Как дела у SoFi, Tesla и Palantir – обсуждаем свежие новости
    Автор: Яна Кудрявцева 07.06.2023 16:00
    380

    Сегодня поговорим про бизнес тройки крупных игроков и обсудим важные для инвесторов моменты.more

  • Что ждет США и Китай, делать ли ставку на ИИ, как победить инфляцию – на вопросы ответил Тимур Турлов
    Автор: Яна Кудрявцева 07.06.2023 13:42
    410

    Про состояние мировой финансовой системы, роль США и Китая, перспективы компаний с ИИ, а также выигрышные классы активов в условиях растущей инфляции рассказал финансист и предприниматель Тимур Турлов.more

  • Чем порадовала TCS Group
    Автор: Маргарита Вахрушева 07.06.2023 12:59
    408

    Обзор новостей о дивидендах и отчетах компаний сделал Евгений Бабаев на YouTube-канале «Дзен инвестиции».more

  • Что с прибылью у ВТБ
    Автор: fomag.ru 07.06.2023 11:17
    438

    ВТБ в рамках второй допэмиссии привлек 94 млрд рублей, по результатам размещения ценных бумаг доля государства в капитале банка снизится с 76,4% до 61,8%.more