in

Основные закономерности в жизненных циклах генеративного ИИ

Генеративный ИИ, основанный в 1950-х годах, эволюционировал от ранних систем, основанных на правилах, до моделей, использующих алгоритмы глубокого обучения.

За последнее десятилетие достижения в аппаратном и программном обеспечении позволили создавать высококачественный контент в режиме реального времени с помощью крупномасштабных моделей генеративного ИИ.

В этой статье я расскажу, как можно успешно интегрировать генеративный ИИ в крупномасштабные производственные процессы в бизнес-среде. Итак, вы будете знать, как подготовиться к внедрению генеративного ИИ на корпоративном уровне. Например, для обслуживания клиентов, маркетинговых коммуникаций, управления финансами или других бизнес-приложений GenAI.

Роль ML в GenAI

В контексте генеративного ИИ алгоритмы ML структурируют серию задач. Эти последовательности задач представляют собой непрерывные эксперименты, требующие от нас подготовки наших команд и предприятий к повторяющимся циклам.

Например, вы инструктируете языковую модель предоставлять ответы. В этом случае вам нужно установить цикл, оценить результаты и выполнить итерацию по мере необходимости. Здесь вы будете использовать различные подходы к решению проблем или “шаблоны”, которые переходят от более простых к более продвинутым стратегиям управления задачами.

Эта диаграмма включает в себя *** различные циклы и итерации. *** Вы можете обратиться к ней и адаптировать к конкретным требованиям вашего предприятия.

 

 

Давайте разберем простой цикл.

Уровень 1. Оперативное обучение в контексте и объединение в цепочки

Шаг 1

Вы выбираете модель, даете ей подсказку, получаете ответ, оцениваете ответ и при необходимости повторно запрашиваете, пока не получите желаемый результат.

Обучение в контексте это быстрый инженерный подход, при котором языковые модели изучают задачи на нескольких примерах естественного языка и пытаются их выполнить. ICL – это новый подход в НЛП с аналогичными целями для обучения с несколькими выстрелами, которое позволяет моделям понимать контекст без тщательной настройки.

Шаг 2

Помимо шаблона Prompt → FM → Adapt → Completion, нам часто нужна цепочка задач, которая включает извлечение данных, прогнозирующий ИИ и базовые модели генеративного ИИ. Этот шаблон следующий:

Цепочка: Извлечение данных / аналитика → Запуск прогнозирующей модели ML → Отправка результата в LLM → Генерация выходных данных

Например, в маркетинговом сценарии вы можете начать с использования SQL с BigQuery для таргетирования на определенные сегменты клиентов. Далее, алгоритм прогнозирования ранжирования ИИ для выявления лучших клиентов и отправки этих данных в LLM для создания персонализированных электронных писем.

Уровень 2. Улучшение предыдущего уровня

Если вас все еще не устраивают ответы модели, вы можете попробовать доработать базовую модель. Она может быть специфичной для конкретной предметной области, отрасли или создана для определенных форматов вывода. Он точно настраивает все параметры на большом наборе данных помеченных примеров, что может быть трудоемким с точки зрения вычислений, но обеспечивает максимальную производительность.

Точная настройка параметров (PEFT) ** может быть более эффективным с точки зрения вычислений подходом по сравнению с традиционной точной настройкой. PEFT точно настраивает только подмножество параметров модели, либо путем настройки адаптера, либо низкоуровневой адаптации Большие языковые модели.

  • Настройка адаптера добавляет слой, ориентированный на конкретную задачу, обученный на небольшом наборе помеченных примеров, позволяя модели изучать особенности, специфичные для конкретной задачи, без полной настройки параметров.
  • LoRa аппроксимирует параметры модели матрицей низкого ранга, используя матричную факторизацию, эффективно настраивая ее на небольшом наборе данных помеченных примеров для изучения особенностей конкретной задачи.

Уровень 3. Обновление контекста входных данных

Шаг 1

Чтобы реализовать семантический поиск по связанным документам, вы должны разделить их на предложения или абзацы. Затем вы можете преобразовать их во вложения с помощью инструмента векторного встраивания. В этом процессе используется Примерный ближайший сосед (ANN) поиск, улучшающий реакции модели за счет снижения вероятности галлюцинации и предоставления соответствующего контекста.

Это известно как ** Расширенная генерация поиска (RAG).

  1. Начинаются с запроса пользователя или инструкции.
  2. Улучшите подсказку, добавив контекст из инструмента векторного встраивания.
  3. Отправьте расширенное приглашение в LLM.

Шаг 2

Вы можете повысить точность модели, позволив ей показать, откуда она получила ответы. В RAG это происходит до показа ответа. После генерации ответа он находит источник и делится им. Многие провайдеры, такие как Google Cloud AI, предлагают способы сделать это.

Шаг 3

FLARE, дочернее предприятие RAG, предполагает упреждающий поиск. Он предсказывает, что будет дальше, и извлекает информацию заранее, особенно когда не уверен в ответах.

Последние мысли.

Освоение этапов проекта генеративного ИИ и адаптация необходимых навыков позволяет компаниям эффективно использовать ИИ. Это сложный путь, требующий планирования, ресурсов и этических обязательств, но в результате получается мощный инструмент ИИ, который ** может трансформировать бизнес-операции.** Надеюсь, вы нашли эту информацию полезной!

Автор истории Игорь Панюк @igorpaniuk

What do you think?

Начинающий

Written by Жендос

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

GIPHY App Key not set. Please check settings