План на курса

Въведение в Reinforcement Learning от човешки обратна връзка (RLHF)

  • Какво е RLHF и защо е важно
  • Сравнение с метода за супервизиран подробен настройка
  • Приложения на RLHF в съвременни системи за изкуствен интелигент

Моделиране на награда с човешка обратна връзка

  • Събиране и структуриране на човешка обратна връзка
  • Създаване и обучение на модели за награди
  • Оценка на ефективността на моделите за награди

Обучение с алгоритъм за оптимизация на проксмална политика (PPO)

  • Обзор на алгоритмите PPO за RLHF
  • Имплементация на PPO с модели за награди
  • Итеративно и безопасно подробно настройване на моделите

Практическо Fine-Tuning на езикови модели

  • Подготовка на данни за работни процеси на RLHF
  • Практическо подробно настройване на малък езиков модел с RLHF
  • Проблеми и стратегии за улесняване

Мащабиране на RLHF в производствени системи

  • Разглеждане на инфраструктура и изчисления
  • Осигуряване на качество и непрекъснати цикли на обратна връзка
  • Наи-добри практики за развертане и поддържане

Етични разсъждения и намаляване на предразсъдъци

  • Засичане и коррекция на предразсъдъци
  • Стратегии за откриване и намаляване на предразсъдъци
  • Осигуряване на съответствие и безопасни изходи

Кейс студии и примерни приложения

  • Кейс студия: Подробно настройване на ChatGPT с RLHF
  • Други успешни развертания на RLHF
  • Науки и инсайти от индустрията

Резюме и следващи стъпки

Изисквания

  • Разбиране в основите на надзорно и подкрепящо обучение
  • Опит в тонко настройка на модели и архитектури на невромрежи
  • Знакомство с програмирането на Python и рамки за дълбоко обучение (напр., TensorFlow, PyTorch)

Целева аудитория

  • Инженери по машинно обучение
  • Изследователи в областта на изкуствения интелигент
 14 Часа

Брой участници


Цена за участник

Предстоящи Курсове

Свързани Kатегории