Подробный разбор дообучения (fine-tuning) LLaMa (на примере задачи генерации заголовков к новостям)
Jupyter-ноутбуки из видео:
Больше материалов по NLP: Ml16EbQoepcwMGNi
Разработка AI-решений на заказ:
00:00 - Сравнение исходной и дообученной LLaMa
01:08 - Установка зависимостей, import модулей
02:20 - Инициализация токенизатора и модели
03:16 - Как обучить LLaMa в int4
03:45 - Тип float4
04:52 - Сравнение потребления VRAM для различных конфигураций
05:28 - Загрузка и предобработка данных
05:42 - Составляем prompt
06:56 - Токенизация
08:43 - LoRA адаптеры
10:28 - Задаем гиперпараметры
11:27 - Запускаем обучение
11:33 - Где скачать обученную LLaMa?
11:43 - Как запустить обученную LLaMa?
12:26 - Гиперпараметры генерации
13:24 - Примеры генерации