5.2 🪗 Fine-tuning языковых моделей на своих данных

Файнтюнинг LLM

Файнтюнинг больших языковых моделей (fine-tuning LLM) - это обширная тема с огромным разнообразием техник и подходов, которая заслуживает отдельного большого курса. Ниже проиллюстрирована основная палитра методов файнтюнинга:

 Чтобы разобраться во всём этом многообразии не хватит одного урока т.к многие из этих методов подразумевают доступ к мощным серверным видеокартам (типа A100, H100) c огромным количеством видеопамяти, а так же время на сбор качественных датасетов на миллиарды токенов. Мы разберем самый доступный и часто применяемый в небольших приложениях метод файнтюнинга - PEFT. И его самую популярную разновидность LORA. Так как в нашем арсенале только потребительские видеокарты или бесплатные ресурсы Colab, а мы хотим тюнить модельки по-жирнее, то чаще всего будем пользоваться её разновидностью для квантизованных моделей QLORA.

В этом уроке ...

  • Когда и как файнтюнить (fine-tuning)  LLM модели или достаточно RAG?
  • Какие есть варианты подготовки данных для файнтюнинга?
  • Узнаем, как файнтюнинг  поможет улучшить производительность LLM в доменных задачах
  • Разберем режим обучения c инструкцией -  instruction fine-tuning 
  • Поймем что такое PEFT , и кто такие  LoRA и QLoRA.  
  • Как PEFT снижает вычислительные "косты" и решает проблему забывания?

Нет обсуждений. Начните первое.