LLM training model
В скрипте llm_learn мы:
- Импортируем необходимые компоненты из библиотеки
transformers
. - Определяем функцию
train_gpt
, которая принимает путь к текстовому файлу, директорию для сохранения модели и количество эпох. - Загружаем предобученную модель GPT2 и соответствующий ей токенизатор.
- Готовим набор данных для обучения с использованием класса
TextDataset
. - Создаём объект
Trainer
с параметрами обучения и запускаем процесс обучения.
Далее в файле agent используется GPT2LMHeadModel
и GPT2Tokenizer
из библиотеки transformers
.
Сначала загружаем модель и токенизатор с их предустановленными конфигурациями.
Затем в функции generate_text
кодируем вводный текст с помощью токенизатора, генерируем ответ с помощью модели и декодируем его обратно в читаемый текст.
Результатом работы будет текст, сгенерированный моделью, начиная с заданной подсказки.