Рефакторинг и улучшение компонентов

Основные изменения в коде:

1. Токенизатор (bpe.py):
- Добавлен прогресс-бар через tqdm в метод fit()
- Улучшено логирование процесса обучения
- Добавлена обработка edge-cases для vocab_size

2. Генерация текста (generate_text.py):
- Полный рефакторинг скрипта
- Добавлены проверки модели перед загрузкой
- Поддержка уменьшенных моделей (seq_len=32)
- Подробное логирование процесса генерации

3. Обучение GPT (train_gpt_model.py):
- Автоподбор параметров под размер данных
- Уменьшенные параметры модели по умолчанию
- Контроль памяти и устройств (CPU/MPS)

4. Токенизация корпуса (tokenize_corpus.py):
- Добавлены проверки входных данных
- Подробное логирование процесса
- Обработка ошибок загрузки файлов

Исправления:
- Синхронизация размеров слоёв в GPT
- Корректная работа с малыми наборами данных
- Исправление загрузки моделей на MPS

Обновление README.md

- Добавлены обязательные зависимости: dill и tqdm
- Добавлен раздел 'Цель проекта' с описанием задач
- Добавлен раздел 'Участие в разработке' для контрибьюторов
- Добавлен раздел 'Лицензия' с условиями MIT

Рефакторинг основных скриптов и обновление данных

Основные изменения:
1. Скрипты в bin/:
   - Оптимизация generate_text.py (генерация текста)
   - Улучшение tokenize_corpus.py (обработка корпуса)
   - Рефакторинг train_gpt_model.py (обучение модели)
   - Обновление train_tokenizer.py (алгоритм BPE)

2. Данные:
   - Удалены устаревшие артефакты:
     * simple_llm_gpt.pth (модель)
     * bpe_tokenizer.json (токенизатор)
     * corpus_tokens.pkl (токены)
   - Подготовка к генерации новых данных
This commit is contained in:
Sergey Penkovsky
2025-07-24 12:58:59 +03:00
parent 6ce048d4ad
commit cc4138aba8
19 changed files with 515 additions and 338 deletions

81
bin/generate_text.py Executable file
View File

@@ -0,0 +1,81 @@
#!/usr/bin/env python3
"""
Генерация текста (финальная версия)
"""
import argparse
import torch
from simple_llm.tokenizer.simple_bpe import SimpleBPE
from simple_llm.transformer.gpt import GPT
def main():
parser = argparse.ArgumentParser()
# Обязательные параметры
parser.add_argument('--model', type=str, required=True,
help='Путь к файлу модели (.pth)')
parser.add_argument('--tokenizer', type=str, required=True,
help='Путь к файлу токенизатора (.json)')
parser.add_argument('--prompt', type=str, required=True,
help='Начальный текст для генерации')
# Параметры модели (должны соответствовать обучению)
parser.add_argument('--seq-len', type=int, default=64,
help='Макс. длина последовательности (как при обучении)')
parser.add_argument('--emb-size', type=int, default=64,
help='Размер эмбеддингов (как при обучении)')
parser.add_argument('--num-heads', type=int, default=4,
help='Количество голов внимания (как при обучении)')
parser.add_argument('--head-size', type=int, default=16,
help='Размер головы внимания (как при обучении)')
parser.add_argument('--num-layers', type=int, default=2,
help='Количество слоёв (как при обучении)')
parser.add_argument('--dropout', type=float, default=0.1,
help='Dropout (как при обучении)')
# Параметры генерации
parser.add_argument('--length', type=int, default=50,
help='Количество генерируемых токенов')
parser.add_argument('--temperature', type=float, default=0.7,
help='Температура сэмплинга (0.1-1.0)')
args = parser.parse_args()
# Загрузка
device = 'cuda' if torch.cuda.is_available() else 'cpu'
print(f"Используется устройство: {device}")
tokenizer = SimpleBPE.load(args.tokenizer)
print(f"Загружен токенизатор (vocab_size={tokenizer.vocab_size})")
# Инициализация модели
model = GPT(
vocab_size=tokenizer.vocab_size,
max_seq_len=args.seq_len,
emb_size=args.emb_size,
num_heads=args.num_heads,
head_size=args.head_size,
num_layers=args.num_layers,
dropout=args.dropout,
device=device
)
model.load_state_dict(torch.load(args.model, map_location=device))
model.eval()
print(f"Загружена модель с {sum(p.numel() for p in model.parameters()):,} параметрами")
# Генерация
print(f"\nГенерация текста для промта: '{args.prompt}'")
tokens = tokenizer.encode(args.prompt)
print(f"Токены промта: {tokens}")
output = model.generate(
x=torch.tensor([tokens], device=device),
max_new_tokens=args.length,
do_sample=True,
temperature=args.temperature
)
print("\n=== Результат ===")
print(tokenizer.decode(output[0].tolist()))
if __name__ == '__main__':
main()