Основные изменения:
1. Реализация метода fit():
- Добавлен полный цикл обучения (forward/backward pass)
- Поддержка обучения на CPU/GPU
- Расчет и сохранение метрик (train_loss, validation_loss)
- Интеграция с оптимизатором Adam
2. Документация:
- Подробное описание метода в gpt_documentation_ru.md
- Примеры использования в README.md
- Параметры и требования к данным
3. Тестирование:
- Тесты базовой функциональности
- Проверка изменения весов
- Тесты для разных устройств (CPU/CUDA)
- Обработка edge-cases
4. Примеры:
- train_gpt_example.py с полным workflow
- Генерация синтетических данных
- Сохранение/загрузка моделей
- Добавлен класс GetData для работы с последовательными данными
- Реализован функционал:
* Создание датасета из последовательности
* Автоматическое формирование пар (input, target)
* Поддержка CPU/GPU
* Проверка корректности параметров
- Добавлены тесты для проверки функционала
- Создан пример использования в example/
- Добавлена документация с блок-схемой в doc/
- Обновлен README.md с информацией о новом классе
Основные изменения:
- Реализован основной класс GPT в simple_llm/transformer/gpt.py:
* Токенные и позиционные эмбеддинги
* Многоголовое внимание
* Полносвязные слои
* Нормализация слоев
* Поддержка dropout
- Добавлен пример использования в example/example_gpt.py:
* Инициализация модели
* Генерация текста
* Сохранение/загрузка модели
- Написаны тесты:
* Базовый функционал модели
* Операции сохранения/загрузки
* Проверка размерностей ввода/вывода
- Добавлена документация на русском:
* Обзор архитектуры
* Процесс обучения
* Примеры использования
- Обновлен README.md с информацией о GPT
- Основной модуль декодера (Decoder) с:
* Self-Attention механизмом
* Encoder-Decoder Attention слоем
* LayerNormalization
* Позиционными эмбеддингами
- Примеры использования с документацией
- Полный набор unit-тестов
- Документация на русском языке
- Добавлен пример использования MultiHeadAttention
- Обновлена схема архитектуры
- Добавлены новые команды разработки
- Улучшена структура документации
- Реализация одного головного внимания из Transformer
- Полная документация на русском языке
- Пример использования с визуализацией
- Обновление README с ссылками