mirror of
https://github.com/pese-git/simple-llm.git
synced 2026-01-23 13:03:55 +00:00
Основные изменения в коде:
1. Токенизатор (bpe.py):
- Добавлен прогресс-бар через tqdm в метод fit()
- Улучшено логирование процесса обучения
- Добавлена обработка edge-cases для vocab_size
2. Генерация текста (generate_text.py):
- Полный рефакторинг скрипта
- Добавлены проверки модели перед загрузкой
- Поддержка уменьшенных моделей (seq_len=32)
- Подробное логирование процесса генерации
3. Обучение GPT (train_gpt_model.py):
- Автоподбор параметров под размер данных
- Уменьшенные параметры модели по умолчанию
- Контроль памяти и устройств (CPU/MPS)
4. Токенизация корпуса (tokenize_corpus.py):
- Добавлены проверки входных данных
- Подробное логирование процесса
- Обработка ошибок загрузки файлов
Исправления:
- Синхронизация размеров слоёв в GPT
- Корректная работа с малыми наборами данных
- Исправление загрузки моделей на MPS
Обновление README.md
- Добавлены обязательные зависимости: dill и tqdm
- Добавлен раздел 'Цель проекта' с описанием задач
- Добавлен раздел 'Участие в разработке' для контрибьюторов
- Добавлен раздел 'Лицензия' с условиями MIT
Рефакторинг основных скриптов и обновление данных
Основные изменения:
1. Скрипты в bin/:
- Оптимизация generate_text.py (генерация текста)
- Улучшение tokenize_corpus.py (обработка корпуса)
- Рефакторинг train_gpt_model.py (обучение модели)
- Обновление train_tokenizer.py (алгоритм BPE)
2. Данные:
- Удалены устаревшие артефакты:
* simple_llm_gpt.pth (модель)
* bpe_tokenizer.json (токенизатор)
* corpus_tokens.pkl (токены)
- Подготовка к генерации новых данных
121 lines
5.1 KiB
Python
121 lines
5.1 KiB
Python
import dill
|
||
from abc import ABC, abstractmethod
|
||
from typing import List, Dict
|
||
|
||
class BPE(ABC):
|
||
"""
|
||
Реализация алгоритма токенизации Byte Pair Encoding (BPE).
|
||
|
||
BPE — это итеративный алгоритм, последовательно объединяющий наиболее частые пары символов/токенов,
|
||
чтобы построить эффективный словарь для работы с текстом: токенизации, обучения языковой модели и т.п.
|
||
|
||
Аргументы конструктора:
|
||
vocab_size (int): Желаемый размер итогового словаря токенов (включая отдельные символы и составные токены).
|
||
|
||
Атрибуты:
|
||
vocab (List[str]): Список токенов в порядке их получения (сначала символы, затем новые пары).
|
||
token2id (Dict[str, int]): Словарь преобразования токена в его индекс.
|
||
id2token (Dict[int, str]): Обратный словарь преобразования индекса в токен.
|
||
"""
|
||
def __init__(self, vocab_size: int):
|
||
"""
|
||
Инициализация BPE токенизатора.
|
||
|
||
Args:
|
||
vocab_size (int): Размер словаря, к которому будет расширяться BPE.
|
||
"""
|
||
self.vocab_size = vocab_size
|
||
self.vocab: List[str] = []
|
||
self.token2id: Dict[str, int] = {}
|
||
self.id2token: Dict[int, str] = {}
|
||
|
||
@abstractmethod
|
||
def fit(self, text: str):
|
||
pass
|
||
|
||
def encode(self, text: str):
|
||
# 1. Разбиваем текст на токены-символы
|
||
sequence = list(text)
|
||
# 2. Инициализация пустого списка токенов
|
||
tokens = []
|
||
# 3. Установить i = 0
|
||
i = 0
|
||
while i < len(text):
|
||
# 3.1 Найти все токены в словаре, начинающиеся с text[i]
|
||
start_char = text[i]
|
||
result = [token for token in self.vocab if token.startswith(start_char)]
|
||
# 3.2 Выбрать самый длинный подходящий токен
|
||
find_token = self._find_max_matching_token(text[i:], result)
|
||
if find_token is None:
|
||
# Обработка неизвестного символа
|
||
tokens.append(text[i]) # Добавляем сам символ как токен
|
||
i += 1
|
||
else:
|
||
# 3.3 Добавить токен в результат
|
||
tokens.append(find_token)
|
||
# 3.4 Увеличить i на длину токена
|
||
i += len(find_token)
|
||
|
||
# 4. Заменить токены на их ID
|
||
return self._tokens_to_ids(tokens)
|
||
|
||
def _find_max_matching_token(self, text: str, tokens: list):
|
||
"""Находит самый длинный токен из списка, с которого начинается текст"""
|
||
matching = [token for token in tokens if text.startswith(token)]
|
||
return max(matching, key=len) if matching else None
|
||
|
||
def _tokens_to_ids(self, tokens):
|
||
"""Конвертирует список токенов в их ID с обработкой неизвестных токенов"""
|
||
ids = []
|
||
for token in tokens:
|
||
if token in self.token2id:
|
||
ids.append(self.token2id[token])
|
||
else:
|
||
ids.append(-1) # Специальное значение
|
||
return ids
|
||
|
||
def decode(self, ids: list[int]):
|
||
return ''.join(self._ids_to_tokens(ids))
|
||
|
||
def _ids_to_tokens(self, ids: list) -> list:
|
||
"""Конвертирует список Ids в их tokens"""
|
||
tokens = []
|
||
for id in ids:
|
||
if id in self.id2token:
|
||
tokens.append(self.id2token[id])
|
||
else:
|
||
tokens.append('') # Специальное значение
|
||
return tokens
|
||
|
||
def save(self, filename):
|
||
with open(filename, 'wb') as f:
|
||
dill.dump(self, f)
|
||
print(f"Объект сохранён в {filename}")
|
||
|
||
|
||
@classmethod
|
||
def load(cls, filename):
|
||
"""Загружает токенизатор из файла.
|
||
|
||
Args:
|
||
filename (str): Путь к файлу с сохраненным токенизатором
|
||
|
||
Returns:
|
||
BPE: Загруженный экземпляр токенизатора
|
||
|
||
Пример:
|
||
>>> tokenizer = BPE.load("bpe_tokenizer.pkl")
|
||
"""
|
||
"""Load trained tokenizer from file.
|
||
|
||
Args:
|
||
filename (str): Path to saved tokenizer
|
||
|
||
Returns:
|
||
BPE: Loaded tokenizer instance
|
||
"""
|
||
with open(filename, 'rb') as f:
|
||
obj = dill.load(f)
|
||
|
||
print(f"Объект загружен из {filename}")
|
||
return obj |