mirror of
https://github.com/pese-git/simple-llm.git
synced 2026-01-23 21:14:17 +00:00
Документация и примеры: унификация путей, стабильная работа на CPU, расширенный корпус для токенизатора, end-to-end пайплайн обучения и генерации. Исправлены все ошибки с устройствами и индексами, добавлены проверки и диагностика prompt.
This commit is contained in:
23
example/train_tokenizer.py
Normal file
23
example/train_tokenizer.py
Normal file
@@ -0,0 +1,23 @@
|
||||
"""
|
||||
Обучение BPE-токенизатора на текстовом корпусе
|
||||
"""
|
||||
from simple_llm.tokenizer.bpe import BPE
|
||||
|
||||
if __name__ == "__main__":
|
||||
import torch
|
||||
# Определяем устройство
|
||||
#if torch.cuda.is_available():
|
||||
# device = 'cuda'
|
||||
#elif getattr(torch.backends, 'mps', None) and torch.backends.mps.is_available():
|
||||
# device = 'mps' # Apple Silicon
|
||||
#else:
|
||||
# device = 'cpu'
|
||||
device = 'cpu'
|
||||
print(f"Используется устройство: {device}")
|
||||
|
||||
with open('data/corpus/corpus.txt', 'r', encoding='utf-8') as f:
|
||||
texts = f.readlines()
|
||||
tokenizer = BPE(vocab_size=5000)
|
||||
tokenizer.fit(" ".join(texts))
|
||||
tokenizer.save('data/tokenizer/bpe_tokenizer.json')
|
||||
print("Токенизатор обучен и сохранён в data/tokenizer/bpe_tokenizer.json")
|
||||
Reference in New Issue
Block a user