Files
simple-llm/tests/integration/test_bpe_integration.py
2025-07-11 12:21:33 +03:00

36 lines
1.4 KiB
Python

import pytest
from simple_llm.tokenizer.simple_bpe import SimpleBPE
from simple_llm.tokenizer.optimize_bpe import OptimizeBPE
def test_large_text_processing(bpe_class, large_text):
"""Тест обработки большого текста"""
bpe = bpe_class(vocab_size=100)
bpe.fit(large_text)
# Проверки
assert 50 < len(bpe.vocab) <= 100
assert all(len(token) <= 4 for token in bpe.vocab) # Проверка на разумную длину токенов
assert "мама" in bpe.vocab or "ма" in bpe.vocab # Проверка на наличие ожидаемых токенов
def test_special_characters(bpe_class):
"""Тест обработки специальных символов"""
text = "!@#$%^&*()_+1234567890"
bpe = bpe_class(vocab_size=30)
bpe.fit(text)
# Проверки
assert len(bpe.vocab) > 10
for char in set(text):
assert any(char in token for token in bpe.vocab) # Каждый символ должен быть в каком-то токене
def test_unicode_characters(bpe_class):
"""Тест обработки unicode-символов"""
text = "日本語 한국어 русский English"
bpe = bpe_class(vocab_size=50)
bpe.fit(text)
# Проверки
assert len(bpe.vocab) > 20
assert any("" in token for token in bpe.vocab)
assert any("" in token for token in bpe.vocab)