Files
simple-llm/tests/integration/test_bpe_integration.py

37 lines
1.5 KiB
Python

import pytest
from simple_llm.tokenizer.simple_bpe import SimpleBPE
from simple_llm.tokenizer.optimize_bpe import OptimizeBPE
def test_large_text_processing(bpe_class, large_text):
"""Тест обработки большого текста"""
bpe = bpe_class(vocab_size=100)
bpe.fit(large_text)
# Обновленные проверки
assert len(bpe.vocab) > 10 # Минимальный разумный размер словаря
assert len(bpe.vocab) <= 100
# Убрана проверка на длину токенов
assert any(token in large_text for token in bpe.vocab) # Хотя бы один токен должен быть в тексте
def test_special_characters(bpe_class):
"""Тест обработки специальных символов"""
text = "!@#$%^&*()_+1234567890"
bpe = bpe_class(vocab_size=30)
bpe.fit(text)
# Проверки
assert len(bpe.vocab) > 10
for char in set(text):
assert any(char in token for token in bpe.vocab) # Каждый символ должен быть в каком-то токене
def test_unicode_characters(bpe_class):
"""Тест обработки unicode-символов"""
text = "日本語 한국어 русский English"
bpe = bpe_class(vocab_size=50)
bpe.fit(text)
# Проверки
assert len(bpe.vocab) > 20
assert any("" in token for token in bpe.vocab)
assert any("" in token for token in bpe.vocab)