mirror of
https://github.com/pese-git/simple-llm.git
synced 2026-01-23 13:03:55 +00:00
6832978dc1fa126e68039faded6dab942979c9aa
Simple LLM Framework
Основные компоненты
Токенизация
SimpleBPE- алгоритм Byte Pair EncodingOptimizeBPE- оптимизированная версия
Эмбеддинги
TokenEmbeddings- векторные представления токеновPositionalEmbeddings- позиционное кодирование
Transformer Layers
HeadAttention- механизм внимания одной головыMultiHeadAttention- многоголовое внимание (4-16 голов)FeedForward- двухслойная FFN сеть (расширение → сжатие)
Быстрый старт
from simple_llm import SimpleBPE, MultiHeadAttention, FeedForward
# 1. Токенизация
bpe = SimpleBPE().fit(text_corpus)
tokens = bpe.encode("Пример текста")
# 2. Полный пайплайн
model = nn.Sequential(
TokenEmbeddings(10000, 256),
PositionalEmbeddings(256, 512),
MultiHeadAttention(8, 256, 32),
FeedForward(256)
)
Документация
Примеры
# Запуск примеров
python -m example.multi_head_attention_example # Визуализация внимания
python -m example.feed_forward_example # Анализ FFN слоя
Установка
git clone https://github.com/pese-git/simple-llm.git
cd simple-llm
pip install -e .
Languages
Python
100%