Files
simple-llm/example
Sergey Penkovsky a150828665 Добавление механизма внимания HeadAttention
- Реализация одного головного внимания из Transformer
- Полная документация на русском языке
- Пример использования с визуализацией
- Обновление README с ссылками
2025-07-19 11:35:11 +03:00
..
2025-07-11 12:21:33 +03:00