| BKT | Bayesian Knowledge Tracing — модель, которая хранит для каждой пары (ученик, микро-навык) вероятность «навык усвоен», и обновляет её после каждого ответа по правилам Байеса + шаг обучения (P(T)). |
| Micro-skill / микро-навык | Мельчайшая разумная единица умения (например «раскрытие скобок»), к которой применяют BKT отдельно. |
| (P(L)) | Вероятность того, что ученик уже овладел навыком в данный момент (latent / скрытое состояние). |
| (P(L_0)) | Стартовое (P(L)) до первой попытки по навыку (prior). |
| (P(T)) | Вероятность доучиться за одну попытку после решения задачи (transit / learning). |
| (P(S)) | Slip — «знал навык, но ответил неверно» из‑за невнимания или описки. |
| (P(G)) | Guess — «не знал, но угадал» верный ответ. |
| P(solve) | Вероятность правильно решить текущую задачу при текущем (P(L)) и параметрах: (P(L)(1-P(S))+(1-P(L))P(G)). |
| ZPD | Zone of Proximal Development — зона «чуть сложнее комфорта»; в селекторе целимся в P(solve) ≈ 0.7 (в текстах часто пишут «0,7»). |
| Селектор | Функция recommend() — ранжирует задачи из пула по близости P(solve) к цели и бонусу «слабый навык». |
| Геом. среднее по навыкам | Для задачи с несколькими микро-навыками совместная P(solve) = среднее геометрическое по навыкам — «слабое звено» сильнее влияет, чем при арифметическом среднем. |
| Теплокарта класса | Матрица ученики × навыки, цвет = текущее (P(L)); быстрый снимок всего класса. |
| Объяснимость | Короткий текст учителю «почему эта задача» из шаблонов + чисел BKT (без галлюцинаций LLM в фактах). |
| JupyterLite | Jupyter в браузере (Pyodide/WebAssembly); у нас развёрнут под /lab/. |
| IRT | Item Response Theory — модель сложности задачи и способности (\theta); хороша для снимка теста, хуже для динамики обучения, чем BKT. |
| EM / Baum–Welch | Алгоритм подгонки параметров BKT по истории ответов (к скрытой Марковской модели). |