Перейти к содержимому

Глоссарий

flowchart TB
subgraph pred["Предсказание"]
PL(["P(L) — выучен ли навык"])
PS(["P(solve) — решит ли задачу"])
end
subgraph params["Четыре параметра"]
PL0["P(L₀)"]
PT["P(T)"]
PSl["P(S)"]
PG["P(G)"]
end
subgraph ui["Продукт"]
SEL["Селектор задач"]
HM["Теплокарта класса"]
EXP["Объяснимость"]
end
PL --> PS
PL0 --> PL
PT --> PL
PSl --> PS
PG --> PS
PS --> SEL
PL --> HM
SEL --> EXP
ТерминОпределение
BKTBayesian Knowledge Tracing — модель, которая хранит для каждой пары (ученик, микро-навык) вероятность «навык усвоен», и обновляет её после каждого ответа по правилам Байеса + шаг обучения (P(T)).
Micro-skill / микро-навыкМельчайшая разумная единица умения (например «раскрытие скобок»), к которой применяют BKT отдельно.
(P(L))Вероятность того, что ученик уже овладел навыком в данный момент (latent / скрытое состояние).
(P(L_0))Стартовое (P(L)) до первой попытки по навыку (prior).
(P(T))Вероятность доучиться за одну попытку после решения задачи (transit / learning).
(P(S))Slip — «знал навык, но ответил неверно» из‑за невнимания или описки.
(P(G))Guess — «не знал, но угадал» верный ответ.
P(solve)Вероятность правильно решить текущую задачу при текущем (P(L)) и параметрах: (P(L)(1-P(S))+(1-P(L))P(G)).
ZPDZone of Proximal Development — зона «чуть сложнее комфорта»; в селекторе целимся в P(solve) ≈ 0.7 (в текстах часто пишут «0,7»).
СелекторФункция recommend() — ранжирует задачи из пула по близости P(solve) к цели и бонусу «слабый навык».
Геом. среднее по навыкамДля задачи с несколькими микро-навыками совместная P(solve) = среднее геометрическое по навыкам — «слабое звено» сильнее влияет, чем при арифметическом среднем.
Теплокарта классаМатрица ученики × навыки, цвет = текущее (P(L)); быстрый снимок всего класса.
ОбъяснимостьКороткий текст учителю «почему эта задача» из шаблонов + чисел BKT (без галлюцинаций LLM в фактах).
JupyterLiteJupyter в браузере (Pyodide/WebAssembly); у нас развёрнут под /lab/.
IRTItem Response Theory — модель сложности задачи и способности (\theta); хороша для снимка теста, хуже для динамики обучения, чем BKT.
EM / Baum–WelchАлгоритм подгонки параметров BKT по истории ответов (к скрытой Марковской модели).