Abstract
<jats:p>Статья посвящена проблеме интеграции методов объяснимого искусственного интеллекта (XAI) в адаптивные образовательные системы, где непрозрачность алгоритмов снижает доверие пользователей. В работе предложена и верифицирована математическая модель, связывающая уровень объяснимости ИИ с эффективностью обучения через факторы доверия и когнитивной нагрузки. Результаты исследования выявили нелинейную зависимость. На основе полученных данных сформулированы рекомендации для разработчиков EdTech по поиску оптимального баланса между прозрачностью системы и ментальными усилиями обучающихся.</jats:p> <jats:p>The article is devoted to the problem of integrating explainable artificial intelligence (XAI) methods into adaptive educational systems, where the opacity of algorithms reduces user trust. The paper proposes and verifies a mathematical model that links the level of AI explainability to learning efficiency through the factors of trust and cognitive load. The results of the study revealed a non-linear relationship. Based on the obtained data, recommendations are formulated for EdTech developers to find the optimal balance between system transparency and the mental effort of learners. Artificial intelligence, adaptive educational systems (AES), cognitive load, learning efficiency, mathematical models, and automated systems.</jats:p>