Back to Search View Original Cite This Article

Abstract

<jats:p>Статья посвящена проблеме интеграции методов объяснимого искусственного интеллекта (XAI) в адаптивные образовательные системы, где непрозрачность алгоритмов снижает доверие пользователей. В работе предложена и верифицирована математическая модель, связывающая уровень объяснимости ИИ с эффективностью обучения через факторы доверия и когнитивной нагрузки. Результаты исследования выявили нелинейную зависимость. На основе полученных данных сформулированы рекомендации для разработчиков EdTech по поиску оптимального баланса между прозрачностью системы и ментальными усилиями обучающихся.</jats:p> <jats:p>The article is devoted to the problem of integrating explainable artificial intelligence (XAI) methods into adaptive educational systems, where the opacity of algorithms reduces user trust. The paper proposes and verifies a mathematical model that links the level of AI explainability to learning efficiency through the factors of trust and cognitive load. The results of the study revealed a non-linear relationship. Based on the obtained data, recommendations are formulated for EdTech developers to find the optimal balance between system transparency and the mental effort of learners. Artificial intelligence, adaptive educational systems (AES), cognitive load, learning efficiency, mathematical models, and automated systems.</jats:p>

Show More

Keywords

systems системы edtech artificial intelligence

Related Articles