Abstract
<jats:p>Введение. Внедрение технологий искусственного интеллекта (ИИ) в систему здравоохранения сопровождается не только новыми возможностями, но и рисками вреда, включая ошибки алгоритмов, способных повлиять на жизнь и здоровье пациента. Недостатки в области этикоправового регулирования ответственности при использовании ИИ в здравоохранении в национальном контексте могут стать барьером для цифровой трансформации страны. Цель исследования. Изучить этико-правовые вызовы ИИ в здравоохранении Кыргызской Республики и разработать рекомендации по обеспечению его ответственного использования с учетом национального контекста цифровизации страны. Материалы и методы. Аналитический обзор нормативных актов, международных этических руководств в области использовании ИИ и цифрового здравоохранения. Результаты. Внедрение технологий ИИ в здравоохранении идет неравномерно. Медицинские работники чувствуют себя потерянными в новых системах ИИ, так как не обучены работать с цифровыми платформами. Из-за нехватки централизованных хранилищ медицинская информация разбросана, и ИИ не может «обучаться» эффективно; возникают проблемы доверия к системам ИИ со стороны медиков. Этические аспекты применения ИИ в стране остаются вне фокуса академических и прикладных исследований; в открытом доступе отсутствуют как систематические обзоры, так и эмпирические данные по данному вопросу. Единого закона о цифровизации и искусственном интеллекте в Кыргызстане еще нет. В стране не предусмотрена классификация рисков для медицинских систем на базе ИИ. Вопросы моральной и юридической ответственности за искажения ИИ, повлекшие врачебные ошибки в стране не отрегулированы. Ответственность за ошибки ИИ в здравоохранении должна носить многослойный характер. Врачи сохраняют профессиональную ответственность за клинические решения. Разработчики ИИ обязаны обеспечивать качество алгоритмов. Медицинские организации должны создавать условия для безопасного применения технологий. Заключение. Этические и правовые проблемы использования ИИ могут стать вызовом для цифровизации Кыргызской Республики. Применение ИИ в медицине требует этико-правовой базы, которая четко разграничивает зоны ответственности всех участников, повышая доверие врачей и пациентов к ИИ, а также их мотивацию пользоваться ИИ.</jats:p> <jats:p>Киришүү. Жасалма интеллект (ЖИ) технологияларын саламаттык сактоо системасына киргизүү жаңы мүмкүнчүлүктөр менен кошо, бейтаптын өмүрүнө жана ден соолугуна таасир этүүчү алгоритмдик каталар сыяктуу зыяндуу тобокелдиктерди да жаратат. ЖИни колдонууда этикалык жана укуктук жоопкерчиликти жөнгө салуунун улуттук деңгээлдеги кемчиликтери өлкөнүн санариптик трансформациясына тоскоол болушу мүмкүн. Изилдөөнүн максаты. Кыргыз Республикасынын саламаттыкты сактоо тармагында жасалма интеллекттин этикалык жана укуктук көйгөй лөрүн изилдөө жана өлкөнүн санариптештирүүсүнүн улуттук контексттерин эске алуу менен аны жоопкерчиликтүү колдонууну камсыз кылуу боюнча сунуштарды иштеп чыгуу. Материалдар жана ыкмалар. Жасалма интеллектти жана санариптик саламаттык сактоону колдонууга байланыштуу ченемдик укуктук актыларга, ошондой эле эл аралык этикалык документтерге аналитикалык талдоо жүргүзүү. Натыйжалар. Кыргызстанда саламаттык сактоо тармагында ЖИ технологияларын киргизүү тең салмаксыз жүрүп жатат. Медицина кызматкерлери санариптик платформалар менен иштөө үчүн жетиштүү деңгээлде окутулбагандыктан, жаңы ЖИ системаларында адашып калышат. Борборлоштурулган маалымат сактагычтардын жетишсиздигинен улам медициналык маалыматтар чачыранды жайгашкан, натый жада ЖИни натыйжалуу “үйрөнө” албай калат. Мындан тышкары, медициналык кызматкерлердин ЖИ системаларына ишеними төмөн бойдон калууда. Кыргызстанда ЖИ колдонуунун этикалык аспектилери академиялык жана прикладдык изилдөөлөрдүн көңүл чордонунан тышкары бойдон калууда. Коомдо бул багыт боюнча системалуу сынпикирлер же эмпирикалык маалыматтар ачык булактарда жок. Кыргызстанда азырынча санариптештирүү жана ЖИ боюнча бирдиктүү мыйзам дагы кабыл алына элек. ЖИ негизиндеги медициналык системалар үчүн тобокелдиктердин классификациясы өлкөдө каралган эмес. ЖИден келип чыккан бурмалоолордун айынан дарыгерлер ката кетирген учурларда моралдык жана юридикалык жоопкерчилик маселеси укуктук талаада жөнгө салынган эмес. Саламаттык сактоодо ЖИни колдонуудагы каталар үчүн жоопкерчилик көп катмарлуу болушу керек. Дарыгерлер клиникалык чечимдер үчүн кесиптик жоопкерчиликти сактап калышат. Ал эми ЖИни иштеп чыгуу учурлары алгоритмдердин сапатына кепилдик берүүгө милдеттүү. Медициналык уюмдар технологияларды коопсуз пайдалануу үчүн тий иштүү шарттарды түзүүгө тийиш. Жыйынтыгы. ЖИни колдонууга байланыштуу этикалык жана укуктук маселелер Кыргыз Республикасын санариптештирүү үчүн олуттуу кыйынчылыктарды жаратышы мүмкүн. Медицинада ЖИни колдонуу этикалык-укуктук базага муктаж, ал бардык тараптардын жоопкерчилик чөйрөсүн так аныктап берүүгө тийиш. Бул өз кезегинде дарыгерлер менен бейтаптардын ЖИге болгон ишенимин жогорулатып, аларды технологияны колдонууга шыктандырат.</jats:p> <jats:p>Introduction. The introduction of artificial intelligence (AI) technologies into the healthcare system is accompanied not only by new opportunities but also by risks of harm, including algorithm errors that can affect patients' lives and health. Shortcomings in the ethical and legal regulation of responsibility when using AI in healthcare in the national context can become a barrier to the country's digital transformation. Purpose of the study. To explore the ethical and legal challenges of AI in healthcare in the Kyrgyz Republic and develop recommendations to ensure its responsible use, taking into account the national context of the country's digitalization. Materials and methods. Analytical review of regulations, international ethical guidelines in the field of AI and digital healthcare. Results. The introduction of AI technologies in healthcare is uneven. Healthcare workers feel lost in new AI systems, as they are not trained to work with digital platforms. Due to the lack of centralized repositories, medical information is scattered, and AI cannot “learn” effectively; problems of trust in AI systems on the part of doctors arise. Ethical aspects of AI use in the country remain outside the focus of academic and applied research; there are no systematic reviews or empirical data on this issue in the public domain. There is no single law on digitalization and artificial intelligence in Kyrgyzstan either. The country does not provide for a classification of risks for AI-based medical systems. Issues of moral and legal responsibility for AI mistakes that lead to medical errors are not regulated in the country. Responsibility for AI errors in healthcare should be multi-layered. Physicians retain professional responsibility for clinical decisions. AI developers are required to ensure the quality of algorithms. Medical organizations must create conditions for the safe use of technologies. Conclusion. Ethical and legal issues of AI use can become a challenge for the digitalization of the Kyrgyz Republic. The use of AI in medicine requires an ethical and legal framework that clearly delineates the areas of responsibility of all participants, increasing the trust of doctors and patients in AI and their motivation to use AI.</jats:p>