Abstract
<jats:p>У статті представлено удосконалений метод аналізу критичності вразливостей великих мовних моделей (large language models, LLMs), розгорнутих до використання. Визначено основні кроки цього методу, а саме: колекціонування експлойтів до вразливостей моделей, за допомогою яких здійснюється аналіз критичності ризиків; визначення рівня тяжкості наслідків атакування LLMs, що базується на суворості покарання згідно до законодавства Європейського Союзу; проведення симуляції атакування задля визначення статистичної оцінки ймовірності появи та успішності атаки; визначення рівня критичності ризиків як комбінації статистичної оцінки ймовірності та тяжкості наслідків атакування. Представлено результати використання методу аналізу критичності вразливостей на тестовій локальній моделі Mistral від компанії Mistral AI. Проаналізовано розташування вразливостей у зонах низького, середнього та високого ризику. Запропоновано напрями майбутніх досліджень щодо оцінювання та забезпечення кібербезпеки LLMs з використанням методу Intrusion Modes Effects Criticality Analysis (IMECA).</jats:p>