Эксперты: автономный ИИ в реанимации требует новых правил контроля
Авторы подчеркивают, что отделения интенсивной терапии относятся к наиболее сложным клиническим средам, где решения принимаются в условиях высокой неопределенности и постоянного потока данных. Это делает их одной из ключевых точек внедрения ИИ, но одновременно повышает требования к безопасности и управляемости таких технологий.
В работе предложена классификация из пяти уровней ИИ – от простых решений для одного пациента до комплексных систем, способных управлять несколькими пациентами, устройствами и клиническими процессами. На верхнем уровне речь идет о решениях, объединяющих различные алгоритмы и цифровую инфраструктуру медицинской организации.
По мере перехода к таким системам возрастает и регуляторная сложность. Действующие механизмы ориентированы на отдельные медицинские изделия и плохо применимы к адаптивным и взаимосвязанным решениям, что создает дополнительные риски с точки зрения безопасности и распределения ответственности.
В качестве одного из возможных направлений авторы рассматривают внедрение механизмов дополнительного контроля. Это предполагает использование одних алгоритмов для проверки и мониторинга работы других. По мнению исследователей, это может повысить надежность автономных решений.
Эксперты также указывают на барьеры внедрения, включая ограничения IT-инфраструктуры, нехватку цифровых навыков у медицинских работников и неопределенность юридической ответственности. Эти факторы, как отмечают авторы, замедляют переход к более сложным ИИ-решениям.
Исследователи пришли к выводу, что дальнейшее развитие ИИ в интенсивной терапии будет зависеть от способности регуляторов перейти от оценки отдельных решений к контролю их взаимодействия в клинической практике, иначе масштабное внедрение таких технологий будет затруднено. При этом регуляторы по всему миру уже адаптируют правила под внедрение ИИ в здравоохранение, стремясь ускорить вывод технологий на рынок при сохранении контроля за безопасностью. Так, в США развивается механизм предварительного согласования обновлений алгоритмов (PCCP), в Евросоюзе и Азии – «регуляторные песочницы» для тестирования решений.
В России также формируется нормативная база для ИИ: в марте 2026 года Минцифры представило законопроект с едиными правилами разработки и применения технологий, основанный на риск-ориентированном подходе. Документ вводит понятие «доверенных моделей», обязательных для использования в госсекторе и на критической инфраструктуре, включая здравоохранение, и предусматривает распределение ответственности между участниками рынка. В то же время эксперты отмечают, что внедрение ИИ, особенно генеративных решений, опережает регулирование, а существующие механизмы пока не в полной мере учитывают рост автономности и сложности таких систем.
Подписывайтесь на наши каналы в MAX: Vademecum и Vademecum Live