Клиническое познание в контексте искусственного интеллекта
Медицинские системы принятия решений на основе искусственного интеллекта (ИИ) широко используются в здравоохранении. Быстрое развитие и коммерциализация этих систем опережают понимание их клинической ценности, создавая «пропасть ИИ». Этот разрыв обусловлен различными техническими и логистическими трудностями и проблемами клинической реализации.
Отношения между людьми и машинами могут привести к чрезмерной зависимости, недостаточной зависимости и подавленности. Текущие исследования отношений между врачом и ИИ часто основаны на самоотчетном и поверхностном анализе. Чтобы решить эти проблемы и преодолеть пропасть ИИ, когнитивная наука и понимание человеческого фактора могут обеспечить более глубокое понимание принятия решений человеком в клинических контекстах.
Врачи ставят диагноз, обнаруживая сигналы в клинической среде, которые являются сенсорными сигналами, направляющими их внимание и активирующими абстрактные представления знаний, называемые внутренними когнитивными сигналами. Эти сигналы, часто незаметные для новичков, имеют решающее значение для диагностики. По мере того, как врачи приобретают опыт, они развивают навык использования сигналов, который включает в себя сосредоточение на наиболее клинически значимой информации. Этот опыт позволяет им быстро схватывать основные черты клинической сцены с высокой точностью, направляя дальнейший анализ. Похожие процессы включают клинический гештальт, где паттерны признаков и симптомов интуитивно указывают на медицинскую проблему. Такие методы принятия решений, которые используют окружающий контекст для упрощения задач, так же эффективны, как и более сложные методы — концепция, известная как экологическая рациональность.
Рациональность — это подход к принятию решений, основанный на формальном рассуждении, часто включающий абстрактные математические правила, такие как логика и вероятность. Однако люди сталкиваются с сенсорными, когнитивными и временными ограничениями, что затрудняет оптимальную оптимизацию каждого решения. Вместо этого люди часто «удовлетворяют», то есть принимают решения, которые достаточно хороши на основе доступной информации. Используя внешние подсказки, врачи могут сузить диапазон потенциальных решений, что позволяет эффективно принимать решения на основе контекста, а не полного знания всех возможных вариантов и результатов.
В отличие от людей, новые системы ИИ с глубоким обучением могут обрабатывать огромные объемы информации для принятия решений без тех же ограничений. Однако ИИ не может игнорировать нерелевантные сигналы, что может упростить принятие решений для людей. Системы ИИ также не могут подвергать сомнению достоверность своих данных, в отличие от врачей, которые практикуют эпистемическое смирение, критически оценивая свои знания. Это фундаментальное различие в возможностях принятия решений между ИИ и врачами распространяется на здравоохранение и разработку ИИ.
Различие между принятием решений человеком и ИИ, особенно с точки зрения рациональности и способности обрабатывать контекстные сигналы, подчеркивает сложность интеграции ИИ в клиническую практику. Эта сложность часто недооценивается, что говорит о том, что процесс интеграции сложнее, чем признается в настоящее время.
Экологически ограниченная модель познания предполагает, что рациональное и оптимальное принятие решений основано на экологически обоснованных выводах. В этом контексте ограниченная рациональность относится к способности врача быть точным, используя ограниченную информацию. Концепция отстранения описывает противоположный процесс, когда решения принимаются с использованием всей доступной информации, даже если она не является оптимальной или понятной для врача. Отстранение от экологических характеристик может привести к тому, что модели ИИ будут полагаться на иррациональные характеристики, явление, известное как сокращенное обучение. Это происходит, когда модели используют нерелевантные сигналы для постановки диагноза.
Однако ИИ не является идеально традиционным рациональным из-за ограничений его обучающих данных. Модели принимают решения на основе сигналов из обучающих данных, которые могут быть недействительны с клинической точки зрения. Эти решения становятся «ограниченными набором данных», полагаясь на любые признаки, коррелирующие с метками, а не на клинически полезную информацию. По мере того, как модели ИИ повышают точность, они могут все больше расходиться с процессами принятия решений человеком. Это несоответствие вызывает опасения по поводу проблем черного ящика и объяснимости модели, когда понимание обоснований решений ИИ становится сложным.
Взаимодействие между врачами и ИИ является сложным из-за различий в процессах принятия решений и возможностях. Системы ИИ часто представляют решения, используя логику, отличную от человеческой, что затрудняет для врачей понимание базовой информации, используемой ИИ. Это отсутствие понимания приводит к уязвимостям, таким как трудности с прогнозированием ошибок или предубеждений ИИ. Врачи сталкиваются с проблемой баланса между чрезмерной зависимостью от результатов ИИ и недостаточной зависимостью, когда они могут вообще избегать ИИ.
Необходимо более глубокое понимание познания в контексте ИИ, выходящее за рамки наблюдаемого поведения для изучения базовых когнитивных процессов. Этот подход, включающий поведенческие, когнитивные и когнитивные модели анализа, может помочь понять, как принятие клинических решений адаптируется в ответ на ИИ.
Концепция врачей и ИИ как синергетической команды вводит в заблуждение, поскольку человеческие команды полагаются на общее понимание и когнитивные механизмы, в то время как человеческие команды ИИ — нет. Клиницисты экологически ограничены, принимая решения на основе своих знаний и окружающей среды, тогда как ИИ ограничен набором данных, обучаясь на корреляциях в обучающих данных без контекстных ограничений. Для безопасной разработки и внедрения медицинского ИИ необходимо всестороннее понимание клинического познания в контексте использования ИИ.
Поскольку технологии глубокого обучения становятся более автономными и сложными, но часто обманчиво похожими на человеческие по представлению, крайне важно изменить подход к клиническому познанию при использовании ИИ. Этот сдвиг включает в себя признание роли когнитивного принятия решений в разработке и использовании моделей, подчеркивание фундаментальных различий между принятием решений человеком и ИИ и расширение исследований для включения когнитивных, экологических и нейрофизиологических аспектов принятия решений. Этот комплексный подход позволит лучше решать внутренние сложности и обеспечить более безопасную интеграцию ИИ в медицинские учреждения.
Источник: The Lancet Digital Health