Обе эти неудачи не означают, что все последующие попытки не увенчаются успехом, но они дают некоторое представление о перспективах цифровых технологий в медицине. В недавнем метаанализе было рассмотрено около 20 000 исследований медицинских систем искусственного интеллекта, в которых утверждалось, что они могут диагностировать болезни не хуже врачей. Ученые выявили, что только четырнадцать из этих исследований (менее 0,1 %) были выполнены на достаточном методологическом уровне, чтобы допустить эти алгоритмы до клинических испытаний[300].
То, что медицинский искусственный интеллект может не помочь пациентам, не единственная проблема. Более серьезные опасения вызывает то, что это может навредить пациентам. Например, искусственный интеллект назначит чрезмерное или некорректное лечение. Некоторые медицинские цифровые технологии, похоже, ошибаются в сторону ложноположительных результатов при диагностике (обнаруживают медицинские проблемы, когда их нет). Некоторые алгоритмы, ищущие раковые клетки, например, будут маркировать как аномальные совершенно здоровые клетки, допуская восемь ложноположительных ошибок на одно изображение[301]. Если компании и врачи заинтересованы (финансово или профессионально) во вмешательстве в дела пациентов, то это может привести к избыточному лечению.
Еще одна возможная проблема – это сбои. Опасно полагаться на цифровые технологии, потому что программирование – чрезвычайно сложный процесс, а у цифровых технологий есть потребности, которых нет у аналоговых, и все это приводит к тому, что цифровые технологии зачастую менее надежны, чем аналоговые. Сравните, например, электронную книгу с бумажной. Устройство для чтения электронных книг через определенное время нужно заряжать, оно может быть взломано, может выйти из строя, если вы уроните его в песок, воду или на твердую поверхность, и так далее. Напротив, бумажные книги очень надежны. Их не нужно заряжать, и, если вы уроните книгу с крыши здания, она, скорее всего, не слишком пострадает (пострадать может лишь проходящий мимо человек, в которого она угодит, – так что не делайте так). Когда вы имеете дело с оборудованием, спасающим жизни, вам нужна технология, не уступающая по надежности бумажной книге.
Эти разительные неудачи лишь призваны показать особенности нынешнего положения и путей дальнейшего развития в части использования цифровых технологий в медицине. Конечно, искусственный интеллект может сыграть очень важную роль в развитии медицины. Но, как и в случае с любым другим вмешательством, нам нужно, чтобы эти методы были основаны на убедительных доказательствах, прежде чем нас попросят передать наши персональные данные, и нам необходимы некоторые заверения в том, что наши данные будут обработаны должным образом и будут проанализированы все возможности и риски их использования. Слишком часто искусственный интеллект получает бесплатный допуск к нашим данным. Предположим, мы решили, что хотим провести медицинское исследование с использованием персональных данных и цифровых технологий. В конце концов, обещания персонализированной медицины очень заманчивы. И есть способы организовать это в рамках этических норм, а не так, как сделали
Этические медицинские исследования
Медицинская этика имеет долгую историю привлечения людей для исследований. Исследования с использованием персональных данных не должны сильно отличаться от других видов медицинских исследований. Несмотря на то что предоставление личных данных не похоже на сдачу крови – тут нет иглы и боли, – существуют аналогичные риски. Мы больше не заставляем людей подписываться на клинические исследования (хоть и делали это раньше, до появления медицинской этики). Мы также не должны заставлять людей предоставлять свои персональные данные для медицинских исследований. Недопустимо использовать население в качестве подопытных кроликов без их согласия, без надлежащих мер безопасности и без компенсации. Скорее нам следует запросить согласие людей, установить некоторые правила того, как их данные будут использоваться и когда они будут удалены, а также выплатить соответствующую компенсацию субъектам исследования, как мы делаем это при других исследованиях.