ЛОНДОН. В интервью журналу Wall Street Journal, опубликованном ранее в этом году, Дэвид Фейнберг, глава Google Health и самозваный астролог, восторженно сказал: «Если вы верите мне, что мы лишь систематизируем информацию с целью упростить жизнь вашему врачу, то я, позволив себе некоторый патернализм, вряд ли когда-либо от этого откажусь».
Другими словами, у пациентов скоро не останется иного выбора, кроме как получать персонализированные клинические гороскопы, основанные на их собственной истории болезни и выводах, сделанных на основе растущего банка анамнезов. Но даже если мы хотим жить в таком мире, то должны внимательно присмотреться к тому, что же на самом деле продают нынешние адепты медицинских технологий.
В последние годы большинство американских компаний Big Tech — а также многие стартапы, компании Big Pharma и другие — вступили в сферу медицинских технологий. С помощью аналитики больших данных, искусственного интеллекта (ИИ) и других новых методов они обещают сократить расходы на проблемные системы здравоохранения, произвести революцию в сфере принятия врачами решений о лечении — в общем, спасти нас от нас самих. Что же может пойти не так?
Оказывается, многое. В книге Weapons of Math Destruction («Оружие математического поражения») аналитик данных Кэти О'Нил приводит множество примеров того, как алгоритмы и данные могут без всякого злого умысла нас подвести. Когда прозрачные алгоритмы обратной связи для данных применялись к бейсболу, они работали даже лучше, чем ожидалось; но когда подобные модели используются в финансах, страховании, правоохранительной деятельности и образовании, они могут быть весьма дискриминационными и разрушительными.
Можно возразить, что, если новые решения дают некоторые преимущества, они заслуживают внимания. Но без масштабных, хорошо проработанных эмпирических исследований мы не можем уверенно сказать, действительно ли аналитика данных и ИИ улучшают текущую ситуацию. И отсутствуют не только доказательства этой пользы — отсутствует инфраструктура или нормативная база для их сбора. Приложения для работы с большими данными просто внедряются в систему здравоохранения, как если бы они были безвредными или бесспорно полезными.
Рассмотрим Project Nightingale, частную систему обмена данными между Google Health и Ascension, крупной некоммерческой системой здравоохранения в США. Когда в ноябре прошлого года Wall Street Journal впервые сообщил об этих секретных контактах, это вызвало скандал из-за опасений по поводу личных данных пациентов. Хуже того: как открыто признался Файнберг в той же газете всего два месяца спустя, «мы сами не понимали, что делаем».
Учитывая, что компании Big Tech не имеют опыта работы в сфере здравоохранения, такие признания не должны вызывать удивления, несмотря на попытки убедить нас в обратном. Более того, в то время как конфиденциальность становится для человека скорее роскошью, чем правом, алгоритмы, которые все больше управляют нашей жизнью, превращаются в недоступные черные ящики, закрытые от общественного или нормативного контроля с целью защиты корпоративных интересов. А в случае здравоохранения алгоритмические модели диагностики и принятия решений иногда дают результаты, которых не понимают сами врачи.
Несмотря на то, что многие из тех, кто стремится в сферу здравоохранения, руководствуются благими намерениями, нынешний подход в этой отрасли основан на отсутствии этики и на плохой информированности. Никто не возражает против улучшения здравоохранения с помощью технологий. Но прежде чем вступать в партнерские отношения с технологическими компаниями, руководители и организации здравоохранения должны лучше разобраться в медицинских технологиях.
Начнем с того, что важно помнить: выводы на основе больших данных делаются с помощью статистики и математики, для чего требуется специфическая грамотность. Когда алгоритм обнаруживает «причинно-следственную связь» или какой-либо другой признак ассоциации, эта информация может быть полезна для проведения дальнейших исследований, основанных на гипотезах. Но когда дело доходит до фактического принятия решений, математически управляемые прогностические модели не более надежны, чем данные, вводимые в них. А поскольку их фундаментальные допущения основаны на том, что уже известно, они дают нам картину прошлого и настоящего, но не будущего. Такие приложения имеют большой потенциал для улучшения здравоохранения и сокращения расходов, но польза от них не гарантирована.
Другой критической областью является ИИ, для которого требуется как собственная архитектура — то есть правила и базовая логика, определяющая, как работает система, — так и доступ к огромным объемам потенциально конфиденциальных данных. Цель — настроить систему так, чтобы она могла сама себя «обучить» находить оптимальные решения поставленных проблем. Но здесь нужно помнить, что создатели архитектуры — люди, пишущие правила и формулирующие проблемы, — столь же предвзяты, как и все остальные, независимо от того, хотят они этого или нет. Более того, как и в случае анализа данных, системы искусственного интеллекта руководствуются данными из системы здравоохранения в ее нынешнем виде, что может повлечь воспроизведение ими и ее неудач, и ее успехов.
В первую очередь медицинские организации и правительства должны снять розовые очки и критически подумать о последствиях использования в здравоохранении новых программ, в значительной степени непроверенных. Вместо того, чтобы просто раздавать истории болезни пациентов и другие данные, больницы и регулирующие органы должны следить за разработчиками технического сектора, которые выстраивают архитектуру и внедряют новые экспериментальные системы. Больше людей должны высказать свое мнение и критически оценить допущения, лежащие в основе первоначальных прототипов, а после этого нужно провести контролируемые эксперименты для оценки реальных характеристик этих технологий.
Решения для здравоохранения на основе больших данных, будучи чрезмерно разрекламированными, спешно отправляются на рынок без особого регулирования, прозрачности, стандартизации, подотчетности или надежных методов валидации. Пациенты заслуживают того, чтобы системы здравоохранения и медицинские учреждения защищали их, а не просто использовали как источники данных для экспериментов, нацеленных на получение прибыли.