16 ноября 2023 года

Организация Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) должна использовать преобразующую силу философии для развития критического мышления и содействия соблюдению этических норм в рамках усилий международного сообщества по решению современных проблем. Организация была создана в 1945 году в соответствии с идеей о том, что моральная и интеллектуальная солидарность человечества должна служить основой мира. Философия играет заметную роль во всех человеческих цивилизациях, оставляя свой след в социальных и политических структурах, языках и культурных обменах. По этой причине данная дисциплина включает все разнообразные представления человеческих обществ и продолжает поддерживать цикл взаимного влияния между нашими коллективными чувствами этики и морали.

Международное сообщество стремится к созданию более инклюзивных обществ, и ЮНЕСКО может опираться на философию и гуманитарные науки для достижения этой общей цели. Как наши общества должны справляться с изменением климата? Что мы хотим получить от цифровой революции? Данные глобальные тенденции заставляют нас задавать философские, моральные и этические вопросы, на которые необходимо будет ответить для достижения наших целей в области устойчивого и инклюзивного развития.

Для решения возникающих проблем такого рода Сектор социальных и гуманитарных наук ЮНЕСКО предлагает рамочный механизм интеграции философских идей в социальные преобразования. Программа «Управление социальными преобразованиями» (МОСТ) способствует прямому обмену идеями между научными кругами и политиками в целях стимулирования позитивных социальных изменений, необходимых для противостояния текущим глобальным тенденциям. Она позволяет этически осмыслить такие важные темы, как технологические достижения и связанные с ними сбои.

Современные технологические революции, обусловленные появлением больших данных, биотехнологий и искусственного интеллекта (ИИ), представляют собой интересный пример. Этические проблемы, которые они поднимают, иллюстрируют ключевую роль, которую философия будет играть в понимании взаимодействия людей в цифровую эпоху. Мы не можем гарантировать, что эти технологии принесут пользу нашим обществам, если не будем следовать этическим принципам для разработки подхода, ориентированного в первую очередь на человечество и являющегося репрезентативным в глобальном масштабе. Если оставить такие технологии, как ИИ, без контроля или установить над ними контроль, с которым не все согласны, они могут привести к злоупотреблениям, включая расовое и гендерное профилирование или отслеживание социального рейтинга, что еще больше увеличит разрыв между реальным положением дел и целями инклюзивного развития, которым привержены наши общества. Недавняя разработка ЮНЕСКО первого в истории глобального стандарта по этике ИИ — Рекомендации об этических аспектах искусственного интеллекта — устанавливает рамки и четкие положения в отношении регулирования этических последствий технологического прогресса.

Без тщательного обучения и тестирования алгоритмов ИИ систематические ошибки, присутствующие в обучающих данных, могут сохраняться.

Всемирный день философии ЮНЕСКО (16 ноября 2023 года) был посвящен этическим аспектам использования ИИ в сфере психического здоровья. На примере этой темы были высказаны конкретные идеи о том, каким образом общества могут выработать общие моральные основы применения этих технологий на благо всех нас.

Нынешняя ситуация с психическим здоровьем во всем мире вызывает тревогу. Трудности с охраной психического здоровья связаны не только с выявлением или лечением заболеваний. Понимание всех аспектов влияния психических расстройств на ожидаемую продолжительность жизни требует учета множества факторов, что еще больше усложняет задачу повышения осведомленности в этой области. Согласно докладу о психическом здоровье в мире «Охрана психического здоровья: преобразования в интересах всех людей» за 2022 год, подготовленному Всемирной организацией здравоохранения, психическому здоровью посвящены лишь 4,6 процента медицинских исследований, хотя известно, что коэффициенты смертности для лиц с психическими расстройствами несоразмерно выше соответствующих показателей для населения в целом. Так или иначе, психические расстройства создают значительное совокупное бремя смертности.

Понимание как можно большего количества последствий психических расстройств приведет к улучшению перспектив здравоохранения, а достижения в области технологий и нейронаук откроют новые возможности для диагностики, профилактики и лечения.

При этом указанные достижения не должны заслонять потенциальные риски, которые с ними связаны. Возможности ИИ по обработке данных предполагают наблюдение за людьми. Такое наблюдение, даже если оно осуществляется в интересах здоровья людей, вызывает вопросы этического характера. Технологические достижения в этой области требуют осторожных подходов. Без тщательного обучения и тестирования алгоритмов ИИ систематические ошибки, присутствующие в обучающих данных, могут сохраняться. Эти ошибки могут искажать результаты диагностики и приводить к неверному лечению психических расстройств, что вызывает особую обеспокоенность в случаях, когда речь идет о маргинализированных группах населения, не имеющих доступа к надлежащим системам медицинского страхования. В отсутствие пристального надзора и постоянного мониторинга многообещающий потенциал использования ИИ в сфере охраны психического здоровья может случайным образом усугубить, а не устранить проявления неравенства.

Тропа философа — пешеходная дорожка вдоль канала, обсаженного сакурой, в Киото (Япония). Кимон Берлин через Wikimedia Commons

Нельзя упускать из виду эпистемологические и этические проблемы, возникающие в результате технологических сдвигов, особенно в случаях применения соответствующих разработок в сфере охраны физического и психического здоровья. Понимание психических расстройств и достоверность информации, полученной с помощью ИИ, наряду с этическими обязанностями по уходу за пациентами по-прежнему имеют решающее значение. Указанные достижения должны уменьшать уязвимость, не создавая новых форм воздействия, усугубляющих дисфункции наших обществ.

Этическое сознание необходимо для ориентации в этом ландшафте. Расширение наших технологических возможностей во всех случаях должно сопровождаться пропорциональным увеличением нашей этической ответственности. Критическое мышление и воспитание нового гуманизма имеют принципиальное значение для решения этических, интеллектуальных и политических проблем нашего времени. Философия — это не факультативная дисциплина, а глобальная сила, которая поможет сформировать более гуманное будущее для всех.

 

Более пристальный взгляд на ИИ и психическое здоровье

Современные технологические достижения и более глубокое понимание функций мозга открывают новые возможности для поддержки лиц с психическими расстройствами. Идет ли речь о медицинском обслуживании, сопровождении или помощи, появляются новые инструменты для диагностики и лечения.

Однако независимо от того, где используются новые устройства — в сфере охраны психического здоровья или в других областях, — они также служат инструментами действий, предполагающими выполнение новых обязанностей, игнорировать которые было бы неосмотрительно. Например, разработка искусственного диалогового агента в психиатрии поднимает вопросы о будущем психиатров. Заменят ли их со временем? По мнению некоторых, отношения пациента с искусственным объектом не могут быть эквивалентны отношениям с живым психотерапевтом.

Хотя обеспечение всеобщего доступа к технологиям остается одной из главных глобальных проблем, лица, имеющие доступ к интернету, отмечают наличие определенных преимуществ, связанных с платформами на базе ИИ, такими как Google AI, Cleverbot и ChatGPT (обработка естественного языка и диалоговый ИИ), а также Woebot, Youper и Wysa (платформы обработки естественного языка, используемые для оказания помощи в сфере психического здоровья). Эти платформы доступны каждому в режиме онлайн и не требуют значительных технических знаний или ресурсов. Однако их объективность все же является иллюзией, поскольку они остаются продуктом человеческого разума и в этом смысле не вполне свободны от предубеждений и стереотипов.

Существует глубокая обеспокоенность по поводу репрезентативности баз данных и алгоритмических факторов непреднамеренного предпочтения, которые представляют собой огромную проблему, требующую решения. Риск злоупотреблений или распространения неверных сведений с помощью контента, созданного ИИ, является еще одной проблемой, которую необходимо решить для обеспечения надежности онлайновой информации и результатов творческой деятельности.

Мы понимаем, как технологические достижения в сфере охраны психического здоровья могут изменить методы нашей работы, и поэтому вынуждены проявлять осторожность, следуя этическим нормам. Особого упоминания заслуживают по крайней мере два момента, требующих пристального внимания.

Первый из них касается эпистемологии. Наше понимание действия психических расстройств остается неполным. Например, биомаркеры, предназначенные для выявления заболеваний, их механизмов и прогрессирования и определения эффективности лечения, до сих пор не соответствуют требованиям. Отсюда следует настоятельная необходимость совершенствования наших знаний в этих областях, поскольку от них зависит наша способность помогать людям. В этом контексте полезную роль играет алгоритмическая обработка обширных медицинских баз данных. Она не только позволяет анализировать больший объем информации, но и ускоряет процесс обследования. Еще одно эпистемологическое соображение касается характера и достоверности знаний, получаемых с помощью ИИ. Если системы ИИ будут опираться только на неврологические данные, то при изучении психических расстройств мы можем слишком сосредоточиться на биологии, упуская из виду их социальный аспект. Исследования выявили значимые корреляции, например между нищетой и проблемами психического здоровья. По этой причине вопрос об источниках используемых данных, равно как и вопрос о применении этих знаний медицинскими работниками, является весьма актуальным. Известно, что между количественным анализом, выполняемым инструментом ИИ, и качественной оценкой эксперта-человека может существовать разрыв.

Вид на штаб-квартиру ЮНЕСКО в Париже, 2009 год. Маттиас Рипп

Второй вопрос касается медицинских услуг. Помощь в сфере охраны психического здоровья, оказываемая с использованием ИИ, нейротехнологий и ряда цифровых устройств, будет влиять на способы медицинского обслуживания. Первое соображение касается постановки медицинского диагноза. Помочь человеку без четкого выяснения характера его психического состояния невозможно. Более точный диагноз позволяет точнее определить методы лечения и ухода и предусмотреть новые формы помощи. Улучшение диагностики также предполагает постановку диагноза на более ранней стадии, что позволяет быстрее провести терапевтические мероприятия и в максимально возможной степени сохранить качество жизни человека.

Наряду с постановкой диагноза медицинское обслуживание охватывает лечение или по крайней мере сопровождение пациента. Клиническая картина психических расстройств является неоднородной; например, один и тот же депрессивный синдром может проявляться по-разному у разных людей. Каждый человек переживает свое состояние по-своему, что еще больше усложняет повседневные задачи по обеспечению ухода. Эффективность поддержки может быть повышена при использовании определенных цифровых инструментов или устройств, оснащенных ИИ, таких как смартфоны, которые позволяют распознавать эмоции в режиме реального времени и отслеживать индивидуальные ритмы активности, режим сна, движения и многие другие аспекты повседневной жизни. Преимущество заключается в наличии живой обратной связи и интерактивного мониторинга, обеспечивающего оперативное реагирование в нужные моменты с направлением оповещений самим пациентам. Такой подход позволяет защитить и улучшить качество их жизни с физической, социальной и психологической точек зрения.

Все перечисленные аспекты так или иначе связаны с одним из главных принципов этики и биоэтики — принципом уязвимости. В любом случае с позиции морали указанные технологические достижения, помогающие компенсировать определенные факторы уязвимости, не должны приводить к появлению новых ее форм в повседневной жизни пациента. Будет ли терапевтический диалог заменен имплантируемым устройством типа искусственного мозга для регулирования эмоций? Потеряет ли пациент навсегда эксклюзивность доступа к своим мыслям в результате использования нейротехнологий, открывающих возможности для научного исследования мозга? Может ли терапевтический мониторинг пациента, осуществляемый в благих целях, превратиться в упреждающее наблюдение за поведением и, следовательно, указывать на контролируемую вероятность появления тех или иных намерений?

Основная этическая проблема, лежащая в основе наших практических соображений, связана с ролью человека в мире технологий, где алгоритмы управляют психическим здоровьем. Мы должны действовать на трех уровнях: во-первых, следует принимать меры по организации обучения на протяжении всей жизни для всех лиц, работающих в смежных областях, с целью развить у них способность к критическому мышлению; во-вторых, следует учитывать интересы бенефициаров и использовать методы критического анализа для оценки ИИ; в-третьих, необходимо признать, что расширение наших возможностей благодаря технологическому прогрессу неизбежно повышает нашу ответственность. Стремление к улучшению условий жизни не равнозначно технофилии, а наличие сомнений не свидетельствует о технофобии. В действительности оно отражает этическое сознание, основанное на глубокой заботе о человечестве. Задача состоит в рассмотрении текущей ситуации в сфере психического здоровья, обусловленной использованием технологий, без несправедливой критики ее дальнейшего развития.

 

«Хроника ООН» не является официальным документом. Для нас большая честь публиковать статьи высокопоставленных лиц Организации Объединённых Наций, а также видных государственных и общественных деятелей со всего мира. Выраженные в статьях взгляды и мнения принадлежат авторам и могут не совпадать с официальной позицией Организации Объединённых Наций. Подобным образом указанные в статьях, картах и приложениях границы, географические названия и обозначения могут отличаться от официально признанных Организацией.