Preview

Фармакокинетика и Фармакодинамика

Расширенный поиск

Этические вызовы современной фармакокинетики и фармакодинамики в условиях трансформации биомедицинских исследований

Фармакокинетика (ФК) и фармакодинамика (ФД), как фундаментальные дисциплины, определяющие судьбу и действие лекарственных средств в организме, переживают период радикальной трансформации [1].

Интеграция технологий искусственного интеллекта (ИИ), методов мультиомики, разработка сложных in silico-моделей и цифровых двойников пациента выводят эти области на новый уровень точности и персонализации [2, 3]. Однако стремительное внедрение данных подходов порождает комплекс этических, методологических и регуляторных вызовов, угрожающих валидности, воспроизводимости и социальной приемлемости исследований [4]. В данной статье систематизированы ключевые этические дилеммы, связанные с применением ИИ для анализа ФК/ФД-данных, включая проблему «чёрного ящика» сложных алгоритмов, непрозрачность в генерации и валидации предиктивных моделей [5]. Особое внимание уделено вызовам, возникающим на стыке физиологических моделей и геномных данных: вопросам конфиденциальности, пересмотра парадигмы информированного согласия для долгосрочного хранения и многократного использования чувствительной биомедицинской информации [6]. Рассмотрены риски усиления глобального неравенства в связи с дифференцированным доступом к персонализированным моделям, основанным на данных преимущественно определённых этнических групп [7]. В качестве концептуального ответа предложена новая парадигма — «этика сопряжения» (ethics of entanglement), адаптированная для контекста ФК/ФД [8]. Эта модель подразумевает проактивное внедрение этических принципов на всех этапах жизненного цикла модели — от сбора данных и обучения алгоритма до клинической интерпретации и регуляторного одобрения. В заключение обоснована необходимость разработки специализированных этических руководств, формирования междисциплинарных комитетов экспертов (фармакологи, биоинформатики, биоэтики) и создания стандартов для обеспечения прозрачности, справедливости и ответственного использования передовых вычислительных методов в фармакологических исследованиях [9, 10].

ВВЕДЕНИЕ

Фармакокинетика и фармакодинамика, описывающие соответственно «судьбу» лекарства в организме и его фармакологические эффекты, традиционно являлись краеугольным камнем рациональной фармакотерапии и разработки новых препаратов [1]. Современный этап развития этих дисциплин характеризуется переходом от классических компартментных моделей к сложным вычислительным системам: физиологически обоснованному фармакокинетическому моделированию (PBPK), интеграции данных мультиомики (геномики, протеомики, метаболомики) и применению методов машинного обучения для прогнозирования индивидуального ответа на терапию [2, 11]. Эта трансформация, движимая прогрессом в области больших данных и искусственного интеллекта, обещает революцию в персонализированной медицине, но одновременно создаёт беспрецедентные этические и методологические сложности [4, 12]. Традиционные биоэтические рамки, сфокусированные на защите прав участников отдельных клинических исследований, оказываются недостаточными для управления рисками, связанными с созданием, валидацией и применением сложных алгоритмических моделей, работающих с пожизненными биомедицинскими данными [6, 13]. Цель данной статьи — проанализировать формирующийся комплекс этических вызовов в современных ФК/ФД-исследованиях и предложить принципы новой управленческой и этической парадигмы, способной обеспечить их ответственное и социально приемлемое развитие.

КЛЮЧЕВЫЕ ДРАЙВЕРЫ ИЗМЕНЕНИЙ И ЭТИЧЕСКИЕ ВЫЗОВЫ

  1. Искусственный интеллект и сложные in silico-модели: вызовы интерпретируемости и достоверности

Использование методов машинного обучения и глубоких нейросетей для анализа ФК/ФД-данных, построения PBPK-моделей и прогнозирования лекарственных взаимодействий стало новой нормой [3, 14]. Это порождает первую группу критических проблем:

  • Эпистемологический вызов «чёрного ящика». Сложные алгоритмы, оптимизирующие параметры моделей или выявляющие скрытые паттерны в данных, зачастую не предоставляют понятного биологического или физиологического обоснования своих выводов [5]. Для регуляторных органов (например, FDA, EMA) и клиницистов принятие решений на основе непрозрачной модели, предсказывающей, к примеру, концентрацию препарата у конкретного пациента или риск токсичности, создаёт серьёзную проблему доверия и проверяемости [15]. Требование к объяснимому ИИ (Explainable AI, XAI) трансформируется из технической задачи в этический и регуляторный императив для областей, связанных с безопасностью пациентов [16].
  • Проблема валидации и воспроизводимости. Алгоритмы, обученные на ограниченных или специфических наборах данных (например, собранных в рамках конкретных клинических испытаний), могут демонстрировать высокую точность на тестовых выборках, но терять её при применении к более широким и разнородным популяциям [17]. Этически некорректно внедрять в клиническую практику персонализированные ФК/ФД-модели, чья обобщающая способность и границы применимости не были тщательно оценены и документально подтверждены.
  • Ответственность за ошибку. В традиционных исследованиях ответственность за корректность модели и интерпретацию данных лежит на исследователе. В цепочке «исследователь — алгоритм — данные — прогноз» границы ответственности размываются. Возникает этико-правовой вопрос: кто отвечает за клиническое решение, принятое на основе ошибочного прогноза алгоритма, — разработчик модели, врач или учреждение, внедрившее систему? [18].
  1. Конвергенция данных: от физиологических параметров к геномным и цифровым биомаркерам

Современные ФК/ФД-модели интегрируют не только классические параметры (возраст, пол, функция почек), но и генетические данные (полиморфизмы генов цитохромов P450, транспортеров), показатели цифровых носимых устройств и данные реальной клинической практики (RWD) [11, 19]. Эта конвергенция создаёт гибридные системы с новыми рисками:

  • Кризис модели информированного согласия. Участник исследования, согласившийся на разовый забор крови для ФК-анализа, как правило, не даёт явного согласия на пожизненное хранение его генетического профиля CYP2D6 и использование этих данных для обучения множества будущих алгоритмов, цели которых могут быть неизвестны на момент сбора [6]. Требуются динамические и гранулированные модели согласия, обеспечивающие возможность контроля со стороны донора данных.
  • Угрозы конфиденциальности и риск реидентификации. Интеграция различных наборов данных (ФК-параметры + геномные данные + электронная медицинская карта) резко повышает риск деанонимизации личности даже из обезличенных наборов [20]. Это создаёт угрозу дискриминации на основе предрасположенности к нежелательным лекарственным реакциям или особенностей метаболизма.
  1. Глобализация и неравенство: смещение в тренировочных данных

Подавляющее большинство данных, используемых для обучения современных ФК/ФД-моделей, происходят из популяций Европы, Северной Америки и Восточной Азии [7]. Это приводит к алгоритмической предвзятости: модели, разработанные для «среднестатистического» представителя этих групп, могут некорректно прогнозировать параметры у пациентов других этнических принадлежностей, проживающих в иных географических и климатических условиях [21]. Этически недопустимо распространять персонализированные подходы, которые de facto работают лишь для ограниченной части человечества, усугубляя тем самым глобальное неравенство в здоровье.

  1. Коммерциализация и «биотехнологический фашизм»: данные как инструмент контроля

Наиболее системный риск связан с потенциальным использованием персональных ФК/ФД-профилей в коммерческих или авторитарных целях. Концепт «биотехнологического фашизма» описывает сценарий, при котором детальные биомедицинские данные становятся инструментом тотального надзора и контроля [22, 23]. В контексте фармакологии это может выражаться в:

  • Целевой рекламе и манипуляции. Фармацевтические компании, обладающие доступом к данным о метаболических профилях и предрасположенности к определённым эффектам препаратов, могут использовать эту информацию для гиперперсонализированного, манипулятивного маркетинга.
  • Дискриминации в страховании и трудоустройстве. Страховые компании могут отказывать в покрытии или завышать тарифы для лиц с «неоптимальными» ФК-профилями, предсказывающими высокий риск побочных эффектов или неэффективность стандартной терапии [24].

БУДУЩИЕ КОНТУРЫ НОВОЙ ЭТИЧЕСКОЙ ПАРАДИГМЫ: ЭТИКА СОПРЯЖЕНИЯ ДЛЯ ФК/ФД

Для ответа на эти комплексные вызовы предлагается переход к «этике сопряжения» (ethics of entanglement) — проактивной, холистической и конструктивной модели, признающей глубокую взаимозависимость технологических, биологических, данных и социальных систем в современной фармакологии [8]. Её практическая реализация подразумевает:

  1. «Этика по дизайну» (Ethics by Design) для in silico-моделей. Интеграция принципов прозрачности (объяснимости), справедливости (минимизации смещений) и приватности (например, дифференциальной приватности) в саму архитектуру алгоритмов и процесс моделирования на этапе разработки [16, 25].
  2. Сквозная прозрачность и документация. Создание обязательных стандартов документации для ФК/ФД-моделей, включая подробное описание используемых данных (их источник, демографический состав, возможные смещения), архитектуры алгоритма, процесса валидации и чёткого обозначения границ применимости (FAIR-принципы для моделей) [26].
  3. Динамическое управление согласием и данными. Внедрение технологических платформ, позволяющих донорам данных в реальном времени отслеживать, как и в каких проектах используется их информация, и гибко управлять разрешениями [27].
  4. Междисциплинарная этическая экспертиза. Создание специализированных комитетов по этике для оценки сложных ФК/ФД-исследований с участием не только биоэтиков и юристов, но и фармакологов, биоинформатиков и специалистов по данным, способных оценить технические аспекты и системные риски [10].
  5. Глобальная коллаборация для преодоления неравенства. Поощрение международных инициатив по сбору разнообразных ФК/ФД-данных от недостаточно представленных популяций и разработке методологий, устойчивых к демографическим смещениям [7, 21].

ЗАКЛЮЧЕНИЕ

Трансформация фармакокинетики и фармакодинамики под влиянием искусственного интеллекта и больших данных открывает беспрецедентные возможности для персонализации терапии и ускорения разработки лекарств. Однако эта трансформация сопряжена с глубокими этическими вызовами, затрагивающими вопросы прозрачности, справедливости, приватности и социальной ответственности. Игнорирование этих вызовов угрожает не только валидности научных результатов, но и общественному доверию к фармакологии как к дисциплине. Принятие парадигмы «этики сопряжения», требующей проактивного и холистического подхода к управлению этическими рисками на всех этапах — от сбора данных и построения модели до её клинической имплементации и глобального распространения, — является необходимым условием для устойчивого и социально ответственного прогресса в этой ключевой для медицины области. Будущее фармакокинетики и фармакодинамики должно строиться не только на технической сложности моделей, но и на этической зрелости научного сообщества.

СПИСОК ЛИТЕРАТУРЫ

  1. Rowland M, Tozer TN. Clinical Pharmacokinetics and Pharmacodynamics: Concepts and Applications. 5th ed. Philadelphia: Lippincott Williams & Wilkins; 2019.
  2. Rostami-Hodjegan A. Physiologically Based Pharmacokinetics Joined With In Vitro–In Vivo Extrapolation of ADME: A Marriage Under the Arch of Systems Pharmacology. Clin Pharmacol Ther. 2012;92(1):50-61. DOI: 10.1038/clpt.2012.65.
  3. Nguyen TT, Nguyen TT, Nguyen TDH, et al. Artificial Intelligence in Pharmacokinetic and Pharmacodynamic Modeling. Comput Biol Med. 2023;163:107132. DOI: 10.1016/j.compbiomed.2023.107132.
  4. Vayena E, Blasimme A, Cohen IG. Machine learning in medicine: Addressing ethical challenges. PLoS Med. 2018;15(11):e1002689. DOI: 10.1371/journal.pmed.1002689.
  5. Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nat Mach Intell. 2019;1(5):206-215. DOI: 10.1038/s42256-019-0048-x.
  6. Kaye J, Whitley EA, Lund D, et al. Dynamic consent: a patient interface for twenty-first century research networks. Eur J Hum Genet. 2015;23(2):141-146. DOI: 10.1038/ejhg.2014.71.
  7. Popejoy AB, Fullerton SM. Genomics is failing on diversity. Nature. 2016;538(7624):161-164. DOI: 10.1038/538161a.
  8. Fuchsberger V, Durall Gazulla M, Rotkirch A. Doing responsibilities in entangled worlds. Soc Epistemol. 2025;39(1):1-17. DOI: 10.1080/02691728.2023.2269934.
  9. Jobin A, Ienca M, Vayena E. The global landscape of AI ethics guidelines. Nat Mach Intell. 2019;1(9):389-399. DOI: 10.1038/s42256-019-0088-2.
  10. Knoppers BM, Harris JR, Tassé AM, et al. Towards a data sharing Code of Conduct for international genomic research. Genome Med. 2011;3(7):46. DOI: 10.1186/gm262.
  11. Wagner C, Zhao P, Pan Y, et al. Application of Physiologically Based Pharmacokinetic (PBPK) Modeling to Support Dose Selection: Report of an FDA Public Workshop on PBPK. CPT Pharmacometrics Syst Pharmacol. 2015;4(4):226-230. DOI: 10.1002/psp4.33.
  12. Jasanoff S. The Ethics of Invention: Technology and the Human Future. New York: WW Norton; 2016.
  13. Mittelstadt BD, Floridi L. The ethics of big data: current and foreseeable issues in biomedical contexts. Sci Eng Ethics. 2016;22(2):303-341. DOI: 10.1007/s11948-015-9652-2.
  14. Schütt KT, Arbabzadah F, Chmiela S, et al. Quantum-chemical insights from deep tensor neural networks. Nat Commun. 2017;8:13890. DOI: 10.1038/ncomms13890.
  15. U.S. Food and Drug Administration. Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan. 2021.
  16. Amann J, Blasimme A, Vayena E, et al. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 2020;20(1):310. DOI: 10.1186/s12911-020-01332-6.
  17. Norgeot B, Quer G, Beaulieu-Jones BK, et al. Minimum information about clinical artificial intelligence modeling: the MI-CLAIM checklist. Nat Med. 2020;26(9):1320-1324. DOI: 10.1038/s41591-020-1041-y.
  18. Cohen IG, Amarasingham R, Shah A, et al. The legal and ethical concerns that arise from using complex predictive analytics in health care. Health Aff (Millwood). 2014;33(7):1139-1147. DOI: 10.1377/hlthaff.2014.0048.
  19. Danhof M, de Lange EC, Della Pasqua OE, et al. Mechanism-based pharmacokinetic-pharmacodynamic (PK-PD) modeling in translational drug research. Trends Pharmacol Sci. 2008;29(4):186-191. DOI: 10.1016/j.tips.2008.01.007.
  20. Rocher L, Hendrickx JM, de Montjoye YA. Estimating the success of re-identifications in incomplete datasets using generative models. Nat Commun. 2019;10(1):3069. DOI: 10.1038/s41467-019-10933-3.
  21. Martin AR, Kanai M, Kamatani Y, et al. Clinical use of current polygenic risk scores may exacerbate health disparities. Nat Genet. 2019;51(4):584-591. DOI: 10.1038/s41588-019-0379-x.
  22. Trump B, Cummings C, Klasa K, et al. Governing biotechnology to provide safety and security and address ethical, legal, and social implications. Front Genet. 2023;13:1052371. DOI: 10.3389/fgene.2022.1052371.
  23. Nezhmetdinova F. Global challenges and globalization of bioethics. Croat Med J. 2013;54(1):83-5. DOI: 10.3325/cmj.2013.54.83.
  24. Hudson KL, Collins FS. Bringing the Common Rule into the 21st century. N Engl J Med. 2015;373(24):2293-2296. DOI: 10.1056/NEJMp1512205.
  25. Floridi L, Cowls J. A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review. 2019;1(1). DOI: 10.1162/99608f92.8cd550d1.
  26. Wilkinson MD, Dumontier M, Aalbersberg IJ, et al. The FAIR Guiding Principles for scientific data management and stewardship. Sci Data. 2016;3:160018. DOI: 10.1038/sdata.2016.18.
  27. Mamoshina P, Ojomoko L, Yanovich Y, et al. Converging blockchain and next-generation artificial intelligence technologies to decentralize and accelerate biomedical research and healthcare. Oncotarget. 2018;9(5):5665-5690. DOI: 10.18632/oncotarget.22345.