'''Вычислительная токсикология''' — это междисциплинарная область исследований, которая используется на ранних стадиях открытия и разработки лекарств для прогнозирования безопасности и потенциальной токсичности потенциальных лекарств. Он объединяет методы «in silico» или компьютерные модели с подходами «in vivo», или на животных, и «in vitro», или клеточными (биологическими) | клеточными подходами для достижения более эффективный, надежный и этически ответственный процесс оценки токсичности. Ключевые аспекты компьютерной токсикологии включают в себя следующее: раннее прогнозирование безопасности, моделирование, ориентированное на механизмы, интеграцию с экспериментальными подходами и алгоритмы на основе структуры. Шон Экинс — пионер компьютерной токсикологии.Мерло, Седрик (январь 2010 г.). «Вычислительная токсикология — инструмент ранней оценки безопасности». *Открытие наркотиков сегодня*. **15** (1–2): 16–22. Genyotex SA, Chemin des Aulx 14, 1228 План-ле-Уат, Женева, Швейцария. DOI:10.1016/j.drudis.2009.11.016.Кавлок, Роберт Дж., Анкли, Джеральд, Бланкато, Джерри, Брин, Майкл, Конолли, Рори, Дикс, Дэвид, Хоук, Кит, Хубал , Элейн, Джадсон, Ричард, Рабиновиц, Джеймс и др. (май 2008 г.). «Вычислительная токсикология — мини-обзор состояния науки». *Токсикологические науки*. **103** (1): 14–27. Опубликовано издательством Оксфордского университета. DOI: 10.1093/toxsci/kfm297.Экинс, Шон (редактор). *Вычислительная токсикология: оценка риска для химических веществ (серия Wiley о технологиях для фармацевтической промышленности)*. 1-е изд., Уайли, 13 февраля 2018 г. ISBN: 978-1119282563.
== История ==
Истоки компьютерной токсикологии восходят к 1960-м и 1970-м годам, когда были разработаны ранние модели количественной зависимости структура-активность (QSAR). Эти модели были направлены на прогнозирование биологической активности химических веществ на основе их молекулярных структур. Достижения в области вычислительной мощности в этот период позволили проводить все более сложные симуляции и анализы, заложив основу для современных вычислительных подходов. В 1980-х и 1990-х годах эта область расширилась с появлением инструментов молекулярного стыковки, хемоинформатики и биоинформатики. Развитие технологий высокопроизводительного скрининга привело к появлению обширных наборов данных, что вызвало потребность в вычислительных методах для управления и интерпретации сложных токсикологических данных.Русин И. и Дастон Г.П. (2010). Вычислительная токсикология: реализация перспектив тестирования токсичности в 21 веке. Перспективы гигиены окружающей среды, 118(8), 1047–1050. https://doi.org/10.1289/ehp.1001925
В начале 21 века создание таких инициатив, как программа ToxCast Агентства по охране окружающей среды США (EPA), стало важной вехой. ToxCast стремился объединить вычислительные и экспериментальные данные, чтобы улучшить прогнозирование токсичности и уменьшить зависимость от испытаний на животных. За это время достижения в области машинного обучения и искусственного интеллекта еще больше изменили эту область, позволив анализировать крупномасштабные наборы данных и разрабатывать модели прогнозирования с большей точностью. Сегодня компьютерная токсикология продолжает развиваться благодаря инновациям в области омических технологий, анализа больших данных и нормативной науки. Он играет решающую роль в оценке риска, разработке лекарств и защите окружающей среды, предлагая более быструю и этичную альтернативу традиционным токсикологическим испытаниям.
Подробнее: https://en.wikipedia.org/wiki/Computational_toxicology
Вычислительная токсикология ⇐ Васина Википедия
-
Автор темыwiki_en
- Всего сообщений: 94550
- Зарегистрирован: 16.01.2024
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
Мобильная версия