Использование «Red Teaming» в языковых моделях позволяет лучше понять гибкость и поведение языковых моделей LM, а также протестировать их на предмет потенциально вредного поведения
Термин AI Red-Teaming был введен в октябре 2023 года в рамках указа Белого дома, направленного на повышение безопасности ИИ. Он отличается от классической красной команды тем, что исследует не только аспекты безопасности, но и общие риски, такие как некорректность ответов языковой модели, галлюцинации, токсичный или вульгарный вывод, а также способность генерировать опасный контент. Указ требует от компаний проводить тщательные независимые проверки своих систем искусственного интеллекта и делиться результатами испытаний с правительством. С этой целью разрабатываются рекомендации и тесты для оценки и тестирования возможностей ИИ, чтобы гарантировать, что они не смогут причинить никакого вреда.
==Индивидуальные доказательства==
Категория:Искусственный интеллект
Подробнее: https://de.wikipedia.org/wiki/Red_Teaming
Красная команда ⇐ Васина Википедия
-
Автор темыwiki_de
- Всего сообщений: 48801
- Зарегистрирован: 13.01.2023
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
Мобильная версия