Точная настройка (искусственный интеллект)Васина Википедия

Новости с планеты OGLE-2018-BLG-0677
Что вы не только не знали, но и не хотели знать
Автор темы
wiki_de
Всего сообщений: 48298
Зарегистрирован: 13.01.2023
 Точная настройка (искусственный интеллект)

Сообщение wiki_de »

'''Точная настройка''' — это термин, который, помимо прочего, используется в некоторых естественных науках и музыке. В случае искусственного интеллекта, особенно глубокого обучения, это относится к методу передачи обучения из предварительно обученной искусственной нейронной сети. Примером может служить разработка OpenAI генеративного предварительно обученного трансформатора 3#Background|GPT-3. Базовые модели — это модели машинного обучения, которые предварительно обучаются на большом объеме данных. Они позволяют адаптировать и оптимизировать такие модели для конкретных задач или вариантов использования посредством тонкой настройки.Дэйв Андре: [https://www.allaboutai.com/de-de/ki-glo ... in-tuning/ ''Что такое тонкая настройка?''] allaboutai.com, 15 декабря 2023 г. По состоянию на 1 июня 2024 г. Модели больших языков (LLM) часто служили базовыми моделями на основе текста, которые в дальнейшем разработан, в частности, для мультимодального языка и обработки изображений. Компании также могут приобрести лицензию на подходящую модель и разрабатывать оптимизированные решения для конкретных задач, настраивая их с использованием собственных данных.[https://learn.microsoft.com/en-us/azure /ai-services/openai/how-to/fine-tuning?tabs=turbo%2Cpython-new&pivots=programming-language-studio ''Настройка модели с помощью тонкой настройки.''] Microsoft, 21 мая 2024 г. (на английском языке) . Получено 1 июня 2024 г.[https://cloud.google.com/vertex-ai/gene ... dels?hl=de ''Настройка моделей PaLM – обзор .''] Генеративный ИИ на Vertex AI, Google Cloud. Проверено 1 июня 2024 г.[https://platform.openai.com/docs/guides/fine-tuning ''Точная настройка: настройка модели для вашего приложения.''] openai.com . Получено 1 июня 2024 г.

== Методы адаптации ==
Во время передачи обучения параметры (искусственный интеллект) предварительно обученной модели обучаются на новых данных и соответствующим образом корректируются. Это можно сделать для всей нейронной сетиДжоан Куинн: [https://web.archive.org/web/20230110131 ... html#steps ' '14.2.: Тонкая настройка.''] Погружение в глубокое обучение, Таузенд-Оукс, Калифорния, 2020, стр. 551. ISBN 978-1-5443-6137-6 или только для части слоев. Существуют различные методы, позволяющие снизить количество требуемого вычислительного времени и памяти.

=== Адаптация низкого ранга (LoRA) ===
«Низкоранговая адаптация (LoRA)» — это метод эффективной точной настройки моделей.Марк Хеннингс: [https://www.entrypointai.com/blog/lora-fine-tuning/ «LoRA Fine - Объяснение настройки и гиперпараметров.''] enterpointai.com, 24 ноября 2023 г. (на английском языке). Получено 1 июня 2024 г. Первоначально оно было представлено группой исследователей Microsoft в 2021 г.Эдвард Дж. Ху и др.: [https://arxiv.org/abs/2106.09685 ' 'LoRA: Низкоранговая адаптация больших языковых моделей.''] arXiv:2106.09685, 16 октября 2021 г. (английский). Доступ осуществлен 1 июня 2024 г. Предварительно обученная модель заморожена с существующими параметрами. Затем меньшие обучаемые матрицы разложения ранга добавляются к нижестоящим слоям нейронной структуры более низкого ранга (рядом с исходными матрицами), чтобы сохранить на низком уровне количество дополнительных обучаемых параметров для настройки в последующих слоях.Хаокун Лю и др.: «Точная настройка с эффективным использованием нескольких параметров лучше и дешевле, чем контекстное обучение» (PDF). Достижения в области нейронных систем обработки информации. Vol. 35. Curran Associates, Inc. 2022, стр. 1950–1965 (английский). С тех пор метод LoRA стал популярным подходом для настройки LLM (больших языковых моделей), моделей распространения (например, для генерация изображений) и другие типы моделей ИИ.[https://www.run.ai/guides/generative-ai ... ine-tuning ''Понимание точной настройки LLM с помощью LoRA (адаптация низкого ранга). ''] www.run.ai (английский). Доступ: 1 июня 2024 г. Дальнейшие разработки происходят, например. Б. с использованием преобразования Фурье.Ziqi Gao et al.: [https://arxiv.org/abs/2405.03003 «Точная настройка параметров с помощью дискретного преобразования Фурье».] arXiv:2405.03003, май 5 ноября 2024 г. (на английском языке). Проверено 1 июня 2024 г.

=== Точная настройка представления (ReFT) ===
«Точная настройка представления (ReFT)» — это метод, разработанный исследователями из Стэнфордского университета для точной настройки больших языковых моделей путем изменения менее 1% их представлений. В отличие от традиционных методов точной настройки с эффективными параметрами, таких как адаптация низкого ранга, которые фокусируются в первую очередь на обновлении весов, ReFT нацелен на определенные части модели, которые имеют отношение к задаче точной настройки. Этот подход основан на понимании того, что модели глубокого обучения кодируют богатую семантическую информацию в своих представлениях. Изменение представлений может быть более эффективной стратегией, чем обновление весовых параметров. Методы ReFT работают с замороженной базовой моделью и изучают вмешательства, связанные с задачами, на основе скрытых представлений. Эти вмешательства манипулируют небольшой частью представлений модели, чтобы контролировать поведение модели при решении последующих задач.Zhengxuan Wu et al.: [https://arxiv.org/abs/2404.03592 ''ReFT: точная настройка представления для Языковые модели.''] Корнельский университет, arXiv:2404.03592 (английский), 22 мая 2024 г.

=== Другие техники ===
Чтобы избежать выявленных недостатков некоторых методов тонкой настройки, исследуются их улучшения.Дэвид Стэп и др.: [https://export.arxiv.org/abs/2405.20089 ''Парадокс тонкой настройки: повышение Качество перевода без ущерба для способностей магистратуры».] Корнельский университет, arXiv:2405.20089, 30 мая 2024 г. (на английском языке). Получено 1 июня 2024 г.Mitchell Wortsman et al.: [https://arxiv.org/abs/2109.01903 «Надежная точная настройка моделей с нулевым выстрелом».] arXiv:2109.01903, июнь. 21 ноября 2022 г. (на английском языке). Получено 1 июня 2024 г.



Категория:Машинное обучение
Категория:Нейроинформатика
Категория:Глубокое обучение

Подробнее: https://de.wikipedia.org/wiki/Fine-Tuni ... telligenz)
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ, комментарий, отзыв

Изменение регистра текста: 
Смайлики
:) :( :oops: :chelo: :roll: :wink: :muza: :sorry: :angel: :read: *x) :clever:
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Демократическая точная настройка
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    20 Просмотры
    Последнее сообщение wiki_en
  • Децентрализованный искусственный интеллект
    Гость » » в форуме Васина Википедия
    0 Ответы
    49 Просмотры
    Последнее сообщение Гость
  • Искусственный интеллект (книга)
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    41 Просмотры
    Последнее сообщение wiki_en
  • Закон о раскрытии авторских прав на генеративный искусственный интеллект
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    20 Просмотры
    Последнее сообщение wiki_en
  • Ответственный искусственный интеллект
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    43 Просмотры
    Последнее сообщение wiki_en