Nano Hash - криптовалюты, майнинг, программирование

Может ли отказ от обучения повысить производительность обучающих данных?

Я тренирую нейронную сеть с отсевом. Бывает, что по мере того, как я уменьшаю выпадение с 0,9 до 0,7, потеря (ошибка перекрестной проверки) также уменьшается для данных обучающих данных. Я также заметил, что точность увеличивается по мере того, как я уменьшаю параметр отсева.

Мне это кажется странным. Имеет ли это смысл?


Ответы:


1

Отсев - это метод регуляризации. Вы должны использовать его только для уменьшения дисперсии (эффективность проверки по сравнению с производительностью обучения). Он не предназначен для уменьшения систематической ошибки, и вы не должны использовать его таким образом. это вводит в заблуждение.

Вероятно, причина такого поведения в том, что вы используете очень высокое значение для отсева. 0,9 означает, что вы нейтрализуете слишком много нейронов. Имеет смысл, что если вместо этого вы поставите 0,7, у сети появятся нейроны более высокого уровня, которые можно использовать при обучении на обучающей выборке. Таким образом, производительность будет увеличиваться при более низких значениях.

Обычно вы должны видеть, что производительность обучения немного снижается при увеличении производительности на проверочном наборе (если у вас его нет, по крайней мере, на тестовом наборе). Это желаемое поведение, которое вы ищете при использовании исключения. Текущее поведение, которое вы получаете, связано с очень высокими значениями для исключения.

Начните с 0,2 или 0,3 и сравните смещение и дисперсию, чтобы получить хорошее значение для отсева.

Моя четкая рекомендация: используйте его не для улучшения смещения, а для уменьшения дисперсии (ошибка при проверке).

Для того, чтобы лучше подходить к тренировочному набору, я рекомендую:

  1. найти лучшую архитектуру (или изменить количество нейронов на слой)
  2. попробуйте разные оптимизаторы
  3. настройка гиперпараметров
  4. возможно, обучить сеть немного дольше

Надеюсь, это поможет!

26.11.2019
  • Спасибо за объяснение. Я совершил ошибку: я помню, что когда я пытался изучить Tensorflow, значение параметра dropout high означает нейтрализацию слишком малого количества параметров. Итак, если это верно или нет для тензорного потока, теперь я могу понять, что происходит, поскольку вы явно объяснили, что высокий уровень отсева подразумевает нейтрализацию слишком большого количества нейронов. Теперь это имеет смысл. Извините за мою ошибку. 26.11.2019

  • 2

    Выпадение работает путем вероятностного удаления или «отбрасывания» входных данных в слой, которые могут быть входными переменными в выборке данных или активациями из предыдущего уровня. Это имитирует большое количество сетей с очень разной сетевой структурой и, в свою очередь, делает узлы в сети более устойчивыми к входным данным.

    При выпадении (коэффициент отсева меньше некоторого небольшого значения) точность будет постепенно увеличиваться, и сначала постепенно будут уменьшаться потери (это то, что происходит в вашем случае). Когда вы увеличиваете отсев за пределами определенного порога, это приводит к тому, что модель не может соответствовать должным образом. Интуитивно понятно, что более высокий процент отсева приведет к более высокой дисперсии некоторых уровней, что также ухудшит обучение.

    Всегда следует помнить, что Dropout, как и все другие формы регуляризации, снижает емкость модели. Если вы слишком сильно уменьшите емкость, то наверняка получите плохие результаты.

    Надеюсь, это поможет вам.

    26.11.2019
  • Вы пишете о проверке / тестировании производительности обучающих данных во фрагменте: с отсевом (процент отсева меньше некоторого небольшого значения) ... может правильно поместиться? Если вы пишете о производительности обучающих данных, и интуитивно понятная причина состоит в том, что интуитивно более высокий уровень отсева приведет к более высокой дисперсии некоторых слоев, что также ухудшит обучение; Тогда что вы подразумеваете под «более высокой дисперсией некоторых слоев»? 26.11.2019
  • Спасибо за ответ. У меня было плохое понимание параметра отсева. Я лечил это в обратном порядке. В отличие от того, что я думал, высокий параметр отсева подразумевает нейтрализацию слишком большого количества нейтронов. Извините за ошибку. 26.11.2019
  • @Waliston Нет проблем, чувак. Такое случается. Рад, что вы хорошо поняли концепцию. 26.11.2019
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..