Я хочу обучить RNN с другим размером ввода предложения X без заполнения. Логика, используемая для этого, заключается в том, что я использую глобальные переменные, и для каждого шага я беру пример, пишу прямое распространение, т.е. строю график, запускаю оптимизатор, а затем снова повторяю шаг с другим примером. Программа очень медленная по сравнению с простой реализацией того же самого, где я реализовал прямое и обратное распространение и использовал ту же логику, что и выше. Реализация numpy занимает несколько секунд, в то время как Tensorflow работает очень медленно. Будет ли полезно запустить то же самое на GPU или я делаю какую-то логическую ошибку?
Обучение изменению размера ввода RNN на Tensorflow
17.04.2018
Ответы:
1
Как правило, GPU повышает производительность только в том случае, если у вас есть код с интенсивными вычислениями и малой передачей данных. Другими словами, если вы обучаете свою модель по одному экземпляру за раз (или небольшими партиями), накладные расходы на передачу данных в/из графического процессора могут даже замедлить работу вашего кода! Но если вы добавите хороший кусок сэмплов, то GPU определенно улучшит ваш код.
17.04.2018
Новые материалы
Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..
Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально
Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..
Частный метод Python: улучшение инкапсуляции и безопасности
Введение
Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..
Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования
Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..
Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv)
Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..
Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..
Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..
FileWriter
иTensorBoard
для получения выходных данных с минимальным влиянием на производительность. 18.04.2018