Nano Hash - криптовалюты, майнинг, программирование

Tensorflow не использует GPU (согласно TensorBoard)

редактировать: GTX 1070, Ubuntu 16.04, хэш git: 3b75eb34ea2c4982fb80843be089f02d430faade

Я переобучаю начальную модель на своих собственных данных. Все нормально до последней команды:

bazel-bin/inception/flowers_train \
  --config=cuda \
  --train_dir="${TRAIN_DIR}" \
  --data_dir="${OUTPUT_DIRECTORY}" \
  --pretrained_model_checkpoint_path="${MODEL_PATH}" \
  --fine_tune=True \
  --initial_learning_rate=0.001 \
  --input_queue_memory_factor=1

Судя по логам, Tensorflow использует GPU:

I tensorflow/core/common_runtime/gpu/gpu_device.cc:951] Found device 0 with properties:
name: GeForce GTX 1070
major: 6 minor: 1 memoryClockRate (GHz) 1.7715
pciBusID 0000:03:00.0
Total memory: 7.92GiB
Free memory: 7.77GiB
I tensorflow/core/common_runtime/gpu/gpu_device.cc:972] DMA: 0
I tensorflow/core/common_runtime/gpu/gpu_device.cc:982] 0:   Y
I tensorflow/core/common_runtime/gpu/gpu_device.cc:1041] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1070, pci bus id: 0000:03:00.0)

Но когда я проверяю обучение в TensorBoard, сеть использует в основном процессор (синий /device:CPU:0, зеленый /device:GPU:0):

График TensorBoard:

График TensorBoard

Я пробовал две настройки TensorFlow:

  1. Установка из исходников с драйверами nvidia-367, CUDA8 8.0, cuDNN v5, исходники с мастера (10.16.06 - r11?). скомпилировано для использования GPU:

    bazel build -c opt --config=cuda //tensorflow/cc:tutorials_example_trainer
    bazel-bin/tensorflow/cc/tutorials_example_trainer --use_gpu    
    bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
    
  2. образ графического процессора docker Tensorflow на ПК с GTX 1070 8Go

    nvidia-docker run -it -p 8888:8888 -p 6006:6006 gcr.io/tensorflow/tensorflow:latest-gpu /bin/bash
    

Любая помощь ?


Ответы:


1

Согласно этой проблеме, основная часть работы выполняется в начальной "башне". выполнено. Так что вроде в основном нормально.

Разве что есть еще кое-что странное. Запуск watch nvidia-smi дает:

Пн Октябрь 10 10:31:04 2016

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.48                 Driver Version: 367.48                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1070    Off  | 0000:03:00.0      On |                  N/A |
| 29%   57C    P2    41W / 230W |   7806MiB /  8113MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|    0      1082    G   /usr/lib/xorg/Xorg                              69MiB |
|    0      3082    C   /usr/bin/python                               7729MiB |
+-----------------------------------------------------------------------------+

Пока топ дает : PID UTIL. PR NI VIRT RES SHR S %CPU %MEM TEMPS+ COM. 3082 root 20 0 26,739g 3,469g 1,657g S 101,3 59,7 7254:50 python

GPU, кажется, игнорируется...

08.10.2016
  • окккк. В это время я запускал tensorflow из образа докера. Кажется, что watch nvidia-smiв данном случае это ненадежно. 10.10.2016
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..