Nano Hash - криптовалюты, майнинг, программирование

Создание графического процессора докера, обслуживающего тензорный поток, из исходного кода с помощью докера?

Я выполнил следующие шаги для создания докера из исходного кода,

git clone https://github.com/tensorflow/serving
cd serving

docker build --pull -t $USER/tensorflow-serving-devel-gpu \
  -f tensorflow_serving/tools/docker/Dockerfile.devel-gpu .

docker build -t $USER/tensorflow-serving-gpu \
  --build-arg TF_SERVING_BUILD_IMAGE=$USER/tensorflow-serving-devel-gpu \
  -f tensorflow_serving/tools/docker/Dockerfile.gpu .

Сборка заняла довольно много времени, и она была успешно завершена,

Теперь, если я проверю docker images, я увижу этот ответ ниже,

REPOSITORY                          TAG                             IMAGE ID       CREATED             SIZE
root/tensorflow-serving-gpu         latest                          42e221bb6bc9   About an hour ago   8.49GB
root/tensorflow-serving-devel-gpu   latest                          7fd974e5e0c5   2 hours ago         21.8GB
nvidia/cuda                         11.0-cudnn8-devel-ubuntu18.04   7c49b261611b   3 months ago        7.41GB

У меня есть два сомнения по этому поводу,

  1. Сборка из исходного кода заняла много времени, и теперь я хочу сделать резервную копию/сохранить эти образы или контейнеры и сохранить их, чтобы я мог повторно использовать их позже на другом компьютере с той же архитектурой. Если вы знаете, как это сделать, пожалуйста, помогите мне с командами.

  2. Поскольку я успешно завершил сборку, мне нужно освободить место, удалив ненужные образы разработки докеров, используемые для сборки tensorflow-serving-gpu? У меня есть три изображения, которые связаны с обслуживанием тензорного потока, и я не знаю, какое из них удалить?


Ответы:


1

Если вы хотите сохранить изображения:

docker save root/tensorflow-serving-gpu:latest  -o  tfs.tar

И если вы хотите загрузить его:

docker load -i tfs.tar

root/tensorflow-serving-gpu и root/tensorflow-serving-devel-gpu это два разных изображения. Вы можете увидеть различия, взглянув на детали Dockerfile.devel-gpu и Dockerfile.gpu.

02.02.2021
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..