Nano Hash - криптовалюты, майнинг, программирование

В чем разница между прогнозами и export_outputs пользовательской оценки tensorflow и как их использовать?

Я хочу сохранить свою модель тензорного потока и восстановить ее позже для прогнозирования, и я использую оценщик export_savedmodel для сохранения модели.

Что касается документов, я использую serving_input_receiver_fn для указания ввода. Я также хочу использовать export_outputs для указания вывода, но я не понимаю разницы между прогнозами и export_outputs?

if mode == tf.estimator.ModeKeys.PREDICT:
    export_outputs = {
        'predict_output': tf.estimator.export.PredictOutput({
            'class_ids': predicted_classes[:, tf.newaxis],
            'probabilities': tf.nn.softmax(logits),
            'logits': logits
        })
    }
    predictions = {
        'class': predicted_classes[:, tf.newaxis],
        'prob': tf.nn.softmax(logits),
        'logits': logits,
    }
    return tf.estimator.EstimatorSpec(mode, predictions=predictions, export_outputs=export_outputs)

Другая проблема заключается в том, как использовать сохраненную модель pb для прогнозирования в сеансе?

with tf.Session(graph=tf.Graph()) as sess:
    model_path = 'model/1535016490'
    tf.saved_model.loader.load(sess, [tf.saved_model.tag_constants.SERVING], model_path)
    inputs = sess.graph.get_tensor_by_name('input_example:0')
    # how to get the output tensor?
    # outputs = sess.graph.get_tensor_by_name()
    res = sess.run([outputs], feed_dict={inputs: examples})

Я могу использовать tensorflow.contrib.predictor, чтобы получить какой-то результат, но я хочу, чтобы универсальный метод для нашей команды восстановил модель с помощью C++. Итак, я думаю, получить тензоры и запустить их в сеансе, может быть, метод, который я хочу?

from tensorflow.contrib import predictor

predict_fn = predictor.from_saved_model(
    export_dir='model/1535012949',
    signature_def_key='predict_output',
    tags=tf.saved_model.tag_constants.SERVING
)

predictions = predict_fn({'examples': examples})

Большое спасибо за вашу помощь!


Ответы:


1

Что касается первого вопроса, я не уверен на 100%, но я считаю, что прогнозы используются, когда вы вызываете estimator.predict(...) внутри tf.session(), тогда как export_outputs используется во время обслуживания. Под этим я подразумеваю, что если у вас есть docker tensorflow/serving или какой-либо другой сервер, работающий и загружаемый с сохраненной моделью, и вы запрашиваете его с входными данными, ответ будет основан на вашем определении export_outputs.

Извините, я не знаю хорошего ответа на ваш второй вопрос. На данный момент существует так много разных способов сохранить модель тензорного потока, что трудно сказать. Я бы посоветовал посмотреть официальную документацию по сохранению и восстановлению и найти предлагаемый метод восстановления на основе о том, как вы сохраняете свою модель и используете ли вы оценки.

Также может быть полезен этот вопрос на главной странице #tensorflow.

Удачи~~

27.12.2018

2

Для тех, кто попал сюда в поисках информации об export_outputs и прогнозах, обязательно ознакомьтесь с этим вопросом.

29.08.2019
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..