Nano Hash - криптовалюты, майнинг, программирование

Как интерпретировать файл mean.binaryproto при загрузке нейронной сети?

Я хочу загрузить нейронную сеть, обученную caffe для классификации изображений.

NN содержит файл mean.binaryproto, который имеет средства для вычитания перед вводом изображения для классификации.

Я пытаюсь понять, что содержится в этом файле, поэтому я использовал Google Colab, чтобы увидеть, что внутри него.

Код для его загрузки следующий:

# Load the Drive helper and mount
from google.colab import drive

# This will prompt for authorization.
drive.mount('/content/drive')
!ls "/content/drive/My Drive"

#install packages
!apt install -y caffe-cuda
!apt update
!apt upgrade
!apt dist-upgrade
!ls "/content/drive/My Drive/NeuralNetwork/CNRPark-Trained-Models/mAlexNet-on-CNRPark/"
import caffe
import numpy as np
with open('/content/drive/My Drive/NeuralNetwork/CNRPark-Trained-Models/mAlexNet-on-CNRPark/mean.binaryproto', 'rb') as f:
    blob = caffe.proto.caffe_pb2.BlobProto()
    blob.ParseFromString(f.read())
    arr = np.array( caffe.io.blobproto_to_array(blob) )
    print(arr.shape)
    out = arr[0]
    data = np.array(blob.data).reshape([blob.channels, blob.height, blob.width])
    print (data.shape)
    print(data[0])
 #display the mean image
 from PIL import Image
 from IPython.display import Image as Im, display
 display(Image.fromarray(data[0], 'RGB'))

который выводит:

(1, 3, 256, 256)
(3, 256, 256)

Я понял, что файл содержит средства, а изображения, о которых мы говорим, представляют собой трехканальные изображения, поэтому для каждого канала есть среднее значение.

Однако я ожидал одно значение для каждого канала, вместо этого я нашел массив 256x256: означает ли это, что было взято среднее значение для каждого пикселя каждого канала?

Другой вопрос заключается в следующем: я хочу использовать такой NN с OpenCV, который вместо RGB использует BGR: Как узнать, использует ли среднее 3x256x256 RGB или BGR?

Ссылка на модель: эта. Модель, на которую я смотрю, содержится в zip-файле CNRPark-Trained-Models.zip в папке: mAlexNet-on-CNRPark.


Ответы:


1

Однако я ожидал одно значение для каждого канала, вместо этого я нашел массив 256x256: означает ли это, что среднее значение для каждого пикселя каждого канала?

В яблочко. Согласно форме mean.binaryproto, этот файл представляет собой среднее изображение некоторого набора данных, а это означает, что он брал среднее значение каждого пикселя (функции) для каждого канала.

Это не следует путать со средним пикселем, который, как вы сказали, является единственным значением для каждого канала.

Например, средний пиксель был принят в очень глубоких сверточных сетях для крупномасштабного распознавания изображений. Согласно их газете:

Единственная предварительная обработка, которую мы делаем, — это вычитание среднего значения RGB, вычисленного на тренировочном наборе, из каждого пикселя.

Другими словами, если вы рассматриваете изображение RGB как 3 массива объектов размером N x N, среднее значение изображения будет средним значением каждого объекта, а среднее значение пикселя будет средним значением все функции.


Другой вопрос заключается в следующем: я хочу использовать такой NN с OpenCV, который вместо RGB использует BGR: Как узнать, использует ли среднее 3x256x256 RGB или BGR?

Я сомневаюсь, что двоичный файл, который вы читаете, хранит какую-либо информацию о своем цветовом формате, но практический способ выяснить это — построить это изображение, используя matplotlib, и посмотреть, имеют ли цвета смысл.

Например, изображения лиц. Если поменять местами красный и синий каналы, оттенок кожи будет выглядеть голубоватым.

введите здесь описание изображения

На самом деле изображение выше является примером среднего изображения (изображения лица) :)

Вы также можете предположить, что это BGR, поскольку OpenCV использует этот цветовой формат.

Однако правильный способ узнать, как был сгенерирован этот mean.binaryproto, — просмотреть их репозитории или спросить владельца модели.

07.11.2018
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..