Nano Hash - криптовалюты, майнинг, программирование

В чем разница между слоями SeparableConv2D и Conv2D?

Я не нашел четкого ответа на этот вопрос в Интернете (извините, если он существует). Я хотел бы понять разницу между двумя функциями (SeparableConv2D и Conv2D), шаг за шагом, например, с входным набором данных (3,3, 3) (как изображение RGB).

Запуск этого скрипта на основе Keras-Tensorflow:

import numpy as np
from keras.layers import Conv2D, SeparableConv2D
from keras.models import Model
from keras.layers import Input

red   = np.array([1]*9).reshape((3,3))
green = np.array([100]*9).reshape((3,3))
blue  = np.array([10000]*9).reshape((3,3))

img = np.stack([red, green, blue], axis=-1)
img = np.expand_dims(img, axis=0)

inputs = Input((3,3,3))
conv1 = SeparableConv2D(filters=1, 
              strides=1, 
              padding='valid', 
              activation='relu',
              kernel_size=2, 
              depth_multiplier=1,
              depthwise_initializer='ones',
              pointwise_initializer='ones',
              bias_initializer='zeros')(inputs)

conv2 = Conv2D(filters=1, 
              strides=1, 
              padding='valid', 
              activation='relu',
              kernel_size=2, 
              kernel_initializer='ones', 
              bias_initializer='zeros')(inputs)

model1 = Model(inputs,conv1)
model2 = Model(inputs,conv2)
print("Model 1 prediction: ")
print(model1.predict(img))
print("Model 2 prediction: ")
print(model2.predict(img))
print("Model 1 summary: ")
model1.summary()
print("Model 2 summary: ")
model2.summary()

У меня такой вывод:

Model 1 prediction:
 [[[[40404.]
   [40404.]]
  [[40404.]
   [40404.]]]]
Model 2 prediction: 
[[[[40404.]
   [40404.]]
  [[40404.]
   [40404.]]]]
Model 1 summary: 
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_1 (InputLayer)         (None, 3, 3, 3)           0         
_________________________________________________________________
separable_conv2d_1 (Separabl (None, 2, 2, 1)           16        
=================================================================
Total params: 16
Trainable params: 16
Non-trainable params: 0
_________________________________________________________________
Model 2 summary: 
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_1 (InputLayer)         (None, 3, 3, 3)           0         
_________________________________________________________________
conv2d_1 (Conv2D)            (None, 2, 2, 1)           13        
=================================================================
Total params: 13
Trainable params: 13
Non-trainable params: 0

Я понимаю, как Keras вычисляет прогноз Conv2D модели 2, благодаря этому сообщению, но может ли кто-нибудь объяснить, пожалуйста, вычисление SeperableConv2D предсказания модели 1 и его количество параметров (16)?


Ответы:


1

Поскольку Keras использует Tensorflow, вы можете проверить разницу в API Tensorflow.

conv2D - это традиционная свертка. Итак, у вас есть изображение с заполнением или без него и фильтр, который скользит по изображению с заданным шагом.

С другой стороны, SeparableConv2D представляет собой вариант традиционного свертка, которая была предложена для ее более быстрого вычисления. Он выполняет пространственную свертку по глубине, за которой следует точечная свертка, которая смешивает полученные выходные каналы. MobileNet, например, использует эту операцию для более быстрого вычисления сверток.

Я мог бы объяснить обе операции здесь, однако в этом сообщении есть очень хорошее объяснение с использованием изображений и видео, которое я настоятельно рекомендую вам прочитать.

Надеюсь, это было полезно.

15.02.2019
  • Спасибо, что поделились этим, это помогает понять SeparableConv2D. Я пришел к выводу, что не инициализировал глубинную и точечную части для моей разделяемой свертки, поэтому я получаю разные прогнозы ... Извините 15.02.2019
  • Надеюсь, ты меня просветишь! Я прочитал несколько руководств, и в них говорится, что SeparableConv2D в основном используется для обучения работе с небольшими устройствами, такими как камеры, роботы, ... поскольку у них есть ограничения в оборудовании. Так что, если они используют SeparableConv2D вместо традиционного Conv2D во всех моделях? Есть ли у традиционного способа свои плюсы? Tks 22.07.2021
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..