Nano Hash - криптовалюты, майнинг, программирование

минимальный размер изображения текстуры для эффективной классификации

Я новичок в интеллектуальном анализе изображений. Я хотел бы знать минимальный размер, необходимый для эффективной классификации текстурированных изображений. Как я чувствую, если изображение слишком маленькое, шаг извлечения признаков не будет извлекать достаточное количество признаков. И если размер изображения выходит за пределы определенного размера, время обработки будет экспоненциально увеличиваться с размером изображения.

12.11.2011

  • Это зависит от того, какую текстуру вы хотите создать. Минимальный размер 3x3 пикселя, я думаю, что лучше всего 40x40 px. И немного больше, но также нормально 400x400px. Важно! Если вы используете 40x40 px или 100x1 px, это всегда будет зависеть от типа текстуры, поэтому нет фиксированного минимального размера. требуется для эффективной классификации текстурированных изображений. 12.11.2011

Ответы:


1

Это сложный вопрос, требующий некоторого размышления.

Короткий ответ: это зависит от обстоятельств.

Длинный ответ: это зависит от типа текстуры, которую вы хотите классифицировать, и типа функции, на которой основана ваша классификация. Если извлекаемая функция, скажем, только для цвета, вы можете использовать «текстуру» размером 1x1 пиксель (в этом случае использование слова «текстура» немного злоупотребляет). Если вы хотите классифицировать, скажем, символы, вы обычно можете извлечь много локальной информации из ребер (Hough преобразования, фильтры Габора и т. д.). Просто плоскость изображения должна быть достаточно большой, чтобы вместить символы (например, 16x16 пикселей для латинского алфавита). ).

Если вы хотите иметь возможность классифицировать любые изображения по любым числам, вы также можете основывать свою классификацию на глобальной информации, например энтропия, коррелограмма , энергия, инерция, кластерный оттенок, выделение кластера, цвет и корреляция. Эти функции используются для поиска изображений на основе содержания.

На первый взгляд, я бы попробовал использовать текстуру размером 32x32 пикселя, если тип используемой текстуры априори неизвестен. Напротив, если тип текстуры априори известен, я бы выбрал одну или несколько функций, которые, как я знаю, будут классифицировать изображения в соответствии с моими потребностями (1x1 пиксель только для цвета, 16x16 пикселей для символов). , и т.д). Опять же, это действительно зависит от того, чего вы пытаетесь достичь. На ваш вопрос нет однозначного ответа.

12.11.2011
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..