Nano Hash - криптовалюты, майнинг, программирование

Что касается графического конвейера

В графическом конвейере после того, как приходит вершинный шейдер, сборка примитивов->Отсечение для усеченной видимости->нормализованные координаты устройства->преобразование области просмотра.

Теперь в вершинном шейдере мы умножаем координаты объекта на представление модели и матрицу проекции. " Матрица проекции преобразует вершины в координатах вида в канонический объем вида (куб со сторонами 2 2 2, центрированный в начале координат и выровненный по трем координатным осям). Как правило, это будет либо орфографическая проекция или перспективная проекция. Это преобразование включает умножение на матрицу преобразования проекции с последующей нормализацией каждой вершины, вычисленной путем деления каждой вершины на ее собственную координату w. "

Теперь, если это делается только в вершинном шейдере, почему он идет после части вершинного шейдера в конвейере, не должен ли он быть просто частью вершинного шейдера? Если нет, то каков результат проекционной матрицы, умноженной на координаты вершин?

16.11.2013

Ответы:


1

Я не уверен, что понимаю ваш вопрос, но после того, как вы умножите свои точки на представление модели и матрицу проекции в вершинном шейдере, ваши точки будут в координатах клипа. Это сделано потому, что теперь графическое оборудование может определять, какие объекты могут быть видны, а какие нет. Это называется отсечением и представляет собой отдельный шаг после вершинного шейдера. После этого он выполняет перспективное деление (делит координаты xyz на однородную координату w, это жестко запрограммировано внутри графического процессора), чтобы получить нормализованные координаты устройства [-1, 1].

16.11.2013
  • Итак, канонический объем [-1,1] не является результатом умножения на матрицу проекции? 17.11.2013
  • @debonair: Нет, вы получаете эти координаты после деления перспективы. Но это результат умножения на матрицу проекции, что точки внутри [-1, 1] будут видны на экране. 17.11.2013
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..