Nano Hash - криптовалюты, майнинг, программирование

В каких сценариях имеет смысл использовать одну конечную точку AWS VPC для нескольких RestAPI?

Основываясь на документации, я знаю, что одну конечную точку VPC можно использовать для нескольких RestAPI шлюза API (частные).

Каждую конечную точку можно использовать для доступа к нескольким частным API.

https://docs.aws.amazon.com/apigateway/latest/developerguide/apigateway-private-apis.html

Этот вариант интересен тем, что (я считаю) он дает возможность минимизировать ненужные ресурсы. Например, скажем, у меня есть 50 частных микросервисов, и каждый из них находится за выделенным RestAPI. Если я повторно использую конечную точку VPC для всех 50 API, то, возможно, я смогу упростить URL-адреса, предоставляемые разработчикам / потребителям API. Другими словами, если я создаю выделенную конечную точку VPC для каждого RestAPI, это означает, что потребители API должны понимать гораздо больше конфигураций конечной точки VPC. Это верно?

Когда именно имеет смысл предоставлять общий доступ к конечным точкам VPC?

Когда нет смысла делиться конечными точками VPC?

Любые идеи приветствуются. Просто надеюсь получить некоторую информацию, чтобы понять, нужно ли создавать уникальные конечные точки VPC для RestAPI.


Ответы:


1

Конечная точка VPC на самом деле просто предоставляет ресурсам вашего VPC доступ к сервису AWS API Gateway. Это позволяет ресурсам в вашем VPC получать доступ к любым API, управляемым API Gateway. Очень редко вам нужно создавать более одного из них для каждого VPC. Единственная причина, по которой я могу придумать более одного, - это если у вас есть сложная конфигурация VPC, в которой определенным подсетям нужен доступ к API, а различным подсетям нужен доступ к другому API, и вы хотели управлять этим доступом через таблицы маршрутов VPC.

19.06.2020
  • Хорошо, отлично, поэтому, исходя из этого, ваше высказывание: для нескольких RestAPI, вероятно, использование одного VPC и одной конечной точки VPC для всех RestAPI является наиболее оптимальной настройкой, верно? Или хотя бы более распространенный? 20.06.2020
  • Другими словами, это звучит как хорошее практическое правило для набора частных микросервисов - использовать одну конечную точку VPC с одним VPC. Пожалуйста, поправьте меня, если я ошибаюсь. 20.06.2020
  • Может ли конечная точка vpc быть достигнута on prem через прямое соединение? 24.06.2020
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..