Nano Hash - криптовалюты, майнинг, программирование

Причины конфигурации входа Все серверные службы находятся в НЕЗДОРОВНОМ состоянии

Я настраиваю экземпляр Janusgraph с Kubernetes на GKE, и мой внутренний балансировщик нагрузки работает нормально. Однако при использовании Ingress для предоставления доступа к конечной точке https я не могу разрешить следующий статус:

All backend services are in UNHEALTHY state

Конфигурация моей службы:

apiVersion: v1
kind: Service
metadata:
  creationTimestamp: "2020-04-24T05:53:47Z"
  labels:
    app: janusgraph
    chart: janusgraph-0.2.1
    heritage: Tiller
    release: janusgraph
  name: janusgraph-service
  namespace: default
  resourceVersion: "476142"
  selfLink: /api/v1/namespaces/default/services/janusgraph-service
  uid: f6c80efa-85ef-11ea-983b-42010a960015
spec:
  clusterIP: 10.43.250.31
  externalTrafficPolicy: Cluster
  ports:
  - nodePort: 31038
    port: 8182
    protocol: TCP
    targetPort: 8182
  selector:
    app: janusgraph
    release: janusgraph
  sessionAffinity: None
  type: LoadBalancer
status:
  loadBalancer:
    ingress:
    - ip: 35.236.228.15

Моя конфигурация Ingress:

apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  annotations:
    ingress.kubernetes.io/backends: '{"k8s-be-31038--126ca7f10f7eb9fb":"Unknown"}'
    ingress.kubernetes.io/forwarding-rule: k8s-fw-default-dispatchdqs--126ca7f10f7eb9fb
    ingress.kubernetes.io/target-proxy: k8s-tp-default-dispatchdqs--126ca7f10f7eb9fb
    ingress.kubernetes.io/url-map: k8s-um-default-dispatchdqs--126ca7f10f7eb9fb
  creationTimestamp: "2020-04-24T06:48:39Z"
  generation: 1
  name: dispatchdqs
  namespace: default
  resourceVersion: "492988"
  selfLink: /apis/extensions/v1beta1/namespaces/default/ingresses/dispatchdqs
  uid: a1641ba9-85f7-11ea-9f9f-42010a960046
spec:
  backend:
    serviceName: janusgraph-service
    servicePort: 8182
status:
  loadBalancer:
    ingress:
    - ip: 35.201.92.97

Заранее благодарны за Вашу помощь.


  • Какой Ingress вы хотите использовать? GKE Ingress или Nginx Ingress? Если вы хотите использовать вход GKE, служба должна быть type: NodePort. Если вы хотите использовать Nginx Ingress, вам необходимо указать аннотацию, например kubernetes.io/ingress.class: "nginx". Вы создали Ingress из YAML или развернули его, например, с помощью helm? Я упоминал о GKE и Nginx Ingress в этой теме: stackoverflow.com/a/59875640/11148139 24.04.2020
  • Спасибо @PjoterS. Я хочу использовать GKE Ingress. Я создал Ingress из YAML, созданного онлайн-консолью. Сервис был создан из helm. 24.04.2020
  • не могли бы вы предоставить руководство / диаграмму, которая использовалась для развертывания? Я хотел бы воспроизвести это на своем env. Также не могли бы вы предоставить журналы для устранения неполадок? 04.05.2020

Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..