Nano Hash - криптовалюты, майнинг, программирование

Служба FileBeat не запускается из-за конфигурации yml

Это мой файл filebeat.yml… я получаю сообщение об ошибке: 1053 всякий раз, когда я запускаю службу filebeat. может быть какая-то ошибка я делаю в этом файле, пожалуйста, поправьте меня, где я ошибаюсь.

###################### Filebeat Configuration Example #########################

# This file is an example configuration file highlighting only the most common
# options. The filebeat.full.yml file from the same directory contains all the
# supported options with more comments. You can use it as a reference.
#
# You can find the full configuration reference here:
# https://www.elastic.co/guide/en/beats/filebeat/index.html

#=========================== Filebeat prospectors =============================

filebeat.prospectors:

# Each - is a prospector. Most options can be set at the prospector level, so
# you can use different prospectors for various configurations.
# Below are the prospector specific configurations.



  # Paths that should be crawled and fetched. Glob based paths.
 paths:
- E:\ELK-STACK\logstash-tutorial-dataset.log
input_type: log
document_type: apachelogs
  # document_type: apachelogs



   #paths:
   # - E:\ELK-STACK\mylogs.log
  #fields: {log_type: mypersonal-logs}
       #- C:\Logs\GatewayService\GatewayService-Processor.Transactions-20170810
   # - C:\ECLIPSE WORKSPACE\jcgA1\jcgA1\logs-logstash.*
  # Exclude lines. A list of regular expressions to match. It drops the lines that are
  # matching any regular expression from the list.
  #exclude_lines: ["^DBG"]

  # Include lines. A list of regular expressions to match. It exports the lines that are
  # matching any regular expression from the list.
  #include_lines: ["^ERR", "^WARN"]

  # Exclude files. A list of regular expressions to match. Filebeat drops the files that
  # are matching any regular expression from the list. By default, no files are dropped.
  #exclude_files: [".gz$"]

  # Optional additional fields. These field can be freely picked
  # to add additional information to the crawled log files for filtering
  #fields:
  #  level: debug
  #  review: 1

  ### Multiline options

  # Mutiline can be used for log messages spanning multiple lines. This is common
  # for Java Stack Traces or C-Line Continuation

  # The regexp Pattern that has to be matched. The example pattern matches all lines starting with [
  #multiline.pattern: ^\[

  # Defines if the pattern set under pattern should be negated or not. Default is false.
  #multiline.negate: false

  # Match can be set to "after" or "before". It is used to define if lines should be append to a pattern
  # that was (not) matched before or after or as long as a pattern is not matched based on negate.
  # Note: After is the equivalent to previous and before is the equivalent to to next in Logstash
  #multiline.match: after


#================================ General =====================================

# The name of the shipper that publishes the network data. It can be used to group
# all the transactions sent by a single shipper in the web interface.
#name:

# The tags of the shipper are included in their own field with each
# transaction published.
#tags: ["service-X", "web-tier"]

# Optional fields that you can specify to add additional information to the
# output.
#fields:
#  env: staging

#================================ Outputs =====================================

# Configure what outputs to use when sending the data collected by the beat.
# Multiple outputs may be used.

#-------------------------- Elasticsearch output ------------------------------
#output.elasticsearch:
  # Array of hosts to connect to.
 # hosts: ["localhost:9200"]

  # Optional protocol and basic auth credentials.
  #protocol: "https"
  #username: "elastic"
  #password: "changeme"

#----------------------------- Logstash output --------------------------------
output.logstash:
  # The Logstash hosts
  hosts: ["localhost:5043"]

  # Optional SSL. By default is off.
  # List of root certificates for HTTPS server verifications
  #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]

  # Certificate for SSL client authentication
  #ssl.certificate: "/etc/pki/client/cert.pem"

  # Client Certificate Key
  #ssl.key: "/etc/pki/client/cert.key"

#================================ Logging =====================================

# Sets log level. The default log level is info.
# Available log levels are: critical, error, warning, info, debug
#logging.level: debug

# At debug level, you can selectively enable logging only for some components.
# To enable all selectors use ["*"]. Examples of other selectors are "beat",
# "publish", "service".
#logging.selectors: ["*"]

На самом деле то, что я пытаюсь сделать, это то, что я пытаюсь использовать несколько журналов с указанием «document_type», если я удалю «document_type», тогда он будет работать, но почему «document_type» (поскольку я вижу, что это устарело в filebeat 5.5) или «fields» в нем не работает.

пожалуйста помоги.

22.08.2017

  • Убедитесь, что ваше поле yml правильно отформатировано: yaml-online-parser.appspot.com 22.08.2017
  • @Val да, я внес определенные изменения, и теперь он правильно отформатирован, и снова показывает ошибку при запуске службы. 22.08.2017
  • Вывод: - {output.logstash: {hosts: [localhost: 5043]}, filebeat.prospectors: {-input_type: log, пути: [E: \\ ELK-STACK \\ logstash-tutorial-dataset.log]}, document_type: apachelogs} 22.08.2017

Ответы:


1

У вас есть синтаксическая ошибка в вашем файле конфигурации. Ключам filebeat.prospectors требуется значение массива, но вместо этого вы передаете ему хеш.

К тому же у вас проблемы с отступами.

Это исправленная версия вашего конфигурационного файла (без комментариев для краткости)

filebeat.prospectors:
-
  paths:
  - E:\ELK-STACK\logstash-tutorial-dataset.log
  input_type: log
  document_type: apachelogs
output.logstash:
  hosts: ["localhost:5043"]
23.08.2017
  • спасибо, сработало !! Теперь у меня есть еще один вопрос. У меня аутентичные неструктурированные журналы моего проекта ... как я могу применить к нему шаблон Grok, поскольку он не соответствует тому же шаблону в нем. 25.08.2017
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..