Nano Hash - криптовалюты, майнинг, программирование

в чем разница между kafka ProducerRecord и KeyedMessage

Я измеряю производительность продюсера кафки. В настоящее время я встречал двух клиентов с немного разной конфигурацией и использованием:

Общий:

def buildKafkaConfig(hosts: String, port: Int): Properties = {
  val props = new Properties()    
  props.put("metadata.broker.list", brokers)
  props.put("serializer.class", "kafka.serializer.StringEncoder")
  props.put("producer.type", "async") 
  props.put("request.required.acks", "0")
  props.put("queue.buffering.max.ms", "5000")
  props.put("queue.buffering.max.messages", "2000")
  props.put("batch.num.messages", "300")
  props
}

Первый клиент:

"org.apache.kafka" % "kafka_2.11" % "0.8.2.2" 

Использование:

val kafkaConfig = KafkaUtils.buildKafkaConfig("kafkahost", 9092)
val producer = new Producer[String, String](new ProducerConfig(kafkaConfig))

// ... somewhere in code 
producer.send(new KeyedMessage[String, String]("my-topic", data))

Второй клиент:

"org.apache.kafka" % "kafka-clients" % "0.8.2.2"

Использование:

val kafkaConfig = KafkaUtils.buildKafkaConfig("kafkahost", 9092)
val producer = new KafkaProducer[String, String](kafkaConfig)
// ... somewhere in code 
producer.send(new ProducerRecord[String, String]("my-topic", data))

Мои вопросы:

  • В чем разница между 2 клиентами?
  • Какие свойства следует учитывать, чтобы достичь оптимальной производительности при записи с большим объемом операций записи для крупномасштабного приложения?

Ответы:


1

в чем разница между 2 клиентами?

Это просто старые и новые API. Kafka, начиная с 0.8.2.x, представил новый набор API для работы с kafka, более старый - Producer, который работает с KeyedMessage[K,V], где новый API - KafkaProducer с ProducerRecord[K,V]:

Начиная с выпуска 0.8.2 мы рекомендуем всем новым разработчикам использовать нового производителя Java. Этот клиент протестирован в производственной среде и, как правило, быстрее и полнее, чем предыдущий клиент Scala.

Желательно использовать новую поддерживаемую версию.

Какие свойства следует учитывать, чтобы достичь оптимальной производительности при записи с большим объемом операций записи для крупномасштабного приложения?

Это очень широкий вопрос, который во многом зависит от архитектуры вашего программного обеспечения. Это зависит от масштаба, количества производителей, количества потребителей и т. Д. Необходимо учитывать множество факторов. Я бы посоветовал просмотреть документацию и прочитать разделы, посвященные архитектуре и дизайну Kafka, чтобы получить Лучшее представление о том, как это работает внутри.

В общем, исходя из моего опыта, вам необходимо сбалансировать коэффициент репликации ваших данных, а также время хранения и количество разделов, в которые помещается каждая очередь. Если в будущем у вас возникнут более конкретные вопросы, вам обязательно стоит задать вопрос.

14.03.2016
  • Спасибо за краткий ответ. По поводу свойств и проблем с производительностью я перефразирую более конкретный вопрос в другой ветке. Изначально я интегрировал KafkaProducer в свое приложение, но возникли проблемы с производительностью и памятью. Также я подозревал, что теряю сообщения, не зная об этом 15.03.2016
  • @Julias Не забудьте связать этот вопрос. Я посмотрю. 15.03.2016
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..