Nano Hash - криптовалюты, майнинг, программирование

Использование Java со структурированной потоковой передачей Spark для обработки данных JSON из Kafka

Я должен создать компонент Spark, который подписывается на темы, получает данные в формате JSON, применяет указанные пользователем запросы к данным и в конечном итоге записывает результаты в другую тему Kafka. С моим нынешним пониманием и исследованиями я пришел к следующему скелету реализации:

SparkSession spark = SparkSession
        .builder()
        .appName("StructuredStreamingTest")
        .master("local[*]")
        .getOrCreate();

// Take a batch of data to infer the schema
Dataset<String> sample = spark
                  .read()
                  .format("kafka")
                  .option("kafka.bootstrap.servers", "localhost:9092")
                  .option("subscribe", mytopic)
                  .load()
                  .selectExpr("CAST(value AS STRING)")
                  .as(Encoders.STRING());

StructType sch = spark.read().json(sample).schema();

// The actual stream
Dataset<String> lines = spark
              .readStream()
              .format("kafka")
              .options(kafkaParams)
              .option(subscribeType, topics)
              .load()
              .selectExpr("CAST(value AS STRING)")
              .as(Encoders.STRING());

Это должно вернуть объект набора данных (я полагаю, Dataframe в Scala) со столбцом «значение» и фрагментом данных JSON под ним. Теперь фактический вопрос заключается в том, как мы можем разобрать JSON в набор данных в соответствии со схемой, которую мы получили выше, сделать и SQL запросить данные в формате одной строки, преобразовать полученный набор данных обратно в JSON и записать его в Kafka?

РЕДАКТИРОВАТЬ: Действительно ли это дубликат, поскольку указанный пост находится в Scala?


  • Вы нашли какое-либо решение для этого? 26.11.2019

Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..