Nano Hash - криптовалюты, майнинг, программирование

Управление потоковой передачей файлов Spark

Я использую Spark для чтения текстовых файлов из папки и загрузки их в куст.

Интервал подачи искры 1 мин. Исходная папка может иметь 1000 файлов большего размера в редких случаях.

Как управлять потоковой передачей искры, чтобы ограничить количество файлов, читаемых программой? В настоящее время моя программа читает все файлы, созданные за последнюю минуту. Но я хочу контролировать количество файлов, которые он читает.

Я использую API textFileStream.

    JavaDStream<String> lines = jssc.textFileStream("C:/Users/abcd/files/");

Есть ли способ контролировать скорость потоковой передачи файлов?


Ответы:


1

Я боюсь, не. Паровая обработка Spark основана на управлении временем. Вы можете использовать Flink, который обеспечивает управление данными.

https://ci.apache.org/projects/flink/flink-docs-release-1.2/concepts/programming-model.html#windows

28.02.2017

2

Вы можете использовать "spark.streaming.backpressure.enabled" и "spark.streaming.backpressure.initialRate" для управления скоростью получения данных!!!

28.02.2017
  • Разве это не противодавление для Kakfa Streaming? Можете ли вы привести пример того, как это сделать? 28.02.2017
  • Это искровые конфиги, что видно из названия spark.streaming.backpressure!!! Он отлично работает с кафкой. Другие источники я не проверял. 01.03.2017
  • spark.streaming.kafka.maxRatePerPartition — это тип конфигураций, специфичный для kafka. 01.03.2017

  • 3

    Если ваши файлы являются CSV-файлами, вы можете использовать структурированную потоковую передачу для чтения файлов в потоковый DataFrame с помощью maxFilesPerTrigger следующим образом:

    import org.apache.spark.sql.types._
    val streamDf = spark.readStream.option("maxFilesPerTrigger", "10").schema(StructType(Seq(StructField("some_field", StringType)))).csv("/directory/of/files")
    
    30.01.2020
    Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..