Nano Hash - криптовалюты, майнинг, программирование

Как разделить файл последовательности в Spark

Я новичок в Spark и пытаюсь прочитать файл последовательности и использовать его в задаче классификации. Вот как я читаю файл последовательности

  val tfidf = sc.sequenceFile("/user/hadoop/strainingtesting/tfidf-vectors", classOf[Text], classOf[VectorWritable])

Я не знаю, как разделить каждую строку файла последовательности на вкладку? то есть как получить значение Text?

Как я могу использовать его для классификатора NAiveBayes в Mllib?

30.07.2015

Ответы:


1

sc.sequenceFile возвращает RDD кортежей ключ/значение (объекты Tuple2 в Scala). Поэтому, если вам просто нужен RDD текста, вы можете сделать map, чтобы просто подобрать ключи в каждой строке файла.

val text = tfidf.map(_._1)

Наивный байесовский алгоритм ожидает на входе СДР помеченных векторов. И поскольку не существует тривиального способа конвертировать ваши объекты VectorWritable, возможно, вы можете использовать утилиту векторного дампа mahout для фактического преобразования ваших файлов последовательности в текстовые файлы. А потом читать в искру.

mahout vectordump \
-i /user/hadoop/strainingtesting/tfidf-vectors \
-d /user/hadoop/strainingtesting/dictionary.file-\* \
-dt sequencefile -c csv -p true \
-o /user/hadoop/strainingtesting/tf-vectors.txt

А теперь прочитайте текстовые файлы в Spark с помощью sc.textFile и выполните необходимые преобразования.

30.07.2015
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..