Я новичок в Spark и пытаюсь прочитать файл последовательности и использовать его в задаче классификации. Вот как я читаю файл последовательности
val tfidf = sc.sequenceFile("/user/hadoop/strainingtesting/tfidf-vectors", classOf[Text], classOf[VectorWritable])
Я не знаю, как разделить каждую строку файла последовательности на вкладку? то есть как получить значение Text?
Как я могу использовать его для классификатора NAiveBayes в Mllib?