Nano Hash - криптовалюты, майнинг, программирование

Доступ к файлу в качестве аргумента для драйвера PySpark - Google Dataproc Jobs

В рамках PySpark Job on gcloud dataproc у нас есть несколько файлов, один из них — json, который передается в файл python драйвера. Сам файл драйвера находится в хранилище Google (файловая система gs).

Мы пытаемся отправить это задание с помощью gcloud dataproc API для Python.

Конфигурация, используемая для объекта задания в submit_job – это:

job_details = {
        'placement': {
            'cluster_name': cluster_name
        },
        'pyspark_job': {
            'main_python_file_uri': 'gs://driver_file.py',
            'python_file_uris':['gs://package.whl'],
            'file_uris':['gs://config.json'],
            'args':['gs://config.json']
        }
    }

Насколько я понимаю из этого, config.json должен быть доступен драйверу, что gcloud правильно делает из журналов - Downloading gs://config.json to /tmp/tmprandomnumber/fop_gcp_1.json

Из file_uris документа страница документации gcloud это кажется правильным-

URI файлов HCFS для копирования в рабочий каталог драйверов Python и распределенных задач. Полезно для наивно параллельных задач.

Теперь, после долгих отладок, мы наткнулись на SparkFiles.get('config.json'), который предназначен для получения файлов, загруженных в драйвер, на основе этого вопрос

Но это также не работает с [Errno 2] No such file or directory: '/hadoop/spark/tmp/spark-random-number/userFiles-random-number/config.json'


Ответы:


1

Хорошо понял, выкладываю, чтобы кому-нибудь помочь!

Используйте SparkContext.addFile -

Добавьте файл для загрузки с этим заданием Spark на каждом узле.

SparkContext.addFile(config_file_name)

А потом простой

from pyspark import SparkFiles
SparkFiles.get(config_file_name)

Примечание. Все это можно сделать только после инициализации SparkContext в вашем коде.

14.04.2020
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..