Я выбираю службы для написания и преобразования сообщений JSON из Cloud Pub / Sub в BigQuery для конвейера данных в Google Cloud. Я хочу минимизировать затраты на обслуживание. Я также хочу отслеживать и учитывать объем входных данных, который будет различаться по размеру при минимальном ручном вмешательстве. Что я должен делать?
A. Используйте Cloud Dataproc для выполнения ваших преобразований. Следите за загрузкой ЦП для кластера. Измените количество рабочих узлов в вашем кластере через командную строку.
Б. Используйте Cloud Dataproc для выполнения преобразований. Используйте команду Diagnose для создания рабочего выходного архива. Найдите узкое место и настройте ресурсы кластера.
C. Используйте Cloud Dataflow для выполнения ваших преобразований. Контролируйте отставание системы заданий с помощью Stackdriver. Используйте настройку автомасштабирования по умолчанию для рабочих экземпляров.
D. Используйте Cloud Dataflow для выполнения ваших преобразований. Следите за общим временем выполнения для выборки заданий. При необходимости настройте задание для использования типов компьютеров Compute Engine, отличных от используемых по умолчанию.