Nano Hash - криптовалюты, майнинг, программирование

Удалите обработанные исходные файлы после завершения AWS Datapipeline.

Третья сторона отправляет мне ежедневную загрузку файлов журналов в корзину S3. Я пытаюсь использовать DataPipeline, чтобы преобразовать их в немного другой формат с помощью awk, поместить новые файлы обратно на S3, а затем отодвинуть исходные файлы в сторону, чтобы завтра мне не пришлось снова обрабатывать одни и те же файлы.

Есть ли чистый способ сделать это? В настоящее время моя команда оболочки выглядит примерно так:

#!/usr/bin/env bash
set -eu -o pipefail

aws s3 cp s3://example/processor/transform.awk /tmp/transform.awk

for f in "${INPUT1_STAGING_DIR}"/*; do
  basename=${f//+(*\/|.*)}
  unzip -p "$f" | awk -f /tmp/transform.awk | gzip > ${OUTPUT1_STAGING_DIR}/$basename.tsv.gz
done

Я мог бы использовать инструмент aws cli, чтобы перемещать исходный файл в сторону при каждой итерации цикла, но это кажется ненадежным — если мой цикл завершается на полпути обработки, эти более ранние файлы будут потеряны.


Ответы:


1

Несколько возможных решений:

  1. Создайте триггер в своем ведре s3. Всякий раз, когда какой-либо объект добавляется в ведро --> вызывайте лямбда-функцию, которая может быть скриптом Python, выполняющим преобразование --> копирует обратно в другое ведро. Теперь в этом другом сегменте снова вызывается лямбда-функция, которая удаляет файл из первого сегмента.

  2. Я лично чувствую; то, чего вы достигли, достаточно хорошо. Все, что вам нужно, это обработка исключений в сценарии оболочки и удаление файла (никогда не теряйте данные) ТОЛЬКО, когда выходной файл успешно создан (возможно, вы также можете проверить размер выходного файла)

27.07.2017
  • С (2) я беспокоюсь, что полагаюсь на OUTPUT1_STAGING_DIR для синхронизации моих файлов обратно на S3 в конце запуска, и поэтому могу потерять их, если мой конвейер остановится на полпути. Или OUTPUT1_STAGING_DIR является фактическим монтированием S3, и все, что там написано, синхронно доступно в целевом сегменте S3? 28.07.2017
  • Новые материалы

    Кластеризация: более глубокий взгляд
    Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

    Как написать эффективное резюме
    Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

    Частный метод Python: улучшение инкапсуляции и безопасности
    Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

    Как я автоматизирую тестирование с помощью Jest
    Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

    Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
    Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

    Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
    В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

    Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
    В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..